小红书开源了首个大模型dots.llm1,小红书方面表示,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。
小红书开源了首个大模型dots.llm1,小红书方面表示,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。
Fastdata极数是一家具备全球服务与竞争力能力的数字技术服务与数据研究分析公司
18510809459
guoliang@ifastdata.com
北京市经济技术开发区凯王共和商务花园
Copyright © Fastdata极数 津ICP备2020008040号-1