当前位置:网站首页> 资讯 > AI > 浏览文章

元象开源高性能大模型 XVERSE-65B-2 底座版,实力超越多方开源标杆

来源: 网络 时间: 2023-12-20 阅读:

本文关键词开源,性能,模型,是栏目AI为您推荐的文章,文章地址是:https://www.androidtea.com/news/ai/46256.htm,希望您看完后能将地址分享给需要的人.

12月19日消息:元象宣布开源其高性能大模型 XVERSE-65B-2 底座版,通过专项提升代码和数学能力,保持了上一代强大的生成创作、角色扮演与工具使用等能力。这一大模型被定位为“文理兼修、大有可为”,为生态系统注入新的活力。

在上一代的基础上,XVERSE-65B-2通过综合优化器状态、学习率调节策略和采样比进行了 Continual Pre-Training,训练 token 总量达到了3.2万亿。该模型支持40多种语言,包括中文、英文、俄文和法文,上下文窗口为16K。

元象大模型系列一直坚持“高性能”定位。在参考了一系列权威学术测评制定的六个维度和11项主流测评标准后,XVERSE-65B-2在80%的测评中超越了GPT3.5,全面领先于开源标杆Llama2-70B和Falcon-180B,尽管仍与GPT4存在差距。

最新发布的 SuperCLUE 中文通用大模型综合测评中,XVERSE-65B 在1052道多轮简答题和3213道客观选择题测试中表现出众,总分排名国内开源模型第一。

相较于7B和13B,65B显著提升了大模型的理解、生成、逻辑和记忆等能力,使其能够处理更多样、更困难的任务,如构建智能体(AI Agent)。通过高质量数据与搜索增强,该模型极大地降低了模型幻觉问题的发生率。

截至目前,元象已经开源了包括70亿、130亿和650亿参数的三款大模型,其中XVERSE-65B是国内最早开源、参数最大的免费商用模型。对于该项目,感兴趣的用户可在Github(https://github.com/xverse-ai/XVERSE-65B)、Hugging Face(https://huggingface.co/xverse/XVERSE-65B-2)以及ModelScope魔搭(https://modelscope.cn/models/xverse/XVERSE-65B-2)找到详细信息。

安卓茶网提示您:阅读最大的好处是可以丰富别人偷不走,抢不掉的知识。如果您觉得本文元象开源高性能大模型 XVERSE-65B-2 底座版,实力超越多方开源标杆对您或周围的人有帮助,请将本文分享出去,让更多的人得到帮助.

相关内容

热点阅读