DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5

时间:2024-04-07 06:01 来源: IT之家

IT之家 3 月 28 日消息,初创公司 Databricks 近日发布公告,推出了开源 AI 模型 DBRX,声称是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。

DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5

DBRX 采用 transformer 架构,包含 1320 亿参数,共 16 个专家网络组成,每次推理使用其中的 4 个专家网络,激活 360 亿参数。

Databricks 在公司博客文章中介绍,在语言理解、编程、数学和逻辑方面,对比 Meta 公司的 Llama 2-70B、法国 MixtralAI 公司的 Mixtral 以及马斯克旗下 xAI 开发的 Grok-1 等主流开源模型,DBRX 均优势胜出。

DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5

图 1:DBRX 在语言理解 (MMLU)、编程 (HumanEval) 和数学 (GSM8K) 方面的表现优于已有的开源模型。

语言理解方面,DBRX 的分值为 73.7%,高于 GPT-3.5 的 70.0%、高于 Llama 2-70B 的 69.8%、Mixtral 的 71.4% 以及 Grok-1 的 73.0%。

Databricks 介绍,DBRX 是一个基于 MegaBlocks 研究和开源项目构建的混合专家模型 (MoE),因此每秒输出 token 的速度极快。Databricks 相信,这将为 MoE 未来最先进的开源模型铺平道路。

IT之家附上参考地址

  • Introducing DBRX: A New State-of-the-Art Open LLM

  • dbrx-base

  • databricks / dbrx

科技,人工智能,AI技术
免责声明:本文内容来自用户上传并发布或网络新闻客户端自媒体,易看资讯仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系删除。

« 上一篇:AI小白也能读懂NLP是啥?
» 下一篇:没有了