休闲

AI公司MosaicML推出70亿参数模子MPT

字号+ 作者:Ryan Hart网 来源:休闲 2024-11-21 01:27:08 我要评论(0)

AI 守业公司 MosaicML 克日宣告了其 70 亿参数模子 MPT-7B-8K,据悉,该模子一次可能处置 8000 字文本,至关长于从事长文重点摘要以及问答,还能在 MosaicML 平台上凭证

AI 守业公司 MosaicML 克日宣告了其 70 亿参数模子 MPT-7B-8K ,公司据悉,推出该模子一次可能处置 8000 字文本,亿参至关长于从事长文重点摘要以及问答,数模还能在 MosaicML 平台上凭证特界说务,公司进一步微调相关配置装备部署 。推出

据悉,亿参系列模子接管了 150 万个 Token,数模并以 256 块 H100 GPU 花 3 天实现模子磨炼而成 。公司MosaicML 本次宣告了 3 个版本模子 ,推出搜罗 MPT-7B-8k 、亿参MPT-7B-8k-Instruct 以及 MPT-7B-8k-Chat 。数模

其中,公司第一个版本 MPT-7B-8k、推出因此 Transformer 解码器为根基 ,亿参并以 FlashAttention 以及 FasterTransformer 机制来减速磨炼与推论  ,能一次处置 8000 字文本 ,MosaicML 公司展现 ,该模子开源、应承商用。

第二个版本 MPT-7B-8k-Instruct 因此第一个版本 MPT-7B-8k 微调而成 ,MosaicML 公司展现,MPT-7B-8k-Instruct 模子可处置长篇指令 ,特意看重于天生“摘要以及问答” ,该模子同样开源且可商用 。

第三个版本 MPT-7B-8k-Chat 则是机械人对于话式的 AI 模子 ,MosaicML 公司宣称,该模子格外多用了 15 亿个谈天数据 Token,在第一版模子 MPT-7B-8k 之上不断磨炼而成,该模子开源,但不应承商用 。

据此前报道,MosaicML 公司也推出了一款号称磨炼老本仅为竞品零头的 MPT-30B 开源模子,该公司日前已经将所有开源模子宣告于 Huggingface 平台,感兴趣的小过错们可从前往妨碍相关清晰,还可能在当地硬件上运用自己的数据 ,不才载后 ,对于模子妨碍种种微调。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 10队争4个淘汰赛名额!欧冠乱了,大巴黎赢球晋级,2豪门近乎出局

    10队争4个淘汰赛名额!欧冠乱了,大巴黎赢球晋级,2豪门近乎出局

    2024-11-21 00:16

  • NBA湖人129

    NBA湖人129

    2024-11-20 23:42

  • 利拉德留队?三方交易达成,格林前往开拓者,33+23中锋联手库里

    利拉德留队?三方交易达成,格林前往开拓者,33+23中锋联手库里

    2024-11-20 23:35

  • 赚大了!恭喜独行侠610万签下全能战士!他就是东契奇身边的超六

    赚大了!恭喜独行侠610万签下全能战士!他就是东契奇身边的超六

    2024-11-20 23:21

网友点评