您当前的位置: 首页 >  人工智能

互联网志

暂无认证

  • 0浏览

    0关注

    1585博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

人工智能开发的又一环节“AI模型”得到市场关注

互联网志 发布时间:2021-11-01 19:13:41 ,浏览量:0

  算法、数据、算力后,中国人工智能开发的又一环节“AI模型”得到市场关注。

  10月底,服务器公司浪潮信息发布了开源人工智能巨量模型“源1.0”,主要针对自然语言处理领域,即语言模型,意在吸引更多开发者进行人工智能自然语言应用探索。

  所谓语言模型,就是让机器理解并预测人类语言的技术。源、GPT-3被通称为 “大型语言模型”,指的是一种利用深度学习的算法,通过数千本书和互联网的大量文本进行训练,将单词和短语串在一起。

  2020年,美国人工智能非营利组织OpenAI曾发布GPT-3模型,参数量首次突破千亿大关,达到1750亿,采用570GB训练数据集,可以答题、翻译、写文章等,吸引了全球AI行业的目光。《麻省理工科技评论》就评价GPT-3:“人们认为可以写出任何东西:同人小说、哲学辩论、甚至代码。人们甚至就GPT-3是否是第一个通用人工智能展开争论。”

  自那以后,国内就在积极推进这类大模型在中文世界的落地。阿里巴巴曾联合清华大学,在今年3月发布了参数规模达1000亿的中文预训练模型M6,可应用于电商产品描述生成、问答、中国诗歌生成等任务。今年4月,华为发布华为云盘古大模型,开发者只需少量行业数据,就可以快速开发出精准度更高、泛化能力更强的AI模型。

  本次浪潮发布的源1.0在规格上达到了新高。浪潮表示,源1.0模型参数规模为2457亿,训练采用的中文数据集达5000GB。相比GPT-3模型,源1.0的参数规模领先40%,训练数据集规模领先近10倍。

关注
打赏
1665506070
查看更多评论
立即登录/注册

微信扫码登录

0.0490s