6月1日,北京智源人工智能研究院在2021北京智源大会上发布超大规模智能模型“悟道2.0”。据悉,其参数规模达1.75万亿,是AI模型GPT-3的10倍,打破之前由Google Switch Transformer预训练模型创造的1.6万亿参数记录,是目前中国首个、全球最大的万亿级模型。
智源研究院理事长张宏江表示,目前,“大模型+大算力”是迈向通用人工智能的一条可行路径。大模型对于人工智能发展具有重大意义,未来将基于大模型形成类似电网的变革性AI产业基础设施。AI大模型相当于“发电厂”,将数据,也就是“燃料”,转换为智能能力,驱动各种AI应用。如果将大模型和所有的AI应用相连接,为用户提供统一的智能能力,全社会将形成一个智能能力生产和使用的网络,即“智网”。大模型就是下一个AI的基础平台,是未来AI发展的战略基础设施。
智源研究院学术副院长唐杰教授介绍说,“悟道”超大模型智能模型旨在打造数据和知识双轮驱动的认知智能,让机器能够像人一样思考,实现超越图灵测试的机器认知能力。“悟道”团队在大规模预训练模型研发上做了很多基础性工作,形成自主的超大规模智能模型技术创新体系,拥有从预训练理论技术到预训练工具,再到预训练模型构建和最终模型测评的完整链条,从技术上是完整成熟的。“悟道2.0”实现了“大而聪明”,具备大规模、高精度、高效率的特点。
据了解,“悟道”团队开创性的研发FastMoE技术,是打破国外技术瓶颈,实现“万亿模型”基石的关键。其研究并开源的FastMoE是首个支持PyTorch框架的MoE系统具有简单易用、灵活、高性能等特点,并且支持大规模并行训练。而且,支持Switch、GShard等复杂均衡策略,以及不同专家不同模型,为万亿模型实现方案补上最后⼀块短板。
(编辑:于思洋)
凡本网注明“来源:企业观察网”的所有作品,均为《企业观察报》社有限责任公司合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:企业观察网”。违反上述声明者,本网将追究其相关法律责任。凡本网注明“来源:XXX(非企业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如其他媒体、网站或个人转载使用,须保留本网注明的“稿件来源”,并自负法律责任。如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。联系方式:010-68719660。