AI中国网 https://www.cnaiplus.com
6月1日,由北京智源人工智能研究院(以下简称智源研究院)主办的2021北京智源大会在北京中关村国家自主创新示范区会议中心成功开幕。
北京智源大会是智源研究院主办的年度国际性人工智能高端学术交流活动,定位于“AI内行顶级盛会”,2019年举办了首届大会,今年为第三届,6月1日至3日线上线下同步召开,超过3万多名人工智能领域专业人士注册参会。
大会开幕式上,北京市副市长靳伟、科学技术部战略规划司司长许倞出席并致辞。靳伟副市长在致辞中指出,近年来,北京市大力推动人工智能的加速发展,在前沿研究、人才发展、应用示范、资金支持等方面出台了一系列有力举措,加快建设首个国家新一代人工智能创新发展试验区,持续推动智源研究院等新型研发机构发展。目前已拥有人工智能相关企业1500余家,拥有人工智能学者超过四千人,产业人才超过四万人,论文的发表和专利的申请量均居全国第一,形成了人工智能人才、成果、企业集聚的强磁场。
(北京市副市长靳伟)
靳伟副市长同时指出,当前,超大规模的预训练模型成为全球人工智能技术研发的热点和竞争的焦点,有望引领未来五至十年的技术跃迁,并带来全新的产业模式。为了迎接“大模型+大算力”时代的到来,北京市支持智源研究院牵头建设“超大规模人工智能模型训练平台”,打造“悟道”系列模型。希望国内外的广大高校、科研机构和创新企业积极参与到大模型的研发和应用生态中,基于该平台不断产出具有国际领先水平的标志性技术和应用成果。
科学技术部战略规划司司长许倞在致辞中指出,为贯彻落实中央关于人工智能发展的部署要求,目前科学技术部正在加快推进新一代人工智能规划有关任务落实,实施重大项目,支持北京等15个地方建设国家新一代人工智能创新发展试验区,依托领军企业建设自动驾驶、智能供应链、图像感知等15个国家新一代人工智能开放创新平台,加快人工智能在疫情防控中的广泛应用,推动人工智能治理,发布实施新一代人工智能治理原则,建设包括政策法规、伦理规范、技术标准等在内的人工智能治理体系。
(科学技术部战略规划司司长许倞)
许倞司长同时指出,当前科学技术部正在全力支持北京市建设国际科技创新中心,与北京市共同实施支持北京加快建设具有全球影响力的人工智能创新策源地行动计划,希望北京市在加强原创性科技攻关、强化战略科技力量、塑造良好创新生态、激发人才创新活力、推进开放合作等方面持续发力,加强能力和生态构建,构筑人工智能等重点领域技术的优势,在国际科技创新中心建设方面走出一条新路子。同时希望智源研究院加大超大规模智能模型的持续研发及产业生态建设,早日建成我国人工智能研发应用的重要基础设施。
在大会开幕式上,智源研究院发布了全球最大的超大规模智能模型“悟道2.0”。在为期三天的会议中,智源研究院还将发布支持AI创业的“源创计划”,以及为海内外青年AI科研人员提供学术交流平台的“青源会”等工作计划或建设成果。
200余位AI顶尖专家,29个专题论坛,打造最综合、最前沿的AI盛会
本次大会邀请到200余位国内外人工智能领域的顶尖专家参会,包括2018年图灵奖得主Yoshua Bengio(约书亚·本吉奥),2017年图灵奖得主David Patterson(大卫·帕特森),2017年欧洲大脑奖得主Peter Dayan(彼得·达扬),清华大学国家金融研究院院长朱民博士,北京大学鄂维南院士,加州大学伯克利分校人工智能统计中心创始人Stuart Russell(斯图尔特·罗素),自动驾驶之父Sebastian Thrun(塞巴斯蒂安·特龙),计算可持续性领域开创者Carla Gomes(卡拉·戈梅斯),艾伦人工智能研究所(AI2)首席执行官Oren Etzioni(欧伦·艾佐奥尼),微软亚洲研究院副院长刘铁岩,清华智能产业研究院首席科学家马维英等。参会专家将围绕人工智能领域的前沿研究进展及趋势开展深入研讨。
(2018年图灵奖得主Yoshua Bengio)
大会围绕国际人工智能学术前沿和产业热点设置了“预训练模型”“机器学习”“群体智能”“人工智能的数理基础”“智能体系架构与芯片”“精准智能”“智能信息检索与挖掘”“青源学术年会”“AI创业”“AI制药”“AI系统”“AI开放与共享”“AI科技女性”等29个专题论坛。议题范围非常丰富,从AI基础研究、跨界融合到产业应用,给学者、工程师、技术人员提供了一个交换和活跃想法的平台。
在6月1日的开幕式上,图灵奖得主Yoshua Bengio、清华大学国家金融研究院院长朱民博士,北京大学鄂维南院士分别围绕逻辑分析系统System2、数据资产、科学与智能做主旨报告。
(清华大学国家金融研究院院长朱民博士)
(北京大学鄂维南院士)
发布全球最大的超大规模智能模型“悟道2.0”,打造我国人工智能战略基础设施
构建自主技术创新体系,打造大模型时代的智力源
开幕式上,智源研究院理事长张宏江介绍了“悟道”模型研发的背景。他认为,目前,“大模型+大算力”是迈向通用人工智能的一条可行路径。大模型对于人工智能发展具有重大意义,未来将基于大模型形成类似电网的变革性AI产业基础设施。AI大模型相当于“发电厂”,将数据,也就是“燃料”,转换为智能能力,驱动各种AI应用。如果将大模型和所有的AI应用相连接,为用户提供统一的智能能力,全社会将形成一个智能能力生产和使用的网络,即“智网”。大模型就是下一个AI的基础平台,是未来AI发展的战略基础设施。
(智源研究院理事会张宏江)
目前,国际主流的大模型主要基于英文语料研发,智源研究院作为AI基础建设的先行者,成立了由智源研究院学术副院长唐杰教授领衔,100多位科研骨干共同参与的“悟道”团队,启动面向中文的大规模智能模型研发工作。“悟道”模型系统将构建“大模型、大平台、大生态”,持续研发超大规模智能模型,围绕大模型研发,构建大规模算力平台,同时对外开放模型能力,“赋智”各行业发展,构建大模型生态。今年3月20日,智源研究院发布了中国首个超大规模智能模型“悟道1.0”,训练出中文、多模态、认知、蛋白质预测等系列模型。经过不到3个月的持续更新迭代,“悟道2.0”实现了更高层面的跨越。
开幕式上,智源研究院学术副院长唐杰教授介绍了“悟道2.0”模型的具体情况。他提到,“悟道”超大模型智能模型旨在打造数据和知识双轮驱动的认知智能,让机器能够像人一样思考,实现超越图灵测试的机器认知能力。“悟道”团队在大规模预训练模型研发上做了很多基础性工作,形成了自主的超大规模智能模型技术创新体系,拥有从预训练理论技术到预训练工具,再到预训练模型构建和最终模型测评的完整链条,从技术上是完整成熟的。通过一系列原始创新和技术突破,本次发布的“悟道2.0”实现了“大而聪明”,具备大规模、高精度、高效率的特点。
(智源研究院学术副院长唐杰)
全球最大万亿参数,新一代FastMoE补齐万亿模型最后一块短板
“悟道2.0”模型的参数规模达到1.75万亿,是GPT-3的10倍,打破了之前由Google Switch Transformer预训练模型创造的1.6万亿参数记录,是目前中国首个、全球最大的万亿级模型。
开创性的研发FastMoE技术,是打破国外技术瓶颈,实现“万亿模型”基石的关键。以往,由于Google万亿模型的核⼼技术MoE(Mixture of Experts)与其分布式训练框架和其定制硬件强绑定,绝大多数人无法得到使用与研究的机会。“悟道”团队研究并开源的FastMoE是首个支持PyTorch框架的MoE系统,具有简单易用、灵活、高性能等特点,并且支持大规模并行训练。新一代FastMoE,支持Switch、GShard等复杂均衡策略,支持不同专家不同模型,为万亿模型实现方案补上了最后⼀块短板,让梦想终成现实。
“悟道2.0”模型在中英双语共4.9T的高质量大规模清洗数据上进行的训练。训练数据包含WuDaoCorpora中的1.2TB中文文本数据、2.5TB中文图文数据,以及Pile数据集的1.2TB英文文本数据。
另外,“悟道2.0”模型一统文本与视觉两大阵地,支撑更多任务,更加通用化。
9项顶尖智能能力,创新性的通用精准智能
“悟道2.0”在世界公认的9项Benchmark基准测试任务上取得了领先能力水平,达到了精准智能。
1. ImageNet zero-shot SOTA超过OpenAI CLIP;
2. LAMA知识探测:超过AutoPrompt;
3. LAMABADA完形填空:能力超过微软Turing NLG;
4. SuperGLUE few-shot FewGLUE:超越GPT-3,取得当前最佳少样本学习结果;
5. UC Merced Land-Use zero-shot SOTA,超过OpenAI CLIP;
6. MS COCO文生成图:超越OpenAI的DALL·E;
7. MS COCO英文图文检索:超过 OpenAI CLIP和 Google ALIGN;
8. MS COCO多语言图文检索:超过目前最好的多语言多模态预训练模型UC2,M3P;
9.Multi 30K多语言图文检索:超过目前最好的多语言多模态预训练模型UC2,M3P。
“悟道2.0”的高精度来自于一系列核心技术创新。例如:
GLM2.0:是模型架构创新的典范,更通用的预训练模型。此前,它首次打破BERT和GPT壁垒,开创性地以单一模型兼容所有主流架构,新一代版本更是以少胜多的高性能人工智能典范,以100亿参数量,足以匹敌微软170亿参数的Turing-NLG模型,取得多项任务的更优成绩。
P-tuning2.0算法:极大拉近少样本学习和全监督学习的差距,少样本学习能力遥遥领先。
CogView:文本生成图像的新框架,克服“上下溢收敛”文图模型关键难题,将VQ-VAE和Transformer进行结合,表现SOTA(当前算法性能最优的模型)!在MS COCO FID指标上性能优于DALL·E等模型。模型可直接实现类似OpenAI CLIP模型的自评分功能,生成国画、油画、卡通画、轮廓画等多元画风。
目前,“悟道”模型的多项应用,在诗词创作、做对联、文本摘要、人设问答、绘画等方面,都已接近突破图灵测试,与人类一较高下!
高效易用,全链路的效率提升,增强大规模智能模型产业普遍性
大规模预训练模型的参数规模通常远超传统的专用人工智能模型,在算力资源、训练时间等方面消耗巨大。为了提升大规模预训练模型的产业普遍性和易用性,悟道团队搭建高效预训练框架,在高效编码、高效模型、高效训练、高效微调和高效推理等方面进行全链路的原创突破或迭代优化,实现效率的大幅提升。
高效编码:研发了最高效、最抗噪的中文预训练语言模型编码,解决生僻字等问题;
高效模型:构建了世界首个纯非欧空间模型,只需要一半的参数量即可达到近似欧式模型的效果;
高效训练:世界首创大规模预训练模型融合框架,形成高效训练新模式,训练时间缩短27.3%,速度提升37.5%;
高效微调:世界首创多类别Prompt微调,只需训练0.001%参数即可实现下游任务适配;
高效推理:世界首创低资源大模型推理系统,单机单卡GPU即可以进行千亿参数规模的模型推理。
行业贡献,建设全球最大的语料数据库WuDaoCorpora2.0,提出自然语言评测新标准“智源指数”
“悟道”模型研发过程中,智源研究院建设了全球最大的语料数据库WuDaoCorpora2.0,包含全球最大的中文文本数据集、全球最大的多模态数据集、全球最大的对话数据集,为行业内大规模智能模型的研发提供了丰富的数据支撑。
另外,智源研究院提出“智源指数”,构建以人类语言能力为参照、全面系统的针对机器语言能力进行评测的体系。“智源指数”首次提出了基于“能力-任务-数据集”层次结构的机器语言评测体系及评测方案,包含6种主要语言能力,30余项主流任务与相关数据集,同时也是首次基于信度、难度、效度等指标进行评价的高质量评测数据集合,形成了大模型“权威考卷。
AI中国网 https://www.cnaiplus.com
本文网址: