270亿参数!阿里达摩院推出“中文版GPT-3”,将开源语言体系大部分模型

4月19日报道,今日,阿里巴巴达摩院发布中文社区最大规模预训练语言模型PLUG,其参数规模达270亿。接下来,PLUG将扩大参数规模至2000亿级,并进一步提升文本生成质量。

与PLUG发布同步,达摩院宣布近期将开源阿里巴巴深度语言模型体系大部分重要模型。

PLUG全名为Pre-training for Language Understanding and Generation,集语言理解与生成能力于一身,在小说创作、诗歌生成、智能问答等长文本生成领域表现突出。

该语言模型的目标是通过超大模型的能力,大幅提升中文NLP各类任务的表现,取得超越人类表现的性能。

发布后,PLUG刷新了中文语言理解评测基准CLUE分类榜单历史纪录。

自去年OpenAI发布超大规模预训练语言模型GPT-3引发全球热议后,中文领域同类模型的训练进程备受关注。

与GPT-3类似,阿里达摩院本次发布的PLUG有望广泛应用于文本生成领域,成为“万能写作神器”。

更重要的是,此类超大模型拥有极强的通用性,被认为或将成为AI时代的新型基础设施之一。

相较GPT-3的改进之处在于,PLUG设计了一个简洁的模型框架,集成了达摩院自研的语言理解及语言生成双模型,并通过构建输入文本双向理解能力,显著提升了输出文本的相关性。

▲4月19日,PLUG刷新CLUE分类榜单纪录,排名仅次于“人类”

据悉,PLUG采用了,涵盖新闻、小说、诗歌、问答等广泛类型及领域,其模型训练依托了。

在超大规模预训练模型领域,除发布以中文为核心的PLUG外,阿里达摩院、阿里云计算平台团队还联合智源研究院、清华大学发布了面向认知的超大规模新型预训练模型“文汇”,以及联合清华大学发布了超大规模多模态预训练模型“M6”。

阿里达摩院语言技术实验室负责人司罗称:“达摩院NLP团队将进一步攻克自然语言处理领域科研难题,完善中文及跨语言人工智能基础设施,让AI没有难懂的语言,并探索通用人工智能之路。”