您的位置:首页 > 财经观察 > 科技 > 正文

预示相关AI应用普及可期

2021-11-16 16:02   原文来源:

统一预训练语言模型是微软公司2019年发布的研究成果。近年来,自然语义处理领域有了新的基本思想,将以往训练大且深的神经网络模型分解。这样做的好处是,通过预训练从大规模文本数据里面学到的语言知识迁移到下游的自然语言处理和生成任务模型的学习。

对自然语言理解来说,机器阅读是一个经典并且具有挑战的问题,在实际生活中也有非常多的应用场景。在这一领域,大规模数据集起到了推动作用,影响最大的是斯坦福大学发布的SuQAD和CoQA。微软在这两个数据集的国际评测上取得了较好的成绩。这些成绩意味着计算机文本能力首次超越人类,也预示着该领域研究将会有更大的突破,相关的人工智能应用普及可以期待。

微软全球执行副总裁沈向洋表示,这些技术突破让计算机可以像人类一样以自然的方式交流,机器阅读理解文本意思,针对复杂的问题组织详细的答案,通过对话人工智能,计算机可以处理多轮对话,这个技术突破将给我们带来机会,比如智能助理、智能搜索。

对统一自然语言预训练模型和机器阅读理解研发出的相关技术,已广泛应用于微软自身的产品,包括搜索引擎必应的问题回答、微软广告筛选和排序系统,以及微软Word中的语法错误修正等。这项技术成果也已经实现在GitHub上开源,微软将和合作伙伴共同推动自然语言理解和生成的进步。新京报记者梁辰

微软的统一预训练语言模型有两个技术创新,一是提出了统一的预训练框架,使得同一个模型可以同时支持自然语言理解和自然语言生成的任务,而以往大部分都是针对理解一个环节;二是提出了部分自回归预训练范式,可以更好更快地做语言模型预训练。

本版摄影/新京报记者王贵彬

版权与免责声明:
1、凡本站及其子站注明"文章类型:原创"的所有作品,其版权属于中国财经观察网站及其子站所有。其他媒体、网站或个人转载使用时必须注明:"文章来源:中国财经观察网"。
2、凡本站未注明来源为"中国财经观察网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站及其子站赞同其观点和对其真实性负责。其他媒体、网站或个人转载使用时必须保留本站注明的文章来源,并自负法律责任。
3、如您不希望作品出现在本站,可联系我们要求撤下您的作品。邮箱:sue@xsgou.com

相关阅读

    无相关信息
投诉举报:sue@xsgou.com 在线投稿:tougao@xsgou.com 广告投放:ad@xsgou.com 商业合作:bd@xsgou.com
版权声明: 本网站部分文章和信息来源互联网,并不意味着赞同其观点或证实其内容的真实性,不构成投资建议。如转载稿涉及版权等问题,请立即联系管理员,我们会予以改正或删除相关文章,保证您的权利!
版权所有: 中国财经观察报·中国财经观察网www.xsgou.com (2012-2018)互联网ICP备案 中ICP备120056699号-1
站长统计