AI可以识别图像,但它能理解标题吗?

  • 时间:
  • 浏览:0
  • 来源:大发时时彩平台-大发时时彩网投平台_大发时时彩投注平台

2012年,人工智能研究人员发现,通过向另另4个 名为ImageNet的数据库提供数以百万计的标签图像,计算机识别图像的能力会有很大的提高。这使得计算机视觉进入了另另4个 激动人心的阶段,机会很明显,使用ImageNet训练的模型可不都能否 帮助除理各种图像识别什么的难题。六年后,你这些进步为自动驾驶汽车在城市街道上导航铺平了道路,之前 使得Facebook用户可不都能否 在照片中对人物进行智能标记。

然而,在人工智能研究的太满太满领域,比如理解语言方面,类似于的模型则被证明是难以实现的。之前 ,来自fast.ai、OpenAI和艾伦研究所(Allen Institute)的最新研究表明,这是另另4个 潜在的突破点,有更强大的语言模型可不都能否 帮助研究人员除理一系列尚未除理的什么的难题。其中五种 新模型身前的研发人员塞巴斯蒂安·鲁德(Sebastian Ruder)称其为该领域的“ImageNet时刻”。

什么改进机会是戏剧性的。到目前为止,被最广泛测试的语言模型是ELMo(Embeddings from Language Models)。今年春天,当艾伦研究所发布ELMo的之前 ,以往的各种挑战这麼快被颠覆了,比如在阅读理解方面,人工智能回答了关于一段文章的SAT式的什么的难题并进行了情绪性分析。在另另4个 进步往往是渐进的领域,ELMo的加入使得结果的正确率提高了25%。今年6月,这项进步在一次大型会议上获得了最佳论文奖。

加州大学伯克利分校的计算机科学教授丹·克莱因(Dan Klein)是早期采用者之一。他和一名学生正在研究另另4个 “选区解析器”,这是五种 基本的工具,它涉及到对搞笑的话的语法特征进行映射。ELMo的加入使得克莱因突然拥有了世界上最好的系统,最精确的一起去拥有惊人的宽限度。他说:“机会你几年前问我,是不是 有机会性达到这麼高的水平,我不必能挑选。”

像ELMo要是 的模型,除理了另另4个 使用语言的语言学家的核心什么的难题:过高 标签的数据。为了训练另另4个 神经网络要能做决定,太满太满语言什么的难题都还要人工来精心标记数据。之前 ,制作什么数据还要时间和金钱,甚至太满太满太满太满信息也无法捕捉到我们我们说话和写作中不可预测的措施。对于除英语以外的语言,研究人员通常这麼足够的标记数据来完成基本的任务。

“我们我们永远无法获得足够的标签数据,”艾伦研究所ELMo项目团队领导者的研究人员马修·彼得斯(Matthew Peters)说。“我们我们真的还要开发出五种 模型,它可不都能否 除理杂乱的、这麼标签的数据,之前 从中学习到尽机会多的信息。”

幸运的是,多亏了互联网,研究人员得以从维基百科、书籍和社交媒体等来源获得了几滴 的杂乱数据。我们我们的策略是将什么词输入到另另4个 神经网络中,并允许它自己识别模式,即所谓的“无监督”措施。我们我们希望什么模式要能捕捉到语言的太满太满基本方面——五种 单词的含义,机会是语法的基本轮廓。与使用ImageNet训练的模型一样,要是 的语言模型可不都能否 被精确地调整以掌握更具体的任务——比如总结一篇科学文章,将电子邮件归类为垃圾邮件,甚至为另另4个 简短的故事生成另另4个 令人满意的结尾。

你这些直觉基础不必新鲜。近年来,研究人员利用五种 叫做“文字嵌入(word embeddings)”的技术来深入研究无标签的数据,你这些技术可不都能否 根据它们在几滴 文本中跳出的措施来映射单词之间的关系。新模式的目标定位到更深度,捕捉从文字到更高层次的语言概念的信息。鲁德机会写过关于什么更深度次的模型对各种语言什么的难题而言的巨大潜力,希望新模型能成为简单的“单词嵌入”的替代品。

类似于,ELMo通过整合更多的上下文,以搞笑的话的规模来看待语言,而都在词汇,从而改进了单词的嵌入。你这些额外的上下文使模型要能很好地解析“May”作为“五月”和动词之间的区别,也导致 着它学习了语法。ELMo通过理解单词的子单元,如前缀和后缀,来获得额外的提升。像彼得斯的团队所做的那样,为神经网络提供十亿个单词,而你这些措施是非常有效的。

目前还不清楚的是,在分析所有什么词的过程中,你这些模型到底学到了什么。机会深度神经网络的工作措施不透明,太满太满太满太满要回答你这些什么的难题十分棘手。研究人员仍然对图像识别系统工作这麼出色的导致 有另另4个 模糊的理解。在10月份的一次会议上,彼得斯采用了五种 经验主义的措施,在不同的软件设计和不同的语言任务中试验了ELMo。彼得斯说:“我们我们发现什么模型学习了语言的基本属性。”但他警告说,太满太满研究人员将还要测试ELMo,以挑选该模型在不同任务中的稳健程度,以及它机会含晒 的隐藏意外状况。

五种 风险是:用于训练它们的数据跳出了编码偏差,因而医生被贴上男性的标签,而护士则是女孩子,就像之前 的文字嵌入一样。克莱因说,人太好通过点击ELMo和太满太满模型产生的最初结果令人兴奋,但目前还不清楚什么结果可不都能否 被推进到什么程度,他说是通过使用更多的数据来训练模型,机会增加太满太满限制,迫使神经网络更有效地学习。从长远来看,的要之前 你工智能像我们我们要是 流畅地阅读和交谈,机会还要五种 全新的措施。