【51CTO.com快译】12月初,谷歌解雇知名AI伦理研究员蒂姆尼特·格布鲁(Timnit Gebru)。这一事件引发争议不断甚至遭到内部员工联名抗议。就在解雇事件当天,美国国家劳工关系委员会还对谷歌提起了诉讼,指控谷歌非法监视雇员,报复性解雇有兴趣加入工会的雇员。即使圣诞将近,事件余韵也未消散。可以说自谷歌两位创始人一年前离开公司后,这一事件对公司现任管理层又是一次严峻大考。

  事件起因

先来回顾一下这起事件的前因后果。

格布鲁本人是著名的人工智能科学家,也是谷歌人工智能伦理团队的联席技术负责人。事件肇始是今年早些时候,格布鲁在推特上给华盛顿大学教授艾米丽·本德发了一条消息。围绕人工智能处理文本的最新研究进展可能引发的伦理问题,两人进行了深入的探讨。当讨论进展到一定阶段时,他们与来自谷歌和学界的另外五名研究者,共同完成了一篇审视人工智能偏见的研究论文,并在10月份提交给了一个学术会议。

正是这篇论文被谷歌的AI负责人认为“没有达到我们的发表标准”,在格布鲁拒绝了将论文撤回或移除署名后,她被谷歌解雇。在此之后,逾2200名谷歌员工签署了一封公开信,要求更公开透明地审查这篇论文。在业内,越来越多的人工智能研究人员公开谴责了谷歌对待格布鲁的方式。

论文背后

引发分歧的这篇论文名为《论随机鹦鹉的危险: 语言模型会不会太大? 》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?),它将批判性的眼光投向了人工智能研究中最活跃的领域之一。

自2010年以来,谷歌等科技公司已在人工智能领域投入大量资金,当时研究人员发现,使用一种名为“机器学习”的技术,可以让语音和图像识别更加准确。这些算法可以通过消化带有标签的样本数据来改进它们在任务中的表现。其中,一种被称为“深度学习”的方法,通过将学习算法与更大的样本数据集、更强算力的计算机相结合,可以获得惊人的新结果。

在过去的几年里,研究人员着力研究出了如何为语言建立超大规模的机器学习模型,通过让机器学习算法消化从网络上抓取的数十亿文本文字,在机器阅读理解方面取得了重大进展。这些系统根据语言的统计模式运作,它们不像人类那样理解这个世界,而且会犯一些对人而言显而易见的错误,但它们可以通过数据处理来取得令人印象深刻的成果,比如回答问题、生成文本等等。

谷歌的BERT就是这样一个系统,它被用来改善谷歌搜索引擎处理长句查询的方式。微软在此前宣布,获得 OpenAI的GPT-3系统的独家授权,使得微软能够在其面向客户的 AI 解决方案中充分发挥 GPT-3 的自然语言生成和处理能力。

人工智能领域的这种进步促使其他研究人员开始关注这种自然语言处理技术的局限性和可能导致的社会影响。格布鲁参与合著的这篇论文综述了之前关于分析和生成语言的人工智能系统的局限性的研究,比如构建和训练AI语言系统会消耗大量电能,另外论文还引用了有关谷歌语言模型BERT局限性的研究报告。此前就有研究发现BERT倾向于把一些类似脑性麻痹、失明等表示残疾的短语与负面消极的语言联系起来。这篇论文恰恰审视了这种偏见,进而质疑这种大型的语言模型是否会给社会中享有特权的人带来不成比例的好处,又是否会伤害那些边缘化的社区和人群。

因此格布鲁和其他几位作者敦促人工智能开发者对待语言项目要更加谨慎,包括更好地记录用于创建此类系统的数据。论文提出,构建这种语言系统的研究人员不仅要考虑人工智能开发者的立场,还要考虑该领域之外有可能受到系统输出或判断影响的人的视角。

各方反应

整体来看,引发分歧的这篇论文就是在指出目前AI语言系统的相关局限性后提出了一些改进意见,而不是在攻击谷歌或其技术。

伦敦大学学院名誉副教授朱利安·科内比斯(Julien Cornebise)在看过这篇论文后也指出了这一点。“这是一篇非常扎实、经过充分深入研究的文章。很难想象这样的成果会在任何实验室引起轩然大波,更不用说会导致有人因此丢掉工作。”

艾伦人工智能研究所首席执行官奥伦·艾奇奥尼(Oren Etzioni)表示:“艾伦研究所对这一主题也进行了自己的研究,其中一些成果也被引用在这篇论文里……目前这项工作仍在进行中,因为偏见有多种形式,几乎所有在这个领域工作的人都认识到,这些语言模型的影响力正在日益增强,我们有义务负责任地使用它们。”

谷歌人工智能主管杰夫·迪恩(Jeff Dean)则在邮件中表态:“这篇论文本身存在一些重要缺陷,使我们无法轻松地将谷歌关联其中。例如,关于如何使模型更有效率以及减少其对整体环境影响的重要发现在论文中都没有体现,也没有考虑到谷歌和其他研究人员最近在减少语言模型偏见方面的一些工作。强调风险而不提出研发人员理解和减轻这些风险的方法,这种做法对于解决这些问题没有任何帮助。”

对此,艾米丽·本德在事发后表示:“尽管杰夫·迪恩认为这篇论文质量不佳,但这个领域确实还远远没有发明出一种能够可靠地消除语言偏见的方法。”

后续进展

自12月9日,谷歌CEO皮采在一封内部邮件中道歉之后,谷歌方面对于格布鲁的“离开”没有再作任何公开表态。杰夫·迪恩也在后来的一封邮件中表示“关于此事1月公司会有最新决定”。基于谷歌的态度和处事方法,有人猜测格布鲁的离开或许不仅仅是因为一篇论文。格布鲁本人也曾表示,她可能因为批评谷歌在多元化和包容性方面的处理方式,并在最近的群发邮件中建议同事停止参与相关项目而被解职。

值得一提的是,格布鲁是谷歌为数不多的黑人女性领导者之一,她一直对科技行业和谷歌对待少数族裔员工的做法提出批评。从这一角度来看,这起事件可以说集中汇聚了近年来引发谷歌员工骚乱的四个问题:人工智能领域的道德规范,女性待遇,种族问题,以及对谷歌过往开放自由文化的背离。

由于人工智能所蕴藏的强大潜能和可期前景,随着AI开发的深入,业界对于AI伦理问题的关注日趋升温。基于此,谷歌也发布了一系列人工智能开发原则,其中包括“对社会有益”和“避免产生或强化不公平的偏见”等准则 。后者正好是格布鲁钻研的领域。她因在Gender Shades项目中的出色表现而出名,这个项目揭示了面部识别技术对黑人族裔的不准确性,她的工作迫使IBM和微软暂停了对外销售面部识别技术和产品。

但本次谷歌在解雇格布鲁一事上沉默的态度,可以说具有强烈的反讽的意味。曾经的谷歌以开放、理想主义和自由为宗旨,如今似乎也正在转变为一个更加世俗意义上的企业,在取悦员工和打击异议两侧危险地走着钢索。

原文标题:Behind the Paper That Led to a Google Researcher’s Firing,作者:Tom Simonite

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】