财富商机

高端大气的谷歌AI,学术黑暗的“名利场”

在谷歌公司利益的面前,学术伦理恐怕得“往旁边稍稍”。文|杜晨编辑|Lianzi在美国学术圈,种种围绕论文发表的黑暗事情并不少见。一些人为了逃避这种学术黑暗,加上科技公司抛出的高薪橄榄枝,选择加入工业界,跳槽谷歌这样的科技大公司。然而令人没想到的是:就连谷歌居然也叛变了,也成为了AI学术界的一个黑暗角落。根据《纽约时报》 .....

严正声明:原创文章,未经允许,不得转载。转载时务必注明作者及文章来源:今日新闻网-高端大气的谷歌AI,学术黑暗的“名利场”,否则必举报并保留进一步追责的权利。

高端大气的谷歌AI,学术黑暗的“名利场”

在谷歌公司利益的面前,学术伦理恐怕得“往旁边稍稍”。

文|杜晨 编辑 |Lianzi

在美国学术圈,种种围绕论文发表的黑暗事情并不少见。一些人为了逃避这种学术黑暗,加上科技公司抛出的高薪橄榄枝,选择加入工业界,跳槽谷歌这样的科技大公司。然而令人没想到的是:就连谷歌居然也叛变了,也成为了 AI 学术界的一个黑暗角落。

根据《纽约时报》独家报道:谷歌在今年3月低调开除了一位 AI研究员,因为他长期以来都和自己的同事们对着干,对公司发表的高知名度论文横加质疑批判。

Google AI 在去年6月发表论文A Graph Placement Methodology for Fast Chip Design,提出采用 EdgeGNN 强化学习算法设计一些芯片组件的能力已经超过了人类。这篇论文刊登于《自然》,在业界影响力极大,并且谷歌 AI 事业的总负责人 Jeff Dean 也是作者之一。

高端大气的谷歌AI,学术黑暗的“名利场”

而这位研究员 Satrajit Chatterjee 对于芯片论文心存疑虑,所以率领了一支队伍写了一篇论文,试图证伪前述论文中的一些重要的宣称。

然而根据四位匿名谷歌员工透露的情况,就在这篇驳斥论文已经写完的时候,公司先是拒绝了发布,然后很快就将 Chatterjee 开除出了公司。

“我们对驳斥论文里面提出的一些宣称进行了严格的检查,最终认定它未达到我们的发表标准。”谷歌研究部门副总裁 Zoubin Ghahramani 对《纽约时报》表示。

Chatterjee 似乎也已经退出了 AI 研究的一线岗位,加入了一家风投公司。

然而据硅星人了解,这次论文改题删名重发事件,在 Google AI 内部引发了不小的争议。有员工感到事情很诡异:

首先,这论文为什么改个题又发一遍?

其次,既然要重新发一个版本,为什么没有经过公司内部论文评议委员会的重新审核?

最后,也是最诡异的地方:为什么这个发到《自然》的新版本,除掉了对本次研究发表不同意见的两位作者名字?意思是他们俩对新版本没有贡献,所以就直接消除掉他们存在过的痕迹,就像从未对此次研究做出过贡献一样?

高端大气的谷歌AI,学术黑暗的“名利场”

上图:2020年4月的预印本论文版本;下图:2021年6月的《自然》版本,后者删除了两位作者的名字 图片来源:arXiv, Nature

为了平息争议,Jeff Dean 批准包括 Chatterjee、Bae、Babu 等在内的员工对芯片论文进行挑战,并且允诺他们事后出来的报告会按照公司既定的政策,走论文发表审批委员会的流程。

没过多久,Chatterjee 等人就把驳斥论文写出来了,标题为Stronger Baselines for Evaluating Deep Reincorcement Learning in Chip Placement。

高端大气的谷歌AI,学术黑暗的“名利场”

在驳斥论文中,作者们提出了几种新的基线,也即基准参照算法,意思就是比这个基线效果还差的即不能接受,没有发论文的必要。

结果,作者所提出的比谷歌芯片论文中所采用算法的实现的效果还好,并且运行所依赖的算力小得多。消融研究结果指出了芯片论文中算法的弱点。

不仅如此,作者还进一步指出,人类芯片设计师的设计能力并不能够作为强有力的基线,也即芯片论文里拿强化学习算法跟人作为对比是很没本事的行为。

带着这些调查结果,Chatterjee等人把驳斥论文提交到了谷歌的论文发表审核委员会,等了几个月的时间,最后却被拒绝发表。Google AI 方面高管的回应是这篇驳斥论文未满足发表标准。

然而,他们的反抗很快就被打压了下来。没过多久,Chatterjee 就收到了自己被解雇的通知。

与此同时,芯片论文的联合第一作者 Anna Goldie 却有不同声音。她告诉《纽约时报》 Chatterjee 在三年前曾经试图夺权,自从那之后自己就成为了后者“虚假信息”攻击的受害者。

我们不知道这位表达不同声音的 Chatterjee,被公司解雇的直接理由究竟是什么。但硅星人从谷歌员工那里了解到,一些员工认为 Chatterjee 被解雇的真实原因,是站在了公司利益,以及 Google AI 部分核心高管力推项目的对立面。

在一些人看来,即使如谷歌这样架构扁平、制度公平的大公司,也难免为了保护公司利益和高管的颜面,而暂时改变自己的规矩,把唱反调的人一脚踹开。

| 利益冲突遭开除,员工“改名”表抗议

这确实不是 Google AI 内部第一次因为学术见解不同和办公室政治而出现抓马 了。

在行业里影响力颇大的斯坦福 AI 实验室成员、前谷歌研究员 Timnit Gebru,在两年前遭到谷歌突然开除的事情,当时就已经给很多同行留下了非常差的印象。

并且巧合的是,Gebru 当时被谷歌开除的原因和 Chatterjee 一模一样:跟公司利益对着干,被公司拒绝发表论文。

高端大气的谷歌AI,学术黑暗的“名利场”

2020年,Gebru 在网上和图灵奖得主,人称 AI “三教父”之一的 Yann LeCun 之间展开了一场对峙。

当时,有人采用低分辨率人脸还原模型 PULSE 还原奥巴马照片,出现了白人结果。LeCun 对此发表了自己的观点,认为是数据集的固有偏差导致了 AI 偏见的结果。

这一表示遭到了包括 Gebru 在内很多人的批评。Gebru 表示对 LeCun 的发言很失望,因为 AI 算法中的偏见不只是来自数据。她本人在此方面做了很多研究,发表了一些论文。她的观点一直是:AI 的偏见不止来自于数据集,光解决数据集并不能彻底解决 AI 偏见问题。

高端大气的谷歌AI,学术黑暗的“名利场”

LeCun 进一步发了十几条推文,进一步解释自己的观点,结果却被 Gebru 以及她的支持者当成了“班门弄斧”——虽然 LeCun 是”AI 教父“,但 Gebru 本人才是 AI 偏见方面的权威专家。

LeCun 和包括 Gebru 在内的批评者之间的骂战持续了半个月,结果以前者“退推"告一段落。

Gebru 在社交网络上直言抨击 LeCun 这种机器学习元老级专家的行为,却在谷歌内部被一些高层人士认为破坏了公司和学术界/行业之间的友善关系。虽然 Gebru 获得了阶段性的“胜利”,可是她当时并没有完全意识到事情的严重性,以及阴云已经笼罩在自己的头上。

大家应该知道最近几年大模型在 AI 研究领域有多火,包括谷歌、OpenAI、微软、亚马逊、BAAI 等机构都在这方面投资巨大,诞生了 BERT、T5、GPT、Switch-C、GShard 等在内的一系列超大规模语言向神经网络模型和相关技术。

也是在2020年,Gebru 的团队撰写了一篇论文On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 希望揭露超大规模语言模型在实际使用中的危险性,批评其可能在 AI 偏见方面造成的影响。

高端大气的谷歌AI,学术黑暗的“名利场”

这一方向的研究并不小众,毕竟在此之前已经有研究发现,GPT-2/3 等超大语言模型在真实场景中使用时会强化已经存在的社会偏见和歧视,对实际用户造成伤害。

Gebru 团队的这篇文章,主要表达的观点确实都没什么毛病。然而在 Jeff Dean 看来,篇幅很短,叙述和引述多于基于实验的结果,缺乏科学实证的要素,不构成谷歌公开冠名发表论文的条件,因此将其驳回不予发表。

可能更接近本质的原因在于:这篇论文如果发表出来,等于是在和谷歌近几年在大语言模型方面的努力唱反调,在谷歌 AI 管理层看来会非常影响士气。

Gebru 坚持就算公司不批准,自己也要想办法把论文发出去。谷歌要求她在论文里去掉作者的谷歌从属关系,意思就是这篇文章是几个作者私下做的,公司并不认可。这一要求也被 Gebru 严词拒绝。

对于 Gebru 的离开,谷歌表示她是自己辞职的。但是 Gebru 对外透露的是自己被公司开除了。

Gebru 在谷歌的汇报对象 Samy Bengio 在当时表示自己感到非常震惊。Bengio 曾获得谷歌杰出科学家的殊荣,是公司14年元老,原谷歌大脑团队的创始成员之一,后来也直接因为对解雇 Gebru 不满,在2021年离开了谷歌。

高端大气的谷歌AI,学术黑暗的“名利场”

后来,Gebru 团队的论文后来还是在2021年3月在 ACM 旗下的跨学科会议 FAccT上得以发表,只是四位作者当中的两位,无法以谷歌员工的身份出现在作者名单里。

值得一提的是:虽然 Gebru 在论文发表前就已经和谷歌掰了,另一位作者 Margaret Mitchell 在文章发表的时候仍然供职于谷歌。

在发表版本的论文里,她“改名换姓”,在自己的名字前面加上了“Sh”,以讽刺公司对自己的噤声:

高端大气的谷歌AI,学术黑暗的“名利场”

高端大气的谷歌AI,学术黑暗的“名利场”

但是更离谱的事情还在后面。

就在上个月初,谷歌AI 发表了另一篇论文,介绍了团队开发的一个全新的5400亿密集激活参数的超大规模语言模型 PaLM。

在模型架构解释 (Model Architecture) 和道德思考 (Ethical Considerations) 部分,PaLM论文曾经先后至少两次引用了前年被谷歌拒绝发表的那篇 Gebru 团队的论文。

在道德思考的部分,论文写道,由于从训练数据和模型中完全消除社会偏见的可行性不高,因此分析模型中可能出现的相关偏见和风险是至关重要的,并且也引用和参考了 Gebru 等人在那篇被拒发论文中采用的分析方法。

更何况 Jeff Dean 也是 PaLM 论文的作者。这就属实非常尴尬了。

高端大气的谷歌AI,学术黑暗的“名利场”

高端大气的谷歌AI,学术黑暗的“名利场”

Gebru 对此表示,

“这些AI大佬们完全可以为所欲为。他们完全不用考虑我是被公司开除的,我的论文是被公司被评为不及格的。他们完全不用思考后果,他们恐怕早就忘了当年的事了。”

最后,可能很多人都想知道:为什么最近几年谷歌 AI 研究部门的闹剧如此之多,而且还都是员工研究方向和公司利益冲突相关?

一位了解 Google AI 情况的前谷歌员工对硅星人做出如下评价:

“一边要靠放卫星吸引更多 HR 和 PR 关注度,一边要尽快把 AI 这边的研究成果投产,一边又因为某些有争议的项目要改善社会责任感。鱼和熊掌不可兼得。”

毫无疑问,Google AI 已经成为业界科技公司里从事 AI 的基础和应用科研方面的标杆机构。

考虑到 Google AI 的许多研究成果能够更快地投入到各种谷歌核心产品当中,而这些产品的用户量又是数亿甚至数十亿级别的,可以说 Google AI 的研究对于世界也有着十分重大的意义。

与此同时,不可否认的是谷歌/Alphabet 仍然是一家营利性质的上市公司,需要对股东负责,需要稳定持续的增长。而 AI 在今天作为一个不算新,商业化的程度和可行性已经非常高的技术,谷歌公司内部对于 AI 产学研结合的期待肯定是日益提升的。

考虑到以上背景,就不难理解为什么 Jeff Dean 等研究部门的大佬们,要不顾一切保护公司在 AI 研究方面的投资和名誉了。

必须承认的是,这些大佬们原本也都是在 AI 学术界建功立业的先驱,说他们不认可学术伦理,也是一种侮辱。但很遗憾,在现如今公司利益的面前,只能在其位谋其政。大难临头的时候,也许学术上的正直,也只好暂时往边上稍稍了。

高端大气的谷歌AI,学术黑暗的“名利场”