日前,来自路透社的一则报道称,Google AI部门要求其研究人员在人工智能的论文中给出“乐观态度”的基调。
这主要来自对包括面孔、性感分析,以及性别、种族、意识形态等在内的敏感话题类的研究论文增加的一道审查,在此之前研究人员还需要先咨询法律、政策和公司的公关部门。
该规定其中有一页这样写道:“技术的进步和外部日益复杂的环境情况,导致看似有冒犯性的研究项目引发道德、声誉、法律法规等问题。”
路透社称,现无法确定详细颁发日期,根据已知的三名现任员工给出的信息来看该规定始于今年6月。
此外,员工还被多次要求“不要以消极的态度阐述技术”。
比如,负责推荐算法论文的研究人员被告知“要格外小心,表现出积极的语气”,该推荐算法主要用于对YouTube等平台上的内容进行个性化推荐。最终,该作者采取的措施为“将论文中有关谷歌产品的所有引用全部删除”。
路透社还写道,另一篇有关语言理解算法的论文“淡化了对Google Translate这一产品出错的引用”,进行修改是为了响应审核人员的要求。
一直以来,谷歌的标准审核过程旨在确保研究人员不会无意间泄露商业秘密,但“敏感类主题”的审核却不仅仅限于此。目前来看,谷歌还希望评估自己的产品服务抹去偏见的基调,这些敏感类主题包括“国家、石油工业、位置数据、宗教和以色列”。
实际上,自从12月初AI伦理专家Timnit Gebru被解雇以来,这家搜索巨头的动作一直备受关注。Gebru此前曾说,她因发送给Google AI研究人员内部小组Google Brain Women and Allies listserv的电子邮件而被终止。这封邮件中,她谈到了谷歌经理敦促她撤回有关大规模语言处理模型危险性的论文。Google AI的掌门人Jeff Dean说,她在截止日期之前提交了这篇论文。不过,Gebru的团队拒绝了这一主张,称该规定存在“不公正、歧视性”。
据华盛顿邮报此前报道,Gebru于今年9月份与谷歌的公关和政策小组联系。她知道公司可能会对研究的某些方面产生疑问,因为谷歌在搜索引擎中使用了大型语言处理模型。对该论文进行修改的截止日期是2021年1月,直到研究人员有足够的时间来解决这些问题。
然而,感恩节前一周,Google Research副总裁Megan Kacholia要求Gebru收回论文。第二个月,Gebru被解雇了。
【来源:雷锋网】