行业前沿 | 谷歌战略转变:“开放”变“防守”!新研究闭源,想发论文得审批-全球报资讯
2023-05-10 08:57:20 来源: 出新研究微信号
关注河南热线


“AI的开源时代要结束了吗?


(相关资料图)

编译:Poetry|

AI在过去十多年的飞速发展,得益于高校、企业与个人开发者的通力合作,让人工智能领域内遍布开源的代码、数据及教程。

谷歌也一直是AI行业的领军者,发表的论文横跨自然语言处理、计算机视觉、强化学习等多个领域,为行业内贡献了诸如Transformer, Bert, PaLM等诸多基础模型与架构。

人们已经习惯跟随谷歌的脚步,使用其提出的新技术和工具作为研究基础,谷歌也走出过大批人才,成为了各家研究机构和公司的骨干。然而最近,在 ChatGPT 的冲击下,谷歌决定不这么干了。

01

战略转变

多年来,这家科技巨头发表的科学研究成果帮助其竞争对手迅速崛起,但现在却陷入了防御模式。

今年二月,长期担任谷歌人工智能主管的杰夫?迪恩(Jeff Dean)向其员工宣布了一项令人震惊的政策转变:谷歌以后将不得不推迟与外界分享自己的工作成果。

多年来,Jeff Dean 麾下的 Google AI 像大学的计算机系一样,鼓励研究人员大量发表学术论文。根据 Google Research 的网站,他们自 2019 年以来推出了近 500 项研究。

但去年底 OpenAI 开创性的 ChatGPT 改变了整个科技领域的现状。Jeff Dean 在公司研究部门的季度会议上表示,这家背靠微软的创业公司大量阅读 Google AI 提交的论文与谷歌保持同步。这样的「指责」并不奇怪,事实上,大语言模型的重要基础,ChatGPT 中的 T —— transformer 是谷歌 2017 年的一项研究。

Transformer 自提出以来,一直是自然语言处理(NLP)领域研究的大方向,是 AI 目前这一波突破的源头。

谷歌认为这种情况必须改变,据两名知情人士透露,谷歌将规定自己的人工智能发现只有在实验室工作转化为产品后才能分享论文。

新的政策变化是谷歌内部更大转变的一部分。长期以来,这家科技巨头一直被认为是 AI 领域的领导者,但现在却陷入了需要追赶别人的境地 —— 谷歌需要抵御一群灵活的 AI 竞争对手,保护自己的核心搜索业务和股价,以及潜在的未来。

在专栏文章、播客和电视节目中,谷歌 CEO 桑达尔?皮查伊 (Sundar Pichai) 表示需要对人工智能保持谨慎。「在社会层面上,它可能会造成很大的伤害,」他在 4 月份的「60 分钟」节目中警告说,并描述了生成式 AI 如何加速虚假图像和视频的创作。

但与高管们透露出的风向正相反的是,最近几个月,根据对 11 名现任和前谷歌员工的采访,谷歌已对 AI 业务进行了全面改革,目标是快速推出产品。

它降低了向少数群体推出实验性人工智能工具的门槛,在公平等领域制定了一套新的评估指标和优先事项。皮查伊在一份声明中表示,谷歌还把 DeepMind 和 Google Brain 进行了合并,以「加速在人工智能方面的进步」。这个新部门将不会由 Jeff Dean 管理,而是由 DeepMind 的首席执行官哈萨比斯管理,DeepMind 在一些人看来拥有更新鲜、更有活力的品牌。

在上周早些时候的一次会议上,哈萨比斯表示,人工智能可能比大多数其他人工智能专家预测的更接近人类智能水平,「我们可能只需要几年,也许…… 十年后就可以实现。」

谷歌加速发展之际,一些不和谐的声音呼吁人工智能开发商放慢速度,警告称,这项技术的发展速度甚至超出了发明者的预期。这些声音中包括著名的公司校友和业内资深人士。

杰弗里·辛顿(Geoffrey Hinton)是人工智能技术的先驱之一,他于2013年加入谷歌,最近离开了该公司。此后,他在媒体上发出警告,称超级人工智能逃脱人类控制的危险。皮查伊以及 OpenAI 和微软(Microsoft)的首席执行官们在上周四还会见了白宫官员。

目前,全球各地的监管机构正在讨论围绕这项技术的新规定。

02

喜忧参半

对于谷歌员工来说,在发表相关 AI 研究之前需要额外批准意味着可能会在生成式 AI 的闪速世界中被别人「抢发」。这种政策也可能被用来悄悄地压制那些有争议的论文,比如 2020 年谷歌 Ethical AI 团队负责人 Timnit Gebru 和 Margaret Mitchell 共同撰写的关于大语言模型危害的研究。

不得不承认的一点是,谷歌在 2022 年失去了很多顶级 AI 研究者,转投被视为更前沿的初创企业。这种人才外流的部分原因在于对谷歌没有采取一些明智的决策而感到沮丧,比如未将聊天机器人纳入搜索等。

前谷歌大脑人工智能研究员Brian Kihoon Lee在今年1月大规模裁员潮中被解雇了,他将这种转变描述为谷歌从「和平时期」向「战争时期」的转变,一旦竞争变激烈,一切都会变。在战时状态,竞争对手的市场份额增长也很关键。

谷歌发言人Brian Gabriel表示:在2018年,谷歌建立了内部管理结构和全面的审查流程,到目前为止已经在各个产品领域进行了数百次审查。谷歌将继续将该流程应用于面向外界的基于人工智能的技术,负责任的人工智能仍是公司的首要任务。

但决定人工智能产品何时准备上市的标准不断变化,也引发了员工的不安情绪,比如谷歌在决定发布Bard后,调低了实验性人工智能产品的测试分数标准,引起了内部员工的反对。

2023年初,谷歌公布了由两个人工智能团队(Responsible Innovation和Responsible AI)围绕Bard设定的约20项政策,员工普遍认为这些规定相当明确且完善。

也有员工认为这些标准制定的更像是给外界表演看的,不如公开训练数据或是开源模型,用户能够更明确了解模型的能力。

03

留给谷歌的时间不多了

多年来,谷歌一直在投入大量资金开发人工智能技术。2010年起,它开始收购人工智能初创企业,将它们的技术融入其不断增长的产品组合中。

2013年,谷歌引入了人工智能软件先驱辛顿(Hinton) ,后者的科学工作帮助奠定了当前占主导地位的一批技术的基石。一年后,它以6.25亿美元收购了另一位领先的人工智能研究者哈萨比斯(Hassabis)创立的 DeepMind。

在被任命为谷歌首席执行官后不久,皮查伊宣布谷歌将成为“人工智能优先”公司,将该技术整合到其所有产品中。

多年来,谷歌的人工智能研究团队取得了突破性进展,开发出了有利于整个行业的工具。他们发明了“Transformer”,能够消化更大数据集的新型人工智能模型。这项技术成为“大型语言模型”的基础,这些模型目前主导着围绕人工智能的讨论,包括 OpenAI 的 GPT-3和 GPT-4。

尽管取得了这些稳步的进步,但正是由规模较小的新兴企业 OpenAI 开发的 ChatGPT 在人工智能领域引发了一波更广泛的迷恋和兴奋。OpenAI 成立的初衷是为了制衡大型科技公司对该领域的收购,与规模更大的竞争对手相比,OpenAI 面临的审查较少,而且更愿意将其最强大的人工智能模型交到普通人手中。

加州大学伯克利分校(University of California Berkeley)的人工智能研究员德凯(De Kai)表示: “在任何组织中,都很难弥合正在推进基础模型的真正科学家与试图开发产品的人之间的鸿沟。”

德凯曾在2019年担任谷歌短暂的外部人工智能顾问委员会成员。“如何以一种不影响团队推动技术进步的方式整合这种能力,是一个挑战。”

谷歌一直小心翼翼地将其聊天机器人 Bard 和其他新的人工智能产品贴上“实验”的标签。

但对于一个拥有数十亿用户的公司来说,即使是小规模的实验也会影响到数百万人,而且世界上很多地方可能会通过谷歌工具与生成性人工智能接触。该公司的庞大规模意味着,其加快推出新型人工智能产品的转变,正引发监管机构、人工智能研究人员和商界领袖的广泛担忧。

5月4日,白宫邀请了谷歌、OpenAI、微软的首席执行官会面,商讨公众对AI技术的担忧,以及如何对AI进行监管。

美国总统拜登在邀请函中明确表示,AI公司必须确保产品的安全性,然后才能向公众开放。

参考链接:

https://www.washingtonpost.com/technology/2023/05/04/google-ai-stop-sharing-research/?continueFlag=79ffd5fcb61f5a609d5f0e732d0f2e83

本文提供的信息仅用于一般指导和信息目的,本文的内容在任何情况下均不应被视为投资、业务、法律或税务建议。

本文首发于微信公众号:出新研究。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

责任编辑:hN_1027
    独家