首頁 > 新聞 > IT資訊 > 正文

行業前沿 | 谷歌戰略轉變:“開放”變“防守”!新研究閉源,想發論文得審批 全球速讀

2023-05-10 09:45:36來源:出新研究微信號  


“AI的開源時代要結束了嗎?

編譯:Poetry|


(資料圖片僅供參考)

AI在過去十多年的飛速發展,得益于高校、企業與個人開發者的通力合作,讓人工智能領域內遍布開源的代碼、數據及教程。

谷歌也一直是AI行業的領軍者,發表的論文橫跨自然語言處理、計算機視覺、強化學習等多個領域,為行業內貢獻了諸如Transformer, Bert, PaLM等諸多基礎模型與架構。

人們已經習慣跟隨谷歌的腳步,使用其提出的新技術和工具作為研究基礎,谷歌也走出過大批人才,成為了各家研究機構和公司的骨干。然而最近,在 ChatGPT 的沖擊下,谷歌決定不這么干了。

01

戰略轉變

多年來,這家科技巨頭發表的科學研究成果幫助其競爭對手迅速崛起,但現在卻陷入了防御模式。

今年二月,長期擔任谷歌人工智能主管的杰夫?迪恩(Jeff Dean)向其員工宣布了一項令人震驚的政策轉變:谷歌以后將不得不推遲與外界分享自己的工作成果。

多年來,Jeff Dean 麾下的 Google AI 像大學的計算機系一樣,鼓勵研究人員大量發表學術論文。根據 Google Research 的網站,他們自 2019 年以來推出了近 500 項研究。

但去年底 OpenAI 開創性的 ChatGPT 改變了整個科技領域的現狀。Jeff Dean 在公司研究部門的季度會議上表示,這家背靠微軟的創業公司大量閱讀 Google AI 提交的論文與谷歌保持同步。這樣的「指責」并不奇怪,事實上,大語言模型的重要基礎,ChatGPT 中的 T —— transformer 是谷歌 2017 年的一項研究。

Transformer 自提出以來,一直是自然語言處理(NLP)領域研究的大方向,是 AI 目前這一波突破的源頭。

谷歌認為這種情況必須改變,據兩名知情人士透露,谷歌將規定自己的人工智能發現只有在實驗室工作轉化為產品后才能分享論文。

新的政策變化是谷歌內部更大轉變的一部分。長期以來,這家科技巨頭一直被認為是 AI 領域的領導者,但現在卻陷入了需要追趕別人的境地 —— 谷歌需要抵御一群靈活的 AI 競爭對手,保護自己的核心搜索業務和股價,以及潛在的未來。

在專欄文章、播客和電視節目中,谷歌 CEO 桑達爾?皮查伊 (Sundar Pichai) 表示需要對人工智能保持謹慎。「在社會層面上,它可能會造成很大的傷害,」他在 4 月份的「60 分鐘」節目中警告說,并描述了生成式 AI 如何加速虛假圖像和視頻的創作。

但與高管們透露出的風向正相反的是,最近幾個月,根據對 11 名現任和前谷歌員工的采訪,谷歌已對 AI 業務進行了全面改革,目標是快速推出產品。

它降低了向少數群體推出實驗性人工智能工具的門檻,在公平等領域制定了一套新的評估指標和優先事項。皮查伊在一份聲明中表示,谷歌還把 DeepMind 和 Google Brain 進行了合并,以「加速在人工智能方面的進步」。這個新部門將不會由 Jeff Dean 管理,而是由 DeepMind 的首席執行官哈薩比斯管理,DeepMind 在一些人看來擁有更新鮮、更有活力的品牌。

在上周早些時候的一次會議上,哈薩比斯表示,人工智能可能比大多數其他人工智能專家預測的更接近人類智能水平,「我們可能只需要幾年,也許…… 十年后就可以實現。」

谷歌加速發展之際,一些不和諧的聲音呼吁人工智能開發商放慢速度,警告稱,這項技術的發展速度甚至超出了發明者的預期。這些聲音中包括著名的公司校友和業內資深人士。

杰弗里·辛頓(Geoffrey Hinton)是人工智能技術的先驅之一,他于2013年加入谷歌,最近離開了該公司。此后,他在媒體上發出警告,稱超級人工智能逃脫人類控制的危險。皮查伊以及 OpenAI 和微軟(Microsoft)的首席執行官們在上周四還會見了白宮官員。

目前,全球各地的監管機構正在討論圍繞這項技術的新規定。

02

喜憂參半

對于谷歌員工來說,在發表相關 AI 研究之前需要額外批準意味著可能會在生成式 AI 的閃速世界中被別人「搶發」。這種政策也可能被用來悄悄地壓制那些有爭議的論文,比如 2020 年谷歌 Ethical AI 團隊負責人 Timnit Gebru 和 Margaret Mitchell 共同撰寫的關于大語言模型危害的研究。

不得不承認的一點是,谷歌在 2022 年失去了很多頂級 AI 研究者,轉投被視為更前沿的初創企業。這種人才外流的部分原因在于對谷歌沒有采取一些明智的決策而感到沮喪,比如未將聊天機器人納入搜索等。

前谷歌大腦人工智能研究員Brian Kihoon Lee在今年1月大規模裁員潮中被解雇了,他將這種轉變描述為谷歌從「和平時期」向「戰爭時期」的轉變,一旦競爭變激烈,一切都會變。在戰時狀態,競爭對手的市場份額增長也很關鍵。

谷歌發言人Brian Gabriel表示:在2018年,谷歌建立了內部管理結構和全面的審查流程,到目前為止已經在各個產品領域進行了數百次審查。谷歌將繼續將該流程應用于面向外界的基于人工智能的技術,負責任的人工智能仍是公司的首要任務。

但決定人工智能產品何時準備上市的標準不斷變化,也引發了員工的不安情緒,比如谷歌在決定發布Bard后,調低了實驗性人工智能產品的測試分數標準,引起了內部員工的反對。

2023年初,谷歌公布了由兩個人工智能團隊(Responsible Innovation和Responsible AI)圍繞Bard設定的約20項政策,員工普遍認為這些規定相當明確且完善。

也有員工認為這些標準制定的更像是給外界表演看的,不如公開訓練數據或是開源模型,用戶能夠更明確了解模型的能力。

03

留給谷歌的時間不多了

多年來,谷歌一直在投入大量資金開發人工智能技術。2010年起,它開始收購人工智能初創企業,將它們的技術融入其不斷增長的產品組合中。

2013年,谷歌引入了人工智能軟件先驅辛頓(Hinton) ,后者的科學工作幫助奠定了當前占主導地位的一批技術的基石。一年后,它以6.25億美元收購了另一位領先的人工智能研究者哈薩比斯(Hassabis)創立的 DeepMind。

在被任命為谷歌首席執行官后不久,皮查伊宣布谷歌將成為“人工智能優先”公司,將該技術整合到其所有產品中。

多年來,谷歌的人工智能研究團隊取得了突破性進展,開發出了有利于整個行業的工具。他們發明了“Transformer”,能夠消化更大數據集的新型人工智能模型。這項技術成為“大型語言模型”的基礎,這些模型目前主導著圍繞人工智能的討論,包括 OpenAI 的 GPT-3和 GPT-4。

盡管取得了這些穩步的進步,但正是由規模較小的新興企業 OpenAI 開發的 ChatGPT 在人工智能領域引發了一波更廣泛的迷戀和興奮。OpenAI 成立的初衷是為了制衡大型科技公司對該領域的收購,與規模更大的競爭對手相比,OpenAI 面臨的審查較少,而且更愿意將其最強大的人工智能模型交到普通人手中。

加州大學伯克利分校(University of California Berkeley)的人工智能研究員德凱(De Kai)表示: “在任何組織中,都很難彌合正在推進基礎模型的真正科學家與試圖開發產品的人之間的鴻溝。”

德凱曾在2019年擔任谷歌短暫的外部人工智能顧問委員會成員。“如何以一種不影響團隊推動技術進步的方式整合這種能力,是一個挑戰。”

谷歌一直小心翼翼地將其聊天機器人 Bard 和其他新的人工智能產品貼上“實驗”的標簽。

但對于一個擁有數十億用戶的公司來說,即使是小規模的實驗也會影響到數百萬人,而且世界上很多地方可能會通過谷歌工具與生成性人工智能接觸。該公司的龐大規模意味著,其加快推出新型人工智能產品的轉變,正引發監管機構、人工智能研究人員和商界領袖的廣泛擔憂。

5月4日,白宮邀請了谷歌、OpenAI、微軟的首席執行官會面,商討公眾對AI技術的擔憂,以及如何對AI進行監管。

美國總統拜登在邀請函中明確表示,AI公司必須確保產品的安全性,然后才能向公眾開放。

參考鏈接:

https://www.washingtonpost.com/technology/2023/05/04/google-ai-stop-sharing-research/?continueFlag=79ffd5fcb61f5a609d5f0e732d0f2e83

本文提供的信息僅用于一般指導和信息目的,本文的內容在任何情況下均不應被視為投資、業務、法律或稅務建議。

本文首發于微信公眾號:出新研究。文章內容屬作者個人觀點,不代表和訊網立場。投資者據此操作,風險請自擔。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀