首頁 > 新聞 > IT資訊 > 正文

千名專家呼吁能讓ChatGPT研發按下暫停鍵嗎?

2023-03-31 08:40:50來源:新京報  

■ 專欄

科技必須向著合乎人類利益的方向演進。


(資料圖片)

在GPT4誕生兩周之際,日前一篇關于GPT4已點燃通用人工智能火花的論文熱度未減,圖靈獎得主約書亞·本吉奧、計算機科學家斯圖爾特·羅素以及特斯拉創始人馬斯克等千余名業界人士則站出來指出,鑒于最近幾個月來人工智能領域已陷入一場幾近失控的競賽,巨型AI研究是時候按下暫停鍵。

在宇宙學家泰格馬克等人創辦的未來生命研究所網站上,他們貼出了一封呼吁暫停訓練比GPT4更強大的AI系統的公開信。公開信指出,大量研究表明并得到頂級AI實驗室的認可,具有人類競爭智能的AI系統可能對社會和人類構成深遠的風險。

相稱性治理思想沒有得到認真對待

實際上,2017年初,在阿西洛馬召開的“有益人工智能”會議上,2000余位業界人士和學者就曾聯合簽署過包括23條倡議的Asilomar AI原則。

其指導思想是,面對超級智能及其對地球生命史可能帶來的深刻變化,要構建對人類有益的智能而不是無序的智能,必須在規劃和管理上投入與這種超強的創新相對應的資源和關注力,對于人工智能可能造成的災難性和生存風險,必須付出與其可能造成的影響相稱的努力。

自那時以來,盡管世界上相繼出臺了一百多部人工智能原則和文件,但現在看來,這些原則及其背后的相稱性治理的思想并沒有得到認真對待。

或許是了解人類即便意識到巨大的生存風險依然言行不一的痼疾,這封公開信采用了兩個策略。

一是訴諸人類未來的命運,對人工智能可能勝過人類智能的歷史臨界點的人類命運,進行了追問。二是直指OpenAI關于通用人工智能的聲明中的高調表態,指出當下恰是落實其中“在開始訓練未來系統之前進行獨立審查很重要”主張的關鍵時刻。

而這兩個策略背后的思想是,對于接近人類智能的人工智能的開發可能導致的人類生存風險,不能簡單地從風險收益比的維度去權衡,相應的政策和監管不能完全依靠科技公司的自律和科技領袖的認知。

由此,公開信不僅明確呼吁所有AI實驗室立即以公開和可檢驗的方式,暫停至少6個月訓練比GPT-4更強大的AI系統;而且強調要在獨立的外部專家的參與監督以及政府的必要監管下,通過這次必要的暫停,共同開發和實施一套用于高級人工智能的共享安全協議,以使強大的人工智能系統更加準確、安全、可解釋、透明、穩健、一致,更值得信賴,對人類更為忠誠。

據此,公開信還進一步提出了構建專門和有力的人工智能監管機構和強大的審計和認證生態系統等具體建議。

慢科學策略并不是簡單叫停

從科技發展史的維度來看,公開信所提出的暫停策略并非創舉,至少可以追溯至1975年。彼時在最為著名的一次阿西洛馬會議上,保羅·伯格等生命科學家鑒于基因研究的未知風險,主動提出暫停重組DNA。

從那時到現在的差不多半個世紀,暫停有風險科學研究背后的預防性思想,越來越成為突破性科技創新所奉行的重要原則。

值得指出的是,從預防性原則出發提出暫停并不是簡單叫停,而是通過科技風險的認知和研判,探尋我們可以接受的研究和創新。

應該是基于這一尋求更加穩健的創新的思路,公開信指出,只有當我們確信它們的影響是積極的并且它們的風險是可控的時候,才應該開發強大的人工智能系統。

展望深度科技化未來,科技將越來越深地走進生命和智能等關乎人類存在的領域,這也就意味著人的價值、倫理等問題必須被視為研究和創新的內在環節,必須在關注度和資源上給予相應的投入,科技才可能向著合乎人類利益的方向演進。

只有真正認識到這一點并付諸實踐,才可能改變人工智能等深度科技化前沿中科技的力量和控制科技的力量之間的不平衡。

□段偉文(中國社科院科學技術和社會研究中心)

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀