首頁 > 新聞 > IT資訊 > 正文

環球滾動:馬斯克等千名科技人士簽署聯名信:呼吁暫停訓練比GPT-4更強大的人工智能

2023-03-29 13:30:50來源:新浪網  


(資料圖)

特斯拉CEO埃隆·馬斯克(Elon Musk)和一群人工智能專家及行業高管在一封公開信中表示,他們呼吁暫停訓練比GPT-4更強大的人工智能系統至少六個月,理由是這種系統對社會和人類構成潛在風險。

這封信由非營利組織未來生命研究所(Future of Life Institute)發布,包括馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克和Stability AI首席執行官伊馬德·穆斯塔克(Emad Mostaque)在內的1000多人簽署,呼吁暫停高級人工智能的開發,直到為此類設計制定、實施并由獨立專家審核的共享安全協議。

信中寫道:“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統。”

這封信還詳細列出了與人類競爭的人工智能系統以經濟和政治破壞的形式對社會和文明造成的潛在風險,并呼吁開發者與政策制定者就治理問題和監管機構展開合作。

這封信呼吁,所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月。這種暫停應該是公開的和可驗證的,并且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入并實行暫停。人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用于高級人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,并且無可置疑。這并不意味著總體上暫停AI開發,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。

OpenAI的ChatGPT自去年發布以來,已促使競爭對手推出類似產品,并促使企業將其或類似技術集成到自己的應用程序和產品中。

馬斯克此前就曾多次表達對人工智能的擔憂,他在今年2月的一次視頻講話中表示,人工智能是未來人類文明最大的風險之一。他說:“它有積極的一面,也有消極的一面,有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的。”

馬斯克當時指出,應該監管人工智能的安全問題,即使會放慢這一技術的發展速度。早在2017年,馬斯克就提出了“AI威脅論”,認為人工智能是人類文明的危險,并指出威脅程度要遠高于車禍、飛機失事、毒品泛濫等。在2018年的一次采訪中,馬斯克更是強調,人工智能要比核武器危險得多。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀