首頁 > 新聞 > 智能 > 正文

OpenAI 首席執(zhí)行官:暫停 AI 訓練并非解決之道 目前還沒有開發(fā) GPT-5

2023-04-15 08:08:40來源:ZAKER科技  


(資料圖片僅供參考)

財聯(lián)社 4 月 15 日訊(編輯 牛占林)在討論人工智能 ( AI ) 系統(tǒng)帶來的威脅時,OpenAI 的首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Sam Altman 表示,人工智能確實存在重大的安全挑戰(zhàn),但暫停訓練并非解決之道。此外,他還透露,目前該公司還沒有開發(fā) GPT-5。

當?shù)貢r間周四,在麻省理工學院舉行的一個討論商業(yè)和人工智能的會議上,Altman 對此前的 " 公開信事件 " 以及 GPT-4 等問題發(fā)表了講話。

Altman 指出,馬斯克等人呼吁將人工智能研發(fā)工作暫停六個月的公開信缺乏 " 技術細節(jié) "。他表示,我也認為需要謹慎行事,并提高人工智能的安全指導意見,但公開信中提到的方法并非正確的解決之道。

在 3 月 29 日,馬斯克等千名業(yè)界和學界人士聯(lián)署公開信,呼吁所有人工智能實驗室立即暫停訓練比 GPT-4 更強大的人工智能系統(tǒng),暫停至少 6 個月,以便制定和實施安全協(xié)議。

這些大佬們警告說,OpenAI 和谷歌等人工智能研發(fā)的參與者在沒有對潛在風險進行充分管理和規(guī)劃的情況下展開競賽。上周,美國總統(tǒng)拜登在白宮與一個科學家顧問委員會討論了這個話題。當記者問及該技術是否危險時,拜登回應稱:" 還有待觀察,有可能是危險的。"

Altman 補充道,我也同意,隨著人工智能的能力變得越來越強大,安全門檻必須提高。在今年早些時候,Altman 承認人工智能技術讓他 " 有點害怕 "。他認為,隨著人工智能技術的不斷發(fā)展,人類可能面臨著前所未有的挑戰(zhàn)和風險。

此外,Altman 還明確表示,目前還未開發(fā) GPT-5,而且在一段時間內(nèi)也不會。然而,對于那些擔心人工智能安全的人來說,這些言論可能不會帶來太多安慰。

這位人工智能專家提到,人工智能監(jiān)管的一個重要挑戰(zhàn):難以衡量和跟蹤進展。有編號的版本只是為了強調(diào)技術的明確發(fā)展,但并不能說明具體的技術進步程度。實際上只是營銷工具,比如 iPhone 35 要比 iPhone 34 好。Altman 指出,該公司仍在提升 GPT-4 的潛力。

Altman 表示,大語言模型 ( LLM ) 的規(guī)模可能正在接近極限,而且不是說規(guī)模越大就越好,人們太關注參數(shù)數(shù)量了,我認為最重要的是提升性能。

與此同時,據(jù)媒體最新報道,馬斯克計劃成立人工智能初創(chuàng)公司與 Open AI 競爭,他已經(jīng)為其人工智能初創(chuàng)公司獲得了英偉達處理器。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀