首頁 > 新聞 > IT資訊 > 正文

即時焦點:“馬斯克們”呼吁暫停訓練高級AI,ChatGPT怎么看?

2023-03-30 08:37:06來源:銀柿財經  

自ChatGPT正式發布以來,AI大模型變成了全球科技界追逐的對象,Google、Meta爭先布局,京東的ChatJD、百度的文心一言相繼發布,一時間“元宇宙”“Web3.0”成了過去式,資本與市場都在等待AI大模型更多的可能性。

但3月29日,美國生命未來研究所發布的一封公開信,似乎有意要給這陣“AI熱”降降溫。該信呼吁全球所有機構暫停訓練比GPT-4更強大的AI至少六個月,如果不能實施政府應該介入并發布禁止令。

馬斯克等上千人聯名呼吁


(資料圖片)

官網顯示,生命未來研究所成立于2015年,是一家非營利組織,致力于降低技術給人類帶來的風險,尤其是人工智能領域。

截至發稿,該信聯名人數達1123人,其中有不少商界、政界、學界的知名人士,包括特斯拉CEO馬斯克、蘋果公司聯合創始人史蒂夫·沃茲尼亞克、圖靈獎得主約書亞·本吉奧、《人類簡史》作者尤瓦爾·赫拉利。

參與簽名的部分人士

上述公開信指出,對地球的生命而言,先進的人工智能可能意味著一場深刻的變革,應該投入可觀的資源和關注來進行規劃和管理,然而近幾個月人工智能實驗室正在開發越來越強大的數字思維,競爭逐漸失序,但管理和規劃仍然缺位,包括創造者在內,沒有人可以理解、預測或控制它們。

此前OpenAI發布的聲明也指出,“在未來某個階段,有必要在訓練新系統之前進行獨立審查,同時對新模型計算能力的增長速度也加以限制。”

除了暫停訓練之外,該公開信也呼吁,AI實驗室和獨立學者應針對高級AI的設計和開發共同制定實施一套共享安全協議,確保AI的安全性。

與此同時,AI開發人員必須與決策者合作,大力推進強有力的AI治理系統的發展,包括:針對AI的新型監管機構;對高級AI系統的監督追蹤和大型算力池;幫助區分真實數據與AI生成的數據、并且追蹤模型泄漏的溯源和水印系統等。

不過信的末尾仍然提及,人類可以和AI共創繁榮未來,只不過要做好準備:“讓我們享受AI的‘長夏’,而不是毫無準備地進入‘秋天’。”

面對靈魂拷問,ChatGPT怎么看

對于公開信的建議,銀柿財經提問ChatGPT(GPT-3.5)是否同意,ChatGPT在生成的回答中并沒有明確提及同意與否,而是照常表明“作為一個AI語言模型,我不具備表達個人觀點或信仰的能力”。但它表示對于AI的研究與開發人員而言,需要優先考慮AI系統帶來的責任和道德問題,包括此類系統的潛在風險和好處。

ChatGPT認為,“暫停開發比GPT-4更強大的人工智能系統可能是一個合理的舉措,以便思考和討論與繼續開發此類系統相關的潛在風險和倫理考慮。這可以為研究人員提供一個機會,考慮如何減輕潛在風險,并確保此類系統的開發和部署符合人類價值觀和優先事項。”

ChatGPT建議,站在AI的研究與開發人員的角度,暫停研發和訓練是合理的。

此外,公開信中提及,如今的AI系統在常規工作中具備了與人類競爭的能力,并對可能出現的風險進行提問。銀柿財經嘗試將部分問題轉述給ChatGPT,得到如下回答以及建議:

銀柿財經:是否應該讓機器用宣傳和謊言充斥信息渠道?

ChatGPT:不,讓機器用宣傳和虛假充斥信息渠道對人類來說是不可取的。雖然機器和人工智能可以成為信息處理和傳播的強大工具,但它們的好壞取決于它們所用的數據和算法。如果他們被用來傳播虛假信息或宣傳,它會對個人、社會和公共機構產生嚴重的負面后果。

重要的是優先考慮負責任和合乎道德的技術使用,并確保人類保持對信息渠道的控制,以防止虛假或誤導性信息的傳播。這可以通過事實核查、算法和數據來源的透明度以及促進個人的媒體素養和批判性思維技能等措施來實現。最終,確保信息渠道的準確性和完整性的責任在于人類,而不是機器。

銀柿財經:是否應該把所有的工作都自動化,包括那些有成就感的工作?

ChatGPT:雖然自動化可以帶來許多好處,如提高生產力和效率,但不建議將所有工作自動化,包括令人滿意的工作。重要的是要在自動化的好處和工人的需求之間取得平衡,并確保工人不會在技術進步的過程中落在后面。

一個更平衡的方法不是以完全自動化為目標,而是使用自動化來增強人的能力并創造新的就業機會。這可以包括投資教育和培訓計劃,讓工人具備適應不斷變化的就業市場所需的技能,促進創業和創新,培養終身學習和持續職業發展的文化。

從現有回答來看,對于AI技術,ChatGPT的回答仍以兼顧風險與監管為主,至于在迭代之后,“態度”是否會改變,仍是難以預測的未知數。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀