首頁 > 新聞 > IT資訊 > 正文

AI哨所 |馬斯克說暫停AI開發才能更安全?根本不需要 今日看點

2023-04-18 11:47:45來源:鳳凰網  

鳳凰網科技《AI哨所》北京時間4月17日消息,埃隆·馬斯克(Elon Musk)等上千人聯名呼吁暫停高級人工智能(AI)模型的開發六個月,以規避AI帶來的安全風險。但是在專家看來,根本不用這么做。

圖1:AI訓練需要人的指導

馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)等知名人士警告稱,像OpenAI旗下GPT-4這樣的大型語言模型的崛起,正在為一個機器人做出所有決定的新時代敞開大門(人類沒有終結的話)。


(相關資料圖)

現在,這個話題已經轉向了負責任的AI概念上。由于馬斯克等領袖呼吁暫時停止開發新的AI模型,那我們就來弄清楚如何確保這些系統在所有情況下都能公平和合乎倫理地行事。

公開的秘密

鳳凰網科技《AI哨所》了解到,開發負責任AI的秘密根本不是秘密。這是業內多年前就知道的事情。如果你想完全確定你的AI是否按照你想要的方式行事,你就需要有人參與其中。

“我們需要讓人類參與AI訓練,甚至提前編碼,讓機器在遇到道德困境時知道應該如何行動?!备鐐惐葋喆髮W商學院教授奧德·內澤爾(Oded Netzer)表示。

通過確保AI從一開始就按照人類想要的行為進行編碼,并定期檢查以確保它仍然按照預期行事,它的行為會在很大程度上被接受為標準做法。你可以防止這些系統制造虛假信息,歧視某些用戶, 或以其他方式表現不佳。

這是好消息。壞消息是,人們現在突然對負責任的AI產生興趣,恰逢科技公司正在大力裁員之際。微軟、谷歌和Meta等大型科技公司為了節省成本,裁減了他們的AI倫理學家。

圖2:科技公司正在裁減AI倫理學家

專家們指出,從短期來看,裁員對他們的業務來說可能是正確的舉動,但是對于AI技術的未來來說,這些裁員可能發生在最糟糕的時刻。

“你最不想讓人們離開的地方就是AI領域,”內澤爾表示,“我預計這可能是短期內的人員低點,他們最終會在這些團隊中重新招聘的?!?/strong>

人類干預是關鍵

AI倫理學家不會坐在房間里討論柏拉圖,思考作為人類意味著什么。許多負責任的AI都致力于理解AI對人們日常生活的影響。你可以把AI倫理學家想象成房間里負責任的父母。

從根本上說,讓AI倫理學家參與開發過程,是為了放慢將新產品推向市場的速度,因為你可以這么做。每家公司的做法都不同,但這些倫理學家通常會檢查AI模型的偏見或不準確性,并詢問有關該系統的社會或政治影響的問題。例如,如果他們認為AI可能會產生有偏見的結果或傷害一群人,他們可以要求產品團隊推遲發布。

對于金融或醫療保健等受到嚴格監管的行業來說,這尤其重要。在這些行業,如果有人知道如何提出正確(或錯誤)的問題,未經檢查的算法可能會泄露敏感數據。

倫理學家甚至不必是一個在大學里長時間研究哲學的人。通常來說,這些人都是各自領域的專家,從律師(和其他法律專業人士)到與邊緣群體打交道的經驗豐富的人。

湯森路透法律技術部門首席產品官克里蒂·夏爾馬(Kriti Sharma)表示:“我真的相信AI是未來,但現實是,我們的數字生活應該由像我這樣的極客獨自打造。它需要的是擁有許多不同背景、了解背景和社會的人的組合?!?/p>

她補充說,在訓練AI時讓專家隨叫隨到,可以為模型提供更好的指導,并為其接收的數據提供背景信息。有了額外的背景信息,它有助于減少偏見并指導結果。

總而言之,創造負責任的AI的方法已經存在,沒有必要暫停開發六個月時間,只需讓人類參與進去。鳳凰網科技《AI哨所》對此將持續關注。(作者/簫雨)

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀