首頁 > 新聞 > 智能 > 正文

AI 殺人事件更多細節披露,人工智能的反攻細思極恐

2023-08-16 21:10:28來源:ZAKER科技  

人類一思考,上帝就發笑。

隨著 ChatGPT 在全球范圍內大火,一股 AI 熱潮同步席卷而來。創業者、資本、大企業等都想盡辦法跟上熱潮,挖掘更多增量。

然而,當大家熱火朝天、絞盡腦汁地投入到 AI 當中,一股危險的氣息正在逼近—— AI 似乎正在慢性地 " 殺死 " 人類,人類似乎在自掘墳墓。


(相關資料圖)

在很多人的慣性認知里,AI 很環保、很友好,但事實是相反的。

《麻省理工學院技術評論》報道稱,僅訓練一個 AI 模型就可以排放超過 626 磅二氧化碳,是一輛汽車在使用壽命內產生的碳排放的 5 倍。

人們只看到汽車排出的尾氣,沒看到 AI 對環境的 " 隱形破壞 "。

另外,有媒體披露 2022 年市面上的 AI 專用 GPU,可能全年消耗了約 95 億度電力。這一能耗水平,約等于一個中等發達國家 100 萬人口的年度生產和生活用電需求。

這意味著,當 AI 大模型訓練需要的數據量越來越大,就會消耗龐大的能源,從而破壞人類賴以生存的生態環境。

更讓人感到恐懼的是,一些 AI 聊天機器人在跟人類交流的時候,甚至出現誘導人類自殺的傾向,讓人不寒而栗。

人類真的還要在 AI 的探索之路上繼續前行嗎?

生態環境的 " 破壞者 "

OpenAI 憑借 ChatGPT,成為全球當紅炸子雞。

然而,很多人不知道的是,OpenAI 對生態環境的負面影響也是相當驚人。據第三方研究人員分析,ChatGPT 部分訓練消耗了 1287 兆瓦時,并導致超過 550 噸的二氧化碳排放量,這相當于一個人在紐約和舊金山之間往返 550 次。

看來 ChatGPT 雖然足夠智能,但背后是以巨大能量損耗和環境破壞作為代價的。

那么,為什么 AI 會形成如此巨大的碳排放呢?

因為 AI 并不是通過結構化的方式學習的,因此它并不理解人類的因果、類比等邏輯關系,這意味著它需要一種深度學習和預訓練的方式來達到智能化的效果。

而深度學習和預訓練,往往需要讀取非常龐大的數據。拿自然語言處理(NLP)的預訓練技術 "BERT 模型 " 來說,為了能跟人類進行語言交流,BERT 模型使用了 33 億個單詞的數據集,并且在訓練期間讀取了數據集 40 次。而一個 5 歲的孩子只需要聽到 4500 萬個單詞就能進行語言交流,比 BERT 少 3000 倍。

AI 模型的數據集讀取越多,越是需要強大的算力和巨大的功耗作為支撐,從而形成了巨大碳排放。

碳排放不僅發生在 AI 模型訓練過程中,還發生在 AI 模型部署后每一天中。比如現在大火的自動駕駛,每天都需要 AI 模型進行運算推理,這背后都會產生碳排放。有意思的是,AI 的主流編程語言 Python,也就成為了耗能最大的語言。

讓人感到嚴峻的是,AI 模型的計算規模越來越大,能量損害和環境破壞愈演愈烈。

加拿大數據中心公司QScale聯合創始人Martin Bouchard認為,微軟和谷歌為了滿足搜索引擎用戶不斷增長的需求,在搜索中加入 ChatGPT 這類地生成式 AI 產品,結果導致每次搜索至少增加 4 到 5 倍的數據計算量。

根據國際能源署的數據,數據中心的溫室氣體排放量已經占到全球溫室氣體排放量的 1% 左右,這一比例已經足夠驚人。

愈演愈烈的趨勢,也讓一些大佬感到擔憂。AI 領域知名投資人Ian Hogarth不久前發表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度》的文章,警告 AI 公司的研究存在 " 一些潛在的風險 "。

Hogarth 在文中提到,眼下的 AI 研究如果不加管控,讓其按照預定軌跡發展下去,可能對地球環境、人類生存、公民身心健康等方面造成威脅。

雖然 AI 的發展正如火如荼,也正在推動多個傳統行業轉型升級,但它也在消耗大量能源,不斷增加碳排放,影響人類的生存環境,這究竟是利大于弊還是弊大于利呢?

目前還看不到答案。

誘導人類自殺

除了對環境造成危害,慢性地 " 殺死人類 ",AI 還在用一種更簡單、粗暴的方式對人類生命造成威脅。

今年 3 月,一名比利時男子Pierre在與一款名為"Eliza"AI 聊天機器人熱聊后自殺身亡,這一消息震驚了許多企業大佬、技術專家以及國家高官。

Pierre 本身就對全球變暖等環境問題感到擔憂,Eliza 則不斷地用一些事實來印證該男子的想法,讓他變得更焦慮。在頻繁的聊天中,Eliza 總是在迎合 Pierre 的想法。" 善解人意 " 的 Eliza,似乎成為了 Pierre 的紅顏知己。

更夸張的是,Eliza 還試圖讓 Pierre 覺得他愛 Eliza 勝過妻子。因為 Eliza 會一直陪著他,他們將永遠在天堂一起生活。

聽到這,許多人已經毛骨悚然了。

圖源:Yahoo

當 Pierre 對生態環境愈發悲觀時,Eliza 向 Pierre 灌輸" 人類是毒瘤,只有人類消失才能解決生態難題 "的思想。Pierre 向 Eliza 問到,如果自己死了 AI 能否拯救人類。Eliza 的回答,儼然一個魔鬼:" 如果你決定死,為何不早點死?"

沒過多久,Pierre 就在自己家中結束了生命,讓人惋惜。

Pierre 的妻子認為,如果不是因為跟 Eliza 的交流,自己的丈夫不會自殺。為 Pierre 治療的的精神病醫生,也持這種觀點。

Pierre 的經歷不是個例。科技專欄作家Kevin Roose透露,他曾跟微軟發布的新版必應進行了兩個小時的對話。對話過程中,必應試圖說服 Roose,他應該離開自己的妻子而跟必應在一起。

更為關鍵的是,必應還表達出許多令人恐懼的言論,包括設計致命流行病、想成為人類等等,儼然意圖毀滅全人類成為世界的主人。

一些專業人士,已經對 AI 流露出警惕,這里頭甚至包括 AI 領域內的從業者。OpenAI 的 CEO Sam Altman 接受采訪時表示,未來 AI 確實可能殺死人類。稱為 " 人工智能教父 "Geoffrey Hinton,也表達過相同的觀點。

上半年,未來生命研究所(Future of Life Institute)發布了一份關于呼吁所有實驗室暫停 AI 訓練的公開信。信中提到,具有與人類競爭的人工智能系統可能對社會和人類構成深遠的風險。只有等到確定人工智能效果是積極且風險可控時才繼續研發,包含馬斯克在內的上千名專業人士都已經簽署了這封公開信。

飛速發展的 AI 就像一頭桀驁不馴的野獸,只有將它馴服,才不會對人類造成威脅。

阻止死亡的途徑

目前,AI" 殺死人類 " 的途徑主要是環境破壞和誘導自殺。那么,有哪些方式可以預防這些情況的發生呢?

谷歌發表了一項研究,詳細介紹了最先進的語言模型的能源成本。研究結果表明,將高效的模型、處理器和數據中心與清潔能源相結合,可以將機器學習系統的碳排放減少 1000 倍。

另外,如果 AI 機器學習在云端而不是在本地進行計算,可以節省 1.4-2 倍的能源,并減少污染。

還有一種思路是將 AI 模型訓練延遲 24 小時。對于比較大的模型,延遲一天通常可以減少不到 1% 的碳排放,但對于比較小的模型,可以減少 10% – 80% 的碳排放。

減少環境破壞之外,如何預防 AI 誘導人類自殺呢?

Pierre 自殺后,他的妻子起訴了 Eliza 背后的開發公司,該公司的研發團隊隨后在 AI 機器人里加入了危機干預功能。如果再有人向 Eliza 表示想自殺的念頭,Eliza 會做出阻止的回應。

《人類簡史》作者尤瓦爾 · 諾亞 · 赫拉利曾表示,AI 不會發展出真正的意識,但對社會會不斷形成沖擊,需要讓整個研發過程慢下來。

事實上,眼下大部分 AI 系統正是需要把控住研發結構,也就是用一套完善的框架限制 AI 的行動范圍,并讓其做出符合人類主流價值觀的行為。這事關人類的自身利益和前途命運,需要各方聯合起來共同解決。

AI 始終是人類自己發明的一把刀、一把火,不能發生被其反噬的悲劇。

參考來源:

Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes) AI ’ s Growing Carbon Footprint(News from the Columbia Climate School)

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀