首頁 > 新聞 > IT資訊 > 正文

每日訊息!陳兵:建議僅對適用于高風險生成式人工智能應用施加真實性義務

2023-04-17 21:40:44來源:中新經緯  

中新經緯4月17日電 題:建議僅對適用于高風險生成式人工智能應用施加真實性義務


(相關資料圖)

作者 陳兵 南開大學法學院副院長、教授

4月11日,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(下文簡稱“《征求意見稿》”)?!墩髑笠庖姼濉返陌l布意味著中國第一時間將AIGC(人工智能生成內容)技術創新應用及相關產品開發有針對性地納入法治化治理架構,樹牢“安全是發展的前提”的底線思維,明確為新技術、新產業、新業態的發展指明合規發展的主線。

同時,其中還存在可進一步討論之處,如何更好地設計規則以統籌安全與發展的關系尤為重要,在夯實安全發展的基礎之上,給予創新發展以可容、可信、可控的制度環境,以高質量的制度型開放為中國人工智能技術和產業的彎道超車,提供科學有力、堅實堅定的制度支撐,釋放創新是發展第一動力的明確信號。結合《征求意見稿》,筆者有五點理解:

一、《征求意見稿》第六條規定的安全評估,算法備案和變更、注銷備案手續等事前審查規定是有意義且有必要的,但是需要注意事前審查的方式方法,避免不合理地增加企業的負擔。

任何技術都是一把雙刃劍。生成式人工智能產品作為高度智慧化的人工智能形態,帶給人類社會的便捷與風險同在,應勇敢審慎地應對接受新科技浪潮的洗禮?!墩髑笠庖姼濉吩黾邮虑皩彶椋粌H可以提升利用生成式人工智能產品向公眾提供服務的合法性,增加其安全、可靠、可解釋、可問責等可信性,還有助于更好地實現AI產品和技術適用的包容性,更好地預防風險,保障安全,及時發現其運作程序、服務內容所存在的問題,從而提高生成式人工智能產品向公眾提供服務的可接受性。

建議進一步明確事前審查的審查范圍以及方式方法。由于事前審查會在一定程度上增加企業的合規成本,若事前審查范圍設置不當,可能會抑制生成式人工智能產品的研發與訓練效能,客觀上會導致生成式人工智能發展的降速。因此,需注意事前審查的方式方法可能對企業經營產生的影響,譬如企業未經審查之前,是否能夠發布相關產品,若不能,事前審查所需要的時間是否會不當地阻礙企業的正常經營行為等等。

二、《征求意見稿》第五條針對責任主體方面進行了細化規定,生成式人工智能產品提供者承擔該產品生成內容生產者的責任,該規定是對人工智能追責體系的補充和完善,但也需考慮到提供者對人工智能產品控制力度的有限性,否則可能會導致提供者責任的承擔范圍會被不合理地放大,建議進一步明確提供者的免責事由。

生成式人工智能產品提供者承擔該產品生成內容生產者的責任,這里實際上需要關注的重點在于對生成內容生產者的認定。如果生成式人工智能產品提供者是生成內容的生產者,這里的生產者即應對生成內容的過程、具體數據信息的真實性和算法使用的適當性等整個生成過程負責,那么當然需要對其承擔責任。該規定是對生成式人工智能產品提供者(通常是平臺主體)應該盡到高度注意義務的規定,在一定程度上講,也只有為生成式人工智能產品提供者確定相應的責任義務,才能更好地對生成內容的合法合規作出要求。

建議參照“安全港”制度合理設置平臺承擔責任的范圍,明確提供者免責事由。如果平臺盡到相應注意義務,在責任的承擔上,鑒于其對創新發展的貢獻,不宜施加其嚴格責任,否則不利于技術的開發和未來商用。另外,關于運營公司是否需要承擔相應的補充責任,應綜合考慮侵權范圍、損害程度以及平臺避免損失擴大的能力。

三、《征求意見稿》第十七條規定提供者應當根據要求提供可以影響用戶信任、選擇的必要信息。該規定實際上是對生成式人工智能算法的可解釋性提出了新的要求,使隱私權、個人信息的保護不再僅局限于被動的事后救濟,保護鏈條前移,更加積極有效地規范AI訓練過程,有助于增強用戶信任,使生成式人工智能產品更好發展。

建議進一步細化對提供者公開信息的范圍和限度。對可解釋的要求不能過于苛刻或過度放大,應當進一步規定對信息公開的程度和限度,避免提出不合理要求使生成式人工智能算法的關鍵信息被迫公開,導致企業的技術機密泄露,對企業創新發展產生不可挽回的損失。

四、《征求意見稿》第十五條規定,對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成。該規定針對生成式人工智能的關鍵問題,對癥下藥,豐富和完善了對生成式人工智能違規的處理方式。

建議優化并完善驗證整改優化的方式方法。整改優化的結果驗證應落實于技術實踐,在尊重技術實踐及規律的基礎上,輔之以監管保障,鼓勵和支持平臺探索創新并優化技術實現路徑。為此,在設定技術運用的基本門檻之上,落實于實踐試用,加之定期和不定期的監測,保證其整改優化結果的安全性與可信度。在整改優化后,可通過人工測試模擬運行、“監管沙盒”以及設置監管過渡期等方式,檢驗整改優化后的內容生成是否仍存在不符合規定的生成內容。

五、《征求意見稿》第四條規定利用生成式人工智能生成的內容應當真實準確。該規定主要針對目前生成式人工智能無法保證生成信息的真實性問題,目前生成式人工智能并不會對生成內容的正確性進行驗證,這可能會導致一些缺乏專業知識的人誤將生成內容作為正確答案。但是,以目前主流的生成式人工智能技術來看,主要是通過強化學習和搜索增強等方式,提升生成內容的邏輯性和可讀性,但并不能像人一樣去辨別內容的真實性。

若將生成式人工智能生成的內容應該真實準確作為提供者的義務,目前AI難以自行完成,這意味著,中國的生成式人工智能提供者必須通過人工審核的方式達成義務。但是,這在很大程度上會影響生成式人工智能的運行和生成內容的效率,降低消費者用戶的體驗,而且也會增加企業的負擔,花費大量的人力和技術資源用于審核信息。

生成式人工智能目前仍主要作為人類工作的輔助工具,用戶仍可以通過指令的方式實現對生成內容的控制,而且在多數場景中,內容生成多為私人使用,生成后并不會自動向公眾公開和傳播,因此,對于生成式人工智能的義務規定,仍需要區分使用場景。

從用戶需求和服務體驗來看,用戶對于此類工具的使用有隱私和保密方面的需求,人工審查的方式也不利于滿足用戶對于隱私保護的需求,實際上也對生成式人工智能的功能產生影響。且從事實層面來看,賦予主體審查義務,必須考慮該主體對于審查的可控性和技術實現的可能性,而在現實中,用戶是對生成內容有直接控制的能力,提供者能夠通過完善算法的方式提升信息生成的準確率,但無法100%保證真實準確。

建議將該條款調整為一種鼓勵式、提倡式的條款,僅對適用于特殊場景的高風險生成式人工智能應用施加真實性義務,譬如,有些平臺將生成式人工智能內置在平臺之中,此時生成內容會直接進行公開傳播,在這種場景下,存在虛假信息傳播的風險,且平臺擁有對信息傳播的控制力。2022年9月通過的歐盟《人工智能民事責任指令》規定只有高風險的AI應用才承擔嚴格的責任。

總體來講,對仍存在較大發展空間且技術仍待發展成熟的領域,立法仍需給予一定的包容空間,不宜超出提供者的能力范圍設置強制性義務。以國外的ChatGPT為例,其目前也暫時無法確保生成內容的真實性,若將此作為生成式AI提供者的義務,無形之間提高了進入該市場的門檻,不利于中國生成式AI產業發展,或對中國獲取該領域的國際競爭新優勢造成阻礙。(中新經緯APP)

本文由中新經緯研究院選編,因選編產生的作品中新經緯版權所有,未經書面授權,任何單位及個人不得轉載、摘編或以其它方式使用。選編內容涉及的觀點僅代表原作者,不代表中新經緯觀點。

責任編輯:張芷菡

編輯:吳曉薇

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀