首頁 > 新聞 > IT資訊 > 正文

王翔:兩種方式可解決算法公平性中的隱式敏感信息問題

2022-03-24 19:59:02來源:中新經緯  

中新經緯3月24日電 (王玉玲)近日,由中國人民大學高瓴人工智能學院、智能社會治理跨學科交叉平臺和基于大數據文科綜合訓練國家級虛擬仿真實驗教學中心聯合主辦的算法公平性與內容生態建設研討會在線上舉行。中國科學技術大學教授王翔表示,算法公平性是多方需求,對于某一類敏感人群,或者敏感信息,如果算法推薦產生了一些不公平結果,我們需要對結果進行糾偏或者去除混淆。

“關鍵在于如何鑒定敏感信息,如果我們沒有明確敏感信息的對象,那么公平性這個東西是模棱兩可的,很難去衡量?!蓖跸柚赋觯绻梢澡b定出敏感信息,那可以通過統計等方式,結合一些認知交叉科學的方式去衡量敏感信息。

例如,對于顯式的敏感信息,如用戶畫像、商品屬性等,如果我們引入認知圖譜,就會導致敏感信息爆炸式增長。舉個例子。比如說你去應聘一個崗位,如果一味強調公平性,可能會導致招過來的人不符合崗位需求。所以,我們需要從顯式信息里鑒定出應該真正關注哪些信息。

其次,還有隱式敏感信息,如潛在特征和潛在組合。在我們的推薦場景里,模型很可能不按照人的運行邏輯走,因為它會捕捉到一些隱式的信息或者特征。這些特征就是一個隱空間里面的向量,如何從中鑒定出來,這是我們達成公平性的前提條件。我認為有兩種找出隱式敏感信息的方式。

第一,人機混合智能。算法是天然的人機混合決策的場景,涉及到推薦算法平臺、人以及商品等多方交互,還有監管部門的加入等。人在其中是非常關鍵的,需要跟推薦系統產生交互,跟商品產生交互?!拔覀冃枰O管人員或者決策者對算法進行監管,定義哪些信息是我們需要關注的敏感信息,或者說從敏感信息中挖掘出來一些潛在的特征或屬性組合,定義其為敏感信息?!蓖跸枵f道。

第二,可信人工智能。從推薦結果入手,觀察算法到底違背了哪種公平性衡量標準,不妨讓模型白盒化,捕捉和理解推薦模型的決策邏輯,到底應用和側重哪些敏感信息,導致了哪些結果。當推薦模型白盒化,透明化,就會更明確哪些場景或者面對哪些人群,算法會產生不公平,這樣就可以去調節各項參數,使它變得公平和精確。(中新經緯APP)

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

精彩推送