應避免AI技術的濫用

本報記者 王小霞

俗話說“眼見為實”,但在AI時代,眼睛看見的也不一定是真實的。

隨著AI“換臉”技術的發展精進,通過APP操作,一個人就能在視頻裡被輕易地替換成另一個人,表情、動作、姿態幾乎能夠達到完全同步。

快速發展的AI造假令安全問題凸顯。一方面,AI“換臉”掀起瞭一場色情視頻造假的黑產狂歡。另一方面,Deepfake(深度偽造)技術將讓仿冒身份或用戶授權被盜用等安全問題產生隱患,嚴重威脅到公民人身安全和金融安全。

與此同時,AI造假還將導致信息不實,引發秩序混亂。一段關於政客受傷、重病的假視頻可能引起國內的金融動蕩。一段假冒權威人士發佈恐怖襲擊、疾病災害等假消息的視頻會引起群眾恐慌甚至暴力沖突。

而更為深遠的影響,就是對於整個社會公信力的影響。當前,越來越多的人通過社交媒體獲得第一手的信息。假視頻泛濫讓信息真偽難辨,比如,刻意偽造的假新聞、模仿領導人或權威專傢的信息。數以億計缺乏專業辨識能力的老百姓容易輕信而被欺騙,從而引發更大的公信力危機。

正是意識到AI造假可能帶來的諸多風險,一些國際科技巨頭企業開始推出反Deepfake策略。2019年11月12日,推特正式發佈首個反Deepfake策略草案。該公司表示,如果Deepfake內容威脅到某人的人身安全或可能造成嚴重傷害,他們會將該內容從推特上刪除。目前,推特已開始就此項草案向公眾征集意見。另外,Facebook表示,將禁止發佈由人工智能深度操縱的視頻;谷歌則聯手Google Research、馬裡蘭大學等多傢研究機構,開發瞭一個名為Assembler的實驗平臺,旨在幫助記者們通過簡單的操作,快速識別Deepfake。

各國政府也紛紛出手。2019年6月,美國國會提出《深度偽造責任法案》,旨在通過限制深度偽造合成技術,打擊虛假信息的傳播。2019年年底,我國相繼發佈《網絡音視頻信息服務管理規定》《網絡信息內容生態治理規定》等法規,規范相關行為;2020年1月17日,據路透社報道,歐盟委員會正在草擬一項計劃,考慮在3到5年時間裡禁止在包括火車站、運動場和購物中心等公共場所使用人臉識別技術。

中國信息安全研究院副院長左曉棟認為,隨著AI“換臉”使用場景更豐富,行業和監管部門應當研發相應的“反換臉”檢測技術,來篩選相關視頻是否由“換臉術”完成。他建議,要加快建立人工智能算法的安全評估制度,對不同場景下AI“換臉”技術進行評估,解決相關技術濫用問題。

AI技術的進步無疑是一件利大於弊的事情,技術本身不存在原罪。我們必須要制定配套的規則、規范和保護措施,才能有效避免技術濫用的情況發生,並且將發生時的損失降到最低。

Published in News by Awesome.

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *