您的位置:首頁 >女性 > 正文

規范AI服務管理,為技術應用劃定法律紅線

來源:中國婦女報2023-08-18 16:17:03

《生成式人工智能服務管理暫行辦法》于8月15日起正式施行。提供和使用生成式人工智能服務應當尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益

■中國婦女報全媒體記者張萌

不久前,內蒙古包頭市警方發布一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。


(相關資料圖)

一天中午,郭先生接到好友的微信視頻,說自己的朋友在外地競標需要430萬元保證金,且需要公對公賬戶轉賬,想要借郭先生公司的賬戶走賬。基于對好友的信任,加上已經視頻聊天核實了身份,郭先生沒有核實錢款是否到賬,就分兩筆把430萬元轉到了好友朋友的賬戶上。后來郭先生撥打好友電話,才知道被騙。騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。

“當時他是給我打了視頻的,我在視頻中也確認了是好友的面孔和聲音才放下戒備。”郭先生說。

幸運的是,接到報警后,包頭、福州兩地警銀聯動,迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移。

此類AI詐騙事件并非孤例。近幾年,多地出現使用智能AI技術進行電信詐騙的案件。隨著深度合成技術的開發,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻進行詐騙、誹謗的違法行為日益增多。那么,AI詐騙常用手段有哪些?AI換臉、AI換聲涉嫌侵犯哪些權利?法律底線在何處?

AI詐騙的常用手段

AI換臉、換聲技術是通過運用人工智能技術和深度算法,可以將人臉、表情、聲音等進行高效準確的替換,實現深度偽造,讓人真假難辨。

技術持續更新換代,我們接觸到AI實時換臉技術的門檻日漸降低。內蒙古尊恒律師事務所律師張躍飛在接受中國婦女報全媒體記者采訪時表示,AI詐騙通常有以下幾種常用手段——

第一種:聲音合成。

詐騙者通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。

第二種:AI換臉。

人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。詐騙者首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。

第三種:轉發微信語音。

詐騙者在盜取微信號后,會向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音進行詐騙。微信沒有語音轉發功能,但他們會通過提取語音文件實現語音轉發。

第四種:利用AI程序篩選受害人。

詐騙者利用AI來分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可制定出詐騙腳本,實施精準詐騙。如實施情感詐騙時,可以篩選出經常發布感情類信息的人群;實施金融詐騙時,可以篩選出經常搜索投資理財信息的人群。

張躍飛提醒大家,對于個人而言,人臉、聲音、指紋等生物信息以及身份證、銀行卡賬號等個人信息的保護變得尤為重要。如果熟人在線上提出轉賬需求時,要通過多重驗證來確認對方身份,特別是對AI技術了解不多的老年人更要加強防范。

AI技術濫用的法律風險

近日,“AI明星”正成為短視頻平臺新一輪流量密碼,同時,一些普通主播為增加賣點,吸引流量,通過“AI換臉技術”搖身一變成為一線當紅女星進行直播帶貨。

張躍飛告訴記者:“能以假亂真、掩人耳目的AI技術在民事方面易引發肖像權等侵權行為,在刑事方面易引發詐騙罪、侵犯公民個人信息罪等。”

根據民法典第一千零一十八條規定,“肖像是通過影像、雕塑、繪畫等方式在一定載體上所反映的特定自然人可以被識別的外部形象。”這表明肖像權的范圍并不僅限于人的面部特征,只要能夠識別特定自然人的外部形象都受到肖像權的保護。民法典明確了侵犯肖像權的具體行為,其中包括未經肖像權人同意,丑化、污損,或者利用信息技術手段偽造等方式侵犯他人的肖像權。

未經明星本人同意,擅自利用“AI技術”變成明星臉來帶貨,根據民法典第一千零一十九條規定,“任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權”。該行為涉嫌侵害明星的肖像權。

如果帶貨過程中有故意丑化或者損毀的情形,導致被換臉明星的社會評價降低,根據民法典第一千零二十四條規定,“任何組織或者個人不得以侮辱、誹謗等方式侵害他人的名譽權”。該行為涉嫌侵犯明星的名譽權。

如果“AI換臉技術”未經當事人同意,就處理其生物特征等敏感信息,根據民法典第一千零三十二條規定,“任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權”。該行為涉嫌侵犯他人隱私權。

另外,對于著作權人而言,程序運營者和普通用戶未經授權和許可,擅自將圖片或視頻作為模板提供給不特定用戶用于“換臉”或將換臉后的視頻通過信息網絡公開傳播,則可能構成對信息網絡傳播權和保護作品完整權的侵害。

劃“紅線”注“標識”確保個人信息安全

技術是把雙刃劍,一旦技術被濫用,就隱含了巨大的風險。面對AI技術的快速發展和濫用現象,有效的監管和規范必不可少。我國與人工智能技術相關的法律法規正在不斷完善。

國家網信辦出臺的《互聯網信息服務深度合成管理規定》于今年1月10日正式施行,主要針對深度合成服務者的義務進行了規定,其中要求深度合成服務提供者提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。由此可見,做好風險防范首先要從技術開發者、服務提供者入手。

近日,為促進生成式人工智能健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),將于今年8月15日起施行。

國家互聯網信息辦公室總工程師孫蔚敏表示,出臺《辦法》,堅持發展與安全并重,既鼓勵創新,又依法治理,堅持包容審慎、分級分類的思路,以安全促發展,以發展保安全。

隨著人工智能與日常生活場景結合越來越密切,針對在此基礎上凸顯的隱私泄露、造謠詐騙等問題,《辦法》將保護使用者的個人信息安全擺在了重要位置。《辦法》第九條提出,生成式人工智能服務提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務。

這一條就將生成式人工智能服務提供者明確納入了網絡平臺責任的規制范圍內,讓違規違法者無處可遁。

《辦法》第十一條要求服務提供者不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄。《辦法》第十四條提出,提供者發現違法內容的,應當及時采取停止生成、停止傳輸、消除等處置措施并采取模型優化訓練等措施進行整改。

而針對目前生成式人工智能內容難以被分辨,甚至出現技術被濫用、誤用等問題,《辦法》明確服務提供者應當對相關生成內容進行顯著標識。標識的作用在于警示和提醒用戶,該內容是由AI生成的。

技術進步需要更加健全、與時俱進的規則和法律保護,完善相關法律體系和實施細則,加強有效監管,明確行為底線,各個環節形成合力,多管齊下,才能讓人工智能產業在法律法規的軌道內平穩健康發展。

關鍵詞:

最近更新