“改頭換面”“語音克隆” 警惕AI帶來便利時暴露出風險隱患

來源:央視新聞 | 2024年11月23日 09:10:44
央視新聞 | 2024年11月23日 09:10:44
原標題:
正在加載

  記者從國家安全部了解到,隨著人工智慧技術的飛速發展,深度偽造技術逐漸進入我們的生活,在帶來驚喜和便利的同時,也暴露出一系列風險隱患,如不注意防範,甚至可能危害國家安全。

  眼見未必為實

  耳聽未必為真

  深度偽造技術是“深度學習”與“偽造”的結合,利用人工智慧的深度學習算法進行自動化的數據處理,實現圖片、音頻及視頻的智慧模擬和偽造,包括視頻偽造技術、音頻偽造技術、虛假網絡身份偽造技術等。它的出現使得篡改或生成高度逼真且難以甄別的音視頻內容成為可能,觀察者很難辨明真偽。

  視頻偽造技術。將提供的人物面部照片特徵“轉換”到其他人物形象上,從而實現“改頭換面”的目的。

  音頻偽造技術。利用“語音克隆”技術,以高倣真度模擬目標人物的聲音。

  虛假網絡身份偽造技術。在創建虛假個人資料時,通過生成偽造的面孔附加至身份信息中,成為隱藏身份的手段。

  智慧改變為實

  風險挑戰為真

  深度偽造技術憑藉其在圖像、音頻和視頻生成方面的卓越能力,迅速成為一種新興技術工具。但它又是一把雙刃劍,操作簡易,應用門檻低,高度欺騙性的視覺和聽覺偽造內容難以被發現,潛在的破壞性和安全風險日益凸顯。

  深度偽造技術可能侵害個人權益。別有用心之人利用深度偽造技術可以輕易盜用他人身份,侵害他人肖像權、隱私權等權利,部分不法分子甚至可能利用深度偽造技術進行詐騙,對財産安全造成現實危害。

  深度偽造技術可能引發社會憂慮和信任危機。深度偽造技術可以隨時隨地製造大量假新聞,影響社會輿論走向,引起民眾恐慌。隨著公眾意識到“深度偽造”的危害,他們可能會迷失在真假信息之中,對事實産生懷疑。

  深度偽造技術可能威脅國家安全和公共安全。深度偽造技術不僅會在一般行業得到應用,也有可能成為間諜情報機關開展“認知戰”的新工具。隨著深度偽造技術的橫空出世,某些境外間諜情報機關可能進一步利用該技術迭代情報技術手段,開展招募策反、污衊抹黑、混淆視聽等活動。

  國家安全機關提示

  面對深度偽造技術帶來的機遇和挑戰,要統籌發展和安全,提高安全意識,共同維護國家安全和社會穩定。

  使用技術要注意。廣大公民應注意保護好個人隱私,特別是核心涉密崗位人員,切勿將國家秘密、商業秘密或個人隱私等敏感信息輸入相關技術軟體中,不用網絡傳播涉密內容。

  信息安全要防範。相關平臺企業應加強信息安全管理,採取必要的技術措施保護相關信息的安全存儲和傳輸,防止信息洩露、丟失或被非法使用。同時,加強對深度偽造技術發佈內容的甄別,使其遵守法律“紅線”和道德“底線”。

  可疑信息要警惕。謹慎對待相關視聽內容,在轉發網絡信息前先多方驗證信息可靠性,不做謠言傳播者,以官方渠道發佈的信息為準。

  維護國家安全是每個公民義不容辭的責任和義務,廣大人民群眾如發現利用深度偽造技術危害國家安全的問題線索,可通過12339國家安全機關舉報受理電話、網絡舉報平臺(www.12339.gov.cn)、國家安全部微信公眾號舉報受理渠道或者直接向當地國家安全機關進行舉報。

  (總臺央視記者 李本揚)

編輯:邢斯馨 責任編輯:劉亮
點擊收起全文
掃一掃 分享到微信
|
返回頂部
望海熱線
xinwenxiansuo@staff.cntv.cn
最新推薦
精彩圖集
正在閱讀:“改頭換面”“語音克隆” 警惕AI帶來便利時暴露出風險隱患
掃一掃 分享到微信
手機看
掃一掃 手機繼續看
A- A+