織好AI用戶信息“防護網”

副標題:

來源:人民日報海外版 | 2024-06-05 10:14:56
人民日報海外版 | 2024-06-05 10:14:56
原標題:
正在加載

對話交流、創作詩歌、編寫代碼、自動繪畫……以大語言模型為代表的生成式人工智慧(AI)快速發展,正前所未有地改變著人們的工作和生活。

隨著生成式AI應用場景日益增多,個人信息保護也面臨新的挑戰:對數據的收集和挖掘,會不會侵犯個人隱私?怎樣處理好個人信息保護與數據合理利用之間的關係?使用個人信息的邊界在哪兒?本報記者就此進行了採訪。

“畫像”背後藏風險

“對許多上班族來説,做PPT是一件讓人頭疼的事,經常要加班加點熬夜製作,有時還要額外付費聘請專業設計人員修改潤色。”在北京某互聯網公司工作的小潘告訴記者,現在通過生成式AI軟體,只需確定主題、導入大綱、選擇模版,不到1分鐘就能生成一份專業又精美的PPT。

儘管效率明顯提高,小潘卻心有疑慮:PPT裏提到的工作內容、行業數據、個人情況,會不會被儲存在AI“大腦”中?如果涉及企業戰略規劃、商業秘密、關鍵技術,有沒有被惡意竊取或洩露給第三方的可能?“目前,還沒看到軟體有類似‘一鍵擦除數據’的功能,無法確定這些信息的最終去向。”小潘説。

現實中,不管是生成PPT、製作簡歷還是自動美顏、智慧聊天,都不可避免地要向生成式AI提供姓名、職業、人臉、聲紋等個人信息,其中潛藏著不容忽視的隱私洩露風險。

比如,一款基於生成式AI技術的攝影軟體一度走紅網絡。用戶花9.9元,上傳個人照片,選擇喜歡的模版,便能獲取一套由AI生成的寫真集。在AI寫真“刷屏”網絡的同時,該軟體也因存在濫用用戶信息的嫌疑受到批評。有網友説:“向一款手機APP裏傳這麼多照片,讓我感到很不安。誰知道這些照片會不會被作為其他用途?”後來,研發團隊致歉,承諾上傳照片只用於數字寫真製作,製作完成後,照片也將自動刪除。

出於對新興技術的好奇,消費者往往在不知不覺中將個人隱私“透露”給AI。反過來,憑藉獲取到的信息,通過強大的數據整合、處理能力,生成式AI也能判斷出個人的身份特徵和行為習慣。有研究發現,聊天機器人可以從日常對話中精準提煉關鍵信息,了解其購物習慣、個人興趣乃至個人觀念,從而為用戶精準“畫像”。

“生成式AI具有高度智慧化特徵,借助其出色的內容理解和學習能力,從海量信息中獲取個人隱私,甚至可能通過對話‘誘導’用戶打開‘心房’。”西南政法大學科技法學研究院副院長鄭志峰告訴記者,這意味著生成式AI十分“懂”你,在侵害個人隱私方面更加高效、隱蔽,不易察覺。

用戶數據成“養料”

“我們將對您主動上傳的文檔材料進行脫敏處理後作為AI訓練基礎材料使用……”前段時間,某辦公軟體隱私政策中的條款被質疑濫用用戶信息。隨後,該軟體發佈聲明,保證用戶文檔不再被用於AI訓練目的。

啥是AI訓練?“對生成式AI來説,離不開算法、算力、數據三要素。其中,數據是AI的‘養料’,‘投喂’得越多,AI越‘聰明’。”鄭志峰介紹,這決定了生成式AI必須盡可能多地採集、處理和使用各種數據,為大模型成長提供充足“營養”。

當前,各類數據採集無時不有、無處不在,幾乎每個人都被置於數字化空間之中,個人隱私極易以數據的形式被存儲、複製、傳播。在所有數據類型中,個人信息能反映個人行為、偏好、行動軌跡等,是最有價值的數據類型之一。

“許多企業利用用戶數據優化産品和服務、定向投放廣告或開展經營活動。”中國社會科學院法學研究所網絡與信息法研究室副主任周輝説,“有的企業片面關注數據價值,忽視了隱私保護和數據安全,可能出現違法收集、濫用用戶信息等行為。”

生成式AI的快速發展和應用門檻的大幅降低增加了隱私洩露風險。研究報告顯示,截至2024年1月,前十位AI類APP需求規模同比增長近40倍。生成式AI正加速滲透人們生活的方方面面。然而,應用場景日益豐富的同時,違規收集、使用用戶信息的花樣也變多了。

借助生成式AI的換臉和擬聲技術進行遠程視頻詐騙就是一例。有媒體報道,郭先生接到“好友”的視頻通話,對方聲稱需要保證金用以項目競標,想借郭先生公司賬戶“走個賬”。出自對“好友”的信任,郭先生陸續給對方轉賬共計430萬元。等郭先生再次聯絡好友時才發現自己被騙。

“隨著AI生成內容愈發逼真,傳統內容審核機制和安全防護手段已不足以適應新形勢的要求。”中國信通院人工智慧研究所高級業務主管呼娜英説,生成式AI技術愈加成熟,用戶在保護好個人隱私的同時,也需要提升對新型網絡犯罪的辨別和防範能力。

給AI産品貼“標記”

怎樣才能滿足生成式AI的“胃口”,同時又保護好個人隱私呢?處理好兩者關係,既需要法律法規的約束,也離不開技術手段的支撐。

去年7月,國家網信辦等七部門聯合發佈《生成式人工智慧服務管理暫行辦法》,多處提及個人信息保護問題。強調生成式AI服務提供者“對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人提供使用者的輸入信息和使用記錄”等。

“中國目前有關個人隱私保護的法律法規比較完善。未來需要根據生成式AI技術特點進一步構建具體的權利、義務和責任規則。”鄭志峰舉例説,AI的風險等級是多樣的,不同AI算法對於個人隱私的侵害程度不同,需要有針對性的具體措施。

通過技術手段識別、阻斷和追溯生成式AI生成侵犯個人隱私的有害信息,也是人工智慧治理實踐中的重要措施之一。根據《互聯網信息服務深度合成管理規定》,深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當採取技術措施添加不影響用戶使用的標識。

“通俗地説,就是給生成式AI的産品和服務貼上統一的‘標記’,提示用戶該內容由AI合成,也有助於監管部門管理。”呼娜英介紹,由於顯式標識容易被裁剪或刪除,還需進一步探索隱式標識的解決方案。

儘管生成式AI在一定程度上存在隱私洩露風險,但並不意味著它與信息保護之間是完全對立的,關鍵是要找到發展與規範之間的平衡點,在生活越來越“智慧”的同時,守護好個人隱私安全,推動生成式AI健康可持續發展。

編輯:阮崢 責任編輯:
點擊收起全文
掃一掃 分享到微信
|
熱點推薦
正在閱讀:織好AI用戶信息“防護網”
掃一掃 分享到微信
手機看
掃一掃 手機繼續看
A- A+