新技術應用往往先於規範,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德,才能營造良好的創新生態。著眼未來,在重視防範人工智慧風險的同時,也應同步建立容錯、糾錯機制,努力實現規範與發展的動態平衡。
近期,人工智慧領域大模型聲勢高漲,短短數月間,數十家國內公司先後宣佈進軍大模型賽道。7月6日在上海舉辦的2023世界人工智慧大會成為大模型集中秀場,30餘款來自不同企業的大模型産品和技術相繼亮相。
科技部新一代人工智慧發展研究中心近期發佈的《中國人工智慧大模型地圖研究報告》顯示,以“大數據+大算力+強算法”相結合的人工智慧大模型,在中國正迅猛發展,中國研發的大模型數量已居全球第二,僅次於美國,目前中國發佈的10億參數規模以上的大模型已達79個。
以大模型為代表的人工智慧技術,其巨大潛力正在加速釋放,想要抓住它所帶來的巨大機遇,就需要警惕它的潛在安全風險和隱患,這是當前人工智慧産業界所面臨的雙向任務。
人工智慧風險具“自有”特點
據中國信息通信研究院測算,2022年中國人工智慧核心産業規模已達5080億元人民幣。
人工智慧已成為全球數字技術創新最活躍的領域之一,為人們的生産生活帶來了巨大的變革和便利,但也帶來了諸多風險與挑戰,如何構建安全可信的人工智慧是當前各界關注的焦點。
阿拉伯信息通信技術組織秘書長穆罕默德·本·阿莫在日前舉辦的世界互聯網大會數字文明“尼山對話”主論壇上表示,建立一個安全可信的人工智慧系統,要首先考慮數據隱私與安全、透明度、責任與問責、穩健性與彈性等因素;此外,還需要建立一個道德框架,通過以人為本的設計,優先考慮人類福祉。
全球移動通信系統協會首席執行官洪曜莊表示,只有在道德準則的約束下,人工智慧才能真正改善世界。我們必須共同努力構建一個可信賴的環境,建立以人為本的方法體系,確保人工智慧對於每個人都可靠、負責和公平,最重要的是,能夠普惠所有人。
加強人工智慧發展中潛在風險的研判和防範,維護人民利益和國家安全,確保人工智慧安全、可靠、可控,是中國推進人工智慧治理的重要方向。
早在2017年,國務院印發《新一代人工智慧發展規劃》,明確提出到2025年,初步建立人工智慧法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力;2030年,建成更加完善的人工智慧法律法規、倫理規範和政策體系。
儘管相關科研機構和科技企業在人工智慧系統設計之初就考慮到要保障人工智慧安全、可控,但技術應用的趨利避害卻往往難以一蹴而就。
中國科技大學公共事務學院網絡空間安全學院教授左曉棟表示,人工智慧的風險和傳統技術的風險相比,有一些“自有”的特點。比如,人工智慧是高度自主智慧的,極大依賴數據基礎,而且還存在“算法黑箱”、算法不可解釋等問題,使得人工智慧系統存在大量未知因素,風險預測難度較大。
為應對可見的挑戰和不可知的風險,我國應加快建立人工智慧領域相關法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力,這是我國各界對人工智慧發展的共識。
大模型“放大”AI安全問題
百度創始人、董事長兼首席執行官李彥宏説:“過去一年,人工智慧在技術、産品、應用等各個層面,以‘周’為迭代速度向前突進。大模型成功壓縮了人類對於世界的認知,讓我們看到了實現通用人工智慧的路徑。”
以今年3月百度率先發佈的大語言模型文心一言為標誌,我國大模型創業潮奔涌,伴隨而來的,是社會各界越來越多對於大模型安全的疑惑。但在百度看來,安全問題並不是大模型出現才帶來的新問題。
“大模型之前的人工智慧時代,我們已經發現人工智慧本身具有所謂的內在安全問題。人工智慧算法可能會被對像樣本攻擊,正常樣本加入少量對抗就會誤導識別結果。不管是數字世界還是物理世界,很多場景都存在這種情況。”清華大學計算機系長聘教授、清華大學人工智慧研究院副院長朱軍指出。
在朱軍看來,特別是ChatGPT出現以後,生成式人工智慧的安全問題越來越嚴重,而算法本身是否存在政治偏見和數字鴻溝,數據採集過程中會不會侵犯知識産權等問題,也是大模型時代需要重點關注的問題,可從以下幾個層面嘗試解決。
首先,從人工智慧基礎層面,針對深度學習、深度神經網絡,學術界一直在探索第三代人工智慧新範式,希望能夠發展更加安全可靠的人工智慧框架。第三代人工智慧新範式的優勢就是在於安全、可信、可靠和可拓展。
其次,提升安全評測能力,主要關注對抗攻擊評測、角色扮演與誘導欺騙評測、混淆指令欺騙評測、標識性能評測、數據安全評測、倫理安全評測等。
還有,構建人工智慧安全治理有效工具,如可以構建人工智慧安全平臺,通過平臺化的方式對人工智慧的算法和服務進行評測。
業界不斷嘗試新的“解題思路”
正如北京智源人工智慧研究院院長、北京大學多媒體信息處理全國重點實驗室主任黃鐵軍所言,人工智慧越來越強大,風險與日俱增,但對於如何構建一個安全可信的人工智慧,我們仍知之甚少。
面對這樣的現實,業界一直在不斷嘗試新的“解題思路”。
6月28日,火山引擎發佈大模型服務平臺“火山方舟”,面向企業提供模型精調、評測、推理等全方位的平臺服務。
“企業使用大模型,首先要解決安全與信任問題。”火山引擎總裁譚待表示,“火山方舟”實現了大模型安全互信計算,為企業客戶護佑數據資産安全。基於“火山方舟”獨特的多模型架構,企業可同步試用多個大模型,選用更適合自身業務需要的模型組合。
與小模型的“自産自用”不同,大模型的生産門檻很高,數據安全成為大模型時代的新命題。譚待認為,企業使用大模型,最擔心的是數據洩露,但如果將大模型私有化部署,企業將承擔更高的成本,模型生産方也會擔心知識資産安全。“火山方舟”的首要任務就是做好安全保障,使大模型使用者、提供者和雲平臺各方可以互相信任。
據火山引擎智慧算法負責人吳迪介紹,“火山方舟”已上線了基於安全沙箱的大模型安全互信計算方案,利用計算隔離、存儲隔離、網絡隔離、流量審計等方式,實現了模型的機密性、完整性和可用性保證,適用於對訓練和推理延時要求較低的客戶。
黃鐵軍表示,所有的探索才剛剛開始,我們面臨著全新的挑戰,原有的經驗和方法可能都無法解決新問題。
“新技術應用往往先於規範,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德,才能營造良好的創新生態。著眼未來,在重視防範人工智慧風險的同時,也應同步建立容錯、糾錯機制,努力實現規範與發展的動態平衡。”李彥宏説。
但是,無論從技術趨勢,還是産業應用來看,大模型都絕不是曇花一現的風口,而是影響人類發展的重大技術變革,是拉動全球經濟增長的重要引擎,是絕對不能錯過的重大戰略機遇。李彥宏説:“堅持技術發展和安全可控的雙輪驅動,才能行穩致遠。如果我們安全、負責任地駕馭人工智慧發展之路,大模型就會重塑數字世界,人工智慧就可以為中國經濟乃至全球經濟創造無與倫比的繁榮,提高全人類福祉。”