“共情”AI出現了,你會與之共情嗎

副標題:

來源:科技日報 | 2024-04-09 09:20:43
科技日報 | 2024-04-09 09:20:43
原標題:
正在加載

情感智慧包括從行為中推斷意圖和偏好的能力,因此在某種意義上,情感智慧才是AI界面最重要的功能。圖片來源:VentureBeat網站

當我們想到有情感的人工智慧(AI)時,素材其實都來源於科幻作品,其中的情感式AI常常被描述成一個尋求人類同等愛意的孤獨者,或心思縝密的電子大腦。

現在,一家由前“深度思維”(DeepMind)研究員擔任首席執行官的初創公司“Hume AI”,發佈了一款標榜為“第一個具有情商的對話式AI”的共情語音接口(EVI),其能夠檢測到用戶53種不同的情緒。

這是技術上的一個飛躍。“Hume AI”公司已在一次B輪融資中籌集了5000萬美元,但隨之而來的,也有人們夾雜了恐懼的希冀。

情感是AI的分水嶺嗎

1997年,IBM的“深藍”打敗了國際象棋世界冠軍,其強大的計算力、純粹的暴力破解法震驚人類,也扭轉了AI研發的形勢。這種暴力破解法,後來就被用於機器學習,在看似具有無數種可能的對戰中輕鬆取勝。

現在,各領域AI挑戰人類的消息不斷傳來,可能會給人這樣一種錯覺:計算機在認知能力方面已堪比人類。

但兩者之間仍存在一條鴻溝。機器學習和自然語言專家格雷格·霍蘭德告訴人們,人腦可以解決AI前所未見的問題,而機器學習依然是針對特定問題而設計的。

實際上,考慮AI的實現程度,需精準地用強AI和弱AI來劃分。“強”是認為計算機不僅作為一種工具,其本身就是有思維的。這樣的機器有知覺,有自我意識。

而“弱”則是認為不可能製造出真正進行推理並解決問題的機器,AI終究是沒有自主意識的工具。長期以來,主流研究也正是圍繞“工具”展開的,且成就可觀。

但也因此,很多人將是否具有知覺或情感,當成了AI發展的分水嶺。

AI需要理解情感嗎

AI的下一個重要問題是理解和運用情感嗎?“Hume AI”的答案是肯定的。該公司的初衷即是要讓一個情感智慧模型更好服務人類。

該公司認為,情感智慧包括從行為中推斷意圖和偏好的能力。這正是AI界面試圖實現的核心目標:推斷人們想要什麼,然後去實現它。因此在某種意義上,情感智慧才是AI界面最重要的功能。

同樣作為聊天機器人,“Hume AI”與前輩們的區別在於,它專注于理解人類情感並作出合理反饋。它不僅能理解文本,還可使用語音對話接口,聽取人類的語調、音高、停頓等聲音特徵來加深理解。

這種理解可能非常細微,包括但不限於人們的快樂、悲傷、憤怒、害怕等“大情緒”,連更微妙、更多維的“小情緒”也在體察範圍內,譬如欽佩、崇拜、沉迷、諷刺、羞恥等,“Hume AI”在其網站上總共列出了53種不同的情緒。

不得不説,像諷刺這種常常帶有反意的情感表達方式,連人類也不是每每都能察覺到的。

你害怕有情感的AI嗎

其實,人們害怕的不僅僅是能感知情感的AI。近年來,在AI迅猛發展的同時,反思和提醒的聲音一直存在。

業界著名公眾人物的警告也有可能放大恐懼。如被評為“愛迪生的合法繼承人”的美國科學家庫茲韋爾推斷:在2045年,AI將超越人類大腦,促進社會劇烈轉型,跨入高智慧機器時代。此外,“鋼鐵俠”埃隆·馬斯克也曾説過,AI或許很快會強大到能統治世界的地步。

但普通人會覺得,在到達那一步之前,AI需要再多點什麼——感知情感,可能就是缺失的那一環。

“Hume AI”演示之後反響十分熱烈。但網絡上已開始有人擔心,用戶會以一種不健康的方式沉迷于它的“魅力”,同時滋生一些不良用途,譬如誘導、操縱、欺詐等。

人類的情感並不只有正面情緒。當AI試著了解甚至學習人們的情感行為時,是否會主動或被動地利用其來達到某些目標?譬如誘導購買、養成惡習、心理折磨等。

當缺少倫理限制與法律紅線時,被當作工具的,可能是人們自己的情感。

編輯:阮崢 責任編輯:
點擊收起全文
掃一掃 分享到微信
|
熱點推薦
正在閱讀:“共情”AI出現了,你會與之共情嗎
掃一掃 分享到微信
手機看
掃一掃 手機繼續看
A- A+