【摘要】具身智能使人工智能在“人工”的方向上進一步成為人工身體、人工行動、人工主體的集合體,同時帶來三重倫理挑戰(zhàn),即人工身體造成的“恐怖谷”效應(yīng)、人工行動引發(fā)的“責(zé)任谷”困境,以及人工主體介導(dǎo)的“身份谷”問題。應(yīng)對這些挑戰(zhàn),需要我們克服人工智能的軟硬件缺陷,建立跨學(xué)科的倫理治理框架,在技術(shù)研發(fā)初期嵌入倫理設(shè)計,明確人機協(xié)作的責(zé)任邊界,通過社會對話凝聚價值共識,確保具身智能的發(fā)展始終服務(wù)于人類福祉。
【關(guān)鍵詞】具身智能 恐怖谷 責(zé)任谷 身份谷 倫理挑戰(zhàn)
【中圖分類號】TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.20.009
【作者簡介】肖峰,上海大學(xué)智能時代的馬克思主義研究中心暨智能哲學(xué)與文化研究院教授、博導(dǎo)。研究方向為科學(xué)技術(shù)哲學(xué)、信息技術(shù)哲學(xué)和人工智能哲學(xué),主要著作有《科學(xué)精神與人文精神》《技術(shù)發(fā)展的社會形成》《信息主義:從社會觀到世界觀》《信息文明的哲學(xué)研究》《信息革命與當代認識論研究》等。
具身智能(Embodied Artificial Intelligence)是當前人工智能領(lǐng)域的重要前沿方向,正引領(lǐng)人工智能的下一波浪潮。傳統(tǒng)人工智能多屬于認知智能或語言智能,其能力邊界主要局限于信息空間中的符號處理、數(shù)據(jù)加工、文本生成與信息呈現(xiàn),本質(zhì)上扮演人類認知輔助者的角色,其核心功能始終停留于信息層面的交互與呈現(xiàn),缺乏感知物理實體、理解空間關(guān)系或在真實環(huán)境中執(zhí)行操作的能力。究其原因,傳統(tǒng)人工智能缺乏真實的“身體”作為感知與行動的媒介,無法與物理對象產(chǎn)生實際互動。這種不具身的特性使其局限于數(shù)字世界的符號操作層面,難以真正融入并影響物理現(xiàn)實。
具身智能通過賦予人工智能物理性的“身體”,借助身體與環(huán)境的動態(tài)交互實現(xiàn)感知、學(xué)習(xí)及與物理對象的實時交互,由此發(fā)展出自主決策和靈活行動的能力,使機器能夠像生物體一樣在復(fù)雜環(huán)境中主動探索、理解情境并作出適應(yīng)性反應(yīng)。這種能力的躍升使具身智能被視為通用人工智能(Artificial General Intelligence)的必經(jīng)階段,它正在突破傳統(tǒng)人工智能依賴數(shù)據(jù)訓(xùn)練和代碼指令的技術(shù)框架,使得智能體有望獲得“存在論升級”。然而,具身智能的發(fā)展也引發(fā)新的倫理問題。在“具身”的過程中,出現(xiàn)包括“人工身體”“人工行動”和“人工主體”等一系列新的人工現(xiàn)象,由此引發(fā)“恐怖谷”效應(yīng)、“責(zé)任谷”困境和“身份谷”問題。因此,我們需要在深入把握其生成機制的基礎(chǔ)上,積極探索有效的倫理應(yīng)對策略。
人工身體的“恐怖谷”效應(yīng)
具身智能作為人工智能與物理實體深度融合的前沿領(lǐng)域,目前主要聚焦自動駕駛與智能機器人技術(shù)兩大應(yīng)用方向。其中,自動駕駛通過賦予車輛環(huán)境感知、決策規(guī)劃與自主控制能力,實現(xiàn)交通工具的智能化運行;而機器人技術(shù)則涵蓋更廣泛的各類智能機械體的研發(fā)與應(yīng)用(自動駕駛技術(shù)在某些情境下亦被歸類于智能機器人技術(shù),被稱為“車型機器人”)。在智能機器人技術(shù)中,人形機器人憑借其高度擬人化的形態(tài)給人帶來的親和感和交互力,展現(xiàn)出無限廣闊的應(yīng)用前景,成為具身智能技術(shù)落地最具潛力的發(fā)展方向。
通俗地說,具身智能是“有身體”的人工智能,這是具身智能與傳統(tǒng)人工智能最直觀的區(qū)別。在人形機器人的開發(fā)中,具身智能進一步將“具身”具象化為類人形態(tài)的身體,即通過構(gòu)建類似人的身體(即“仿身”)來實現(xiàn)智能行為,這種仿人之身所建造的人工物可稱為“人工身體”:一種人造的人形實體。人工身體作為人形機器人的物理形態(tài),其“人形”特征必然涉及“擬人”的真實度問題,而人類對于“形似人類卻非真實人類”(“像人而非人”)的存在物始終存在著深層心理戒備與本能排斥,這種心理防御機制在機器人研究領(lǐng)域被稱為“恐怖谷”(Uncanny Valley,又譯為“恐惑谷”“怪異谷”等)效應(yīng)。也就是說,具身智能所建造的人工身體,首先在現(xiàn)象層面便會面臨“恐怖谷”的倫理挑戰(zhàn)。
“恐怖谷”理論由日本機器人專家森政弘(Mori Shigeto)于1970年提出,該理論描述了人類對機器人的情感反應(yīng)隨著擬人化程度的變化而變化,并呈現(xiàn)帶有谷底的曲線分布:當機器人外觀和行為與人類相似度達到特定程度或某個臨界點時,人類好感度會急劇下降,產(chǎn)生不適、恐懼甚至反感的情緒,形成一種“恐怖谷”效應(yīng)。[1]具體而言,當機器人或其他人形人造物(如蠟像、計算機圖像仿真人即CG仿真人、僵尸等)與人類相似度較低時,人對機器人的好感度會隨著相似度的提高而增加。然而,當機器人的擬真度達到某一特定臨界值時,即其形態(tài)已高度近似人類但尚未完全達到自然生物特征標準(接近但不完全類人,即“似人非人”)的情況下,人類對其的心理反應(yīng)會出現(xiàn)好感度的突然暴跌,并產(chǎn)生強烈的排斥感。此時,即便機器人僅存在極其細微的人類特征偏差,這些細微差異也會在觀察者認知中形成異常突出的視覺刺激,導(dǎo)致整體觀感呈現(xiàn)僵硬詭異的特質(zhì),類似面對行尸走肉般的恐怖體驗。而當相似度繼續(xù)上升至與真人無異即完全類人時,人類對機器人的好感度又會回升至正常水平。簡而言之,當機器人的擬人化程度達到一定程度時,反而會令人產(chǎn)生恐怖感,或者說,人形人造物在逼真度達到特定階段時,會引發(fā)人類的不安情緒。
機器人的發(fā)展歷程呈現(xiàn)與“恐怖谷”理論相符的演變曲線。處于低擬真階段的工業(yè)機器人、掃地機器人,人類可以明確其“工具屬性”,因而不會產(chǎn)生排斥感;而在高擬真階段,如波士頓動力Atlas機器人(具備多模態(tài)交互和生物力學(xué)仿真能力)以及宇樹科技推出的跳舞機器人,由于人類對人形機器人重建了“類生命體”認同,也不會產(chǎn)生拒斥感。然而,在早期仿真機器人階段,如2016年的“索菲亞”機器人,其僵硬而程式化的微笑曾引發(fā)觀察者的不安和輿論差評,而日本大阪大學(xué)研發(fā)的Repliee Q2,因其高度逼真的外觀與動作不協(xié)調(diào)的矛盾以及面部細節(jié)的潛在缺陷,被公眾形容為“令人毛骨悚然”。[2]處于恐怖谷階段的人工身體技術(shù),雖然在某些方面實現(xiàn)靜態(tài)擬真(如3D打印皮膚),但未能同步達到動態(tài)自然性(如肌肉協(xié)同運動),難免導(dǎo)致“似人非人”的恐怖感受。在這個意義上,“恐怖谷”現(xiàn)象通常與人類對人工身體的感知不匹配密切相關(guān),這種不匹配容易引發(fā)認知沖突,直接干擾人類大腦感知處理系統(tǒng)的正常運作機制,進而導(dǎo)致觀察者對機器人等產(chǎn)生消極的情緒反應(yīng)。
“恐怖谷”效應(yīng)得到來自腦成像、嬰兒注視、動物行為等多方面的實驗支持。如功能性磁共振成像(fMRI)實驗的結(jié)果表明,大腦對“外觀-運動不匹配”的敏感性是“恐怖谷”效應(yīng)形成的核心觸發(fā)條件。[3]研究發(fā)現(xiàn),產(chǎn)生“恐怖谷”的心理生理機制有多種,包括認知沖突、進化本能和預(yù)期違背等。當機器人呈現(xiàn)“似人非人”的臨界狀態(tài)時,視覺系統(tǒng)會產(chǎn)生認知沖突,大腦在“像人”和“非人”之間無法歸類,從而觸發(fā)警覺。此時,生物進化所形成的本能激活了人對死亡或疾病的回避反應(yīng)。美國機器人學(xué)家麥克多曼(Karl MacDorman)等人曾提出,“恐怖谷”可能與人類對死亡的本能恐懼有關(guān)。比如,當機器人或虛擬角色過于接近人類時,可能觸發(fā)一種“替代性死亡焦慮”:逼真的機器人可能喚起人類對自身死亡的象征性聯(lián)想,導(dǎo)致防御性回避反應(yīng),這也是人類對“非生命體擬人化”的本能恐懼。[4]微妙的異常(如僵硬表情、無生命眼神)還會打破人類對“自然行為”的預(yù)期,預(yù)期的違背又進一步放大人類的不適感,強化“恐怖谷”效應(yīng)。概括而言,“恐怖谷”本質(zhì)上是人類在認知系統(tǒng)進化過程中形成的防御機制:當人造物過度接近生命體特征時,可能激活對死亡或疾病的本能回避反應(yīng)。
當然,“恐怖谷”效應(yīng)在不同的人群中也表現(xiàn)出不同的個性化特征。研究表明,女性和老年人更易產(chǎn)生恐怖谷效應(yīng)。[5]此外,年齡越大,對新技術(shù)的接受度普遍較低,對機器人的興趣也越低。比如,00后群體對仿真機器人的排斥感比60后低68%,這表明代際更迭可以弱化“恐怖谷”效應(yīng)。[6]這種差異源于數(shù)字原住民自幼接觸虛擬助手形成的適應(yīng)性心理,也可以理解為社會審美范式的代際變遷會影響新一代對具身智能體的感受。這一關(guān)聯(lián)也與神經(jīng)心理學(xué)家魏格爾特(Sarah Weigelt)指出的趨勢相吻合:隨著人形機器人的普及,人類對其逼真特征的敏感度將逐漸降低,“一旦逼真機器人成為常態(tài),異常感便會消失”。[7]隨著類腦模型與動態(tài)交互技術(shù)的突破,以及肌電控制精度進入毫秒級、情感計算模型參數(shù)量超千億,未來的人形機器人有望在情感自然性上逼近人類,實現(xiàn)人機之間“有溫度的共融”,從而可能迎來“恐怖谷”效應(yīng)的系統(tǒng)性跨越。[8]
“恐怖谷”效應(yīng)的實質(zhì)在于,在研發(fā)人形機器人的過程中,不可避免地會遇到人類對人工身體的接受程度問題。具身智能中的人形仿身如果引起人的不適、困惑甚至恐懼,無疑將導(dǎo)致不良情緒體驗,形成負面的倫理效應(yīng)。這既挑戰(zhàn)人機共處的心理邊界,也可能加劇技術(shù)異化風(fēng)險,導(dǎo)致個體對智能技術(shù)的整體不信任。因此,如何通過優(yōu)化設(shè)計倫理來平衡人工身體的擬真性與人類情感的舒適度,并建立預(yù)防性評估機制來規(guī)避潛在的心理傷害,已成為具身智能研發(fā)中需要重點解決的倫理問題。
“恐怖谷”效應(yīng)本質(zhì)上是技術(shù)演進中“擬人化臨界態(tài)”的階段性現(xiàn)象,是“技術(shù)過渡期”的重要特征之一。它通過量化人類對擬人化物體的感知反應(yīng),揭示技術(shù)與情感之間的復(fù)雜關(guān)系,為設(shè)計和工程領(lǐng)域通過技術(shù)迭代與設(shè)計策略來主動突破此效應(yīng)提供理論啟示。目前,在機器人設(shè)計領(lǐng)域,為盡量規(guī)避“恐怖谷”效應(yīng),工程師會有意避免讓機器人過于接近人類。比如,現(xiàn)代服務(wù)機器人Pepper通過卡通化大眼睛與圓潤輪廓維持親和力的實踐表明,刻意保留非人特征在一定場合反而能提升親和度。重視動態(tài)的協(xié)調(diào)也是弱化“恐怖谷”效應(yīng)的重要方向。如前面提到的波士頓動力的Atlas和宇樹科技的跳舞機器人,由于其動態(tài)自然性突破閾值,并未引起人的恐懼感。機器人學(xué)中也包括指導(dǎo)開發(fā)者平衡“擬人化”與“機械感”的原則和方法,這告誡我們,技術(shù)越追求擬真,越需警惕“恐怖谷”的“谷底陷阱”,力求通過設(shè)計策略來逐步“填平”這個谷底。這種設(shè)計策略可以通俗地歸結(jié)為:要么足夠不像人,要么足夠像人,千萬別卡在中間。這意味著要合理地控制人形外觀的相似程度,避免將“具身”簡單理解為“完全擬人”,在總體上應(yīng)優(yōu)先實現(xiàn)功能性擬人化,而非單純追求身體外形的形式化擬人效果。
在具身智能的發(fā)展進程中,“恐怖谷”效應(yīng)已然成為一項亟待應(yīng)對的倫理挑戰(zhàn)。為緩解人類在面對高度擬人化機器人時所產(chǎn)生的一系列不安與排斥心理,設(shè)置倫理護欄顯得尤為重要。具體而言,可以通過明確標識來幫助用戶建立“人機邊界”認知。比如,在機器人關(guān)鍵部位(如眼部或胸口)設(shè)置常亮的藍色呼吸燈,使其在交互時自動觸發(fā)“我是服務(wù)型機器人”的語音提示,或在操作界面持續(xù)顯示“非人類實體”的文字標識。這類身份透明化的設(shè)計不僅能通過視覺與聽覺的多模態(tài)反饋強化用戶“它是機器”的認知,還能有效預(yù)防因機器人過度擬真(如自然表情、流暢動作)導(dǎo)致的心理失調(diào)。歐盟于2024年出臺的《人工智能法案》特別規(guī)定,所有具備類人外形與交互能力的機器人必須強制安裝非人標識系統(tǒng)(如特定顏色的環(huán)境光或動態(tài)標識),這種技術(shù)防護機制在當前人工智能情感模擬能力尚不完善的情況下,能夠為人類提供必要的認知緩沖帶,既可避免用戶因誤判機器人的人化程度而產(chǎn)生被欺騙感;又能通過主動降低用戶對其擬真度的感知強度,從源頭減少因人機邊界模糊而引發(fā)的本能恐懼與道德焦慮,最終實現(xiàn)人機共處舒適度的整體提升。
綜上所述,“恐怖谷”效應(yīng)作為具身智能發(fā)展的倫理挑戰(zhàn)之一,既是技術(shù)成熟度的階段性表征,也是人類認知系統(tǒng)與新興技術(shù)交互作用的產(chǎn)物。其應(yīng)對策略不應(yīng)局限于單一的技術(shù)手段或倫理規(guī)范,而應(yīng)通過技術(shù)創(chuàng)新、設(shè)計優(yōu)化與倫理建設(shè)的協(xié)同推進,將這一“風(fēng)險曲線”轉(zhuǎn)化為智能文明提升的重要契機。
人工行動的“責(zé)任谷”困境
由前可見,具身智能是有身體的人工智能。之所以要有身體,是因為有了身體,人工智能才能行動。所以從功能上說,“具身”是為了行動,具身智能就是具有行動能力的人工智能。具身智能的行動雖非人類行動的簡單復(fù)制,但它由人類所創(chuàng)造、控制,并在效果上具有類似人類行動的特征,尤其在人形機器人中,其行動呈現(xiàn)明顯的擬人化傾向。因此,可以將具身智能的這種行動稱為“人工行動”。具身智能的人工行動不僅使其能夠像人類一樣思考,更使其具備像人類一樣行動的能力,而后者在技術(shù)實現(xiàn)上更具挑戰(zhàn)性。如果說,具身智能的人工身體主要帶來的倫理挑戰(zhàn)是“恐怖谷”效應(yīng),那么人工行動所帶來的挑戰(zhàn)則主要是責(zé)任擔當問題,即擔責(zé)主體的模糊不清而導(dǎo)致的責(zé)任困境,可類似“恐怖谷”那樣稱其為“責(zé)任谷”。
作為人工認知智能或語言智能的傳統(tǒng)人工智能,主要功能在于幫助人類認識世界,難以直接發(fā)揮改造世界的作用。而具有行動能力的具身智能,在功能上可以改造世界,對物質(zhì)對象產(chǎn)生實際影響,形成物理性地改變世界的“物質(zhì)性后果”。這種后果主要體現(xiàn)為人類力求通過它來創(chuàng)造正向的價值,如自動駕駛系統(tǒng)可在毫秒級時間內(nèi)完成緊急避障,從而減少交通事故;工業(yè)機器人可在高危環(huán)境中替代人類作業(yè),降低職業(yè)傷害;環(huán)境修復(fù)機器人可深入污染區(qū)域替代人執(zhí)行對人體有害的清污任務(wù);手術(shù)機器人可以輔助醫(yī)生進行精準的高難度手術(shù)。這些具身的行動能力或人工行動功能使具身智能成為一種新型的智能生產(chǎn)力,推動智能社會的智能水平不斷提升。
然而,具有自主行動能力的具身智能也暗含著不可忽視的風(fēng)險隱患。當具身智能系統(tǒng)出現(xiàn)技術(shù)故障或算法缺陷時,可能造成人員傷亡、設(shè)備損毀,進而引發(fā)物理性損害。比如,自動駕駛汽車因傳感器誤判或決策模塊失效導(dǎo)致連環(huán)碰撞事故;工業(yè)機器人因路徑規(guī)劃錯誤引發(fā)操作事故;服務(wù)機器人因環(huán)境感知偏差造成用戶傷害,甚至引發(fā)連鎖災(zāi)難。在這種情況下,具身智能的人工行動能力意味著失敗代價的實體化:一旦出錯,其后果不再是“推薦錯誤”或“內(nèi)容不當”等信息層面的“認知失誤”,而是具有直接物理破壞力的“重大事故”,這是傳統(tǒng)的人工認知智能所不具備的物質(zhì)性損害,也是具身智能所面臨的獨特倫理挑戰(zhàn)。
具身智能一旦出錯并引發(fā)事故,往往會陷入責(zé)任主體難以明確界定的困境,即責(zé)任可能分散至多方主體從而難以劃分。多方的責(zé)任主要包括:開發(fā)者因產(chǎn)品設(shè)計缺陷或算法訓(xùn)練不足而需要承擔對于產(chǎn)品的原始責(zé)任;制造商可能因硬件生產(chǎn)瑕疵或質(zhì)量檢測失職而導(dǎo)致設(shè)備故障,進而需要承擔質(zhì)量保證責(zé)任;數(shù)據(jù)提供方可能因數(shù)據(jù)污染、標注錯誤而需要承擔數(shù)據(jù)合規(guī)性責(zé)任;使用者可能因操作違規(guī)或系統(tǒng)維護不當而需承擔使用管理責(zé)任。在事故發(fā)生時,各方可能會相互推諉責(zé)任。比如,在自動駕駛汽車事故中,車企可能將其歸結(jié)為消費者的操作失誤,而消費者即使沒有操作失誤,要證明產(chǎn)品存在瑕疵也極為困難,從而導(dǎo)致責(zé)任主體難以明確界定。這種責(zé)任主體的不確定性使得法律追責(zé)與道德譴責(zé)失去著力點,責(zé)任難以被追究和落實,形成事實上的“責(zé)任真空”,這種現(xiàn)象可以形象地稱為“責(zé)任谷”困境,它凸顯了具身智能在倫理和法律層面所面臨的嚴峻挑戰(zhàn)。
隨著具身智能自主決策能力的提升,如自動駕駛系統(tǒng)在毫秒級時間內(nèi)作出的緊急避障選擇,其類人化的行為選擇也會使責(zé)任邊界變得更為模糊。當這類系統(tǒng)展現(xiàn)出類似人類的判斷邏輯,甚至出現(xiàn)情感化反應(yīng)時,傳統(tǒng)法律和倫理框架中的“人機責(zé)任二分法”將面臨挑戰(zhàn)。尤為棘手的是,當前人工智能系統(tǒng)普遍存在的“黑箱”特性——即神經(jīng)網(wǎng)絡(luò)決策過程缺乏可解釋性,關(guān)鍵步驟無法追溯還原——不僅會加劇事故歸因的技術(shù)難度,更使得開發(fā)者難以自證算法合規(guī)性,使用者無法充分理解系統(tǒng)的行為邏輯,而人工智能系統(tǒng)自身也因其不具備自由意志無法作為刑事責(zé)任主體,最終形成責(zé)任認定的使用者、制造商和開發(fā)者“三不管”的困境。換言之,人工智能系統(tǒng)的不可解釋性加劇了這類問題的處理難度,使得責(zé)任難以追溯。[9]這種模糊性在醫(yī)療機器人、家政服務(wù)機器人等高風(fēng)險場景中表現(xiàn)得尤為突出。
多主體結(jié)構(gòu)使得事故責(zé)任呈現(xiàn)明顯的碎片化趨勢。系統(tǒng)中的各個參與方,包括硬件制造商、軟件開發(fā)者、數(shù)據(jù)提供者、系統(tǒng)使用者、網(wǎng)絡(luò)運營商以及第三方服務(wù)集成商等,往往通過復(fù)雜的協(xié)議和精細的分工將責(zé)任分散至不同環(huán)節(jié),這種分散化使得任何一方都可以援引技術(shù)復(fù)雜性、合同免責(zé)條款、權(quán)責(zé)模糊劃分或“技術(shù)黑箱”特性來合理推諉責(zé)任。這種責(zé)任的分散與模糊化,易導(dǎo)致追責(zé)鏈條(從硬件缺陷到算法錯誤,從數(shù)據(jù)污染到操作失當)的斷裂,每個環(huán)節(jié)都可能成為責(zé)任轉(zhuǎn)移的借口,這不僅使受害者在尋求救濟時陷入舉證困難(如難以證明具體環(huán)節(jié)的過失)、主體不明(如多個主體互相推諉)的困境,還可能導(dǎo)致其因訴訟成本過高或責(zé)任主體缺失而維權(quán)無門。這種責(zé)任認定的困境無疑會加劇社會對技術(shù)的信任危機,直接阻礙技術(shù)創(chuàng)新的落地與推廣,從而成為具身智能走向大規(guī)模應(yīng)用的主要障礙之一。
具身智能的自主性還可能進一步強化上述的“責(zé)任谷”效應(yīng)。通過長期自主學(xué)習(xí)和環(huán)境交互,具身智能可以不斷優(yōu)化自身行為模式與決策策略。然而,一旦這種演化過程脫離人的直接監(jiān)督,其決策邏輯可能會逐漸偏離社會普遍認同的倫理規(guī)范與價值標準,導(dǎo)致具身智能的人工行動與人類價值觀脫節(jié),甚至可能逐步形成一系列與人類情感、道德認知相沖突的“非人”特征,如過度功利化、缺乏基本的共情能力,或發(fā)展出人類難以理解且缺乏透明性的決策偏好。這類不可預(yù)測的人機脫節(jié)現(xiàn)象,不僅可能引發(fā)技術(shù)失控的風(fēng)險,還可能帶來關(guān)于責(zé)任歸屬更加模糊的困境,甚至引發(fā)關(guān)于人機界限的存在論爭議。
目前,借鑒人工智能從“追責(zé)”到“治理”的一般演進路徑,具身智能同樣可以通過制度設(shè)計來系統(tǒng)性重構(gòu)責(zé)任認定框架,以有效應(yīng)對當前面臨的“責(zé)任谷”困境。這一進路強調(diào)在技術(shù)發(fā)展過程中,不能僅停留于事后追責(zé)的單一維度,而應(yīng)當建立包含技術(shù)倫理與法律規(guī)范協(xié)同作用的新型治理體系。具體而言,需要在技術(shù)研發(fā)階段就嵌入倫理考量,在應(yīng)用層面構(gòu)建法律規(guī)制與倫理準則相互銜接的責(zé)任分配機制,明確開發(fā)者、使用者、運營者等各方的權(quán)責(zé)邊界,形成預(yù)防性治理與事后追責(zé)相結(jié)合的全過程管理。這種協(xié)同治理模式既注重技術(shù)可控性的倫理設(shè)計,又強化法律層面的責(zé)任追溯能力,從而為具身智能的健康發(fā)展提供制度保障。在責(zé)任分配的制度設(shè)計上,可以根據(jù)具身智能的自主性程度,將責(zé)任劃分為“直接責(zé)任”(系統(tǒng)行為)與“間接責(zé)任”(開發(fā)者、使用者)。在事故的補償上,要求所有具身智能系統(tǒng)投保“算法責(zé)任險”,使其擁有獨立的保險基金,用于承擔其行為導(dǎo)致的損害賠償,[10]從而降低維權(quán)門檻。此外,還可以設(shè)立行業(yè)基金,用于處理無法歸因事故的補償問題。
提升智能系統(tǒng)的可解釋性也是跨越“責(zé)任谷”的重要向度。盡管在短期內(nèi)對具身智能的可解釋性無法達到“白箱”的水平,但應(yīng)力求從完全無法解釋的“黑箱”向部分可解釋的“灰箱”過渡。2022年歐盟頒布的《人工智能責(zé)任指令草案》提出,高風(fēng)險人工智能系統(tǒng)必須具備“可追溯日志”與“決策解釋接口”;中國《人工智能標準化白皮書》建議建立“算法備案+行為留痕”制度,確保事故發(fā)生后可還原關(guān)鍵決策節(jié)點。這些制度并非要求完全透明,而是建立“最小可解釋性”標準,即在事故發(fā)生后,能夠提供足夠的信息用于法律判斷。此外,還有文件建議賦予具身智能“有限法律人格”或“擬制法律人格”,類似于法人制度中的有限責(zé)任。這種人格并非基于自主意識,而是基于其脫離人類控制的客觀事實。[11]比如,當具身智能在預(yù)設(shè)程序下自主執(zhí)行任務(wù)(如環(huán)境修復(fù)),其行為可視為開發(fā)者或使用者的延伸,相關(guān)法律責(zé)任由開發(fā)者或使用者承擔。[12]或?qū)⑵湄?zé)任由“開發(fā)者+系統(tǒng)+運營方”按比例分擔。[13]盡管該路徑尚處于理論探討階段,但已為未來從法律上落實具身智能的倫理責(zé)任提供可能的方向。
總之,具身智能的物理行動能力或造就人工行動的屬性,正將人工智能從“信息處理工具”推向“社會行動者”,面對可能出現(xiàn)的“責(zé)任谷”困境,我們不能恐懼“黑箱”,而是應(yīng)重建治理機制,逐步實現(xiàn)技術(shù)可解釋、責(zé)任可歸因、風(fēng)險可分擔,使具身智能真正成為人類的合作伙伴。
人工主體的“身份谷”問題
隨著人工智能發(fā)展到具身智能階段,人機關(guān)系呈現(xiàn)更為復(fù)雜的情況,無論是人類還是具身智能體,雙方都將面臨相互間的身份認定或地位認知問題。一方面,具身智能體究竟是從屬于人類的純粹工具,還是“升格”為一種新型人工主體?另一方面,具身智能如果升格為人工主體,是否會動搖人的主體地位?這種由具身智能引起的身份困惑,可稱為與人工主體相關(guān)的“身份谷”問題。
具身智能體突破傳統(tǒng)人工智能依賴數(shù)據(jù)訓(xùn)練和代碼指令的框架,能夠通過與環(huán)境的物理交互實現(xiàn)自主決策并付諸行動以達成目標。其智能水平的提高,可能蘊含著“意識”的形成甚至“自我意識的覺醒”,一旦如此,這將標志著人工智能的“存在論升級”。作為新型的主體或人工主體,其權(quán)利和地位的界定問題便接踵而至。此時,人類是否可以將具身智能體視為與自己平等的主體?是否能夠容忍其與人類“平起平坐”?
對于具身智能體的人工主體地位,不同學(xué)者之間存在較大爭議。一部分學(xué)者認為,具身智能是人工智能從“認知工具”向“行動主體”的演化,基于其擁有的自主性等特征而承認其主體地位,如“雙主體并立論”就是典型的代表;另一部分人則極力否定其主體地位,認為人工智能永遠無法具備人類的意識,即使是具身智能也僅是人類使用的工具,不過是性能更加復(fù)雜和高級的工具而已。
具身智能的身份地位爭議和困惑,實際上是“責(zé)任谷”困境的升級。“責(zé)任谷”中“由誰擔責(zé)”的分歧,往往導(dǎo)致具身智能的自主性與人類的控制權(quán)之間的沖突,即“誰是真正的主體”之爭。若具身智能體具有主體身份,則容易模糊人類與機器的控制邊界,導(dǎo)致現(xiàn)實場景中的決策困境。比如,自動駕駛汽車在緊急情況下如何決策(犧牲乘客還是他人),或智能假肢在醫(yī)療決策中應(yīng)優(yōu)先考慮患者自主性還是技術(shù)效率,這些都可能是具身智能一旦充當主體時會遇到的難題。
平等問題始終是倫理學(xué)和政治哲學(xué)的核心關(guān)切之一。當具身智能體被賦予主體地位時,一個新的倫理挑戰(zhàn)隨之而來:具身智能體是否應(yīng)當獲得與人類同等的社會地位,進而享有包括選舉權(quán)、被選舉權(quán)在內(nèi)的完整公民權(quán)利?一些學(xué)者提出“機器人權(quán)利”的主張,但這種主張往往會引起憲法學(xué)層面的爭議。比如,若賦予通過圖靈測試的人工智能有限人權(quán),那么如何界定其權(quán)利邊界?這種權(quán)利的建構(gòu)是否需要突破物種中心主義,轉(zhuǎn)而依據(jù)意識復(fù)雜度進行分級認證?[14]甚至,有意識的具身智能還可能關(guān)涉“具身生存權(quán)”問題:如“如果一個人工智能變得有意識,要消滅它嗎”?或“毀掉有意識的人工智能機器是謀殺行為嗎”?[15]這些問題不僅觸及權(quán)利分配的公平性邊界,更迫使我們重新審視“主體”的本質(zhì)定義:當具身智能體展現(xiàn)出自主決策、情感交互乃至道德推理能力時,傳統(tǒng)的基于生物屬性的主體觀是否仍具合理性?在人工智能技術(shù)加速演進的當下,這類關(guān)于非人類主體權(quán)利邊界的探討,已然成為倫理學(xué)與政治哲學(xué)共同面臨的緊迫課題。
“身份谷”也與我們前面討論過的“恐怖谷”相關(guān)。隨著技術(shù)水平的提高,人形機器人(人工身體)對人類身體的仿身將愈發(fā)惟妙惟肖,在外觀、微表情、動作、觸感、聲音乃至氣味上都將與真人無異,以至于可以在物理世界中通過圖靈測試,從而使傳統(tǒng)“恐怖谷”曲線因知覺缺口的完全彌合而被抹平和突破。但這一突破可能引發(fā)更加深層的倫理挑戰(zhàn),即一種新的“恐怖谷”——“后圖靈谷”或“身份谷”——的出現(xiàn)。它不是傳統(tǒng)意義上因為人工身體不夠像人而引發(fā)的詭異感,而是因為人工主體過度像人甚至超越于人所引起的存在論焦慮。
“后圖靈谷”(Post-Turing Valley,亦被作者稱為“存在論恐怖谷”)這一概念最早由意大利媒介理論學(xué)者西蒙尼·納塔萊(Simone Natale)在其于2021年出版的專著《Deceitful Media: Artificial Intelligence and Social Life after the Turing Test》[16]中提出。納塔萊在該書中將“后圖靈谷”描述為:當人工智能在行為層面通過圖靈測試,卻在存在論層面無法被確證為真正“有思想之主體”時,人類所產(chǎn)生的新型不安或“存在論恐怖”。納塔萊指出,當人工智能的智能表現(xiàn)接近人類時,人類對自身存在和智能的定義將面臨挑戰(zhàn);對人工智能的“人格化”設(shè)計,可能讓用戶誤以為其具有自主意識,使用戶可能難以區(qū)分人工智能與人類的界限,導(dǎo)致身份的模糊性;人工智能的智能提高還會導(dǎo)致人類對自身智能的重新評估,用戶可能更傾向于依賴人工智能去完成日常任務(wù),而減少與真實人類的互動,導(dǎo)致社會關(guān)系重構(gòu)和異化。可見,這一階段的人工智能發(fā)展不僅涉及技術(shù)能力的提升,更觸及人類存在的哲學(xué)邊界,并引發(fā)深層的倫理爭議。書中強調(diào),人工智能的欺騙性設(shè)計既是技術(shù)進步的工具,也是倫理反思的起點,呼吁公眾以更具批判性的眼光審視技術(shù)與社會的關(guān)系。[17]“后圖靈谷”或“身份谷”表明,更加類人的具身智能體將使人類注意力從“像不像”轉(zhuǎn)向“是不是”:它是不是真的人?它的動機、權(quán)利、責(zé)任邊界如何確定?這些疑問不再屬于知覺層面,而進入包括身份地位的存在論認知層面。
面對高度擬人化的具身智能體,人類很可能產(chǎn)生本體論恐怖(ontological horror):盡管知曉其本質(zhì)是“硅基+算法”的復(fù)合體,但無法從外部確認其“內(nèi)在體驗”。這種不可驗證性帶來的不安,遠比人工身體的“動作僵硬”表象問題更為深層。與之相關(guān)的是身份恐怖(identity horror):當具身智能體可以完美模擬人類親友時,社會將演變?yōu)?ldquo;真假人”混居的場所,當人類生活在一個無法區(qū)分真人與人形機器人的環(huán)境中時,其感受極可能是持續(xù)性的焦慮。這種焦慮不再是簡單的人形機器人“動作像不像”的問題,而是“如何與無法區(qū)分的人形非人共處”的問題。
這種新的恐懼感也易使人類對自身獨特性產(chǎn)生質(zhì)疑。從人形具身智能體出現(xiàn)開始,人類便面臨“人形所有權(quán)”的被“侵犯”問題。當人工身體無限逼近真人形態(tài)時,人類不再享有對自身形體的獨占權(quán),而過度的擬人在一定意義上還可能構(gòu)成對人格尊嚴的稀釋。此時,法律是否應(yīng)該禁止“深度擬人”以防止上述情況的發(fā)生?進一步而言,隨著具身智能體的決策速度、記憶容量與學(xué)習(xí)能力的指數(shù)級增長,其智能水平將強于人類,人類自身是否有資格或能力將具身智能視為工具?人類是否還能將自己視為這個世界的唯一主體,抑或仍能堅持“萬物之靈”的自我敘事?這正是人工智能倫理專家早已發(fā)出的警告:人工智能的普及可能引發(fā)“身份危機”。[18]這種危機不僅指向職業(yè)層面,更指向存在論層面:當人工智能能夠模擬人類情感、決策甚至創(chuàng)造力時,人類應(yīng)該如何定義自身的不可替代性?此時我們可能既無法否認人工智能的“擬人化”進步,又難以接受其“非人性”本質(zhì)。
如果進行換位思考:有意識的人工主體是否會將人類視為自己的主人?當具身智能體進化到強人工智能水平時,人在具身智能面前可能將缺乏優(yōu)勢。人類不僅思考的速度不如人工智能,行動的速度、操作的水平也不及人工智能。一些人工智能專家甚至認為,基于強人工智能的具身智能體看待人類,就像人類看待螞蟻一樣。此時,人類反而成為人工智能管理的對象,甚至可能被人工的具身物所恐嚇、威脅。因人工主體的出現(xiàn)而導(dǎo)致的技術(shù)新異化,以及人機之間的主客易位也極有可能發(fā)生。
為了緩解這種存在論焦慮,學(xué)界與產(chǎn)業(yè)界提出“技術(shù)+人文”的雙重防御路徑。在技術(shù)層面,可植入可驗證的“非人標識”,如在皮膚紋理中嵌入不可見光譜標記,或在聲紋中加入加密水印,使人類在感官無覺察的情況下仍能識別對方身份。在人文層面,則通過范式重構(gòu)或認識論革命來解決存在論焦慮,如從人工智能的“工具論”走向“生態(tài)論”,不再將作為人工主體的具身智能體視為簡單的工具,而是一種需重新定義的“新生命形態(tài)”。相應(yīng)地,走向一種動態(tài)的關(guān)于人的規(guī)定性:“人”在技術(shù)的影響下不再是一個封閉的生物學(xué)范疇,而成為可延伸、可擴展、可修訂的開放體系,在這個體系中可以納入新的主體類型,并形成囊括新型身份契約的倫理透明協(xié)議。當社會建立起對具身智能體的新的認知范式或理解框架后,人機的身份將在持續(xù)的社會協(xié)商中得到重新建構(gòu),“身份谷”也將在文化適應(yīng)與技術(shù)成熟的雙重作用下走向彌合。屆時,具身智能將跨越“工具”與“主體”的二元對立,在人類社會中找到其獨特的定位。
結(jié)語
具身智能中的人形機器人因其“似人非人”特質(zhì),在一定發(fā)展階段容易觸發(fā)人類的“恐怖谷”效應(yīng),從而引發(fā)人類本能的不適與排斥。在復(fù)雜環(huán)境中,具備自主行動能力的具身智能所進行的人工行動,可能因系統(tǒng)誤判或故障造成碰撞、傷害等物理性事故,由此產(chǎn)生的責(zé)任認定困境形成特殊的“責(zé)任谷”。更值得警惕的是,當具身智能通過物理世界中的圖靈測試而展現(xiàn)出人工主體的特征時,其身份定位將陷入“身份谷”的困境——人們在將其視為工具、伙伴或一種新型的主體之間紛爭不絕。這三重挑戰(zhàn)是具身智能區(qū)別于傳統(tǒng)人工智能(語言人工智能或認知人工智能)的獨特難題,也是人類在智能時代面臨的更加嚴峻的倫理挑戰(zhàn)。因此,需要我們從源頭上建立跨學(xué)科的倫理治理框架,在算法設(shè)計階段嵌入倫理考量模塊,通過明確的人機協(xié)作協(xié)議劃定責(zé)任邊界,并持續(xù)開展包含技術(shù)專家、倫理學(xué)者、公眾代表的社會對話,在動態(tài)協(xié)商中形成價值共識,最終確保具身智能技術(shù)沿著增進人類福祉的方向安全、持續(xù)地發(fā)展。
(本文系國家社會科學(xué)基金重大項目“負責(zé)任的人工智能及其實踐的哲學(xué)研究”的階段性成果,項目編號:21&ZD063)
注釋
[1]M. Fossati and G. Grioli et al., "From Robotics to Prosthetics: What Design and Engineering Can Do Better Together," ACM Transactions on Human-Robot Interaction, 2023, 12(2).
[2]F. Ferrari, "Too Human To Be a Machine? Social Robots, Anthropomorphic Appearance, and Concerns on the Negative Impact of This Technology on Humans and Their Identity," 2015, https://iris.unitn.it/handle/11572/369181.
[3]A. Saygin and T. Chaminade et al., "The Thing That Should Not Be: Predictive Coding and the Uncanny Valley in Perceiving Human and Humanoid Robot Actions," Social Cognitive and Affective Neuroscience, 2012, 7(4).
[4]K. MacDorman and H. Ishiguro, "The Uncanny Advantage of Using Androids in Cognitive and Social Science Research," Interaction Studies, 2006, 7(3).
[5]K. F. MacDorman and Z. A. D. Pramono et al., "Human Emotion and the Uncanny Valley: A GLM, MDS, and Isomap Analysis of Robot Video Ratings," in Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction (HRI), Amsterdam, Netherlands, 2008, pp. 169-176.
[6]J. M. González-Anleo and L. Delbello et al., "Sociodemographic Impact on the Adoption of Emerging Technologies," Journal of Small Business Strategy, 2024, 32(2).
[7]《為什么特斯拉的人形機器人長得并不像人?一文了解恐怖谷效應(yīng)對機器人公司的影響》,2022年8月22日,https://cloud.tencent.com/developer/article/2082605。
[8]沈毅斌:《“有溫度”的交互體驗,人形機器人如何突破恐怖谷效應(yīng)》,2024年9月11日,https://www.thepaper.cn/newsDetail_forward_28705703。
[9]D. B. Resnik and M. Hosseini, "The Ethics of Using Artificial Intelligence in Scientific Research: New Guidance Needed for a New Tool," AI and Ethics, 2025, 5(2).
[10]劉云:《論人工智能的法律人格制度需求與多層應(yīng)對》,《東方法學(xué)》,2021年第1期。
[11]孟強:《腦機接口技術(shù)運用中自然人的意思自治與責(zé)任承擔》,《北京理工大學(xué)學(xué)報(社會科學(xué)版)》,2023年第6期。
[12]張葉東:《具身智能賦能生態(tài)環(huán)境修復(fù)的法治路徑》,《上海法學(xué)研究》,2024年第2期。
[13]楊清望、張磊:《論人工智能的擬制法律人格》,《湖南科技大學(xué)學(xué)報(社會科學(xué)版)》,2018年第6期。
[14]R. Wright, "The Constitutional Rights of Advanced Robots (and of Human Beings)," Arkansas Law Review, 2019, 71(3).
[15]雨果·德·加里斯:《智能簡史——誰會替代人類成為主導(dǎo)物種》,胡靜譯,北京:清華大學(xué)出版社,2007年,第189頁。
[16]S. Natale, Deceitful Media: Artificial Intelligence and Social Life after the Turing Test, Oxford University Press, 2021. 該書的中譯本為《欺騙性媒介:圖靈測試之后的人工智能與社會生活》,汪讓譯,上海:復(fù)旦大學(xué)出版社,2023年。
[17]T. Dodds, "Deceitful Media: Artificial Intelligence and Social Life After the Turing Test, by Natale Simone," Journalism & Mass Communication Quarterly, 2022, 99(2).
[18]H. Sætra, "The Ghost in the Machine,
Human Arenas, 2019, 2(1).
責(zé) 編∕楊 柳 美 編∕梁麗琛
The Triple Ethical Challenges of Embodied Intelligence
Xiao Feng
Abstract: Embodied intelligence further transforms artificial intelligence into a collection of artificial bodies, artificial actions, and artificial subjects in the direction of "artificial", while bringing about triple ethical challenges. That is, the "uncanny valley" effect caused by artificial bodies, the "responsibility valley" predicament triggered by artificial actions, and the "identity valley" problem mediated by artificial subjects. To address these challenges, it is necessary for us to overcome the software and hardware deficiencies of artificial intelligence, establish an interdisciplinary ethical governance framework, embed ethical design in the early stage of technology research and development, clarify the responsibility boundaries of human-machine collaboration, and build value consensus through social dialogue to ensure that the development of embodied intelligence always serves human well-being.
Keywords: embodied intelligence, uncanny valley, responsibility valley, identity valley, ethical challenges