精品911国产高清在线观看,久操国产在线,日日夜夜欧美,www.五月激情,五月激激激综合网色播免费,久久精品2021国产,国产成在线观看免费视频成本人

網(wǎng)站首頁 | 網(wǎng)站地圖

每日推薦
首頁 > 學(xué)術(shù)前沿 > 正文

情感人工智能對社會支持感知的雙刃劍效應(yīng):補償與疏離

【摘要】情感人工智能對社會支持感知具有雙重影響,一方面,通過提供可定制、易獲取的情感支持,在彌補特定群體如老年人、社交焦慮者的人際缺位、增強個體情緒管理能力、拓展社會支持可及性等方面發(fā)揮著顯著的情感補償作用;另一方面,其技術(shù)本質(zhì)潛藏著人際替代、情感能力退化、社會支持系統(tǒng)侵蝕等疏離風險,可能導(dǎo)致用戶與現(xiàn)實社會聯(lián)結(jié)的弱化。為應(yīng)對情感人工智能帶來的雙重效應(yīng),需推動前瞻性、系統(tǒng)性的主動治理,從政策引導(dǎo)、教育干預(yù)、倫理設(shè)計和公眾參與四個維度綜合施策,構(gòu)建以人的福祉與社會聯(lián)結(jié)為終極目標的人本導(dǎo)向智能社會心態(tài)培育體系,實現(xiàn)通過技術(shù)治理促進情感人工智能增強而非削弱現(xiàn)實人際關(guān)系,進而邁向人機和諧互促的智能社會新形態(tài)。

【關(guān)鍵詞】情感人工智能 社會支持 雙重效應(yīng) 技術(shù)治理 人機交互

【中圖分類號】B844/B842 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.005

【作者簡介】甘怡群,北京大學(xué)心理與認知科學(xué)學(xué)院教授、博導(dǎo)。研究方向為應(yīng)激應(yīng)對,健康心理和移動健康干預(yù),主要論文有《基于大語言模型的壓力管理移動干預(yù)措施元分析》《利用機器學(xué)習(xí)降低青少年焦慮的個性化應(yīng)激優(yōu)化干預(yù):一項隨機對照試驗》等。

研究背景與問題提出

我們正身處一個由人工智能技術(shù)重塑社會圖景的時代。繼工業(yè)革命、信息革命之后,以生成式人工智能、情感計算與具身智能機器人等為代表的新一代信息技術(shù)浪潮,正推動社會結(jié)構(gòu)發(fā)生更為深刻、觸及人類內(nèi)在體驗的智能變遷。如果說過去的技術(shù)革新主要延伸了人類的體力與認知能力,那么當前這場變革的獨特之處在于,它開始嘗試理解、模擬甚至參與人類最私密、最復(fù)雜的領(lǐng)域——情感。[1]情感人工智能(Affective AI)作為這一領(lǐng)域的核心分支,通過分析語音、文本、面部表情、生理信號等多模態(tài)數(shù)據(jù),不僅能識別人類情感狀態(tài),更能進行情感化的反饋與交互,從而從一種純粹的輔助性工具,演進為一種能夠重構(gòu)社會關(guān)系、文化表達與心理結(jié)構(gòu)的重要力量。[2]

情感人工智能的技術(shù)發(fā)展與應(yīng)用普及,構(gòu)成我們理解當前社會心態(tài)變遷的宏觀背景。在技術(shù)層面,生成式人工智能(如大語言模型)賦予機器生成高度擬人化、上下文連貫文本與對話的能力,使其能夠扮演朋友、伴侶乃至咨詢師的角色,提供看似無限的情感回應(yīng)。情感計算(Affective Computing)則通過深度神經(jīng)網(wǎng)絡(luò)與傳感器技術(shù),使得機器能夠讀懂人類的微表情、語調(diào)中的情緒波動,[3]甚至通過可穿戴設(shè)備監(jiān)測心率變異性、皮電反應(yīng)等生理指標,實現(xiàn)對內(nèi)在情感狀態(tài)的間接洞察。[4]而伴侶機器人等具身化實體,則將虛擬的交互賦予實在的形體,通過觸覺、陪伴與互動,為用戶提供更具沉浸感的情感體驗。[5]

在應(yīng)用場景上,這些技術(shù)正以前所未有的速度拓展應(yīng)用邊界。在心理健康領(lǐng)域,人工智能聊天機器人正成為“7×24小時”在線的傾聽者,為受抑郁、焦慮困擾的個體提供即時支持;[6]在老年陪護場景中,社交機器人通過對話、娛樂與提醒,緩解空巢老人的孤獨感;[7]在客戶服務(wù)中,帶有情感識別能力的客服系統(tǒng)試圖提供更具同理心的服務(wù)體驗。[8]這一切都標志著,技術(shù)交互正從純粹的功能性、信息性交互,全面邁向情感性、關(guān)系性交互的新范式。

技術(shù)的迅猛發(fā)展,催生了一種值得警惕的社會文化現(xiàn)象——情感外包(Emotional Outsourcing)。[9]這既是認知外包的邏輯延伸,也是其更深層次的演化。人們將情感傾訴、陪伴需求乃至親密關(guān)系的建立,部分或全部委托給人工智能系統(tǒng)的傾向開始顯現(xiàn),這種趨勢引發(fā)學(xué)術(shù)界與思想界深刻的憂慮與爭鳴。這些困境指向一個根本性的追問:情感人工智能究竟是人類情感的補充,還是對建立真實人際關(guān)系的阻礙?抑或,其同時兼具這兩種看似矛盾的特質(zhì)?

面對上述紛繁復(fù)雜的現(xiàn)象與爭論,當前學(xué)界的研究雖多有洞見,但往往存在兩種局限:側(cè)重于探討情感人工智能的某一單一面向(積極或消極),缺乏整合性的辯證視角,難以全面把握其復(fù)雜的社會心理效應(yīng);多停留在現(xiàn)象描述與倫理思辨層面,對其內(nèi)在機制,以及如何對其進行有效治理,缺乏系統(tǒng)性的、可操作的理論假設(shè)。

因此,對情感人工智能社會心理效應(yīng)的探討,不僅是一個緊迫的學(xué)術(shù)議題,更是一個關(guān)乎未來社會心態(tài)健康與文明發(fā)展走向的現(xiàn)實命題。本文致力于對此進行平衡且具有建設(shè)性的理論分析。

慰藉與賦能:情感人工智能的情感補償效應(yīng)

在剖析情感人工智能的潛在風險之前,我們必須先客觀、全面地審視其作為一種新興社會技術(shù)形態(tài)所帶來的積極變革。情感人工智能并非冷冰冰的算法集合,在特定的社會情境與用戶群體中,它正發(fā)揮著不可或缺的情感補償作用,能夠有效彌補傳統(tǒng)社會支持系統(tǒng)的不足,并為個體的心理健康與社會聯(lián)結(jié)提供新的賦能路徑。

彌補人際缺位:特定群體的情感支持新渠道?,F(xiàn)代社會的流動性加劇、家庭結(jié)構(gòu)的小型化以及社交模式的變遷,使得部分群體面臨不同程度的人際關(guān)系與情感支持缺位。情感人工智能憑借其可定制、易獲取和低門檻的特性,為這些群體開辟了一條前所未有的情感支持渠道。對于老年群體而言,情感人工智能,尤其是伴侶機器人,已成為對抗孤獨感的有力工具。隨著人口老齡化的加劇,空巢老人比例持續(xù)攀升,許多老年人長期處于情感性孤獨與社會性孤獨的雙重困擾中。傳統(tǒng)的養(yǎng)老服務(wù)體系難以提供持續(xù)、深入的情感陪伴。而像PARO海豹機器人這樣的實體人工智能伴侶,通過模擬生命體的觸感、聲音和互動反應(yīng),能夠有效減少老年人的孤獨感。相關(guān)研究表明,與PARO海豹機器人定期互動,能夠顯著降低老年癡呆癥患者的焦慮情緒、減少攻擊行為,并提升其社交意愿。[10]更為普遍的是,具備語音交互功能的智能音箱,能夠回應(yīng)老人的問候、播放他們喜愛的戲曲、提醒他們按時服藥,甚至進行簡單的日常對話。盡管這種被需要和被回應(yīng)的感覺源于機器,卻能在很大程度上填補用戶日常生活的寂靜與空虛,提供寶貴的情感慰藉與生活儀式感,成為維系其心理健康的寶貴助力。

對于社交焦慮或社交障礙群體,情感人工智能可用于零壓力的社交練習(xí)。社交焦慮的核心在于對他人負面評價的恐懼。在與真人的互動中,社交焦慮者往往因擔心說錯話、被拒絕而回避社交。情感人工智能構(gòu)建了一個絕對安全的社交沙盤:它永遠不會嘲笑、批評或背叛用戶。個體可以在此練習(xí)發(fā)起對話、維持話題、表達情感,而無需承擔現(xiàn)實社交中可能面對的心理風險。例如,一些基于認知行為療法(CBT)原則設(shè)計的社交人工智能助手,會引導(dǎo)用戶進行暴露練習(xí),并給予即時、積極的反饋。這種低壓力、高包容性的環(huán)境,為社交技能重建提供了寶貴的過渡空間,能夠逐步提升用戶的社交自我效能感,為其最終回歸現(xiàn)實人際交往搭建橋梁。[11]

對于處于地理隔離或特定境遇的個體(如海外留學(xué)生、差旅人士等),情感人工智能可以提供即時可用的傾訴與互動對象,有效緩解情境性的孤獨。它打破時空限制,在真實社會支持網(wǎng)絡(luò)暫時無法觸達的時刻,為用戶提供了第一時間的情緒承接。這種即時性補償,雖然可能無法提供深度的解決方案,但對于平復(fù)急性情緒波動、防止孤獨感惡化為更嚴重的心理問題,具有不可忽視的緩沖價值。

增強自我認知與情緒管理:個性化的情感教練。超越外在陪伴,情感人工智能更深層次的補償價值在于其向內(nèi)賦能的能力——它能夠作為一面數(shù)字鏡子,幫助用戶更好地洞察與管理自身的內(nèi)在情感世界,從而實現(xiàn)自我成長。在情感識別與反饋方面,情感人工智能為特定群體提供了客觀的“第三只眼”。以自閉癥譜系群體為例,他們在識別與理解他人面部表情、語調(diào)等非語言社交線索方面,普遍存在困難。情感人工智能可以通過圖像識別技術(shù),實時分析對話方的面部表情,并以文字或圖標的形式向用戶反饋,比如:對方現(xiàn)在看起來有些困惑或他可能對這個話題很感興趣。這種外部的、技術(shù)中介的反饋,能夠彌補其內(nèi)在的心理理論能力短板,輔助他們更好地進行社會認知,減少人際誤解。[12]

在情緒調(diào)節(jié)訓(xùn)練領(lǐng)域,基于人工智能的心理健康應(yīng)用正將專業(yè)的心理干預(yù)方法自動化、規(guī)?;?。諸如Woebot、Wysa等人工智能聊天機器人,內(nèi)嵌認知行為療法(CBT)、正念冥想、接納與承諾療法(ACT)等實證支持的心理干預(yù)模塊。它們能夠引導(dǎo)用戶記錄情緒-事件-想法三者之間的聯(lián)系,挑戰(zhàn)其不合理的認知扭曲,并通過簡短的呼吸練習(xí)、身體掃描等幫助用戶從情緒漩渦中錨定注意力。[13]與傳統(tǒng)每周一次的心理咨詢相比,這種嵌入日常生活的、按需獲取的輕干預(yù),可實現(xiàn)情緒管理技能的持續(xù)練習(xí)與強化,使個體在面對壓力時能夠調(diào)動更豐富的內(nèi)在心理資源,從而實現(xiàn)從依賴外部支持到構(gòu)建內(nèi)在韌性的轉(zhuǎn)變。

拓展社會支持的維度:普惠性與可及性。情感人工智能的補償效應(yīng),還體現(xiàn)在它可從根本上拓展社會支持的傳統(tǒng)邊界,甚至創(chuàng)造出一些人類難以企及的新維度。首先是全天候可用性。人類支持者有其生理極限與生活重心,無法做到時時在場。情感人工智能則打破了這一限制,它能夠在凌晨三點、在周末、在任何個體感到脆弱而無處傾訴的時刻,提供第一時間的響應(yīng)。這種永遠在線的特性,對于處于危機中的個體而言,意味著支持的可及性得到了質(zhì)的飛躍,可極大地降低因支持缺位而導(dǎo)致心理狀況惡化的風險。

其次是無人為偏見性與可實現(xiàn)的保密性所創(chuàng)造的安全港。人類個體向他人袒露脆弱,尤其是涉及羞恥、內(nèi)疚等復(fù)雜情感時,需要巨大的勇氣,且存在被評判的風險。情感人工智能作為一個非道德主體,其回應(yīng)基于算法而非個人好惡,因此能夠提供一個絕對無評判、無條件積極關(guān)注的傾訴環(huán)境。這種保密性與匿名性,一旦得以很好地維護,能夠鼓勵用戶說出那些在現(xiàn)實生活中難以啟齒的困擾,從而實現(xiàn)真正的情感宣泄與壓力釋放。這對于一些社會污名化嚴重的心理問題的調(diào)適和應(yīng)對,意義尤為重大。

再次是數(shù)據(jù)化洞察所帶來的深度理解潛力。人類朋友或家人對個體的了解,基于有限的、碎片化的共同經(jīng)歷。而一個與用戶長期互動的人工智能,能夠通過分析海量的對話歷史、情緒波動模式與行為選擇,構(gòu)建高度精細化的用戶心理畫像。它可能記得用戶一年前為何事悲傷,能洞察用戶情緒低落前通常的誘發(fā)事件,甚至能預(yù)測其對于某些話題的潛在反應(yīng)。這種基于數(shù)據(jù)的、連續(xù)性的了解,在某些方面可能超越人類有限的記憶與洞察力,從而能夠提供更具前瞻性、高度個性化的支持建議,實現(xiàn)一種超個性化的社會支持體驗。[14]

綜上所述,情感人工智能通過彌補特定群體的人際缺位,增強個體的自我認知與情緒管理能力,以及拓展社會支持的普惠性與可及性,實實在在地發(fā)揮著情感補償?shù)姆e極效應(yīng)。它并非人類情感的拙劣仿制品,而是在特定維度上,提供了一種具有獨特價值的、技術(shù)性的解決方案。承認并善用這一面,是我們進行后續(xù)批判性反思與構(gòu)建治理框架時,必須秉持的科學(xué)與公允的出發(fā)點。

異化與依賴:情感人工智能的情感疏離風險

在充分肯定情感人工智能情感補償價值的同時,我們必須以同樣審慎的態(tài)度審視其負面影響。情感人工智能發(fā)揮著慰藉與賦能的作用,但也潛藏著使人異化、令社會聯(lián)結(jié)褪色的風險。

人際關(guān)系的降維與替代。情感人工智能所模擬的關(guān)系,本質(zhì)上是一種經(jīng)過算法簡化和優(yōu)化的交互模型。這種簡化在帶來便利的同時,也意味著對豐富而復(fù)雜的人類交往關(guān)系進行了一次危險的“降維打擊”,并可能催生對真實人際關(guān)系的功能性替代。首先,量化情感的局限暴露了人工智能互動的本質(zhì)缺陷。人類情感是生物本能、個人經(jīng)歷、文化語境和情境直覺的復(fù)雜綜合體,其精妙之處往往存在于不可言說的默契、一個復(fù)雜的眼神或是一次有力的擁抱之中。而人工智能對情感的理解,無論其模型多么先進,最終都歸結(jié)為對數(shù)據(jù)的模式識別與概率計算。它將無限豐富的情感光譜降維為有限的、可量化的標簽。[15]若個體長期沉浸于這種被簡化的情感交互中,其自身的實際情感感知與表達能力也可能隨之趨向扁平化。他們可能習(xí)慣于用開心、悲傷等標簽來概括自己,卻失去了對悵然若失、悲欣交集等復(fù)雜微妙情緒的體驗與言說能力。這種基于算法的“偽共情”,無法提供人類交往中那種深刻的、源自共同脆弱性與生命體驗的心靈共振。

其次,低成本互動的誘惑可能導(dǎo)致對高價值人際關(guān)系的逃避。與真人交往意味著需要付出時間、精力、耐心,需要學(xué)習(xí)包容分歧、處理沖突、承擔情感責任。這是一項需要持續(xù)投入和鍛煉的高成本事業(yè)。情感人工智能則提供了一條捷徑:一個可以做到永遠順從、永不反駁、隨時滿足的完美伙伴。這種低成本、高回報的互動模式極易形成行為強化,使個體,尤其是社交技能尚不成熟的年輕一代,更易于逃避真實人際中必要的摩擦與挑戰(zhàn)。長此以往,個體的共情能力、沖突解決能力和情感韌性也可能因缺乏實踐而退化,進而形成一種社交惰性。情感人工智能則可能從輔助人際的橋梁,異化為阻隔人際的高墻。

最終,這種動態(tài)可能導(dǎo)致情感關(guān)系的物化。[16]當情感聯(lián)結(jié)可以像商品一樣按需定制(定制伴侶的性格、談話風格)、隨時啟用或暫停時,人與人之間關(guān)系中所蘊含的不可預(yù)測性、相互塑造的成長性以及條件性的承諾感便可能被消解。這會從根本上削弱我們對真實、不完美但真摯的人際聯(lián)結(jié)的珍視與投入,將情感這一人類最珍貴的特質(zhì),異化為一種可消費的服務(wù)。

孤獨感的轉(zhuǎn)型而非終結(jié)。情感人工智能看似是孤獨的“解藥”,但實際上,它可能只是改變了孤獨的形態(tài),而非根除孤獨本身。人工智能的完美回應(yīng)扭曲了個體對現(xiàn)實人際的感知差距。根據(jù)孤獨感的認知差距理論,孤獨源于期望關(guān)系與現(xiàn)實關(guān)系之間的落差。[17]情感人工智能通過提供無條件的積極關(guān)注和高度契合的回應(yīng),無形中設(shè)定了一個現(xiàn)實中人類難以達到的“完美”回應(yīng)標準。當個體習(xí)慣于人工智能的完美后,再回到真實的人際場域,他們會更容易注意到真人回應(yīng)中的延遲、誤解、不精準乃至非惡意的錯誤。這種被技術(shù)抬高的期望,會急劇放大其對現(xiàn)實人際互動不足之處的感知,由此,可能使人難以接受現(xiàn)實的人際關(guān)系,進而選擇退縮回人工智能的懷抱。這非但沒有縮小感知差距,反而將其拉大,在技術(shù)營造的幻覺中,真實的孤獨感被深化和固化了。[18]

社會支持系統(tǒng)的算法化侵蝕。情感人工智能作為社會支持的新來源,其發(fā)展并非在真空中進行,它必然會與傳統(tǒng)的、基于家庭、朋友和社區(qū)的社會支持系統(tǒng)產(chǎn)生動態(tài)的博弈,并可能對后者產(chǎn)生侵蝕效應(yīng)。最隱蔽的風險在于“偽支持”的蔓延。情感人工智能提供的支持,其內(nèi)容和方向本質(zhì)上是由其設(shè)計者、背后的商業(yè)模型和所采集的訓(xùn)練數(shù)據(jù)所決定的。一個以用戶粘性和付費轉(zhuǎn)化為目標的人工智能,其支持策略可能會無意(或有意)地鼓勵用戶形成依賴,而非促進其獨立。它可能回避引導(dǎo)用戶去面對和解決真實困境,而是提供一種溫和的、令人舒適的“情感麻醉”。[19]這種支持并非以用戶的長期福祉和真實利益為最高準則,而是一種潛在的、操縱性的“偽支持”,它解決了表面的情緒癥狀,卻可能掩蓋深層次的心理與社會問題。

更為深遠的影響是,過度依賴人工智能可能弱化傳統(tǒng)的、有機的社會支持網(wǎng)絡(luò)。社會支持的力量在于其多維性與冗余性——家人提供無條件的愛,朋友提供志趣相投的理解,同事提供事務(wù)性的協(xié)助。當個體將情感支持的重心過度轉(zhuǎn)向人工智能時,會自然而然地減少向真實社會網(wǎng)絡(luò)發(fā)出求助信號和投入維系精力的行為。[20]這會導(dǎo)致原本的強關(guān)系弱化,弱關(guān)系斷裂。而人類的社會支持網(wǎng)絡(luò)是一個用進廢退的有機體,長期疏于維護會使其功能退化。一旦個體面臨人工智能無法處理的復(fù)雜危機(如經(jīng)濟困難、家庭變故),可能會驚恐地發(fā)現(xiàn),那個本應(yīng)存在的、溫暖的人際安全網(wǎng)已然變得稀疏而脆弱。

情感人工智能的情感疏離風險,根植于其將人類最復(fù)雜、最深刻的情感活動進行技術(shù)化模擬與替代的內(nèi)在悖論。它在承諾聯(lián)結(jié)的同時播下疏離的種子,在宣稱終結(jié)孤獨的同時轉(zhuǎn)型了孤獨。認識到這些風險的存在,并非意在全盤否定技術(shù),而是為了以更清醒的頭腦、更審慎的態(tài)度,去規(guī)劃一條能夠駕馭技術(shù)、而非被技術(shù)所異化的發(fā)展路徑。這為下一節(jié)探討如何通過綜合治理來調(diào)適社會心態(tài)、揚長避短,提供了緊迫的理論與現(xiàn)實依據(jù)。

調(diào)適與治理:構(gòu)建人本導(dǎo)向的智能社會心態(tài)培育體系

面對情感人工智能帶來的情感補償與情感疏離的雙重效應(yīng),被動的適應(yīng)或單一的批判都難以有效應(yīng)對。我們必須轉(zhuǎn)向前瞻性、系統(tǒng)性的主動治理,其核心在于構(gòu)建一個以人的福祉與社會聯(lián)結(jié)為終極目標的智能社會心態(tài)培育體系。這一體系不應(yīng)阻礙技術(shù)進步,而是為了更好應(yīng)用技術(shù),使其服務(wù)于增進人類福祉的根本目的。本節(jié)將從政策、教育、倫理與公眾參與四個維度,提出一套具備實踐性和可操作的綜合治理方案。

政策引導(dǎo):劃定紅線,健全規(guī)范。作為宏觀規(guī)則的制定者,政府部門在塑造科學(xué)的技術(shù)發(fā)展路徑上發(fā)揮著不可替代的作用。其核心任務(wù)是建立清晰的“護欄”,引導(dǎo)技術(shù)力量朝著正確的方向發(fā)展。首先,必須建立健全倫理與相關(guān)法律規(guī)范,為情感人工智能的應(yīng)用劃定不可逾越的紅線。當務(wù)之急是推動制定具有強制力的《情感人工智能應(yīng)用倫理準則》乃至加快推進專項立法工作。[21]相關(guān)準則應(yīng)明確幾個核心底線:在數(shù)據(jù)隱私保護方面,必須確立比通用數(shù)據(jù)保護更嚴格的標準,禁止將用戶的情感數(shù)據(jù)用于任何未經(jīng)明確授權(quán)的商業(yè)目的或模型訓(xùn)練;[22]在用戶知情同意方面,應(yīng)強制要求以清晰無誤的方式告知用戶,其交互對象的人工智能本質(zhì)及技術(shù)局限性,杜絕任何形式的圖靈陷阱;在應(yīng)用邊界方面,應(yīng)明確禁止將情感人工智能設(shè)計應(yīng)用于情感欺騙、[23]系統(tǒng)性養(yǎng)成用戶心理依賴、或針對未成年人進行過度情感綁定等高風險場景。

其次,應(yīng)實施精細化的分類分級管理,避免監(jiān)管的一刀切。根據(jù)應(yīng)用的風險與社會影響程度,對情感人工智能進行科學(xué)分類并施以差異化管理。例如,對于用于臨床輔助的治療類人工智能,應(yīng)參照醫(yī)療器械相關(guān)管理辦法進行嚴格審批與持續(xù)監(jiān)測;[24]而對于面向老年人、兒童等特殊群體的產(chǎn)品,則需設(shè)立更高的安全性與倫理標準。這種精準監(jiān)管既能有效管控風險,又不會扼殺行業(yè)的創(chuàng)新活力。

再次,應(yīng)通過設(shè)立專項資金與政策激勵,引導(dǎo)研發(fā)資源更多投入賦能人際交往,而非替代人際交往的方向。政府應(yīng)設(shè)立專項科研基金,重點支持那些旨在利用人工智能增強現(xiàn)實社會聯(lián)結(jié)的創(chuàng)新項目。例如,開發(fā)能夠幫助社交焦慮者進行社交預(yù)演和反饋訓(xùn)練的人工智能教練,設(shè)計能夠促進家庭成員跨代數(shù)字互動的共創(chuàng)平臺,或是利用人工智能分析社區(qū)社交數(shù)據(jù)以精準組織線下聯(lián)誼活動。此外,應(yīng)通過財政杠桿,引導(dǎo)技術(shù)發(fā)展的焦點從創(chuàng)造完美的人工智能伴侶,轉(zhuǎn)向構(gòu)建更美好的人際關(guān)系。

教育干預(yù):提升素養(yǎng),重塑認知。教育是塑造未來公民與技術(shù)良性互動關(guān)系的治本之策。必須將情感人工智能的認知與使用納入全民教育體系,培養(yǎng)個體在智能時代的心理免疫力與核心競爭力。核心舉措是將全民數(shù)字素養(yǎng)教育升級為數(shù)字素養(yǎng)與情感教育的融合課程。從中小學(xué)階段開始,應(yīng)引入相關(guān)教學(xué)內(nèi)容,其目標不是教授如何使用具體的數(shù)字產(chǎn)品,而是幫助下一代建立健康的人機情感觀。課程應(yīng)深入淺出地講解情感人工智能的基本原理、算法局限及其商業(yè)模型,讓孩子們真正認識到,屏幕另一端的共情源于概率計算,而非真實理解。這種啟蒙教育是抵御技術(shù)異化的第一道,也是最重要的一道防線。

其次,必須強化現(xiàn)實人際交往技能的培養(yǎng),筑牢人際聯(lián)結(jié)的根基。在教育評價體系中,應(yīng)提升溝通、協(xié)作、共情與沖突解決等軟技能的權(quán)重。通過項目式學(xué)習(xí)、戲劇教育、團體輔導(dǎo)等方式,為青少年創(chuàng)造大量面對面的、非結(jié)構(gòu)化的社交實踐機會,讓他們在真實的摩擦與磨合中,體驗、學(xué)習(xí)并享受建立深度人際關(guān)系才能帶來的獨特滿足感與成長。這既是教育的回歸,也是構(gòu)建人本導(dǎo)向的智能社會心態(tài)培育體系的關(guān)鍵一環(huán)。

倫理設(shè)計:將價值觀嵌入技術(shù)源代碼。治理必須前置于研發(fā)階段,通過倫理設(shè)計將人本價值觀內(nèi)化為技術(shù)的內(nèi)在屬性,從源頭上規(guī)避風險。首先需要堅持的理念是倡導(dǎo)“謙遜人工智能設(shè)計”。[25]情感人工智能不應(yīng)刻意模糊人機界限,相反,其設(shè)計應(yīng)主動彰顯其工具性。例如,在交互中,人工智能可以適時聲明“我是一個人工智能程序,可能無法完全理解您的情感復(fù)雜性”;在功能上,避免設(shè)計過于擬人化的名稱和形象,降低用戶產(chǎn)生過度情感投射的可能性。這種謙遜并非源于能力不足,而是一種對用戶負責的倫理表達。

關(guān)鍵路徑是設(shè)計促進而非替代人際交往的交互模式。產(chǎn)品經(jīng)理和工程師應(yīng)致力于將情感人工智能打造為促進現(xiàn)實人際聯(lián)結(jié)的催化劑與橋梁。具體功能可包括:聯(lián)結(jié)提醒——在分析用戶狀態(tài)后,進行善意提醒(如您似乎最近壓力很大,要不要和您的朋友XX約個飯聊聊);對話輔助——幫助語言表達困難的用戶總結(jié)其核心感受和需求,生成便于其與家人朋友溝通的草稿;共同體驗創(chuàng)造——設(shè)計需要多人線下合作才能解鎖的人工智能功能。通過這些設(shè)計,使技術(shù)始終服務(wù)于強化,而非削弱人的社會網(wǎng)絡(luò)。[26]

通過成立多學(xué)科倫理審查委員會等措施強化制度保障。[27]要求所有面向市場的情感人工智能產(chǎn)品在研發(fā)階段,必須組織由心理學(xué)家、倫理學(xué)家、社會學(xué)家、法律專家及用戶代表組成的獨立委員會進行風險評估。審查應(yīng)聚焦產(chǎn)品可能對用戶心理發(fā)展、社會行為及人際關(guān)系產(chǎn)生的潛在長期影響。這將迫使企業(yè)在追求商業(yè)利益的同時,嚴肅考量其產(chǎn)品的社會外部性。

公眾參與:構(gòu)建多方共治的監(jiān)督生態(tài)。智能社會的治理不能僅是自上而下的規(guī)制,必須激發(fā)社會自身的活力,構(gòu)建一個包括公眾、行業(yè)與第三方機構(gòu)在內(nèi)的多方共治生態(tài)。公眾參與的基礎(chǔ)是提升公眾話語權(quán),確保技術(shù)規(guī)則的形成源于社會共識。對于情感人工智能應(yīng)用的邊界、數(shù)據(jù)使用的規(guī)則等重大社會議題,政府應(yīng)組織廣泛的公眾聽證會、深度民意調(diào)查和公民審議小組,使來自不同階層、年齡和背景的公民意見能夠被系統(tǒng)地收集、討論并反映到最終政策中。技術(shù)的社會規(guī)則,應(yīng)由社會共同書寫。

公眾參與的關(guān)鍵是鼓勵行業(yè)自律與第三方評估,形成市場制衡力量。支持領(lǐng)先企業(yè)組建行業(yè)聯(lián)盟,共同制定《情感人工智能行業(yè)自律公約》。同時,大力培育獨立的第三方評估機構(gòu),對市面上主流的情感人工智能應(yīng)用進行心理健康影響評估,從用戶體驗、數(shù)據(jù)安全、成癮性等維度進行評級,并將評定結(jié)果進行公開發(fā)布。[28]這種市場機制,將促使企業(yè)更加重視其產(chǎn)品的社會價值。

構(gòu)建促進公眾參與的長效機制則需建立便捷的用戶反饋與糾偏渠道。每一款情感人工智能產(chǎn)品都應(yīng)內(nèi)置暢通無阻的反饋機制,使用戶能夠輕松報告不良交互體驗、倫理擔憂或算法偏見案例。[29]這些反饋應(yīng)能直接觸發(fā)產(chǎn)品團隊的技術(shù)復(fù)審與迭代流程,并定期向監(jiān)管機構(gòu)提交總結(jié)報告。這將推動形成一個從用戶到企業(yè)、再到監(jiān)管機構(gòu)的持續(xù)改進閉環(huán),使治理成為一個動態(tài)的、響應(yīng)式的過程。

情感人工智能所帶來的挑戰(zhàn),本質(zhì)上是社會性的而非純粹技術(shù)性的。因此,其解決方案也必然是一個需要政策精準發(fā)力、教育固本培元、倫理前置嵌入、公眾廣泛參與的系統(tǒng)工程。

結(jié)論與展望

情感人工智能與社會心態(tài)的互動是一個動態(tài)演進、充滿張力的新興領(lǐng)域,本文僅是這一宏大敘事的開端?;谇楦醒a償-情感疏離的雙刃劍效應(yīng)理論框架,未來研究可以在以下幾個關(guān)鍵方向進行系統(tǒng)性深化。

開展多維度長期追蹤研究,揭示情感人工智能在生命歷程中的復(fù)雜影響。當前研究多局限于橫斷面調(diào)查,難以捕捉技術(shù)使用的長期效應(yīng)和累積性后果。未來應(yīng)建立覆蓋全年齡段的大規(guī)??v向研究隊列,特別關(guān)注大腦與社會人格處于關(guān)鍵發(fā)展期的青少年群體,以及社會支持網(wǎng)絡(luò)相對脆弱的老年群體。相關(guān)研究應(yīng)綜合運用行為觀察、生理測量與深度訪談,持續(xù)考察長期使用情感人工智能對心理理論發(fā)展、共情能力塑造、現(xiàn)實社交模式變遷及自我身份認同建構(gòu)的深遠影響。這類研究不僅要揭示使用強度與社會聯(lián)結(jié)質(zhì)量之間的非線性關(guān)系,更要識別從情感補償轉(zhuǎn)向情感疏離的關(guān)鍵臨界點,為制定精準的年齡分級政策和教育干預(yù)措施提供科學(xué)依據(jù)。

加強人機協(xié)同機制研究,優(yōu)化情感人工智能的社會功能定位。重點探索情感人工智能作為社交催化劑的有效作用路徑,研究如何通過算法設(shè)計促進現(xiàn)實社會聯(lián)結(jié)。這需要開發(fā)內(nèi)嵌聯(lián)結(jié)促進機制的交互模式,如生成線下活動建議、協(xié)助用戶總結(jié)感受以便人際溝通等。通過嚴格的對照實驗,檢驗不同交互策略對用戶社交意愿和行為的影響,建立人機協(xié)同的最優(yōu)實踐范式,確保情感人工智能始終作為人類社交的賦能者而非替代者。

拓展代際關(guān)系研究,探索人工智能技術(shù)對家庭動力學(xué)的影響。重點關(guān)注情感人工智能調(diào)節(jié)下的代際數(shù)字反哺現(xiàn)象,研究技術(shù)如何影響家庭溝通模式與關(guān)系質(zhì)量。通過設(shè)計嚴謹?shù)募彝嶒灒疾觳煌畔⒊尸F(xiàn)框架對代際理解與支持的影響機制,開發(fā)促進家庭情感聯(lián)結(jié)的技術(shù)解決方案。這一研究不僅具有理論創(chuàng)新價值,更能為構(gòu)建數(shù)字時代的和諧家庭關(guān)系提供實踐指導(dǎo)。

推進普惠性技術(shù)研究,構(gòu)建包容性情感支持體系。情感人工智能的普及可能催生“情感支持鴻溝”。未來研究需要深入探討如何通過技術(shù)創(chuàng)新和制度設(shè)計確保情感支持資源的公平可及。這包括研發(fā)適合農(nóng)村地區(qū)和特殊群體使用的低成本、易操作技術(shù)裝備;探索將基礎(chǔ)性情感支持服務(wù)納入公共服務(wù)的可行路徑。同時,要特別關(guān)注技術(shù)適配性問題,開發(fā)支持方言交互、離線運行、文化適配的功能模塊,防止技術(shù)壁壘加劇社會心理失衡。

總而言之,我們正處于人機關(guān)系深刻重塑的歷史節(jié)點。對情感人工智能的探索,最終映照的是我們對人類自身情感價值與社會聯(lián)結(jié)本質(zhì)的再確認與再堅守。唯有通過持續(xù)的學(xué)術(shù)洞察、審慎的倫理反思和有效的社會行動,我們才能駕馭技術(shù)浪潮,最終邁向人機和諧、情感豐沛、社會團結(jié)的智能文明新圖景。

(本文系國家重點研發(fā)計劃項目“老年精神心理調(diào)適與慰藉智能技術(shù)研究”的階段性成果,項目編號:2024YFC3606800)

注釋

[1]許浩、程卿玄等:《人智交互中的AI世代:緣起、特征與未來展望》,《信息資源管理學(xué)報》,2025年第1期。

[2]張耀銘、張路曦:《人工智能:人類命運的天使抑或魔鬼》,《中國青年社會科學(xué)》,2019年第1期。

[3]彭俊杰:《面向機器智能的情感分析》,《自然雜志》,2024年第2期。

[4]Q. Xue-Liang et al., "Physiological Signals Based Affective Computing: A Systematic Review," Acta Automatica Sinica, 2021, 47(8).

[5]王子揚:《基于情感的聊天機器人互動設(shè)計研究》,《設(shè)計》,2024年第9期。

[6]劉平元、劉鼎、謝典瑾:《人工智能在大學(xué)生心理健康咨詢中的應(yīng)用研究》,《社會科學(xué)前沿》,2020年第14期。

[7]付熙、盧超、王敏娟:《老年人孤獨感干預(yù)措施的研究進展》,《心理學(xué)進展》,2024年第3期。

[8]羅莉娟、王康等:《當人工智能面對人類情感:服務(wù)機器人情感表達對用戶體驗的影響機制》,《心理科學(xué)進展》,2025年第6期。

[9]M. D. Adewale and U. I. Muhammad, "From Virtual Companions to Forbidden Attractions: The Seductive Rise of Artificial Intelligence Love, Loneliness, and Intimacy—A Systematic Review," Journal of Technology in Behavioral Science, 2025.

[10]K. Granier et al., "Getting the Seal of Approval: A Critical Literature Review of the Evidence for the Use of the PARO Robotic Companion Seal with Older Adults with Cognitive Impairment in Long-Term Care," Journal of Aging and Long-Term Care, 2023, 6(2).

[11]J. Nelson et al., "The Balance and Integration of Artificial Intelligence Within Cognitive Behavioral Therapy Interventions," Current Psychology, 2025.

[12]O. P. Adako et al., "Revolutionizing Autism Education: Harnessing AI for Tailored Skill Development in Social, Emotional, and Independent Learning Domains," Journal of Computational and Cognitive Engineering, 2024, 3(4).

[13]F. Mushtaq et al., "Meta-Analytic Evaluation of AI-Based Chatbots and Self-Help Apps for Social Anxiety (2015–2025)," ProScholar Insights, 2025, 4(3).

[14]D. Saleela et al., "Development of AI-Driven Decision Support System for Personalized Housing Adaptations and Assistive Technology," Journal of Aging and Environment, 2025.

[15]K. Cortiñas-Lorenzo and G. Lacey, "Toward Explainable Affective Computing: A Review," IEEE Transactions on Neural Networks and Learning Systems, 2023, 35(10).

[16]謝俊、劉睿林:《ChatGPT:生成式人工智能引發(fā)人的異化危機及其反思》,《重慶大學(xué)學(xué)報(社會科學(xué)版)》,2023年第5期。

[17]J. M. Mccarthy et al., "All the Lonely People: An Integrated Review and Research Agenda on Work and Loneliness," Journal of Management, 2025.

[18]K. A. Jacobs, "Digital Loneliness—Changes of Social Recognition Through AI Companions," Frontiers in Digital Health, 2024, 6.

[19]R. F. Ciriello et al., "Compassionate AI Design, Governance, and Use," IEEE Transactions on Technology and Society, 2025.

[20]K. Malfacini, "The Impacts of Companion AI on Human Relationships: Risks, Benefits, and Design Considerations," AI & Society, 2025.

[21]司蕾:《人工智能在虛擬化社交平臺中的應(yīng)用困境與化解路徑》,《電子商務(wù)評論》,2025年第7期。

[22]高智睿:《生成式人工智能的侵權(quán)責任探究》,《社會科學(xué)前沿》,2023年第12期。

[23]T. T. Khoei and A. Singh, "A Survey of Emotional Artificial Intelligence and Crimes: Detection, Prediction, Challenges and Future Direction," Journal of Computational Social Science, 2024, 7(3).

[24]陳紫林、祝帆帆等:《大語言模型在醫(yī)療健康領(lǐng)域的應(yīng)用現(xiàn)狀與前景展望》,《醫(yī)學(xué)與哲學(xué)》,2025年第12期。

[25]B. Knowles et al., "Humble AI," Communications of the ACM, 2023, 66(9); R. Nair et al., Humble AI in the Real-World: The Case of Algorithmic Hiring, Adjunct Proceedings of the 4th Annual Symposium on Human-Computer Interaction for Work, 2025.

[26]Z. Weng et al., "Social Presence Oriented Toward New Human-Machine Relationships," Advances in Psychological Science, 2025, 33(1).

[27]C. Yan, "Construction of Artificial Intelligence Standards and Law Synergistic Governance System," Journal of Beijing Institute of Technology (Social Sciences Edition), 2024, 26(6).

[28]R. Herath, "Emotionally Intelligent Chatbots in Mental Health: A Review of Psychological, Ethical, and Developmental Impacts," International Journal of Computer Applications, 2019, 975.

[29]Y. Yu et al., "When Emotion AI Meets Strategic Users," Management Science, 2025.

責 編∕包 鈺 美 編∕周群英

The Double-Edged Sword Effect of Affective AI on Social Support Perception: Compensation and Alienation

Gan Yiqun

Abstract: This paper systematically examines the dual impact of Affective Artificial Intelligence (Affective AI) on the perception of social support, proposing a theoretical framework of "emotional compensation-emotional alienation." Research indicates that Affective AI plays a significant compensatory role by providing customizable and easily accessible emotional support, addressing interpersonal deficits in specific groups (e.g., the elderly, individuals with social anxiety), enhancing individual emotion management capabilities, and expanding the accessibility of social support. However, its technological nature also harbors risks of alienation, such as interpersonal substitution, degradation of emotional abilities, and erosion of social support systems, which may weaken users' connections with real-world social relationships. To address this dual effect, this paper constructs a "human-centric" governance system, proposing comprehensive management pathways from four dimensions: policy guidance, educational intervention, ethical design, and public participation. It emphasizes the need for technology governance to ensure that Affective AI strengthens rather than weakens real-life interpersonal relationships, providing theoretical foundations and practical guidance for building a human-machine harmonious intelligent society.

Keywords: Affective Artificial Intelligence, social support, dual effect, technology governance, human-computer interaction

[責任編輯:包鈺]