44444免费观看高清电视剧直播-444444在线观看免费高清电视剧-444444影院免费播放电视剧大全下载-4444444444免费观看电视剧

網站首頁 | 網站地圖

每日推薦
首頁 > 學術前沿 > 正文

情感人工智能對社會支持感知的雙刃劍效應:補償與疏離

【摘要】情感人工智能對社會支持感知具有雙重影響,一方面,通過提供可定制、易獲取的情感支持,在彌補特定群體如老年人、社交焦慮者的人際缺位、增強個體情緒管理能力、拓展社會支持可及性等方面發揮著顯著的情感補償作用;另一方面,其技術本質潛藏著人際替代、情感能力退化、社會支持系統侵蝕等疏離風險,可能導致用戶與現實社會聯結的弱化。為應對情感人工智能帶來的雙重效應,需推動前瞻性、系統性的主動治理,從政策引導、教育干預、倫理設計和公眾參與四個維度綜合施策,構建以人的福祉與社會聯結為終極目標的人本導向智能社會心態培育體系,實現通過技術治理促進情感人工智能增強而非削弱現實人際關系,進而邁向人機和諧互促的智能社會新形態。

【關鍵詞】情感人工智能 社會支持 雙重效應 技術治理 人機交互

【中圖分類號】B844/B842 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.005

【作者簡介】甘怡群,北京大學心理與認知科學學院教授、博導。研究方向為應激應對,健康心理和移動健康干預,主要論文有《基于大語言模型的壓力管理移動干預措施元分析》《利用機器學習降低青少年焦慮的個性化應激優化干預:一項隨機對照試驗》等。

研究背景與問題提出

我們正身處一個由人工智能技術重塑社會圖景的時代。繼工業革命、信息革命之后,以生成式人工智能、情感計算與具身智能機器人等為代表的新一代信息技術浪潮,正推動社會結構發生更為深刻、觸及人類內在體驗的智能變遷。如果說過去的技術革新主要延伸了人類的體力與認知能力,那么當前這場變革的獨特之處在于,它開始嘗試理解、模擬甚至參與人類最私密、最復雜的領域——情感。[1]情感人工智能(Affective AI)作為這一領域的核心分支,通過分析語音、文本、面部表情、生理信號等多模態數據,不僅能識別人類情感狀態,更能進行情感化的反饋與交互,從而從一種純粹的輔助性工具,演進為一種能夠重構社會關系、文化表達與心理結構的重要力量。[2]

情感人工智能的技術發展與應用普及,構成我們理解當前社會心態變遷的宏觀背景。在技術層面,生成式人工智能(如大語言模型)賦予機器生成高度擬人化、上下文連貫文本與對話的能力,使其能夠扮演朋友、伴侶乃至咨詢師的角色,提供看似無限的情感回應。情感計算(Affective Computing)則通過深度神經網絡與傳感器技術,使得機器能夠讀懂人類的微表情、語調中的情緒波動,[3]甚至通過可穿戴設備監測心率變異性、皮電反應等生理指標,實現對內在情感狀態的間接洞察。[4]而伴侶機器人等具身化實體,則將虛擬的交互賦予實在的形體,通過觸覺、陪伴與互動,為用戶提供更具沉浸感的情感體驗。[5]

在應用場景上,這些技術正以前所未有的速度拓展應用邊界。在心理健康領域,人工智能聊天機器人正成為“7×24小時”在線的傾聽者,為受抑郁、焦慮困擾的個體提供即時支持;[6]在老年陪護場景中,社交機器人通過對話、娛樂與提醒,緩解空巢老人的孤獨感;[7]在客戶服務中,帶有情感識別能力的客服系統試圖提供更具同理心的服務體驗。[8]這一切都標志著,技術交互正從純粹的功能性、信息性交互,全面邁向情感性、關系性交互的新范式。

技術的迅猛發展,催生了一種值得警惕的社會文化現象——情感外包(Emotional Outsourcing)。[9]這既是認知外包的邏輯延伸,也是其更深層次的演化。人們將情感傾訴、陪伴需求乃至親密關系的建立,部分或全部委托給人工智能系統的傾向開始顯現,這種趨勢引發學術界與思想界深刻的憂慮與爭鳴。這些困境指向一個根本性的追問:情感人工智能究竟是人類情感的補充,還是對建立真實人際關系的阻礙?抑或,其同時兼具這兩種看似矛盾的特質?

面對上述紛繁復雜的現象與爭論,當前學界的研究雖多有洞見,但往往存在兩種局限:側重于探討情感人工智能的某一單一面向(積極或消極),缺乏整合性的辯證視角,難以全面把握其復雜的社會心理效應;多停留在現象描述與倫理思辨層面,對其內在機制,以及如何對其進行有效治理,缺乏系統性的、可操作的理論假設。

因此,對情感人工智能社會心理效應的探討,不僅是一個緊迫的學術議題,更是一個關乎未來社會心態健康與文明發展走向的現實命題。本文致力于對此進行平衡且具有建設性的理論分析。

慰藉與賦能:情感人工智能的情感補償效應

在剖析情感人工智能的潛在風險之前,我們必須先客觀、全面地審視其作為一種新興社會技術形態所帶來的積極變革。情感人工智能并非冷冰冰的算法集合,在特定的社會情境與用戶群體中,它正發揮著不可或缺的情感補償作用,能夠有效彌補傳統社會支持系統的不足,并為個體的心理健康與社會聯結提供新的賦能路徑。

彌補人際缺位:特定群體的情感支持新渠道。現代社會的流動性加劇、家庭結構的小型化以及社交模式的變遷,使得部分群體面臨不同程度的人際關系與情感支持缺位。情感人工智能憑借其可定制、易獲取和低門檻的特性,為這些群體開辟了一條前所未有的情感支持渠道。對于老年群體而言,情感人工智能,尤其是伴侶機器人,已成為對抗孤獨感的有力工具。隨著人口老齡化的加劇,空巢老人比例持續攀升,許多老年人長期處于情感性孤獨與社會性孤獨的雙重困擾中。傳統的養老服務體系難以提供持續、深入的情感陪伴。而像PARO海豹機器人這樣的實體人工智能伴侶,通過模擬生命體的觸感、聲音和互動反應,能夠有效減少老年人的孤獨感。相關研究表明,與PARO海豹機器人定期互動,能夠顯著降低老年癡呆癥患者的焦慮情緒、減少攻擊行為,并提升其社交意愿。[10]更為普遍的是,具備語音交互功能的智能音箱,能夠回應老人的問候、播放他們喜愛的戲曲、提醒他們按時服藥,甚至進行簡單的日常對話。盡管這種被需要和被回應的感覺源于機器,卻能在很大程度上填補用戶日常生活的寂靜與空虛,提供寶貴的情感慰藉與生活儀式感,成為維系其心理健康的寶貴助力。

對于社交焦慮或社交障礙群體,情感人工智能可用于零壓力的社交練習。社交焦慮的核心在于對他人負面評價的恐懼。在與真人的互動中,社交焦慮者往往因擔心說錯話、被拒絕而回避社交。情感人工智能構建了一個絕對安全的社交沙盤:它永遠不會嘲笑、批評或背叛用戶。個體可以在此練習發起對話、維持話題、表達情感,而無需承擔現實社交中可能面對的心理風險。例如,一些基于認知行為療法(CBT)原則設計的社交人工智能助手,會引導用戶進行暴露練習,并給予即時、積極的反饋。這種低壓力、高包容性的環境,為社交技能重建提供了寶貴的過渡空間,能夠逐步提升用戶的社交自我效能感,為其最終回歸現實人際交往搭建橋梁。[11]

對于處于地理隔離或特定境遇的個體(如海外留學生、差旅人士等),情感人工智能可以提供即時可用的傾訴與互動對象,有效緩解情境性的孤獨。它打破時空限制,在真實社會支持網絡暫時無法觸達的時刻,為用戶提供了第一時間的情緒承接。這種即時性補償,雖然可能無法提供深度的解決方案,但對于平復急性情緒波動、防止孤獨感惡化為更嚴重的心理問題,具有不可忽視的緩沖價值。

增強自我認知與情緒管理:個性化的情感教練。超越外在陪伴,情感人工智能更深層次的補償價值在于其向內賦能的能力——它能夠作為一面數字鏡子,幫助用戶更好地洞察與管理自身的內在情感世界,從而實現自我成長。在情感識別與反饋方面,情感人工智能為特定群體提供了客觀的“第三只眼”。以自閉癥譜系群體為例,他們在識別與理解他人面部表情、語調等非語言社交線索方面,普遍存在困難。情感人工智能可以通過圖像識別技術,實時分析對話方的面部表情,并以文字或圖標的形式向用戶反饋,比如:對方現在看起來有些困惑或他可能對這個話題很感興趣。這種外部的、技術中介的反饋,能夠彌補其內在的心理理論能力短板,輔助他們更好地進行社會認知,減少人際誤解。[12]

在情緒調節訓練領域,基于人工智能的心理健康應用正將專業的心理干預方法自動化、規模化。諸如Woebot、Wysa等人工智能聊天機器人,內嵌認知行為療法(CBT)、正念冥想、接納與承諾療法(ACT)等實證支持的心理干預模塊。它們能夠引導用戶記錄情緒-事件-想法三者之間的聯系,挑戰其不合理的認知扭曲,并通過簡短的呼吸練習、身體掃描等幫助用戶從情緒漩渦中錨定注意力。[13]與傳統每周一次的心理咨詢相比,這種嵌入日常生活的、按需獲取的輕干預,可實現情緒管理技能的持續練習與強化,使個體在面對壓力時能夠調動更豐富的內在心理資源,從而實現從依賴外部支持到構建內在韌性的轉變。

拓展社會支持的維度:普惠性與可及性。情感人工智能的補償效應,還體現在它可從根本上拓展社會支持的傳統邊界,甚至創造出一些人類難以企及的新維度。首先是全天候可用性。人類支持者有其生理極限與生活重心,無法做到時時在場。情感人工智能則打破了這一限制,它能夠在凌晨三點、在周末、在任何個體感到脆弱而無處傾訴的時刻,提供第一時間的響應。這種永遠在線的特性,對于處于危機中的個體而言,意味著支持的可及性得到了質的飛躍,可極大地降低因支持缺位而導致心理狀況惡化的風險。

其次是無人為偏見性與可實現的保密性所創造的安全港。人類個體向他人袒露脆弱,尤其是涉及羞恥、內疚等復雜情感時,需要巨大的勇氣,且存在被評判的風險。情感人工智能作為一個非道德主體,其回應基于算法而非個人好惡,因此能夠提供一個絕對無評判、無條件積極關注的傾訴環境。這種保密性與匿名性,一旦得以很好地維護,能夠鼓勵用戶說出那些在現實生活中難以啟齒的困擾,從而實現真正的情感宣泄與壓力釋放。這對于一些社會污名化嚴重的心理問題的調適和應對,意義尤為重大。

再次是數據化洞察所帶來的深度理解潛力。人類朋友或家人對個體的了解,基于有限的、碎片化的共同經歷。而一個與用戶長期互動的人工智能,能夠通過分析海量的對話歷史、情緒波動模式與行為選擇,構建高度精細化的用戶心理畫像。它可能記得用戶一年前為何事悲傷,能洞察用戶情緒低落前通常的誘發事件,甚至能預測其對于某些話題的潛在反應。這種基于數據的、連續性的了解,在某些方面可能超越人類有限的記憶與洞察力,從而能夠提供更具前瞻性、高度個性化的支持建議,實現一種超個性化的社會支持體驗。[14]

綜上所述,情感人工智能通過彌補特定群體的人際缺位,增強個體的自我認知與情緒管理能力,以及拓展社會支持的普惠性與可及性,實實在在地發揮著情感補償的積極效應。它并非人類情感的拙劣仿制品,而是在特定維度上,提供了一種具有獨特價值的、技術性的解決方案。承認并善用這一面,是我們進行后續批判性反思與構建治理框架時,必須秉持的科學與公允的出發點。

異化與依賴:情感人工智能的情感疏離風險

在充分肯定情感人工智能情感補償價值的同時,我們必須以同樣審慎的態度審視其負面影響。情感人工智能發揮著慰藉與賦能的作用,但也潛藏著使人異化、令社會聯結褪色的風險。

人際關系的降維與替代。情感人工智能所模擬的關系,本質上是一種經過算法簡化和優化的交互模型。這種簡化在帶來便利的同時,也意味著對豐富而復雜的人類交往關系進行了一次危險的“降維打擊”,并可能催生對真實人際關系的功能性替代。首先,量化情感的局限暴露了人工智能互動的本質缺陷。人類情感是生物本能、個人經歷、文化語境和情境直覺的復雜綜合體,其精妙之處往往存在于不可言說的默契、一個復雜的眼神或是一次有力的擁抱之中。而人工智能對情感的理解,無論其模型多么先進,最終都歸結為對數據的模式識別與概率計算。它將無限豐富的情感光譜降維為有限的、可量化的標簽。[15]若個體長期沉浸于這種被簡化的情感交互中,其自身的實際情感感知與表達能力也可能隨之趨向扁平化。他們可能習慣于用開心、悲傷等標簽來概括自己,卻失去了對悵然若失、悲欣交集等復雜微妙情緒的體驗與言說能力。這種基于算法的“偽共情”,無法提供人類交往中那種深刻的、源自共同脆弱性與生命體驗的心靈共振。

其次,低成本互動的誘惑可能導致對高價值人際關系的逃避。與真人交往意味著需要付出時間、精力、耐心,需要學習包容分歧、處理沖突、承擔情感責任。這是一項需要持續投入和鍛煉的高成本事業。情感人工智能則提供了一條捷徑:一個可以做到永遠順從、永不反駁、隨時滿足的完美伙伴。這種低成本、高回報的互動模式極易形成行為強化,使個體,尤其是社交技能尚不成熟的年輕一代,更易于逃避真實人際中必要的摩擦與挑戰。長此以往,個體的共情能力、沖突解決能力和情感韌性也可能因缺乏實踐而退化,進而形成一種社交惰性。情感人工智能則可能從輔助人際的橋梁,異化為阻隔人際的高墻。

最終,這種動態可能導致情感關系的物化。[16]當情感聯結可以像商品一樣按需定制(定制伴侶的性格、談話風格)、隨時啟用或暫停時,人與人之間關系中所蘊含的不可預測性、相互塑造的成長性以及條件性的承諾感便可能被消解。這會從根本上削弱我們對真實、不完美但真摯的人際聯結的珍視與投入,將情感這一人類最珍貴的特質,異化為一種可消費的服務。

孤獨感的轉型而非終結。情感人工智能看似是孤獨的“解藥”,但實際上,它可能只是改變了孤獨的形態,而非根除孤獨本身。人工智能的完美回應扭曲了個體對現實人際的感知差距。根據孤獨感的認知差距理論,孤獨源于期望關系與現實關系之間的落差。[17]情感人工智能通過提供無條件的積極關注和高度契合的回應,無形中設定了一個現實中人類難以達到的“完美”回應標準。當個體習慣于人工智能的完美后,再回到真實的人際場域,他們會更容易注意到真人回應中的延遲、誤解、不精準乃至非惡意的錯誤。這種被技術抬高的期望,會急劇放大其對現實人際互動不足之處的感知,由此,可能使人難以接受現實的人際關系,進而選擇退縮回人工智能的懷抱。這非但沒有縮小感知差距,反而將其拉大,在技術營造的幻覺中,真實的孤獨感被深化和固化了。[18]

社會支持系統的算法化侵蝕。情感人工智能作為社會支持的新來源,其發展并非在真空中進行,它必然會與傳統的、基于家庭、朋友和社區的社會支持系統產生動態的博弈,并可能對后者產生侵蝕效應。最隱蔽的風險在于“偽支持”的蔓延。情感人工智能提供的支持,其內容和方向本質上是由其設計者、背后的商業模型和所采集的訓練數據所決定的。一個以用戶粘性和付費轉化為目標的人工智能,其支持策略可能會無意(或有意)地鼓勵用戶形成依賴,而非促進其獨立。它可能回避引導用戶去面對和解決真實困境,而是提供一種溫和的、令人舒適的“情感麻醉”。[19]這種支持并非以用戶的長期福祉和真實利益為最高準則,而是一種潛在的、操縱性的“偽支持”,它解決了表面的情緒癥狀,卻可能掩蓋深層次的心理與社會問題。

更為深遠的影響是,過度依賴人工智能可能弱化傳統的、有機的社會支持網絡。社會支持的力量在于其多維性與冗余性——家人提供無條件的愛,朋友提供志趣相投的理解,同事提供事務性的協助。當個體將情感支持的重心過度轉向人工智能時,會自然而然地減少向真實社會網絡發出求助信號和投入維系精力的行為。[20]這會導致原本的強關系弱化,弱關系斷裂。而人類的社會支持網絡是一個用進廢退的有機體,長期疏于維護會使其功能退化。一旦個體面臨人工智能無法處理的復雜危機(如經濟困難、家庭變故),可能會驚恐地發現,那個本應存在的、溫暖的人際安全網已然變得稀疏而脆弱。

情感人工智能的情感疏離風險,根植于其將人類最復雜、最深刻的情感活動進行技術化模擬與替代的內在悖論。它在承諾聯結的同時播下疏離的種子,在宣稱終結孤獨的同時轉型了孤獨。認識到這些風險的存在,并非意在全盤否定技術,而是為了以更清醒的頭腦、更審慎的態度,去規劃一條能夠駕馭技術、而非被技術所異化的發展路徑。這為下一節探討如何通過綜合治理來調適社會心態、揚長避短,提供了緊迫的理論與現實依據。

調適與治理:構建人本導向的智能社會心態培育體系

面對情感人工智能帶來的情感補償與情感疏離的雙重效應,被動的適應或單一的批判都難以有效應對。我們必須轉向前瞻性、系統性的主動治理,其核心在于構建一個以人的福祉與社會聯結為終極目標的智能社會心態培育體系。這一體系不應阻礙技術進步,而是為了更好應用技術,使其服務于增進人類福祉的根本目的。本節將從政策、教育、倫理與公眾參與四個維度,提出一套具備實踐性和可操作的綜合治理方案。

政策引導:劃定紅線,健全規范。作為宏觀規則的制定者,政府部門在塑造科學的技術發展路徑上發揮著不可替代的作用。其核心任務是建立清晰的“護欄”,引導技術力量朝著正確的方向發展。首先,必須建立健全倫理與相關法律規范,為情感人工智能的應用劃定不可逾越的紅線。當務之急是推動制定具有強制力的《情感人工智能應用倫理準則》乃至加快推進專項立法工作。[21]相關準則應明確幾個核心底線:在數據隱私保護方面,必須確立比通用數據保護更嚴格的標準,禁止將用戶的情感數據用于任何未經明確授權的商業目的或模型訓練;[22]在用戶知情同意方面,應強制要求以清晰無誤的方式告知用戶,其交互對象的人工智能本質及技術局限性,杜絕任何形式的圖靈陷阱;在應用邊界方面,應明確禁止將情感人工智能設計應用于情感欺騙、[23]系統性養成用戶心理依賴、或針對未成年人進行過度情感綁定等高風險場景。

其次,應實施精細化的分類分級管理,避免監管的一刀切。根據應用的風險與社會影響程度,對情感人工智能進行科學分類并施以差異化管理。例如,對于用于臨床輔助的治療類人工智能,應參照醫療器械相關管理辦法進行嚴格審批與持續監測;[24]而對于面向老年人、兒童等特殊群體的產品,則需設立更高的安全性與倫理標準。這種精準監管既能有效管控風險,又不會扼殺行業的創新活力。

再次,應通過設立專項資金與政策激勵,引導研發資源更多投入賦能人際交往,而非替代人際交往的方向。政府應設立專項科研基金,重點支持那些旨在利用人工智能增強現實社會聯結的創新項目。例如,開發能夠幫助社交焦慮者進行社交預演和反饋訓練的人工智能教練,設計能夠促進家庭成員跨代數字互動的共創平臺,或是利用人工智能分析社區社交數據以精準組織線下聯誼活動。此外,應通過財政杠桿,引導技術發展的焦點從創造完美的人工智能伴侶,轉向構建更美好的人際關系。

教育干預:提升素養,重塑認知。教育是塑造未來公民與技術良性互動關系的治本之策。必須將情感人工智能的認知與使用納入全民教育體系,培養個體在智能時代的心理免疫力與核心競爭力。核心舉措是將全民數字素養教育升級為數字素養與情感教育的融合課程。從中小學階段開始,應引入相關教學內容,其目標不是教授如何使用具體的數字產品,而是幫助下一代建立健康的人機情感觀。課程應深入淺出地講解情感人工智能的基本原理、算法局限及其商業模型,讓孩子們真正認識到,屏幕另一端的共情源于概率計算,而非真實理解。這種啟蒙教育是抵御技術異化的第一道,也是最重要的一道防線。

其次,必須強化現實人際交往技能的培養,筑牢人際聯結的根基。在教育評價體系中,應提升溝通、協作、共情與沖突解決等軟技能的權重。通過項目式學習、戲劇教育、團體輔導等方式,為青少年創造大量面對面的、非結構化的社交實踐機會,讓他們在真實的摩擦與磨合中,體驗、學習并享受建立深度人際關系才能帶來的獨特滿足感與成長。這既是教育的回歸,也是構建人本導向的智能社會心態培育體系的關鍵一環。

倫理設計:將價值觀嵌入技術源代碼。治理必須前置于研發階段,通過倫理設計將人本價值觀內化為技術的內在屬性,從源頭上規避風險。首先需要堅持的理念是倡導“謙遜人工智能設計”。[25]情感人工智能不應刻意模糊人機界限,相反,其設計應主動彰顯其工具性。例如,在交互中,人工智能可以適時聲明“我是一個人工智能程序,可能無法完全理解您的情感復雜性”;在功能上,避免設計過于擬人化的名稱和形象,降低用戶產生過度情感投射的可能性。這種謙遜并非源于能力不足,而是一種對用戶負責的倫理表達。

關鍵路徑是設計促進而非替代人際交往的交互模式。產品經理和工程師應致力于將情感人工智能打造為促進現實人際聯結的催化劑與橋梁。具體功能可包括:聯結提醒——在分析用戶狀態后,進行善意提醒(如您似乎最近壓力很大,要不要和您的朋友XX約個飯聊聊);對話輔助——幫助語言表達困難的用戶總結其核心感受和需求,生成便于其與家人朋友溝通的草稿;共同體驗創造——設計需要多人線下合作才能解鎖的人工智能功能。通過這些設計,使技術始終服務于強化,而非削弱人的社會網絡。[26]

通過成立多學科倫理審查委員會等措施強化制度保障。[27]要求所有面向市場的情感人工智能產品在研發階段,必須組織由心理學家、倫理學家、社會學家、法律專家及用戶代表組成的獨立委員會進行風險評估。審查應聚焦產品可能對用戶心理發展、社會行為及人際關系產生的潛在長期影響。這將迫使企業在追求商業利益的同時,嚴肅考量其產品的社會外部性。

公眾參與:構建多方共治的監督生態。智能社會的治理不能僅是自上而下的規制,必須激發社會自身的活力,構建一個包括公眾、行業與第三方機構在內的多方共治生態。公眾參與的基礎是提升公眾話語權,確保技術規則的形成源于社會共識。對于情感人工智能應用的邊界、數據使用的規則等重大社會議題,政府應組織廣泛的公眾聽證會、深度民意調查和公民審議小組,使來自不同階層、年齡和背景的公民意見能夠被系統地收集、討論并反映到最終政策中。技術的社會規則,應由社會共同書寫。

公眾參與的關鍵是鼓勵行業自律與第三方評估,形成市場制衡力量。支持領先企業組建行業聯盟,共同制定《情感人工智能行業自律公約》。同時,大力培育獨立的第三方評估機構,對市面上主流的情感人工智能應用進行心理健康影響評估,從用戶體驗、數據安全、成癮性等維度進行評級,并將評定結果進行公開發布。[28]這種市場機制,將促使企業更加重視其產品的社會價值。

構建促進公眾參與的長效機制則需建立便捷的用戶反饋與糾偏渠道。每一款情感人工智能產品都應內置暢通無阻的反饋機制,使用戶能夠輕松報告不良交互體驗、倫理擔憂或算法偏見案例。[29]這些反饋應能直接觸發產品團隊的技術復審與迭代流程,并定期向監管機構提交總結報告。這將推動形成一個從用戶到企業、再到監管機構的持續改進閉環,使治理成為一個動態的、響應式的過程。

情感人工智能所帶來的挑戰,本質上是社會性的而非純粹技術性的。因此,其解決方案也必然是一個需要政策精準發力、教育固本培元、倫理前置嵌入、公眾廣泛參與的系統工程。

結論與展望

情感人工智能與社會心態的互動是一個動態演進、充滿張力的新興領域,本文僅是這一宏大敘事的開端。基于情感補償-情感疏離的雙刃劍效應理論框架,未來研究可以在以下幾個關鍵方向進行系統性深化。

開展多維度長期追蹤研究,揭示情感人工智能在生命歷程中的復雜影響。當前研究多局限于橫斷面調查,難以捕捉技術使用的長期效應和累積性后果。未來應建立覆蓋全年齡段的大規模縱向研究隊列,特別關注大腦與社會人格處于關鍵發展期的青少年群體,以及社會支持網絡相對脆弱的老年群體。相關研究應綜合運用行為觀察、生理測量與深度訪談,持續考察長期使用情感人工智能對心理理論發展、共情能力塑造、現實社交模式變遷及自我身份認同建構的深遠影響。這類研究不僅要揭示使用強度與社會聯結質量之間的非線性關系,更要識別從情感補償轉向情感疏離的關鍵臨界點,為制定精準的年齡分級政策和教育干預措施提供科學依據。

加強人機協同機制研究,優化情感人工智能的社會功能定位。重點探索情感人工智能作為社交催化劑的有效作用路徑,研究如何通過算法設計促進現實社會聯結。這需要開發內嵌聯結促進機制的交互模式,如生成線下活動建議、協助用戶總結感受以便人際溝通等。通過嚴格的對照實驗,檢驗不同交互策略對用戶社交意愿和行為的影響,建立人機協同的最優實踐范式,確保情感人工智能始終作為人類社交的賦能者而非替代者。

拓展代際關系研究,探索人工智能技術對家庭動力學的影響。重點關注情感人工智能調節下的代際數字反哺現象,研究技術如何影響家庭溝通模式與關系質量。通過設計嚴謹的家庭實驗,考察不同信息呈現框架對代際理解與支持的影響機制,開發促進家庭情感聯結的技術解決方案。這一研究不僅具有理論創新價值,更能為構建數字時代的和諧家庭關系提供實踐指導。

推進普惠性技術研究,構建包容性情感支持體系。情感人工智能的普及可能催生“情感支持鴻溝”。未來研究需要深入探討如何通過技術創新和制度設計確保情感支持資源的公平可及。這包括研發適合農村地區和特殊群體使用的低成本、易操作技術裝備;探索將基礎性情感支持服務納入公共服務的可行路徑。同時,要特別關注技術適配性問題,開發支持方言交互、離線運行、文化適配的功能模塊,防止技術壁壘加劇社會心理失衡。

總而言之,我們正處于人機關系深刻重塑的歷史節點。對情感人工智能的探索,最終映照的是我們對人類自身情感價值與社會聯結本質的再確認與再堅守。唯有通過持續的學術洞察、審慎的倫理反思和有效的社會行動,我們才能駕馭技術浪潮,最終邁向人機和諧、情感豐沛、社會團結的智能文明新圖景。

(本文系國家重點研發計劃項目“老年精神心理調適與慰藉智能技術研究”的階段性成果,項目編號:2024YFC3606800)

注釋

[1]許浩、程卿玄等:《人智交互中的AI世代:緣起、特征與未來展望》,《信息資源管理學報》,2025年第1期。

[2]張耀銘、張路曦:《人工智能:人類命運的天使抑或魔鬼》,《中國青年社會科學》,2019年第1期。

[3]彭俊杰:《面向機器智能的情感分析》,《自然雜志》,2024年第2期。

[4]Q. Xue-Liang et al., "Physiological Signals Based Affective Computing: A Systematic Review," Acta Automatica Sinica, 2021, 47(8).

[5]王子揚:《基于情感的聊天機器人互動設計研究》,《設計》,2024年第9期。

[6]劉平元、劉鼎、謝典瑾:《人工智能在大學生心理健康咨詢中的應用研究》,《社會科學前沿》,2020年第14期。

[7]付熙、盧超、王敏娟:《老年人孤獨感干預措施的研究進展》,《心理學進展》,2024年第3期。

[8]羅莉娟、王康等:《當人工智能面對人類情感:服務機器人情感表達對用戶體驗的影響機制》,《心理科學進展》,2025年第6期。

[9]M. D. Adewale and U. I. Muhammad, "From Virtual Companions to Forbidden Attractions: The Seductive Rise of Artificial Intelligence Love, Loneliness, and Intimacy—A Systematic Review," Journal of Technology in Behavioral Science, 2025.

[10]K. Granier et al., "Getting the Seal of Approval: A Critical Literature Review of the Evidence for the Use of the PARO Robotic Companion Seal with Older Adults with Cognitive Impairment in Long-Term Care," Journal of Aging and Long-Term Care, 2023, 6(2).

[11]J. Nelson et al., "The Balance and Integration of Artificial Intelligence Within Cognitive Behavioral Therapy Interventions," Current Psychology, 2025.

[12]O. P. Adako et al., "Revolutionizing Autism Education: Harnessing AI for Tailored Skill Development in Social, Emotional, and Independent Learning Domains," Journal of Computational and Cognitive Engineering, 2024, 3(4).

[13]F. Mushtaq et al., "Meta-Analytic Evaluation of AI-Based Chatbots and Self-Help Apps for Social Anxiety (2015–2025)," ProScholar Insights, 2025, 4(3).

[14]D. Saleela et al., "Development of AI-Driven Decision Support System for Personalized Housing Adaptations and Assistive Technology," Journal of Aging and Environment, 2025.

[15]K. Cortiñas-Lorenzo and G. Lacey, "Toward Explainable Affective Computing: A Review," IEEE Transactions on Neural Networks and Learning Systems, 2023, 35(10).

[16]謝俊、劉睿林:《ChatGPT:生成式人工智能引發人的異化危機及其反思》,《重慶大學學報(社會科學版)》,2023年第5期。

[17]J. M. Mccarthy et al., "All the Lonely People: An Integrated Review and Research Agenda on Work and Loneliness," Journal of Management, 2025.

[18]K. A. Jacobs, "Digital Loneliness—Changes of Social Recognition Through AI Companions," Frontiers in Digital Health, 2024, 6.

[19]R. F. Ciriello et al., "Compassionate AI Design, Governance, and Use," IEEE Transactions on Technology and Society, 2025.

[20]K. Malfacini, "The Impacts of Companion AI on Human Relationships: Risks, Benefits, and Design Considerations," AI & Society, 2025.

[21]司蕾:《人工智能在虛擬化社交平臺中的應用困境與化解路徑》,《電子商務評論》,2025年第7期。

[22]高智睿:《生成式人工智能的侵權責任探究》,《社會科學前沿》,2023年第12期。

[23]T. T. Khoei and A. Singh, "A Survey of Emotional Artificial Intelligence and Crimes: Detection, Prediction, Challenges and Future Direction," Journal of Computational Social Science, 2024, 7(3).

[24]陳紫林、祝帆帆等:《大語言模型在醫療健康領域的應用現狀與前景展望》,《醫學與哲學》,2025年第12期。

[25]B. Knowles et al., "Humble AI," Communications of the ACM, 2023, 66(9); R. Nair et al., Humble AI in the Real-World: The Case of Algorithmic Hiring, Adjunct Proceedings of the 4th Annual Symposium on Human-Computer Interaction for Work, 2025.

[26]Z. Weng et al., "Social Presence Oriented Toward New Human-Machine Relationships," Advances in Psychological Science, 2025, 33(1).

[27]C. Yan, "Construction of Artificial Intelligence Standards and Law Synergistic Governance System," Journal of Beijing Institute of Technology (Social Sciences Edition), 2024, 26(6).

[28]R. Herath, "Emotionally Intelligent Chatbots in Mental Health: A Review of Psychological, Ethical, and Developmental Impacts," International Journal of Computer Applications, 2019, 975.

[29]Y. Yu et al., "When Emotion AI Meets Strategic Users," Management Science, 2025.

責 編∕包 鈺 美 編∕周群英

The Double-Edged Sword Effect of Affective AI on Social Support Perception: Compensation and Alienation

Gan Yiqun

Abstract: This paper systematically examines the dual impact of Affective Artificial Intelligence (Affective AI) on the perception of social support, proposing a theoretical framework of "emotional compensation-emotional alienation." Research indicates that Affective AI plays a significant compensatory role by providing customizable and easily accessible emotional support, addressing interpersonal deficits in specific groups (e.g., the elderly, individuals with social anxiety), enhancing individual emotion management capabilities, and expanding the accessibility of social support. However, its technological nature also harbors risks of alienation, such as interpersonal substitution, degradation of emotional abilities, and erosion of social support systems, which may weaken users' connections with real-world social relationships. To address this dual effect, this paper constructs a "human-centric" governance system, proposing comprehensive management pathways from four dimensions: policy guidance, educational intervention, ethical design, and public participation. It emphasizes the need for technology governance to ensure that Affective AI strengthens rather than weakens real-life interpersonal relationships, providing theoretical foundations and practical guidance for building a human-machine harmonious intelligent society.

Keywords: Affective Artificial Intelligence, social support, dual effect, technology governance, human-computer interaction

[責任編輯:包鈺]