【摘要】當前,人工智能技術快速發展并得到廣泛應用,人們在對人工智能進行積極評價的同時,也存在一種值得警惕的社會現象:部分個體傾向于隱瞞、拒斥、貶低人工智能的應用,以及對人工智能的用戶進行否定性評價,產生人工智能應用的“恥感”。這可能會強化人工智能的污名化,引發用戶的心理焦慮,從長遠來看可能影響公眾對人工智能技術的信任與接受。為此,可從觀念、制度、互動和個體四個層面對其進行倫理治理:在觀念層面,應重視媒體在觀念傳播中的關鍵作用;在制度層面,應變革學術管理理念與模式,鼓勵負責任地使用人工智能;在互動層面,為人-機協同方式提出更多的可行框架;在個體層面,直面人工智能引發的創造性破壞,在應用中提升人工智能素養,進而推動營造一種更為積極合理的智能文化。
【關鍵詞】人工智能 “恥感” 現象 倫理治理 智能文化
【中圖分類號】TP18/B82-057 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.20.007
【作者簡介】杜嚴勇,同濟大學人文學院教授、博導,同濟大學馬克思主義研究院研究員。研究方向為人工智能倫理、愛因斯坦研究,主要著作有《人工智能倫理引論》《愛因斯坦社會哲學思想研究》《人工智能安全問題及其解決進路》(論文)等。
當前人工智能技術發展日新月異,并在諸多領域得到廣泛應用。習近平主席向2025世界智能產業博覽會致賀信,指出:“當前,人工智能技術加速迭代演進,正在深刻改變人類生產生活方式、重塑全球產業格局。”[1]在人工智能的助力下,人們可以顯著提高生產效率,提升工作業績,其積極效應不言而喻。但是,人們在對人工智能技術給予積極正面評價的同時,也有部分群體或人士出于各種原因,不僅隱瞞、拒斥、貶低對人工智能的使用,還對其他使用人工智能的用戶進行否定性評價,由此形成一種人工智能應用的“恥感”。這種社會現象關系我們是否應該使用與如何使用人工智能,以及如何理性認識人工智能的負面效應等若干關鍵問題,因此應當予以重視。
人工智能應用中的“恥感”現象
薩卡爾(Advait Sarkar)把將負面的判斷與對人工智能的應用聯系起來的社會現象稱為“人工智能羞恥”(AI Shaming)現象。[2]吉拉伊(Louie Giray)將其定義為對個體或組織使用人工智能生成內容或執行任務進行批評與貶低的行為。[3]總的來看,當前人工智能應用中的“恥感”主要有以下較為典型的表現。
隱瞞現象。為了避免對人工智能的濫用與誤用,是否應該對某種作品是不是以及多少比例由人工智能生成進行檢測,是社會各界普遍關注的話題。大多數用戶表示支持人工智能檢測工具的研發與應用,但由于擔憂被錯誤指控或批評,又對用于檢測的人工智能工具存有懷疑,有的用戶則存在不愿意讓別人知道自己使用人工智能的想法。2023年4月,OpenAI委托某機構針對該問題進行了一項調研,結果顯示在全世界范圍內有80%的受訪者表示支持使用人工智能檢測工具。同時,OpenAI對ChatGPT用戶進行調研,結果顯示有69%的受訪者相信人工智能檢測技術會導致對使用人工智能的虛假指控。近30%的受訪者表示,如果ChatGPT部署水印技術而其他公司沒有,他們將減少使用ChatGPT。[4]
事實上,人們傾向于隱瞞自己使用人工智能的現象較為普遍。2024年,微軟和領英公司對來自31個國家的31000名受訪者的調研表明,在工作中使用了人工智能的受訪者當中,有52%的人不愿意承認自己在最重要的工作中使用了人工智能。[5]學術界存在的人工智能“幽靈作者效應”(AI Ghostwriter Effect)也是一種典型的隱瞞現象。雖然用戶不認為他們自己是人工智能生成內容的作者或所有者,但他們并不愿意公開人工智能的作者身份,也不承認人工智能的具體貢獻,仍然傾向于以自己的名義公開發布成果。[6]
隨著人工智能大模型的應用日益廣泛,用戶通常被要求或鼓勵公開其使用情況,但仍有用戶傾向于隱瞞自己使用大模型的情況。有學者對180名大模型用戶進行在線調研,結果發現有112人(占62%)承認他們有隱瞞使用大模型的經歷。隱瞞情況可以分為兩種類型,我們把“不主動公開,但被問起則會承認”稱為“被動隱瞞”,同時把“被問起也會否認”稱為“主動隱瞞”。在不同的應用場景中,被動隱瞞和主動隱瞞的比例略有區別。對300名大模型用戶的在線調研表明,被動隱瞞比例從高到低的場景分別為社交互動(92%)、學術寫作(70%)、工作任務(68%)、創意寫作(66%)、學校作業(62%)等,主動隱瞞比例從高到低的場景分別為社交互動(70%)、創意寫作(52%)、學術寫作和學校作業(均為50%)、工作任務(46%)等。而且,用戶的個體差異,如性別、年齡、受教育程度等對隱瞞意圖沒有顯著影響。也就是說,用戶對于隱瞞使用大模型的情況具有較高的一致性。[7]
貶低現象。個人的勤奮與努力通常被認為是應該得到鼓勵和表揚的優良品質或美德,依賴機器則可能被認為是偷懶行為或能力不足的表現。因此,社會公眾對使用人工智能的認知評價存在一種“社會評價懲罰”(social evaluation penalty)現象。對大量社會公眾的在線調研結果顯示,人工智能的使用者和評價者,都不同程度存在對人工智能的使用進行貶低的情況。從用戶的角度看,他們相信如果使用人工智能工具,會被其他人認為是“更懶、能力更低”。從評價者的角度看,他們傾向于認為人工智能用戶比未使用的其他人員“能力更差、勤奮程度更低、獨立性更低、自信心更低”,而且這種評價與其年齡、性別與職業等無關,也就是說這是一種較為普遍的社會現象。不過,這種現象在不同的使用場景中存在差異,與評價者自身應用人工智能的情況亦存在密切聯系。在人們傾向于認為人工智能有用的任務中,使用人工智能是懶惰現象的認知評價并不顯著。如果評價者經常使用人工智能,則他們不會歧視人工智能的用戶。[8]
人們通常認為文學藝術領域的創作需要豐富的情感與較高的創造力,而目前人工智能技術在這些方面尚不能跟人類相媲美,因而存在對人工智能創作產品進行貶低的“標簽效應”(labeling effect)。事實上,目前人工智能在文學藝術創作方面已經表現出較高水平。調研表明,非專業人士在判別某些詩歌是由人工智能生成,還是由人類詩人所撰寫時,準確率僅為46.6%,低于隨機猜測,也就是非專業人士根本無法判別二者的差異。此外,當人們被告知某首詩是由人工智能生成時,他們對其的整體評分會顯著下降,相反,當被告知是人類詩人創作時,評分則顯著上升。也就是說,人們可能會根據作者身份標簽重新調整自己對詩歌質量的判斷,存在“標簽效應”。[9]與此類似,公眾和專業人士對人工智能生成音樂存在一定偏見。當被告知音樂由人工智能創作時,評價往往更低;反之,若故意將其標注為人類創作,則評價更高。[10]
指責與懷疑現象。這種現象在學術界表現得較為普遍,無論是社會公眾,還是學校師生,不少人都將使用生成式人工智能與抄襲、作弊等不當行為相提并論。2022年底ChatGPT的發布,引發高等教育界對學術誠信的普遍憂慮。對澳大利亞、新西蘭、美國和英國媒體的100篇新聞報道內容進行分析的結果顯示,有88篇提及對學術誠信的擔憂,如擔心學生使用ChatGPT完成作業、代寫論文等。媒體報道的內容被“作弊焦慮”與學術誠信擔憂所主導,主要傾向于強調人工智能對學術誠信的威脅,而較少提及其可能產生的積極效應。[11]
生成式人工智能確實在全球高校中產生深刻影響。對QS排名前20的大學制定的生成式人工智能政策的研究表明,大多頂尖高校將生成式人工智能的使用,視為對學生作業原創性的威脅,把人工智能的輔助與“外包”或“代寫”進行類比,將其與抄襲等學術不端行為直接掛鉤。[12]生成式人工智能的普遍使用也影響教師的評分標準。對于某些學科和領域,僅憑教師個人的辨別力,較難區分什么樣的作業是學生獨立完成的,什么樣的是由人工智能生成或修改的。一些教師容易將學生獨立完成的作業誤判為人工智能生成的,反之亦然。此外,對于水平較高的作業,教師可能會因為懷疑學生的作業是由人工智能撰寫或修改的,而降低對學生作業的評分。[13]
在藝術創作領域,有的學者直接將使用生成式人工智能視為剽竊行為。美國康奈爾大學的格茨(Trystan Goetze)認為,利用人工智能生成圖像是一種剽竊行為,其本質是對藝術家創作勞動成果的大規模無償使用,違反知情同意、分配正義和尊重個人尊嚴的倫理原則,在道德上是不可以接受的。他還提出,如果這種論證成立的話,那么大量人工智能技術都需要海量數據進行訓練,由此很多科技公司基于未經授權的數據建構的生成式人工智能也應該被視為剽竊行為。[14]
我們可以從人工智能用戶和評價者兩個角度來看待人工智能應用的“恥感”。從用戶的角度看,他們擔心因為使用人工智能工具而被認為是偷懶或能力不強,以及出于對人工智能技術本身不足以被信任的擔憂等多種因素,傾向于隱瞞自己使用人工智能的情況。從評價者(當然評價者本身也可能是用戶)的角度看,他們傾向于對人工智能生成的內容給予偏向否定性、負面性的判斷,對使用人工智能的用戶存在一定程度上的輕視現象。而且,從語言表述上看,絕大多數相關文本使用的都是“我們”(we/us)、“許多”(many)、“大多數”(a majority of ),以及復數職業名詞等表示集體性的術語,因此這種現象并非個例,而應該被視為一種有一定普遍性的現象。
產生這種現象的原因是多方面的,既有人們對新興技術本能地排斥與不信任,也有對學術誠信、工作替代等現實問題的憂慮。需要強調的是,對某種新技術進行否定、拒斥或貶低是一種普遍現象,歷史上此類案例不勝枚舉。比如,柏拉圖在《斐德羅篇》中提到,蘇格拉底對書寫進行貶斥,他說:“如果有人學了這種技藝,就會在他們的靈魂中播下遺忘,因為他們這樣一來就會依賴寫下來的東西,不再去努力練習記憶,因為他們相信書寫,借助外在的符號來回想。”[15]美國科技作家卡爾(Nicholas Carr)在《淺薄:互聯網如何毒化了我們的大腦》中指出,互聯網使我們逐漸喪失深度閱讀和深度思考的能力。他在書中的最后一句話如此寫道:“我們越來越依靠計算機作為理解世界的媒介,在這一過程中,我們自己的智能黯然失色,最終淪為人工智能。”[16]
人工智能應用“恥感”的倫理風險剖析
技術是一把雙刃劍,我們需要全面客觀地認識其正反兩方面的影響。人工智能應用中的“恥感”現象主要反映的是人工智能可能產生的負面影響,以及人們對其負面影響的普遍憂慮,由此可能產生的倫理風險主要有以下三個方面。
強化人工智能污名化,導致錯誤的邊界工作。人工智能應用中的“恥感”是對人工智能技術污名化的一種表現形式。一般而言,污名(stigma)表現為五個相互關聯的組成部分,即標簽化(識別某些差異并進行標記)、刻板印象(將標簽與某些負面屬性相關聯)、隔離(將“我們”與“他們”進行劃界)、地位喪失(使被貼標簽者社會地位下降)、歧視(包括拒絕雇傭等個體歧視,以及資源分配不公等結構性歧視)。[17]通過前文對人工智能應用的“恥感”現象的論述,我們可以將其歸為人工智能污名化的范疇之內。比如,上文的討論提及將使用人工智能工具視為作弊或欺騙,將使用人工智能與不使用人工智能的用戶區分開來,對使用人工智能的用戶進行否定性的倫理批判,等等。
污名化的影響是多方面的,其中最重要的影響之一就是導致錯誤的邊界工作(boundary work)。邊界工作原初的目標是在科學與非科學之間進行劃界。與經典科學哲學的劃界研究不同,科學家通過意識形態策略構建科學與非科學之間的界限,從而維護科學的權威性,爭取更多的學術資源并保護科學研究的自主性。比如,美國國家科學院通過區分“基礎研究”與“技術應用”來保護科學研究的自主性,避免政府的過度干預。邊界工作不是固定不變的,而是靈活多樣的,其本質是科學家為其職業利益服務的工具。[18]薩卡爾認為,“人工智能羞恥”直接或間接地區分可接受與不可接受、合倫理與不合倫理的人工智能使用方式,也發揮著邊界工作的功能。[19]薩卡爾甚至把邊界工作看作是一種對抗,一方是擁有技術優勢的科技公司,另一方是已經或可能受到指控的人工智能用戶。比如,有的學生為了避免被指控使用人工智能作弊,將大部分時間用在調整作業的措辭方面,從而防止被檢測系統錯誤地標記。
“恥感”導致的邊界工作潛在地發揮著倫理規范的功能,在公共領域與私人場合均會對個人行為產生明顯的引導作用。對此研究頗深的威廉斯(Bernard Williams)認為,雖然羞恥及其動機總是以某種方式包含著一種涉及他者目光的觀念,只要存在一個想象中的他者目光,它便能在大多數場合發揮作用。這種內在化的他者不僅是抽象化的,還是普遍化和理想化的,潛在地仍然是某人(somebody)而不是子虛烏有(nobody)。[20]也就是說,羞恥感對個人的行為會產生深刻的影響,它會作為一種導向性的力量,使人們竭力讓自己的行為符合某種標準,以避免遭受批評或試圖贏得肯定與承認。事實上,大量的實證研究亦證實這一點。一項針對美國黑人高中生的調研表明,人工智能應用中的“恥感”對他們關于人工智能的認知產生深刻影響。一名受訪者表示,大家對ChatGPT都不太認可,因為老師們經常說這是一種作弊工具,因此她從來就沒有用過這個工具。另一位受訪者也表示,雖然她的語言課程鼓勵學生使用人工智能來輔助學習外語,但她仍然不愿意使用人工智能,因為她擔心被錯誤地指控為作弊。[21]
加大人工智能監管難度,引發用戶心理焦慮。我們并不反對使用人工智能檢測技術,但“恥感”可能會推動檢測技術的誤用與濫用,進而產生一系列負面影響。盡管技術進步速度很快,但人工智能檢測工具仍難以應對人類語言的多樣性與復雜性,導致錯誤結果和偏見、歧視現象頻頻發生。比如,當前主流GPT檢測器對非英語母語寫作者存在顯著偏見。通過使用7款主流檢測器,對91篇中國考生托福作文與88篇美國八年級學生作文進行人工智能生成內容檢測,結果表明61.3%的托福作文被判定為人工智能生成,而對美國學生作文的誤判率接近零。當前的檢測器主要依賴文本復雜度(perplexity)判斷是否為人工智能生成,即作文可預測性越強,越容易被標記。非英語母語的寫作模式由于詞匯和語法的多樣性較低,從而導致檢測系統誤判。但是,如果使用ChatGPT進行潤色,則會很大程度降低誤判比例。[22]據《中國青年報》報道,不少高校教師和學生親自寫的論文被檢測系統判定為高“AI率”。還有網友將《滕王閣序》《岳陽樓記》等名篇輸入檢測系統,發現“AI率”超過50%,由此引發公眾對相關檢測工具準確性和透明度的普遍質疑。[23]
國內外高校關于人工智能應用的管理規定有利于規范人工智能的使用,但過度嚴格的要求也可能助長學生的擔憂與焦慮情緒。對相關研究文獻的綜合性分析表明,高校中的學生關于人工智能的焦慮情緒普遍存在,且在一定范圍內呈現上升趨勢。人工智能焦慮現象會降低學生的學習動機和技術使用意愿,進而阻礙人工智能技能的學習效果。[24]當然,高校學生中的人工智能焦慮情況是由多方面因素引起的,“恥感”確實是其中之一。有學生由于懼怕使用人工智能所帶來的懲罰,在寫作業時關閉所有人工智能工具。還有學生作業因在檢測平臺被檢測出高“AI率”,而受到學業延期的處罰。同時,人工智能檢測可能導致人們刻意改變寫作風格,使作者對論文寫作風格產生一定的焦慮情緒。比如,對生物醫學文獻中詞匯使用情況的統計表明,大模型生成的內容存在同質化等特點,特別是大模型偏好某些風格的詞語,如動詞“delves”、形容詞“crucial”。2024年,“Delves”的使用率增長了28倍,雖然使用該詞的文章的絕對數量較少,但增長倍數顯著;“Crucial”增長了1.37倍,雖然相對倍數不高,但由于該詞使用頻率高,因此絕對增幅較為顯著。[25]因而,為了避免自己的論文被誤判為是大模型所寫,很多學者刻意在論文寫作中回避使用這些詞語。
產生感知性傷害,影響人工智能技術信任與接受。“恥感”現象最直接的倫理風險之一是導致感知性傷害(perceptual harms),即當他人感覺或懷疑用戶使用人工智能時,對用戶所產生的傷害。也就是說,無論實際上是否使用了人工智能,只要有人懷疑你用了,就可能產生某些不公平對待。人工智能引發的傷害現象通常是在使用過程中或由人工智能輸出結果所導致的,但感知性傷害主要源于社會刻板認知因素。對近千名美國成年人的在線調研表明,男性(42.2%)比女性(35.3%)更容易被懷疑使用人工智能,這可能是由于社會公眾通常認為男性比女性更懂技術;東亞裔(42.0%)比美國人(35.1%)被懷疑率更高,可能因為東亞裔被視作是技術型群體,同時英語不是其母語。[26]
包括感知性傷害在內的各種因素影響公眾對人工智能的信任與接受。雖然人工智能發展突飛猛進,但社會公眾的認知與技術發展之間并不協調,甚至不少國家公眾對人工智能技術并不信任。對17個國家17000多名受訪者的調查表明,有39%的公眾表示愿意信任人工智能,只有33%的公眾樂于接受(high acceptance)人工智能,同時相較于西方國家,新興經濟體(如巴西、印度、中國等)更加信任人工智能,接受度也更高。[27]人工智能技術接受理論研究表明,公眾的積極認知態度,特別是公眾對人工智能的信任,是影響公眾對人工智能接受度的重要因素。主流媒體關于人工智能的報道,既是公眾社會技術想象(sociotechnical imaginaries)的外在表征,也會對公眾產生一定的影響。一定程度上,人工智能應用中的“恥感”是導致社會公眾對人工智能的信任度和接受度不高的關鍵性因素之一。這使一些社會公眾對人工智能產生排斥態度和否定性認知,自然不會選擇信任人工智能。
文化循環視角下的倫理治理策略
人們對人工智能的合理接受與應用不僅是技術問題,更主要的是社會文化變革的問題。在人工智能時代,我們需要建構一種與人工智能技術適配的智能文化。從智能文化的角度進行倫理風險防范,具有更高的可行性與更強的針對性。[28]文化循環(culture cycle)理論可為我們理解文化沖突,促進積極的文化變革提供一個富有參考意義的理論視角。文化循環理論將文化視為一個多層次、相互作用的動態系統,包括觀念(ideas)、制度(institutions)、互動(interactions)、個體(individuals)四個層面,這四個層面相互依賴、相互影響。也就是說,社會文化形塑或引導人們的行為,而人們的行為又會強化與反映,或者質疑與改變社會文化。[29]文化循環理論認為,要促進文化變革,需要對文化循環的每個層面進行干預,同時不同層面之間需要保持某種程度的一致性與協同性。因此,針對人工智能應用中的“恥感”現象的倫理治理需要從以下四個層面展開。
觀念層面:重視媒體在觀念傳播中的關鍵作用,積極消除人工智能的污名化。在消除人工智能污名化的過程中,媒體的作用至關重要。在傳播技術倫理的過程中,媒體可以發揮多重角色的功能,包括“啟蒙者”的“乘數效應”作用、“斡旋者”在“游說”與“辯論”中的中介作用,以及“協調者”的“平衡器”作用,這不但可以引導公眾全面客觀地認識人工智能,還可以使公眾的意見受到關注并影響技術政策。[30]另外,當前媒體圍繞人工智能技術傳播所建構的形象是多方面的,其中最顯著的傾向是將人工智能擬人化。如果用戶只是把人工智能視為一種類似于個人電腦之類的工具,“恥感”現象的影響程度可能會在相當程度上被弱化。也就是說,在“恥感”的深層預設中,普遍存在將人工智能擬人化的思想傾向。因此,在媒體宣傳中,需要有意識地弱化對人工智能的擬人論傾向。擬人論指將人類的精神、情感、動機和行為等特性賦予非人對象的思想觀念。在目前的機器人文化中,存在大量的機器人擬人論意識形態,帶有比較明顯的未來主義色彩和對未知技術的恐懼特征。擬人論固然有其優勢,如可以使人工智能倫理獲得更多的關注,但可能導致其偏于激進并脫離現實,進而引發倫理判斷的混亂與道德界限的模糊。[31]大量心理學研究表明,當計算機或人工智能系統被設計得接近于人類時,用戶就會傾向于以符合社會規范的方式與之進行互動,也就是存在一定擬人化特點,這會使用戶忽略人機差異。因此,在媒體宣傳中自覺弱化人工智能的擬人化特征,可以更好地幫助用戶利用人工智能的優勢,減少人工智能應用中的“恥感”現象。
高等院校在文化創造與傳播中發揮著重要作用,因此高校是當前人工智能應用“恥感”倫理治理的重要場域。近年來,高等教育領域圍繞人工智能的影響及其應對策略發表了大量的研究論著,充分體現出學界對人工智能的高度重視。盡管人工智能應用的“恥感”現象在教育領域較為普遍,但教育管理者與教師群體的思想觀念整體上還是頗為開放與包容的,因此我們有理由對弱化學術領域的“恥感”現象持樂觀態度。比如,2023年,歐洲學術誠信網絡(The European Network for Academic Integrity)發布了在教育領域中合倫理地應用人工智能的建議,指出適當地使用人工智能資源與工具,只是影響形式而不是內容,通常是可以接受的。[32]當然,我們也需要區分對人工智能的污名化與合理的批判質疑。合理的批判至少需要有明確的對象、確鑿的事實與充分的依據,而且應當就事論事,不夸大、不盲從。
制度層面:變革學術管理理念與模式,鼓勵負責任地使用人工智能。與其讓某些媒體或社會群體通過非正式的邊界工作來營造人工智能應用的“恥感”,從而在一定程度上阻礙人們合理使用人工智能,或者制定政策簡單予以禁止,不如引導人們規范使用人工智能工具。ChatGPT剛發布之后不久,確實有一些高校明確禁止使用生成式人工智能工具,但后來基本上都取消了相關的禁令,改為通過相應規則來規范師生使用。我們通過對國外著名高校的生成式人工智能倫理制度的統計研究發現,大多數高校制定了較為完善的規范性制度。[33]
從人工智能學術共同體的角度看,專業團體大都明確允許使用人工智能,同時也提出相應的約束條件,鼓勵負責任地使用人工智能工具。美國計算機學會(Association for Computing Machinery, ACM)在其官網上公開同意作者使用人工智能工具,但要求人工智能不能抄襲、歪曲或偽造學術研究成果,而且人工智能生成的成果要能夠總體上比較準確地反映作者的基礎性工作和原創性貢獻,同時作者應對人工智能生成內容的真實性和正確性負責。
眾所周知,透明性原則是人工智能倫理中的一個核心原則。不過,通常的透明性原則是從技術角度,對研發人員提出的,而不是針對用戶而言的。有學者建議,為避免秘密使用人工智能的情況,應當將透明性原則拓展到用戶群體,要求用戶主動披露人工智能使用情況。但是,用戶主動披露顯然會加大暴露用戶個人弱點與隱私的風險,從而可能進一步強化“恥感”及其影響。同時,也有學者建議加強過程性管理,通過人工智能使用日志等工具,展現用戶的使用情況。但是,這種管理模式或將使用戶產生被監控的不適感,導致自主性削減。筆者研究認為,歐洲學術誠信網絡與美國計算機學會倡導的負責任使用人工智能的模式更為可取。對教育管理機構而言,應當完善傳統的學術管理與評價模式,使其轉變為一種更為開放、靈活、包容的模式,根據不同的學科、任務與工作場景,制定靈活的規章制度,明確規定學生與科研人員在何時以及如何使用各類人工智能工具,明確授權相關人員合理使用人工智能,不斷適應快速變化的人工智能治理場景。[34]
互動層面:為人-機協同方式提出更多的可行框架。當前世界各國的人工智能政策主要聚焦如何促進人工智能科技的健康發展與應用,以及如何防范各類風險這兩個方面。對于個體應該如何與人工智能互動,如何更好地適應人工智能帶來的各種變化的重視程度,則應進一步增強。有學者認為,傳統的人工智能設計是以算法或人工智能系統本身為中心,我們應該倡導一種以人為本的人工智能(Human-Centered AI)設計思路,也就是將人類視為設計的核心。施奈德曼(Ben Shneiderman)將這種思路的重要意義與哥白尼革命相提并論,稱其為“第二次哥白尼革命”,認為這種思路可以實現對人工智能的全新認知。[35]不過,隨著生成式人工智能的快速發展與廣泛應用,越來越多的學者強調人機互補與人機協作,因此人工智能系統設計不僅要以人為本,還應將人機交互置于核心地位。為更好地實現人機協同,僅在實驗室內進行有限的研究是遠遠不夠的,需要在真實的應用場景中獲取數據,以保證人工智能系統的準確性與可靠性。同時,還應更全面收集用戶體驗與反饋信息,調整系統設計方案以促進更和諧高效的人機互動。
在學術研究中,為了更好地引導用戶使用生成式人工智能,我們需要轉變視角,從關注具有一定時效性的“人工智能能做什么與不能做什么”,轉向關注“我們允許它做什么”,而是否允許的依據之一就是學術研究中的學術質量標準。為了平衡人工智能系統的實用性與學術嚴謹性,可以將學術質量標準落實到學術研究的每一個具體步驟之中,詳細分析每一步使用人工智能的具體建議,由此可以在很大程度上保證負責任地使用人工智能。[36]需要強調的是,人類應用人工智能的成就感,取決于人類是否認為自己仍然是創作的主人。未來人機協同是大勢所趨,但不論人工智能多么強大,人類仍然需要把握主動權與控制權。
個體層面:直面人工智能引發的創造性破壞,在應用中提升人工智能素養。人工智能對人類社會的深刻影響,在一定程度上可以看作是一種“創造性破壞”(Creative Destruction)。創造性破壞是源于尼采(Friedrich Nietzsche)哲學,并在熊彼特(Joseph Schumpeter)的理論中得到進一步發展的概念。創造性破壞包括的核心原則有,創造與破壞不可分割,新的創造必須建立在舊事物的破壞之上;創造與破壞的對立面是停滯,而停滯會導致衰退;生命必須不斷戰勝自我,才能實現進化和進步,等等。[37]從創造性破壞概念的角度看,“恥感”的克服與智能文化的建構對某些群體或個體而言,可能是一個艱難甚至痛苦的過程。
就用戶個體層面而言,為了應對人工智能引發的創造性破壞,國內外學術界已就個體人工智能素養發表了頗為豐富的研究成果。狹義的人工智能素養通常指獲得、使用和評估人工智能的能力,而廣義的人工智能素養則包含在人工智能環境中用到的相關知識、技能以及倫理等要素的總和,涵蓋多個維度。[38]從本文的討論來看,我們應該重視廣義人工智能素養的培養,從人工智能意識、知識、能力與倫理等多個維度完善人工智能素養的核心要素,使個體更好地適應智能文化的需求。需要強調的是,我們應當重視在現實人工智能應用場景中提升用戶的人工智能素養。大量的實證研究表明,公眾的態度具有較強的可塑性,當他們在嘗試使用人工智能工具并獲得良好的體驗后,會發現人工智能可以成為學習與工作的好助手,而不是用來偷懶或作弊的工具,從而逐漸改變對人工智能的認知。
結語
作為一種顛覆性技術,人工智能與歷史上其他顛覆性技術一樣,社會公眾對其的理性認知與接納可能需要經歷較長的過程,而且不同群體與個體之間存在較為顯著的差異。人工智能應用中的“恥感”只是智能社會中紛繁復雜的現象之一。本文的目的不是要批判這種現象,事實上“恥感”現象有其積極價值,本文的目的是客觀描述這種現象,剖析其潛在的倫理風險,并嘗試提出相應的倫理治理策略。由此,既可以在一定程度上減弱甚至消除用戶使用人工智能的心理負擔與壓力,也有利于營造一種更為積極合理的智能文化。我們相信,人工智能應用“恥感”會隨著技術的日益成熟和更廣泛地使用,以及倫理治理與社會規制的日益完善而逐漸弱化。如果以后我們對待使用人工智能的態度,類似于當前我們對待使用手機和電腦的態度,這種現象就會徹底消解,其倫理風險自然也就煙消云散了。
(本文系國家社會科學基金重大項目“人工智能倫理風險防范研究”的階段性成果,項目編號:20&ZD041)
注釋
[1]《習近平向2025世界智能產業博覽會致賀信》,《人民日報》,2025年9月6日,第1版。
[2][19]A. Sarkar, "AI Could Have Written This: Birth of a Classist Slur in Knowledge Work," CHI EA '25: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems, 621, 2025.
[3]L. Giray, "AI Shaming: The Silent Stigma Among Academic Writers and Researchers," Annals of Biomedical Engineering, 2024, 52.
[4]D. Seetharaman; M. Barnum, "There's a Tool to Catch Students Cheating With ChatGPT," 4 August 2024, The Wall Street Journal.
[5]Microsoft and Linkedln, "AI at Work Is Here. Now Comes the Hard Part," 2024 Work Trend Index Annual Report, 8 May 2024, https://www.microsoft.com/en-us/worklab/work-trend-index/ai-at-work-is-here-now-comes-the-hard-part?ocid=AIDN%2FA_TWITTER_oo_spl100005738933705.
[6]F. Draxler; A. Werner; F. Lehmann et al., "The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of AI-Generated Text But Self-Declare as Authors," ACM Transactions on Computer-Human Interaction, 2024, 31(2).
[7]Z. Zhang; C. Shen; B. Yao et al., "Secret Use of Large Language Model (LLM)," Proceedings of the ACM on Human-Computer Interaction, 2025, 9(2).
[8]J. Reif, "Evidence of a Social Evaluation Penalty for Using AI," Proceedings of the National Academy of Sciences, 2025, 122(19).
[9]B. Porter; E. Machery, "AI-Generated Poetry Is Indistinguishable from Human-Written Poetry and Is Rated More Favorably," Scientific Reports, 2024, 14 (1).
[10]A. Micalizzi, "Artificial Creativity. Perceptions and Prejudices on AI Music Production," Proceeding of Ninth International Congress on Information and Communication Technology, Singapore: Springer, 2024, pp. 481-491.
[11]M. Sullivan; A. Kelly; P. McLaughlan, "ChatGPT in Higher Education: Considerations for Academic Integrity and Student Learning," Journal of Applied Learning & Teaching, 2023, 6(1).
[12]J. Luo, "A Critical Review of GenAI Policies in Higher Education Assessment," Assessment & Evaluation in Higher Education, 2024, 49(5).
[13]A. Kofinas; C. Tsay; D. Pike, "The Impact of Generative AI on Academic Integrity of Authentic Assessments within A Higher Education Context," British Journal of Educational Technology, 31 March 2025, https://bera-journals.onlinelibrary.wiley.com/doi/10.1111/bjet.13585.
[14]T. Goetze, "AI Art Is Theft: Labour, Extraction, and Exploitation," Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency, 2024.
[15]《柏拉圖全集(第5卷)》,王曉朝譯,北京:人民出版社,2016年,第137頁。
[16]卡爾:《淺薄:互聯網如何毒化了我們的大腦》,劉純毅譯,北京:中信出版社,2010年,第242頁。
[17]B. Link; J. Phelan, "Conceptualizing Stigma," Annual Review of Sociology, 2001, 27.
[18]T. Gieryn, "Boundary-Work and the Demarcation of Science from Non-Science: Strains and Interests in Professional Ideologies of Scientists," American Sociological Review, 1983, 48(6).
[20]威廉斯:《羞恥與必然性》,吳天岳譯,北京大學出版社,2014年,第90~94頁。
[21]T. Tanksley, "We're Changing the System with This One: Black Students Using Critical Race Algorithmic Literacies to Subvert and Survive AI-Mediated Racism in School," English Teaching: Practice and Critique, 2024, 23(1).
[22]W. Liang; M. Yuksekgonul; Y. Mao et al., "GPT Detectors Are Biased Against Non-Native English Writers," Patterns, 2023, 4(7).
[23]鄒竣麒、劉胤:《論文AI率檢測如何避免“誤傷”》,《中國青年報》,2025年5月17日,第1版。
[24]X. Wu; H. Li, "A Systematic Review of AI Anxiety in Education," AI and Ethics, 23 July 2025, https://link.springer.com/article/10.1007/s43681-025-00783-9.
[25]D. Kobak; R. Gonz'alez-M'arquez; E. Horvát et al., "Delving into LLM-assisted Writing in Biomedical Publications Through Excess Vocabulary," Science Advances, 2025, 11(27).
[26]K. Kadoma; D. Metaxa and M. Naaman, "Generative AI and Perceptual Harms: Who's Suspected of Using LLMs?" Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, 2025, pp. 1-17.
[27]N. Gillespie; S. Lockey; C. Curtis et al., Trust Artificial Intelligence: A Global Study, Brisbane: The University of Queensland, 2023, https://www.aiunplugged.io/wp-content/uploads/2023/10/Trust-in-Artificial-Intelligence.pdf.
[28]杜嚴勇:《智能社會建構中的算法文化:本質特征、倫理風險及其規避路徑》,《同濟大學學報(社科版)》,2023年第1期。
[29]M. Hamedani; H. Markus, "Understanding Culture Clashes and Catalyzing Change: A Culture Cycle Approach," Frontiers in Psychology, 2019, 10.
[30]朱雪熙、王國豫:《德國媒體在技術倫理傳播中的作用:以人工智能倫理傳播為例》,《科學與社會》,2022年第4期。
[31]劉永謀、白英慧:《機器人倫理學的擬人論基礎》,《中國社會科學院大學學報》,2025年第6期。
[32]T. Foltynek; S. Bjelobaba; I. Glendinning et al., "ENAI Recommendations on the Ethical Use of Artificial Intelligence in Education," International Journal for Educational Integrity, 2023, 19(1).
[33]呂宇靜、杜嚴勇:《國外著名高校生成式人工智能倫理政策研究》,《中國礦業大學學報(社科版)》,2025年第4期。
[34]王伯魯、史少春:《人工智能價值對齊困難及其實現路徑探析》,《國家治理》,2025年第3期。
[35]B. Shneiderman, "Human-Centered Artificial Intelligence: Three Fresh Ideas," AIS Transactions on Human-Computer Interaction, 2020, 12(3).
[36]F. Tingelhoff; M. Brugger; J. Leimeister, "A Guide for Structured Literature Reviews in Business Research: The State-of-the-art and How to Integrate Generative AI," Journal of Information Technology, 2025, 40(1).
[37]H. Reinert; E. Reinert, "Creative Destruction in Economics: Nietzsche, Sombart, Schumpeter," J. Backhaus; W. Drechsler (eds.), Friedrich Nietzsche (1844-1900): Economy and Society, Berlin: Springer, 2006, pp. 55-85.
[38]趙益民、彭雪琴、寸國美:《人工智能素養的內涵、結構和評價體系》,《圖書情報工作》,2025年第13期。
責 編∕方進一 美 編∕梁麗琛
Analysis of "Sense of Shame" Phenomenon in Artificial Intelligence Applications and Ethical Risks
Du Yanyong
Abstract: Currently, artificial intelligence technology is rapidly developing and widely applied. While most people positively evaluate artificial intelligence, a concerning social phenomenon has emerged: some individuals tend to conceal, reject, or belittle AI applications, while also making negative judgments about AI users, creating a sense of shame around AI adoption. This may reinforce the stigmatization of AI, trigger psychological anxiety among users, and potentially undermine public trust and acceptance of AI technology in the long term. To address this, ethical governance can be implemented across four dimensions: conceptual, institutional, interactive, and individual. At the conceptual level, the critical role of media in disseminating ideas should be emphasized; at the institutional level, academic management concepts and models should be reformed to encourage the responsible use of AI; at the interaction level, more feasible frameworks for human-machine collaboration should be proposed; at the individual level, we must confront the creative destruction triggered by AI, enhance AI literacy through application, and thereby foster a more positive and rational intelligent culture.
Keywords: artificial intelligence, "sense of shame" phenomenon, ethical governance, intelligent culture