精品911国产高清在线观看,久操国产在线,日日夜夜欧美,www.五月激情,五月激激激综合网色播免费,久久精品2021国产,国产成在线观看免费视频成本人

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

每日推薦
首頁(yè) > 學(xué)術(shù)前沿 > 正文

人工智能應(yīng)用中的“恥感”現(xiàn)象及其倫理風(fēng)險(xiǎn)探析

【摘要】當(dāng)前,人工智能技術(shù)快速發(fā)展并得到廣泛應(yīng)用,人們?cè)趯?duì)人工智能進(jìn)行積極評(píng)價(jià)的同時(shí),也存在一種值得警惕的社會(huì)現(xiàn)象:部分個(gè)體傾向于隱瞞、拒斥、貶低人工智能的應(yīng)用,以及對(duì)人工智能的用戶進(jìn)行否定性評(píng)價(jià),產(chǎn)生人工智能應(yīng)用的“恥感”。這可能會(huì)強(qiáng)化人工智能的污名化,引發(fā)用戶的心理焦慮,從長(zhǎng)遠(yuǎn)來(lái)看可能影響公眾對(duì)人工智能技術(shù)的信任與接受。為此,可從觀念、制度、互動(dòng)和個(gè)體四個(gè)層面對(duì)其進(jìn)行倫理治理:在觀念層面,應(yīng)重視媒體在觀念傳播中的關(guān)鍵作用;在制度層面,應(yīng)變革學(xué)術(shù)管理理念與模式,鼓勵(lì)負(fù)責(zé)任地使用人工智能;在互動(dòng)層面,為人-機(jī)協(xié)同方式提出更多的可行框架;在個(gè)體層面,直面人工智能引發(fā)的創(chuàng)造性破壞,在應(yīng)用中提升人工智能素養(yǎng),進(jìn)而推動(dòng)營(yíng)造一種更為積極合理的智能文化。

【關(guān)鍵詞】人工智能 “恥感” 現(xiàn)象 倫理治理 智能文化

【中圖分類號(hào)】TP18/B82-057 【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.007

【作者簡(jiǎn)介】杜嚴(yán)勇,同濟(jì)大學(xué)人文學(xué)院教授、博導(dǎo),同濟(jì)大學(xué)馬克思主義研究院研究員。研究方向?yàn)槿斯ぶ悄軅惱?、?ài)因斯坦研究,主要著作有《人工智能倫理引論》《愛(ài)因斯坦社會(huì)哲學(xué)思想研究》《人工智能安全問(wèn)題及其解決進(jìn)路》(論文)等。

當(dāng)前人工智能技術(shù)發(fā)展日新月異,并在諸多領(lǐng)域得到廣泛應(yīng)用。習(xí)近平主席向2025世界智能產(chǎn)業(yè)博覽會(huì)致賀信,指出:“當(dāng)前,人工智能技術(shù)加速迭代演進(jìn),正在深刻改變?nèi)祟惿a(chǎn)生活方式、重塑全球產(chǎn)業(yè)格局。”[1]在人工智能的助力下,人們可以顯著提高生產(chǎn)效率,提升工作業(yè)績(jī),其積極效應(yīng)不言而喻。但是,人們?cè)趯?duì)人工智能技術(shù)給予積極正面評(píng)價(jià)的同時(shí),也有部分群體或人士出于各種原因,不僅隱瞞、拒斥、貶低對(duì)人工智能的使用,還對(duì)其他使用人工智能的用戶進(jìn)行否定性評(píng)價(jià),由此形成一種人工智能應(yīng)用的“恥感”。這種社會(huì)現(xiàn)象關(guān)系我們是否應(yīng)該使用與如何使用人工智能,以及如何理性認(rèn)識(shí)人工智能的負(fù)面效應(yīng)等若干關(guān)鍵問(wèn)題,因此應(yīng)當(dāng)予以重視。

人工智能應(yīng)用中的“恥感”現(xiàn)象

薩卡爾(Advait Sarkar)把將負(fù)面的判斷與對(duì)人工智能的應(yīng)用聯(lián)系起來(lái)的社會(huì)現(xiàn)象稱為“人工智能羞恥”(AI Shaming)現(xiàn)象。[2]吉拉伊(Louie Giray)將其定義為對(duì)個(gè)體或組織使用人工智能生成內(nèi)容或執(zhí)行任務(wù)進(jìn)行批評(píng)與貶低的行為。[3]總的來(lái)看,當(dāng)前人工智能應(yīng)用中的“恥感”主要有以下較為典型的表現(xiàn)。

隱瞞現(xiàn)象。為了避免對(duì)人工智能的濫用與誤用,是否應(yīng)該對(duì)某種作品是不是以及多少比例由人工智能生成進(jìn)行檢測(cè),是社會(huì)各界普遍關(guān)注的話題。大多數(shù)用戶表示支持人工智能檢測(cè)工具的研發(fā)與應(yīng)用,但由于擔(dān)憂被錯(cuò)誤指控或批評(píng),又對(duì)用于檢測(cè)的人工智能工具存有懷疑,有的用戶則存在不愿意讓別人知道自己使用人工智能的想法。2023年4月,OpenAI委托某機(jī)構(gòu)針對(duì)該問(wèn)題進(jìn)行了一項(xiàng)調(diào)研,結(jié)果顯示在全世界范圍內(nèi)有80%的受訪者表示支持使用人工智能檢測(cè)工具。同時(shí),OpenAI對(duì)ChatGPT用戶進(jìn)行調(diào)研,結(jié)果顯示有69%的受訪者相信人工智能檢測(cè)技術(shù)會(huì)導(dǎo)致對(duì)使用人工智能的虛假指控。近30%的受訪者表示,如果ChatGPT部署水印技術(shù)而其他公司沒(méi)有,他們將減少使用ChatGPT。[4]

事實(shí)上,人們傾向于隱瞞自己使用人工智能的現(xiàn)象較為普遍。2024年,微軟和領(lǐng)英公司對(duì)來(lái)自31個(gè)國(guó)家的31000名受訪者的調(diào)研表明,在工作中使用了人工智能的受訪者當(dāng)中,有52%的人不愿意承認(rèn)自己在最重要的工作中使用了人工智能。[5]學(xué)術(shù)界存在的人工智能“幽靈作者效應(yīng)”(AI Ghostwriter Effect)也是一種典型的隱瞞現(xiàn)象。雖然用戶不認(rèn)為他們自己是人工智能生成內(nèi)容的作者或所有者,但他們并不愿意公開(kāi)人工智能的作者身份,也不承認(rèn)人工智能的具體貢獻(xiàn),仍然傾向于以自己的名義公開(kāi)發(fā)布成果。[6]

隨著人工智能大模型的應(yīng)用日益廣泛,用戶通常被要求或鼓勵(lì)公開(kāi)其使用情況,但仍有用戶傾向于隱瞞自己使用大模型的情況。有學(xué)者對(duì)180名大模型用戶進(jìn)行在線調(diào)研,結(jié)果發(fā)現(xiàn)有112人(占62%)承認(rèn)他們有隱瞞使用大模型的經(jīng)歷。隱瞞情況可以分為兩種類型,我們把“不主動(dòng)公開(kāi),但被問(wèn)起則會(huì)承認(rèn)”稱為“被動(dòng)隱瞞”,同時(shí)把“被問(wèn)起也會(huì)否認(rèn)”稱為“主動(dòng)隱瞞”。在不同的應(yīng)用場(chǎng)景中,被動(dòng)隱瞞和主動(dòng)隱瞞的比例略有區(qū)別。對(duì)300名大模型用戶的在線調(diào)研表明,被動(dòng)隱瞞比例從高到低的場(chǎng)景分別為社交互動(dòng)(92%)、學(xué)術(shù)寫(xiě)作(70%)、工作任務(wù)(68%)、創(chuàng)意寫(xiě)作(66%)、學(xué)校作業(yè)(62%)等,主動(dòng)隱瞞比例從高到低的場(chǎng)景分別為社交互動(dòng)(70%)、創(chuàng)意寫(xiě)作(52%)、學(xué)術(shù)寫(xiě)作和學(xué)校作業(yè)(均為50%)、工作任務(wù)(46%)等。而且,用戶的個(gè)體差異,如性別、年齡、受教育程度等對(duì)隱瞞意圖沒(méi)有顯著影響。也就是說(shuō),用戶對(duì)于隱瞞使用大模型的情況具有較高的一致性。[7]

貶低現(xiàn)象。個(gè)人的勤奮與努力通常被認(rèn)為是應(yīng)該得到鼓勵(lì)和表?yè)P(yáng)的優(yōu)良品質(zhì)或美德,依賴機(jī)器則可能被認(rèn)為是偷懶行為或能力不足的表現(xiàn)。因此,社會(huì)公眾對(duì)使用人工智能的認(rèn)知評(píng)價(jià)存在一種“社會(huì)評(píng)價(jià)懲罰”(social evaluation penalty)現(xiàn)象。對(duì)大量社會(huì)公眾的在線調(diào)研結(jié)果顯示,人工智能的使用者和評(píng)價(jià)者,都不同程度存在對(duì)人工智能的使用進(jìn)行貶低的情況。從用戶的角度看,他們相信如果使用人工智能工具,會(huì)被其他人認(rèn)為是“更懶、能力更低”。從評(píng)價(jià)者的角度看,他們傾向于認(rèn)為人工智能用戶比未使用的其他人員“能力更差、勤奮程度更低、獨(dú)立性更低、自信心更低”,而且這種評(píng)價(jià)與其年齡、性別與職業(yè)等無(wú)關(guān),也就是說(shuō)這是一種較為普遍的社會(huì)現(xiàn)象。不過(guò),這種現(xiàn)象在不同的使用場(chǎng)景中存在差異,與評(píng)價(jià)者自身應(yīng)用人工智能的情況亦存在密切聯(lián)系。在人們傾向于認(rèn)為人工智能有用的任務(wù)中,使用人工智能是懶惰現(xiàn)象的認(rèn)知評(píng)價(jià)并不顯著。如果評(píng)價(jià)者經(jīng)常使用人工智能,則他們不會(huì)歧視人工智能的用戶。[8]

人們通常認(rèn)為文學(xué)藝術(shù)領(lǐng)域的創(chuàng)作需要豐富的情感與較高的創(chuàng)造力,而目前人工智能技術(shù)在這些方面尚不能跟人類相媲美,因而存在對(duì)人工智能創(chuàng)作產(chǎn)品進(jìn)行貶低的“標(biāo)簽效應(yīng)”(labeling effect)。事實(shí)上,目前人工智能在文學(xué)藝術(shù)創(chuàng)作方面已經(jīng)表現(xiàn)出較高水平。調(diào)研表明,非專業(yè)人士在判別某些詩(shī)歌是由人工智能生成,還是由人類詩(shī)人所撰寫(xiě)時(shí),準(zhǔn)確率僅為46.6%,低于隨機(jī)猜測(cè),也就是非專業(yè)人士根本無(wú)法判別二者的差異。此外,當(dāng)人們被告知某首詩(shī)是由人工智能生成時(shí),他們對(duì)其的整體評(píng)分會(huì)顯著下降,相反,當(dāng)被告知是人類詩(shī)人創(chuàng)作時(shí),評(píng)分則顯著上升。也就是說(shuō),人們可能會(huì)根據(jù)作者身份標(biāo)簽重新調(diào)整自己對(duì)詩(shī)歌質(zhì)量的判斷,存在“標(biāo)簽效應(yīng)”。[9]與此類似,公眾和專業(yè)人士對(duì)人工智能生成音樂(lè)存在一定偏見(jiàn)。當(dāng)被告知音樂(lè)由人工智能創(chuàng)作時(shí),評(píng)價(jià)往往更低;反之,若故意將其標(biāo)注為人類創(chuàng)作,則評(píng)價(jià)更高。[10]

指責(zé)與懷疑現(xiàn)象。這種現(xiàn)象在學(xué)術(shù)界表現(xiàn)得較為普遍,無(wú)論是社會(huì)公眾,還是學(xué)校師生,不少人都將使用生成式人工智能與抄襲、作弊等不當(dāng)行為相提并論。2022年底ChatGPT的發(fā)布,引發(fā)高等教育界對(duì)學(xué)術(shù)誠(chéng)信的普遍憂慮。對(duì)澳大利亞、新西蘭、美國(guó)和英國(guó)媒體的100篇新聞報(bào)道內(nèi)容進(jìn)行分析的結(jié)果顯示,有88篇提及對(duì)學(xué)術(shù)誠(chéng)信的擔(dān)憂,如擔(dān)心學(xué)生使用ChatGPT完成作業(yè)、代寫(xiě)論文等。媒體報(bào)道的內(nèi)容被“作弊焦慮”與學(xué)術(shù)誠(chéng)信擔(dān)憂所主導(dǎo),主要傾向于強(qiáng)調(diào)人工智能對(duì)學(xué)術(shù)誠(chéng)信的威脅,而較少提及其可能產(chǎn)生的積極效應(yīng)。[11]

生成式人工智能確實(shí)在全球高校中產(chǎn)生深刻影響。對(duì)QS排名前20的大學(xué)制定的生成式人工智能政策的研究表明,大多頂尖高校將生成式人工智能的使用,視為對(duì)學(xué)生作業(yè)原創(chuàng)性的威脅,把人工智能的輔助與“外包”或“代寫(xiě)”進(jìn)行類比,將其與抄襲等學(xué)術(shù)不端行為直接掛鉤。[12]生成式人工智能的普遍使用也影響教師的評(píng)分標(biāo)準(zhǔn)。對(duì)于某些學(xué)科和領(lǐng)域,僅憑教師個(gè)人的辨別力,較難區(qū)分什么樣的作業(yè)是學(xué)生獨(dú)立完成的,什么樣的是由人工智能生成或修改的。一些教師容易將學(xué)生獨(dú)立完成的作業(yè)誤判為人工智能生成的,反之亦然。此外,對(duì)于水平較高的作業(yè),教師可能會(huì)因?yàn)閼岩蓪W(xué)生的作業(yè)是由人工智能撰寫(xiě)或修改的,而降低對(duì)學(xué)生作業(yè)的評(píng)分。[13]

在藝術(shù)創(chuàng)作領(lǐng)域,有的學(xué)者直接將使用生成式人工智能視為剽竊行為。美國(guó)康奈爾大學(xué)的格茨(Trystan Goetze)認(rèn)為,利用人工智能生成圖像是一種剽竊行為,其本質(zhì)是對(duì)藝術(shù)家創(chuàng)作勞動(dòng)成果的大規(guī)模無(wú)償使用,違反知情同意、分配正義和尊重個(gè)人尊嚴(yán)的倫理原則,在道德上是不可以接受的。他還提出,如果這種論證成立的話,那么大量人工智能技術(shù)都需要海量數(shù)據(jù)進(jìn)行訓(xùn)練,由此很多科技公司基于未經(jīng)授權(quán)的數(shù)據(jù)建構(gòu)的生成式人工智能也應(yīng)該被視為剽竊行為。[14]

我們可以從人工智能用戶和評(píng)價(jià)者兩個(gè)角度來(lái)看待人工智能應(yīng)用的“恥感”。從用戶的角度看,他們擔(dān)心因?yàn)槭褂萌斯ぶ悄芄ぞ叨徽J(rèn)為是偷懶或能力不強(qiáng),以及出于對(duì)人工智能技術(shù)本身不足以被信任的擔(dān)憂等多種因素,傾向于隱瞞自己使用人工智能的情況。從評(píng)價(jià)者(當(dāng)然評(píng)價(jià)者本身也可能是用戶)的角度看,他們傾向于對(duì)人工智能生成的內(nèi)容給予偏向否定性、負(fù)面性的判斷,對(duì)使用人工智能的用戶存在一定程度上的輕視現(xiàn)象。而且,從語(yǔ)言表述上看,絕大多數(shù)相關(guān)文本使用的都是“我們”(we/us)、“許多”(many)、“大多數(shù)”(a majority of ),以及復(fù)數(shù)職業(yè)名詞等表示集體性的術(shù)語(yǔ),因此這種現(xiàn)象并非個(gè)例,而應(yīng)該被視為一種有一定普遍性的現(xiàn)象。

產(chǎn)生這種現(xiàn)象的原因是多方面的,既有人們對(duì)新興技術(shù)本能地排斥與不信任,也有對(duì)學(xué)術(shù)誠(chéng)信、工作替代等現(xiàn)實(shí)問(wèn)題的憂慮。需要強(qiáng)調(diào)的是,對(duì)某種新技術(shù)進(jìn)行否定、拒斥或貶低是一種普遍現(xiàn)象,歷史上此類案例不勝枚舉。比如,柏拉圖在《斐德羅篇》中提到,蘇格拉底對(duì)書(shū)寫(xiě)進(jìn)行貶斥,他說(shuō):“如果有人學(xué)了這種技藝,就會(huì)在他們的靈魂中播下遺忘,因?yàn)樗麄冞@樣一來(lái)就會(huì)依賴寫(xiě)下來(lái)的東西,不再去努力練習(xí)記憶,因?yàn)樗麄兿嘈艜?shū)寫(xiě),借助外在的符號(hào)來(lái)回想。”[15]美國(guó)科技作家卡爾(Nicholas Carr)在《淺?。夯ヂ?lián)網(wǎng)如何毒化了我們的大腦》中指出,互聯(lián)網(wǎng)使我們逐漸喪失深度閱讀和深度思考的能力。他在書(shū)中的最后一句話如此寫(xiě)道:“我們?cè)絹?lái)越依靠計(jì)算機(jī)作為理解世界的媒介,在這一過(guò)程中,我們自己的智能黯然失色,最終淪為人工智能。”[16]

人工智能應(yīng)用“恥感”的倫理風(fēng)險(xiǎn)剖析

技術(shù)是一把雙刃劍,我們需要全面客觀地認(rèn)識(shí)其正反兩方面的影響。人工智能應(yīng)用中的“恥感”現(xiàn)象主要反映的是人工智能可能產(chǎn)生的負(fù)面影響,以及人們對(duì)其負(fù)面影響的普遍憂慮,由此可能產(chǎn)生的倫理風(fēng)險(xiǎn)主要有以下三個(gè)方面。

強(qiáng)化人工智能污名化,導(dǎo)致錯(cuò)誤的邊界工作。人工智能應(yīng)用中的“恥感”是對(duì)人工智能技術(shù)污名化的一種表現(xiàn)形式。一般而言,污名(stigma)表現(xiàn)為五個(gè)相互關(guān)聯(lián)的組成部分,即標(biāo)簽化(識(shí)別某些差異并進(jìn)行標(biāo)記)、刻板印象(將標(biāo)簽與某些負(fù)面屬性相關(guān)聯(lián))、隔離(將“我們”與“他們”進(jìn)行劃界)、地位喪失(使被貼標(biāo)簽者社會(huì)地位下降)、歧視(包括拒絕雇傭等個(gè)體歧視,以及資源分配不公等結(jié)構(gòu)性歧視)。[17]通過(guò)前文對(duì)人工智能應(yīng)用的“恥感”現(xiàn)象的論述,我們可以將其歸為人工智能污名化的范疇之內(nèi)。比如,上文的討論提及將使用人工智能工具視為作弊或欺騙,將使用人工智能與不使用人工智能的用戶區(qū)分開(kāi)來(lái),對(duì)使用人工智能的用戶進(jìn)行否定性的倫理批判,等等。

污名化的影響是多方面的,其中最重要的影響之一就是導(dǎo)致錯(cuò)誤的邊界工作(boundary work)。邊界工作原初的目標(biāo)是在科學(xué)與非科學(xué)之間進(jìn)行劃界。與經(jīng)典科學(xué)哲學(xué)的劃界研究不同,科學(xué)家通過(guò)意識(shí)形態(tài)策略構(gòu)建科學(xué)與非科學(xué)之間的界限,從而維護(hù)科學(xué)的權(quán)威性,爭(zhēng)取更多的學(xué)術(shù)資源并保護(hù)科學(xué)研究的自主性。比如,美國(guó)國(guó)家科學(xué)院通過(guò)區(qū)分“基礎(chǔ)研究”與“技術(shù)應(yīng)用”來(lái)保護(hù)科學(xué)研究的自主性,避免政府的過(guò)度干預(yù)。邊界工作不是固定不變的,而是靈活多樣的,其本質(zhì)是科學(xué)家為其職業(yè)利益服務(wù)的工具。[18]薩卡爾認(rèn)為,“人工智能羞恥”直接或間接地區(qū)分可接受與不可接受、合倫理與不合倫理的人工智能使用方式,也發(fā)揮著邊界工作的功能。[19]薩卡爾甚至把邊界工作看作是一種對(duì)抗,一方是擁有技術(shù)優(yōu)勢(shì)的科技公司,另一方是已經(jīng)或可能受到指控的人工智能用戶。比如,有的學(xué)生為了避免被指控使用人工智能作弊,將大部分時(shí)間用在調(diào)整作業(yè)的措辭方面,從而防止被檢測(cè)系統(tǒng)錯(cuò)誤地標(biāo)記。

“恥感”導(dǎo)致的邊界工作潛在地發(fā)揮著倫理規(guī)范的功能,在公共領(lǐng)域與私人場(chǎng)合均會(huì)對(duì)個(gè)人行為產(chǎn)生明顯的引導(dǎo)作用。對(duì)此研究頗深的威廉斯(Bernard Williams)認(rèn)為,雖然羞恥及其動(dòng)機(jī)總是以某種方式包含著一種涉及他者目光的觀念,只要存在一個(gè)想象中的他者目光,它便能在大多數(shù)場(chǎng)合發(fā)揮作用。這種內(nèi)在化的他者不僅是抽象化的,還是普遍化和理想化的,潛在地仍然是某人(somebody)而不是子虛烏有(nobody)。[20]也就是說(shuō),羞恥感對(duì)個(gè)人的行為會(huì)產(chǎn)生深刻的影響,它會(huì)作為一種導(dǎo)向性的力量,使人們竭力讓自己的行為符合某種標(biāo)準(zhǔn),以避免遭受批評(píng)或試圖贏得肯定與承認(rèn)。事實(shí)上,大量的實(shí)證研究亦證實(shí)這一點(diǎn)。一項(xiàng)針對(duì)美國(guó)黑人高中生的調(diào)研表明,人工智能應(yīng)用中的“恥感”對(duì)他們關(guān)于人工智能的認(rèn)知產(chǎn)生深刻影響。一名受訪者表示,大家對(duì)ChatGPT都不太認(rèn)可,因?yàn)槔蠋焸兘?jīng)常說(shuō)這是一種作弊工具,因此她從來(lái)就沒(méi)有用過(guò)這個(gè)工具。另一位受訪者也表示,雖然她的語(yǔ)言課程鼓勵(lì)學(xué)生使用人工智能來(lái)輔助學(xué)習(xí)外語(yǔ),但她仍然不愿意使用人工智能,因?yàn)樗龘?dān)心被錯(cuò)誤地指控為作弊。[21]

加大人工智能監(jiān)管難度,引發(fā)用戶心理焦慮。我們并不反對(duì)使用人工智能檢測(cè)技術(shù),但“恥感”可能會(huì)推動(dòng)檢測(cè)技術(shù)的誤用與濫用,進(jìn)而產(chǎn)生一系列負(fù)面影響。盡管技術(shù)進(jìn)步速度很快,但人工智能檢測(cè)工具仍難以應(yīng)對(duì)人類語(yǔ)言的多樣性與復(fù)雜性,導(dǎo)致錯(cuò)誤結(jié)果和偏見(jiàn)、歧視現(xiàn)象頻頻發(fā)生。比如,當(dāng)前主流GPT檢測(cè)器對(duì)非英語(yǔ)母語(yǔ)寫(xiě)作者存在顯著偏見(jiàn)。通過(guò)使用7款主流檢測(cè)器,對(duì)91篇中國(guó)考生托福作文與88篇美國(guó)八年級(jí)學(xué)生作文進(jìn)行人工智能生成內(nèi)容檢測(cè),結(jié)果表明61.3%的托福作文被判定為人工智能生成,而對(duì)美國(guó)學(xué)生作文的誤判率接近零。當(dāng)前的檢測(cè)器主要依賴文本復(fù)雜度(perplexity)判斷是否為人工智能生成,即作文可預(yù)測(cè)性越強(qiáng),越容易被標(biāo)記。非英語(yǔ)母語(yǔ)的寫(xiě)作模式由于詞匯和語(yǔ)法的多樣性較低,從而導(dǎo)致檢測(cè)系統(tǒng)誤判。但是,如果使用ChatGPT進(jìn)行潤(rùn)色,則會(huì)很大程度降低誤判比例。[22]據(jù)《中國(guó)青年報(bào)》報(bào)道,不少高校教師和學(xué)生親自寫(xiě)的論文被檢測(cè)系統(tǒng)判定為高“AI率”。還有網(wǎng)友將《滕王閣序》《岳陽(yáng)樓記》等名篇輸入檢測(cè)系統(tǒng),發(fā)現(xiàn)“AI率”超過(guò)50%,由此引發(fā)公眾對(duì)相關(guān)檢測(cè)工具準(zhǔn)確性和透明度的普遍質(zhì)疑。[23]

國(guó)內(nèi)外高校關(guān)于人工智能應(yīng)用的管理規(guī)定有利于規(guī)范人工智能的使用,但過(guò)度嚴(yán)格的要求也可能助長(zhǎng)學(xué)生的擔(dān)憂與焦慮情緒。對(duì)相關(guān)研究文獻(xiàn)的綜合性分析表明,高校中的學(xué)生關(guān)于人工智能的焦慮情緒普遍存在,且在一定范圍內(nèi)呈現(xiàn)上升趨勢(shì)。人工智能焦慮現(xiàn)象會(huì)降低學(xué)生的學(xué)習(xí)動(dòng)機(jī)和技術(shù)使用意愿,進(jìn)而阻礙人工智能技能的學(xué)習(xí)效果。[24]當(dāng)然,高校學(xué)生中的人工智能焦慮情況是由多方面因素引起的,“恥感”確實(shí)是其中之一。有學(xué)生由于懼怕使用人工智能所帶來(lái)的懲罰,在寫(xiě)作業(yè)時(shí)關(guān)閉所有人工智能工具。還有學(xué)生作業(yè)因在檢測(cè)平臺(tái)被檢測(cè)出高“AI率”,而受到學(xué)業(yè)延期的處罰。同時(shí),人工智能檢測(cè)可能導(dǎo)致人們刻意改變寫(xiě)作風(fēng)格,使作者對(duì)論文寫(xiě)作風(fēng)格產(chǎn)生一定的焦慮情緒。比如,對(duì)生物醫(yī)學(xué)文獻(xiàn)中詞匯使用情況的統(tǒng)計(jì)表明,大模型生成的內(nèi)容存在同質(zhì)化等特點(diǎn),特別是大模型偏好某些風(fēng)格的詞語(yǔ),如動(dòng)詞“delves”、形容詞“crucial”。2024年,“Delves”的使用率增長(zhǎng)了28倍,雖然使用該詞的文章的絕對(duì)數(shù)量較少,但增長(zhǎng)倍數(shù)顯著;“Crucial”增長(zhǎng)了1.37倍,雖然相對(duì)倍數(shù)不高,但由于該詞使用頻率高,因此絕對(duì)增幅較為顯著。[25]因而,為了避免自己的論文被誤判為是大模型所寫(xiě),很多學(xué)者刻意在論文寫(xiě)作中回避使用這些詞語(yǔ)。

產(chǎn)生感知性傷害,影響人工智能技術(shù)信任與接受。“恥感”現(xiàn)象最直接的倫理風(fēng)險(xiǎn)之一是導(dǎo)致感知性傷害(perceptual harms),即當(dāng)他人感覺(jué)或懷疑用戶使用人工智能時(shí),對(duì)用戶所產(chǎn)生的傷害。也就是說(shuō),無(wú)論實(shí)際上是否使用了人工智能,只要有人懷疑你用了,就可能產(chǎn)生某些不公平對(duì)待。人工智能引發(fā)的傷害現(xiàn)象通常是在使用過(guò)程中或由人工智能輸出結(jié)果所導(dǎo)致的,但感知性傷害主要源于社會(huì)刻板認(rèn)知因素。對(duì)近千名美國(guó)成年人的在線調(diào)研表明,男性(42.2%)比女性(35.3%)更容易被懷疑使用人工智能,這可能是由于社會(huì)公眾通常認(rèn)為男性比女性更懂技術(shù);東亞裔(42.0%)比美國(guó)人(35.1%)被懷疑率更高,可能因?yàn)闁|亞裔被視作是技術(shù)型群體,同時(shí)英語(yǔ)不是其母語(yǔ)。[26]

包括感知性傷害在內(nèi)的各種因素影響公眾對(duì)人工智能的信任與接受。雖然人工智能發(fā)展突飛猛進(jìn),但社會(huì)公眾的認(rèn)知與技術(shù)發(fā)展之間并不協(xié)調(diào),甚至不少國(guó)家公眾對(duì)人工智能技術(shù)并不信任。對(duì)17個(gè)國(guó)家17000多名受訪者的調(diào)查表明,有39%的公眾表示愿意信任人工智能,只有33%的公眾樂(lè)于接受(high acceptance)人工智能,同時(shí)相較于西方國(guó)家,新興經(jīng)濟(jì)體(如巴西、印度、中國(guó)等)更加信任人工智能,接受度也更高。[27]人工智能技術(shù)接受理論研究表明,公眾的積極認(rèn)知態(tài)度,特別是公眾對(duì)人工智能的信任,是影響公眾對(duì)人工智能接受度的重要因素。主流媒體關(guān)于人工智能的報(bào)道,既是公眾社會(huì)技術(shù)想象(sociotechnical imaginaries)的外在表征,也會(huì)對(duì)公眾產(chǎn)生一定的影響。一定程度上,人工智能應(yīng)用中的“恥感”是導(dǎo)致社會(huì)公眾對(duì)人工智能的信任度和接受度不高的關(guān)鍵性因素之一。這使一些社會(huì)公眾對(duì)人工智能產(chǎn)生排斥態(tài)度和否定性認(rèn)知,自然不會(huì)選擇信任人工智能。

文化循環(huán)視角下的倫理治理策略

人們對(duì)人工智能的合理接受與應(yīng)用不僅是技術(shù)問(wèn)題,更主要的是社會(huì)文化變革的問(wèn)題。在人工智能時(shí)代,我們需要建構(gòu)一種與人工智能技術(shù)適配的智能文化。從智能文化的角度進(jìn)行倫理風(fēng)險(xiǎn)防范,具有更高的可行性與更強(qiáng)的針對(duì)性。[28]文化循環(huán)(culture cycle)理論可為我們理解文化沖突,促進(jìn)積極的文化變革提供一個(gè)富有參考意義的理論視角。文化循環(huán)理論將文化視為一個(gè)多層次、相互作用的動(dòng)態(tài)系統(tǒng),包括觀念(ideas)、制度(institutions)、互動(dòng)(interactions)、個(gè)體(individuals)四個(gè)層面,這四個(gè)層面相互依賴、相互影響。也就是說(shuō),社會(huì)文化形塑或引導(dǎo)人們的行為,而人們的行為又會(huì)強(qiáng)化與反映,或者質(zhì)疑與改變社會(huì)文化。[29]文化循環(huán)理論認(rèn)為,要促進(jìn)文化變革,需要對(duì)文化循環(huán)的每個(gè)層面進(jìn)行干預(yù),同時(shí)不同層面之間需要保持某種程度的一致性與協(xié)同性。因此,針對(duì)人工智能應(yīng)用中的“恥感”現(xiàn)象的倫理治理需要從以下四個(gè)層面展開(kāi)。

觀念層面:重視媒體在觀念傳播中的關(guān)鍵作用,積極消除人工智能的污名化。在消除人工智能污名化的過(guò)程中,媒體的作用至關(guān)重要。在傳播技術(shù)倫理的過(guò)程中,媒體可以發(fā)揮多重角色的功能,包括“啟蒙者”的“乘數(shù)效應(yīng)”作用、“斡旋者”在“游說(shuō)”與“辯論”中的中介作用,以及“協(xié)調(diào)者”的“平衡器”作用,這不但可以引導(dǎo)公眾全面客觀地認(rèn)識(shí)人工智能,還可以使公眾的意見(jiàn)受到關(guān)注并影響技術(shù)政策。[30]另外,當(dāng)前媒體圍繞人工智能技術(shù)傳播所建構(gòu)的形象是多方面的,其中最顯著的傾向是將人工智能擬人化。如果用戶只是把人工智能視為一種類似于個(gè)人電腦之類的工具,“恥感”現(xiàn)象的影響程度可能會(huì)在相當(dāng)程度上被弱化。也就是說(shuō),在“恥感”的深層預(yù)設(shè)中,普遍存在將人工智能擬人化的思想傾向。因此,在媒體宣傳中,需要有意識(shí)地弱化對(duì)人工智能的擬人論傾向。擬人論指將人類的精神、情感、動(dòng)機(jī)和行為等特性賦予非人對(duì)象的思想觀念。在目前的機(jī)器人文化中,存在大量的機(jī)器人擬人論意識(shí)形態(tài),帶有比較明顯的未來(lái)主義色彩和對(duì)未知技術(shù)的恐懼特征。擬人論固然有其優(yōu)勢(shì),如可以使人工智能倫理獲得更多的關(guān)注,但可能導(dǎo)致其偏于激進(jìn)并脫離現(xiàn)實(shí),進(jìn)而引發(fā)倫理判斷的混亂與道德界限的模糊。[31]大量心理學(xué)研究表明,當(dāng)計(jì)算機(jī)或人工智能系統(tǒng)被設(shè)計(jì)得接近于人類時(shí),用戶就會(huì)傾向于以符合社會(huì)規(guī)范的方式與之進(jìn)行互動(dòng),也就是存在一定擬人化特點(diǎn),這會(huì)使用戶忽略人機(jī)差異。因此,在媒體宣傳中自覺(jué)弱化人工智能的擬人化特征,可以更好地幫助用戶利用人工智能的優(yōu)勢(shì),減少人工智能應(yīng)用中的“恥感”現(xiàn)象。

高等院校在文化創(chuàng)造與傳播中發(fā)揮著重要作用,因此高校是當(dāng)前人工智能應(yīng)用“恥感”倫理治理的重要場(chǎng)域。近年來(lái),高等教育領(lǐng)域圍繞人工智能的影響及其應(yīng)對(duì)策略發(fā)表了大量的研究論著,充分體現(xiàn)出學(xué)界對(duì)人工智能的高度重視。盡管人工智能應(yīng)用的“恥感”現(xiàn)象在教育領(lǐng)域較為普遍,但教育管理者與教師群體的思想觀念整體上還是頗為開(kāi)放與包容的,因此我們有理由對(duì)弱化學(xué)術(shù)領(lǐng)域的“恥感”現(xiàn)象持樂(lè)觀態(tài)度。比如,2023年,歐洲學(xué)術(shù)誠(chéng)信網(wǎng)絡(luò)(The European Network for Academic Integrity)發(fā)布了在教育領(lǐng)域中合倫理地應(yīng)用人工智能的建議,指出適當(dāng)?shù)厥褂萌斯ぶ悄苜Y源與工具,只是影響形式而不是內(nèi)容,通常是可以接受的。[32]當(dāng)然,我們也需要區(qū)分對(duì)人工智能的污名化與合理的批判質(zhì)疑。合理的批判至少需要有明確的對(duì)象、確鑿的事實(shí)與充分的依據(jù),而且應(yīng)當(dāng)就事論事,不夸大、不盲從。

制度層面:變革學(xué)術(shù)管理理念與模式,鼓勵(lì)負(fù)責(zé)任地使用人工智能。與其讓某些媒體或社會(huì)群體通過(guò)非正式的邊界工作來(lái)營(yíng)造人工智能應(yīng)用的“恥感”,從而在一定程度上阻礙人們合理使用人工智能,或者制定政策簡(jiǎn)單予以禁止,不如引導(dǎo)人們規(guī)范使用人工智能工具。ChatGPT剛發(fā)布之后不久,確實(shí)有一些高校明確禁止使用生成式人工智能工具,但后來(lái)基本上都取消了相關(guān)的禁令,改為通過(guò)相應(yīng)規(guī)則來(lái)規(guī)范師生使用。我們通過(guò)對(duì)國(guó)外著名高校的生成式人工智能倫理制度的統(tǒng)計(jì)研究發(fā)現(xiàn),大多數(shù)高校制定了較為完善的規(guī)范性制度。[33]

從人工智能學(xué)術(shù)共同體的角度看,專業(yè)團(tuán)體大都明確允許使用人工智能,同時(shí)也提出相應(yīng)的約束條件,鼓勵(lì)負(fù)責(zé)任地使用人工智能工具。美國(guó)計(jì)算機(jī)學(xué)會(huì)(Association for Computing Machinery, ACM)在其官網(wǎng)上公開(kāi)同意作者使用人工智能工具,但要求人工智能不能抄襲、歪曲或偽造學(xué)術(shù)研究成果,而且人工智能生成的成果要能夠總體上比較準(zhǔn)確地反映作者的基礎(chǔ)性工作和原創(chuàng)性貢獻(xiàn),同時(shí)作者應(yīng)對(duì)人工智能生成內(nèi)容的真實(shí)性和正確性負(fù)責(zé)。

眾所周知,透明性原則是人工智能倫理中的一個(gè)核心原則。不過(guò),通常的透明性原則是從技術(shù)角度,對(duì)研發(fā)人員提出的,而不是針對(duì)用戶而言的。有學(xué)者建議,為避免秘密使用人工智能的情況,應(yīng)當(dāng)將透明性原則拓展到用戶群體,要求用戶主動(dòng)披露人工智能使用情況。但是,用戶主動(dòng)披露顯然會(huì)加大暴露用戶個(gè)人弱點(diǎn)與隱私的風(fēng)險(xiǎn),從而可能進(jìn)一步強(qiáng)化“恥感”及其影響。同時(shí),也有學(xué)者建議加強(qiáng)過(guò)程性管理,通過(guò)人工智能使用日志等工具,展現(xiàn)用戶的使用情況。但是,這種管理模式或?qū)⑹褂脩舢a(chǎn)生被監(jiān)控的不適感,導(dǎo)致自主性削減。筆者研究認(rèn)為,歐洲學(xué)術(shù)誠(chéng)信網(wǎng)絡(luò)與美國(guó)計(jì)算機(jī)學(xué)會(huì)倡導(dǎo)的負(fù)責(zé)任使用人工智能的模式更為可取。對(duì)教育管理機(jī)構(gòu)而言,應(yīng)當(dāng)完善傳統(tǒng)的學(xué)術(shù)管理與評(píng)價(jià)模式,使其轉(zhuǎn)變?yōu)橐环N更為開(kāi)放、靈活、包容的模式,根據(jù)不同的學(xué)科、任務(wù)與工作場(chǎng)景,制定靈活的規(guī)章制度,明確規(guī)定學(xué)生與科研人員在何時(shí)以及如何使用各類人工智能工具,明確授權(quán)相關(guān)人員合理使用人工智能,不斷適應(yīng)快速變化的人工智能治理場(chǎng)景。[34]

互動(dòng)層面:為人-機(jī)協(xié)同方式提出更多的可行框架。當(dāng)前世界各國(guó)的人工智能政策主要聚焦如何促進(jìn)人工智能科技的健康發(fā)展與應(yīng)用,以及如何防范各類風(fēng)險(xiǎn)這兩個(gè)方面。對(duì)于個(gè)體應(yīng)該如何與人工智能互動(dòng),如何更好地適應(yīng)人工智能帶來(lái)的各種變化的重視程度,則應(yīng)進(jìn)一步增強(qiáng)。有學(xué)者認(rèn)為,傳統(tǒng)的人工智能設(shè)計(jì)是以算法或人工智能系統(tǒng)本身為中心,我們應(yīng)該倡導(dǎo)一種以人為本的人工智能(Human-Centered AI)設(shè)計(jì)思路,也就是將人類視為設(shè)計(jì)的核心。施奈德曼(Ben Shneiderman)將這種思路的重要意義與哥白尼革命相提并論,稱其為“第二次哥白尼革命”,認(rèn)為這種思路可以實(shí)現(xiàn)對(duì)人工智能的全新認(rèn)知。[35]不過(guò),隨著生成式人工智能的快速發(fā)展與廣泛應(yīng)用,越來(lái)越多的學(xué)者強(qiáng)調(diào)人機(jī)互補(bǔ)與人機(jī)協(xié)作,因此人工智能系統(tǒng)設(shè)計(jì)不僅要以人為本,還應(yīng)將人機(jī)交互置于核心地位。為更好地實(shí)現(xiàn)人機(jī)協(xié)同,僅在實(shí)驗(yàn)室內(nèi)進(jìn)行有限的研究是遠(yuǎn)遠(yuǎn)不夠的,需要在真實(shí)的應(yīng)用場(chǎng)景中獲取數(shù)據(jù),以保證人工智能系統(tǒng)的準(zhǔn)確性與可靠性。同時(shí),還應(yīng)更全面收集用戶體驗(yàn)與反饋信息,調(diào)整系統(tǒng)設(shè)計(jì)方案以促進(jìn)更和諧高效的人機(jī)互動(dòng)。

在學(xué)術(shù)研究中,為了更好地引導(dǎo)用戶使用生成式人工智能,我們需要轉(zhuǎn)變視角,從關(guān)注具有一定時(shí)效性的“人工智能能做什么與不能做什么”,轉(zhuǎn)向關(guān)注“我們?cè)试S它做什么”,而是否允許的依據(jù)之一就是學(xué)術(shù)研究中的學(xué)術(shù)質(zhì)量標(biāo)準(zhǔn)。為了平衡人工智能系統(tǒng)的實(shí)用性與學(xué)術(shù)嚴(yán)謹(jǐn)性,可以將學(xué)術(shù)質(zhì)量標(biāo)準(zhǔn)落實(shí)到學(xué)術(shù)研究的每一個(gè)具體步驟之中,詳細(xì)分析每一步使用人工智能的具體建議,由此可以在很大程度上保證負(fù)責(zé)任地使用人工智能。[36]需要強(qiáng)調(diào)的是,人類應(yīng)用人工智能的成就感,取決于人類是否認(rèn)為自己仍然是創(chuàng)作的主人。未來(lái)人機(jī)協(xié)同是大勢(shì)所趨,但不論人工智能多么強(qiáng)大,人類仍然需要把握主動(dòng)權(quán)與控制權(quán)。

個(gè)體層面:直面人工智能引發(fā)的創(chuàng)造性破壞,在應(yīng)用中提升人工智能素養(yǎng)。人工智能對(duì)人類社會(huì)的深刻影響,在一定程度上可以看作是一種“創(chuàng)造性破壞”(Creative Destruction)。創(chuàng)造性破壞是源于尼采(Friedrich Nietzsche)哲學(xué),并在熊彼特(Joseph Schumpeter)的理論中得到進(jìn)一步發(fā)展的概念。創(chuàng)造性破壞包括的核心原則有,創(chuàng)造與破壞不可分割,新的創(chuàng)造必須建立在舊事物的破壞之上;創(chuàng)造與破壞的對(duì)立面是停滯,而停滯會(huì)導(dǎo)致衰退;生命必須不斷戰(zhàn)勝自我,才能實(shí)現(xiàn)進(jìn)化和進(jìn)步,等等。[37]從創(chuàng)造性破壞概念的角度看,“恥感”的克服與智能文化的建構(gòu)對(duì)某些群體或個(gè)體而言,可能是一個(gè)艱難甚至痛苦的過(guò)程。

就用戶個(gè)體層面而言,為了應(yīng)對(duì)人工智能引發(fā)的創(chuàng)造性破壞,國(guó)內(nèi)外學(xué)術(shù)界已就個(gè)體人工智能素養(yǎng)發(fā)表了頗為豐富的研究成果。狹義的人工智能素養(yǎng)通常指獲得、使用和評(píng)估人工智能的能力,而廣義的人工智能素養(yǎng)則包含在人工智能環(huán)境中用到的相關(guān)知識(shí)、技能以及倫理等要素的總和,涵蓋多個(gè)維度。[38]從本文的討論來(lái)看,我們應(yīng)該重視廣義人工智能素養(yǎng)的培養(yǎng),從人工智能意識(shí)、知識(shí)、能力與倫理等多個(gè)維度完善人工智能素養(yǎng)的核心要素,使個(gè)體更好地適應(yīng)智能文化的需求。需要強(qiáng)調(diào)的是,我們應(yīng)當(dāng)重視在現(xiàn)實(shí)人工智能應(yīng)用場(chǎng)景中提升用戶的人工智能素養(yǎng)。大量的實(shí)證研究表明,公眾的態(tài)度具有較強(qiáng)的可塑性,當(dāng)他們?cè)趪L試使用人工智能工具并獲得良好的體驗(yàn)后,會(huì)發(fā)現(xiàn)人工智能可以成為學(xué)習(xí)與工作的好助手,而不是用來(lái)偷懶或作弊的工具,從而逐漸改變對(duì)人工智能的認(rèn)知。

結(jié)語(yǔ)

作為一種顛覆性技術(shù),人工智能與歷史上其他顛覆性技術(shù)一樣,社會(huì)公眾對(duì)其的理性認(rèn)知與接納可能需要經(jīng)歷較長(zhǎng)的過(guò)程,而且不同群體與個(gè)體之間存在較為顯著的差異。人工智能應(yīng)用中的“恥感”只是智能社會(huì)中紛繁復(fù)雜的現(xiàn)象之一。本文的目的不是要批判這種現(xiàn)象,事實(shí)上“恥感”現(xiàn)象有其積極價(jià)值,本文的目的是客觀描述這種現(xiàn)象,剖析其潛在的倫理風(fēng)險(xiǎn),并嘗試提出相應(yīng)的倫理治理策略。由此,既可以在一定程度上減弱甚至消除用戶使用人工智能的心理負(fù)擔(dān)與壓力,也有利于營(yíng)造一種更為積極合理的智能文化。我們相信,人工智能應(yīng)用“恥感”會(huì)隨著技術(shù)的日益成熟和更廣泛地使用,以及倫理治理與社會(huì)規(guī)制的日益完善而逐漸弱化。如果以后我們對(duì)待使用人工智能的態(tài)度,類似于當(dāng)前我們對(duì)待使用手機(jī)和電腦的態(tài)度,這種現(xiàn)象就會(huì)徹底消解,其倫理風(fēng)險(xiǎn)自然也就煙消云散了。

(本文系國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“人工智能倫理風(fēng)險(xiǎn)防范研究”的階段性成果,項(xiàng)目編號(hào):20&ZD041)

注釋

[1]《習(xí)近平向2025世界智能產(chǎn)業(yè)博覽會(huì)致賀信》,《人民日?qǐng)?bào)》,2025年9月6日,第1版。

[2][19]A. Sarkar, "AI Could Have Written This: Birth of a Classist Slur in Knowledge Work," CHI EA '25: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems, 621, 2025.

[3]L. Giray, "AI Shaming: The Silent Stigma Among Academic Writers and Researchers," Annals of Biomedical Engineering, 2024, 52.

[4]D. Seetharaman; M. Barnum, "There's a Tool to Catch Students Cheating With ChatGPT," 4 August 2024, The Wall Street Journal.

[5]Microsoft and Linkedln, "AI at Work Is Here. Now Comes the Hard Part," 2024 Work Trend Index Annual Report, 8 May 2024, https://www.microsoft.com/en-us/worklab/work-trend-index/ai-at-work-is-here-now-comes-the-hard-part?ocid=AIDN%2FA_TWITTER_oo_spl100005738933705.

[6]F. Draxler; A. Werner; F. Lehmann et al., "The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of AI-Generated Text But Self-Declare as Authors," ACM Transactions on Computer-Human Interaction, 2024, 31(2).

[7]Z. Zhang; C. Shen; B. Yao et al., "Secret Use of Large Language Model (LLM)," Proceedings of the ACM on Human-Computer Interaction, 2025, 9(2).

[8]J. Reif, "Evidence of a Social Evaluation Penalty for Using AI," Proceedings of the National Academy of Sciences, 2025, 122(19).

[9]B. Porter; E. Machery, "AI-Generated Poetry Is Indistinguishable from Human-Written Poetry and Is Rated More Favorably," Scientific Reports, 2024, 14 (1).

[10]A. Micalizzi, "Artificial Creativity. Perceptions and Prejudices on AI Music Production," Proceeding of Ninth International Congress on Information and Communication Technology, Singapore: Springer, 2024, pp. 481-491.

[11]M. Sullivan; A. Kelly; P. McLaughlan, "ChatGPT in Higher Education: Considerations for Academic Integrity and Student Learning," Journal of Applied Learning & Teaching, 2023, 6(1).

[12]J. Luo, "A Critical Review of GenAI Policies in Higher Education Assessment," Assessment & Evaluation in Higher Education, 2024, 49(5).

[13]A. Kofinas; C. Tsay; D. Pike, "The Impact of Generative AI on Academic Integrity of Authentic Assessments within A Higher Education Context," British Journal of Educational Technology, 31 March 2025, https://bera-journals.onlinelibrary.wiley.com/doi/10.1111/bjet.13585.

[14]T. Goetze, "AI Art Is Theft: Labour, Extraction, and Exploitation," Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency, 2024.

[15]《柏拉圖全集(第5卷)》,王曉朝譯,北京:人民出版社,2016年,第137頁(yè)。

[16]卡爾:《淺?。夯ヂ?lián)網(wǎng)如何毒化了我們的大腦》,劉純毅譯,北京:中信出版社,2010年,第242頁(yè)。

[17]B. Link; J. Phelan, "Conceptualizing Stigma," Annual Review of Sociology, 2001, 27.

[18]T. Gieryn, "Boundary-Work and the Demarcation of Science from Non-Science: Strains and Interests in Professional Ideologies of Scientists," American Sociological Review, 1983, 48(6).

[20]威廉斯:《羞恥與必然性》,吳天岳譯,北京大學(xué)出版社,2014年,第90~94頁(yè)。

[21]T. Tanksley, "We're Changing the System with This One: Black Students Using Critical Race Algorithmic Literacies to Subvert and Survive AI-Mediated Racism in School," English Teaching: Practice and Critique, 2024, 23(1).

[22]W. Liang; M. Yuksekgonul; Y. Mao et al., "GPT Detectors Are Biased Against Non-Native English Writers," Patterns, 2023, 4(7).

[23]鄒竣麒、劉胤:《論文AI率檢測(cè)如何避免“誤傷”》,《中國(guó)青年報(bào)》,2025年5月17日,第1版。

[24]X. Wu; H. Li, "A Systematic Review of AI Anxiety in Education," AI and Ethics, 23 July 2025, https://link.springer.com/article/10.1007/s43681-025-00783-9.

[25]D. Kobak; R. Gonz'alez-M'arquez; E. Horvát et al., "Delving into LLM-assisted Writing in Biomedical Publications Through Excess Vocabulary," Science Advances, 2025, 11(27).

[26]K. Kadoma; D. Metaxa and M. Naaman, "Generative AI and Perceptual Harms: Who's Suspected of Using LLMs?" Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, 2025, pp. 1-17.

[27]N. Gillespie; S. Lockey; C. Curtis et al., Trust Artificial Intelligence: A Global Study, Brisbane: The University of Queensland, 2023, https://www.aiunplugged.io/wp-content/uploads/2023/10/Trust-in-Artificial-Intelligence.pdf.

[28]杜嚴(yán)勇:《智能社會(huì)建構(gòu)中的算法文化:本質(zhì)特征、倫理風(fēng)險(xiǎn)及其規(guī)避路徑》,《同濟(jì)大學(xué)學(xué)報(bào)(社科版)》,2023年第1期。

[29]M. Hamedani; H. Markus, "Understanding Culture Clashes and Catalyzing Change: A Culture Cycle Approach," Frontiers in Psychology, 2019, 10.

[30]朱雪熙、王國(guó)豫:《德國(guó)媒體在技術(shù)倫理傳播中的作用:以人工智能倫理傳播為例》,《科學(xué)與社會(huì)》,2022年第4期。

[31]劉永謀、白英慧:《機(jī)器人倫理學(xué)的擬人論基礎(chǔ)》,《中國(guó)社會(huì)科學(xué)院大學(xué)學(xué)報(bào)》,2025年第6期。

[32]T. Foltynek; S. Bjelobaba; I. Glendinning et al., "ENAI Recommendations on the Ethical Use of Artificial Intelligence in Education," International Journal for Educational Integrity, 2023, 19(1).

[33]呂宇靜、杜嚴(yán)勇:《國(guó)外著名高校生成式人工智能倫理政策研究》,《中國(guó)礦業(yè)大學(xué)學(xué)報(bào)(社科版)》,2025年第4期。

[34]王伯魯、史少春:《人工智能價(jià)值對(duì)齊困難及其實(shí)現(xiàn)路徑探析》,《國(guó)家治理》,2025年第3期。

[35]B. Shneiderman, "Human-Centered Artificial Intelligence: Three Fresh Ideas," AIS Transactions on Human-Computer Interaction, 2020, 12(3).

[36]F. Tingelhoff; M. Brugger; J. Leimeister, "A Guide for Structured Literature Reviews in Business Research: The State-of-the-art and How to Integrate Generative AI," Journal of Information Technology, 2025, 40(1).

[37]H. Reinert; E. Reinert, "Creative Destruction in Economics: Nietzsche, Sombart, Schumpeter," J. Backhaus; W. Drechsler (eds.), Friedrich Nietzsche (1844-1900): Economy and Society, Berlin: Springer, 2006, pp. 55-85.

[38]趙益民、彭雪琴、寸國(guó)美:《人工智能素養(yǎng)的內(nèi)涵、結(jié)構(gòu)和評(píng)價(jià)體系》,《圖書(shū)情報(bào)工作》,2025年第13期。

責(zé) 編∕方進(jìn)一 美 編∕梁麗琛

Analysis of "Sense of Shame" Phenomenon in Artificial Intelligence Applications and Ethical Risks

Du Yanyong

Abstract: Currently, artificial intelligence technology is rapidly developing and widely applied. While most people positively evaluate artificial intelligence, a concerning social phenomenon has emerged: some individuals tend to conceal, reject, or belittle AI applications, while also making negative judgments about AI users, creating a sense of shame around AI adoption. This may reinforce the stigmatization of AI, trigger psychological anxiety among users, and potentially undermine public trust and acceptance of AI technology in the long term. To address this, ethical governance can be implemented across four dimensions: conceptual, institutional, interactive, and individual. At the conceptual level, the critical role of media in disseminating ideas should be emphasized; at the institutional level, academic management concepts and models should be reformed to encourage the responsible use of AI; at the interaction level, more feasible frameworks for human-machine collaboration should be proposed; at the individual level, we must confront the creative destruction triggered by AI, enhance AI literacy through application, and thereby foster a more positive and rational intelligent culture.

Keywords: artificial intelligence, "sense of shame" phenomenon, ethical governance, intelligent culture

[責(zé)任編輯:方進(jìn)一]