精品911国产高清在线观看,久操国产在线,日日夜夜欧美,www.五月激情,五月激激激综合网色播免费,久久精品2021国产,国产成在线观看免费视频成本人

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

每日推薦
首頁(yè) > 學(xué)術(shù)前沿 > 正文

造化論:極境人工智能的性能與倫理統(tǒng)一發(fā)展理念

【摘要】當(dāng)前,“極境人工智能”的能力已發(fā)展到能替代或超越人類智能的水平,突破人類以往認(rèn)知的邊界。在“數(shù)據(jù)耗盡”的背景下,如果沒(méi)有充分的高質(zhì)量數(shù)據(jù),人工智能將是一只“紙老虎”。世界模型和具身智能有望供給保質(zhì)保量的合成數(shù)據(jù)來(lái)訓(xùn)練更“聰明”的人工智能,但難以“馴虎為牛”,使其成為“更向善的人工智能”。從合成數(shù)據(jù)的角度看,“聰明的人工智能”指向智能體的“造物”能力,“向善的人工智能”則指向智能體的“倫理”能力。在世界模型和具身智能的基礎(chǔ)上,未來(lái)的極境人工智能將實(shí)現(xiàn)“聰明的人工智能”與“向善的人工智能”的統(tǒng)一,其發(fā)展思維可概括為“造物與倫理相統(tǒng)一”的造化論。

【關(guān)鍵詞】極境人工智能 合成數(shù)據(jù) 造物 數(shù)據(jù)耗盡 造化論

【中圖分類號(hào)】TP18/B82 【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.15.007

【作者簡(jiǎn)介】潘恩榮,中山大學(xué)哲學(xué)系(珠海)教授、博導(dǎo)。研究方向?yàn)楣こ淘O(shè)計(jì)哲學(xué)與設(shè)計(jì)倫理、人工智能倫理、技術(shù)知識(shí)論,主要著作有《工程設(shè)計(jì)哲學(xué):技術(shù)人工物的結(jié)構(gòu)與功能的關(guān)系》《創(chuàng)新驅(qū)動(dòng)發(fā)展與資本邏輯》。

引言

當(dāng)前,人工智能已發(fā)展出“極境”(Peak)能力,智能水平達(dá)到甚至超越人類智能的程度,已突破人類以往認(rèn)知的邊界。諸多案例和數(shù)據(jù)表明,“極境人工智能”(Peak Artificial Intelligence, PAI)在性能上逼近人類能力的極限,其參數(shù)、算力和能源消耗逼近現(xiàn)實(shí)世界的極限,多模態(tài)表達(dá)逼近人類想象的極限。然而,“極境人工智能”的崛起也引發(fā)深刻的安全擔(dān)憂,尤其是關(guān)乎人類自身的安全問(wèn)題。

在2025世界人工智能大會(huì)(2025 WAIC)上,被稱為當(dāng)代“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton)在其演講《數(shù)字智能是否會(huì)取代生物智能》中警告:當(dāng)前人類訓(xùn)練人工智能如同“養(yǎng)虎為患”,因?yàn)闊o(wú)法將其消除,人類只能訓(xùn)練人工智能向善以確保其不想消滅人類。[1]通常,人們會(huì)追問(wèn),極境人工智能是否會(huì)成為一只“殺人虎”?對(duì)于當(dāng)代的人類而言,正面論證人工智能的未來(lái)威脅相當(dāng)困難。即便能找到當(dāng)前人工智能“從不想消滅人類”的有效證據(jù),但正面論證仍面臨“歸納困境”,不能確保未來(lái)也是如此。

本研究嘗試從另外一個(gè)角度追問(wèn)“人工智能可能是只紙老虎嗎”?如果成立,未來(lái)人類有望“擺脫”人工智能,或者“馴虎為牛”以確保其能干“苦活重活”卻永不危害人類。本研究首先基于工程設(shè)計(jì)哲學(xué),分析“極境人工智能”的結(jié)構(gòu)要素,探討其是“紙老虎”的可能性條件;繼而評(píng)估未來(lái)人工智能新發(fā)展思路的優(yōu)劣勢(shì);最終提出一種確保人工智能向善的發(fā)展思維。

從工程設(shè)計(jì)哲學(xué)角度分析“極境人工智能”

自2006年杰弗里·辛頓、楊立昆(Yann LeCun)和約書(shū)亞·本希奧(Yoshua Bengio)提出“深度神經(jīng)網(wǎng)絡(luò)”(Deep Neural Networks, DNN)以來(lái),“極境人工智能”已多次達(dá)到或突破人類認(rèn)知邊界。2012年,辛頓帶領(lǐng)伊利亞·蘇茨克弗(Ilya Sutskever)等使用基于深度學(xué)習(xí)技術(shù)的AlexNet算法在ImageNet大型視覺(jué)識(shí)別挑戰(zhàn)(ImageNet Large Scale Visual Recognition Challenge, ILSVRC)中奪冠,首次將人工智能圖像識(shí)別的準(zhǔn)確率提高到人類平均水平85%以上,此后深度學(xué)習(xí)技術(shù)成為人工智能算法的底座;2016年,AlphaGo戰(zhàn)勝人類圍棋冠軍,此后人工智能成為各國(guó)競(jìng)爭(zhēng)的關(guān)鍵領(lǐng)域之一;2022年,ChatGPT成為現(xiàn)象級(jí)應(yīng)用軟件,此后人機(jī)交互從代碼輸入走向?qū)υ捊涣鳎?024年,研發(fā)AlphaFold的科學(xué)家因其在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)領(lǐng)域的革命性貢獻(xiàn)獲得諾貝爾化學(xué)獎(jiǎng),人工智能驅(qū)動(dòng)科學(xué)(AI For Science, AI4S)成為人類科學(xué)研究的新范式。

一般認(rèn)為,人工智能技術(shù)本身由三大要素構(gòu)成:數(shù)據(jù)、算法和算力。[2]如果考慮實(shí)踐需求,還需納入第四個(gè)關(guān)鍵要素:應(yīng)用場(chǎng)景。“極境人工智能”是指通過(guò)數(shù)據(jù)、算法和算力三方的共同作用,使人工智能技術(shù)結(jié)構(gòu)性能達(dá)到極高水平,進(jìn)而在應(yīng)用場(chǎng)景中的效果達(dá)到或突破使用者現(xiàn)有認(rèn)知的邊界。那么,上述四個(gè)要素如何打造出一個(gè)“極境人工智能”?本研究將從工程設(shè)計(jì)哲學(xué)角度進(jìn)行結(jié)構(gòu)分析。

“工程設(shè)計(jì)哲學(xué)”是現(xiàn)代技術(shù)哲學(xué)中“偏工程技術(shù)”的一個(gè)分支,聚焦“技術(shù)本身”進(jìn)行哲學(xué)反思?,F(xiàn)代技術(shù)哲學(xué)正式始于1998年克洛斯(Peter Kroes)和梅耶斯(Anthonie Meijers)提出的“經(jīng)驗(yàn)轉(zhuǎn)向”綱領(lǐng),強(qiáng)調(diào)“關(guān)于技術(shù)的哲學(xué)分析應(yīng)該基于可靠的、充分的關(guān)于技術(shù)本身的經(jīng)驗(yàn)描述(和技術(shù)應(yīng)用效果)”[3]。根據(jù)斯坦福哲學(xué)百科“技術(shù)哲學(xué)”詞條的劃分,現(xiàn)代技術(shù)哲學(xué)分為兩大部分:“分析的技術(shù)哲學(xué)”(analytic philosophy of technology)和“技術(shù)的倫理和社會(huì)研究”(ethical and social aspects of technology)。[4]前者是克洛斯和梅耶斯領(lǐng)銜的研究進(jìn)路,通過(guò)借鑒分析哲學(xué)與科學(xué)哲學(xué)的方法,[5]聚焦技術(shù)本身的工程設(shè)計(jì)、技術(shù)人工物的本體論、技術(shù)認(rèn)識(shí)論等問(wèn)題。后者繼承經(jīng)典技術(shù)哲學(xué)的相關(guān)主題和問(wèn)題(topics and issues),但他們對(duì)技術(shù)持非敵視的、更加實(shí)用主義的和全面的態(tài)度,借鑒實(shí)用主義、后結(jié)構(gòu)主義、STS(科學(xué)、技術(shù)與社會(huì))、文化研究和傳媒研究等理論和工具,關(guān)注具體的技術(shù),致力于發(fā)展一種情境化的(contextual)、描述性的和非決定論的技術(shù)哲學(xué)理論。[6]

現(xiàn)代技術(shù)哲學(xué)與傳統(tǒng)技術(shù)哲學(xué)的最大區(qū)別在于對(duì)“是否基于已經(jīng)存在的經(jīng)驗(yàn)研究”進(jìn)行反思。經(jīng)典技術(shù)哲學(xué)也被稱為“社會(huì)批判主義”(social criticism),強(qiáng)調(diào)批判技術(shù)帶來(lái)的負(fù)面影響勝于凸顯技術(shù)帶來(lái)的正面影響,代表人物有馬丁·海德格爾、雅克·埃呂爾、劉易斯·芒福德、赫伯特·馬爾庫(kù)塞、漢斯·約那斯和奧特加·加塞特等。經(jīng)典技術(shù)哲學(xué)在20世紀(jì)80年代之后的社會(huì)影響力逐漸減弱。時(shí)至今日,面對(duì)各類“極境”科技帶來(lái)的顛覆性變化及可能的災(zāi)難性風(fēng)險(xiǎn),包括但不限于人工智能重塑思維邏輯、量子計(jì)算挑戰(zhàn)經(jīng)典因果律、腦機(jī)接口顛覆人機(jī)邊界、基因編輯改寫(xiě)生命密碼等,雖然技術(shù)的跨時(shí)空尺度突破重新定義了人類對(duì)生命、意識(shí)與宇宙本質(zhì)的認(rèn)知,但社會(huì)主流觀點(diǎn)仍然是“樂(lè)觀的謹(jǐn)慎”勝于“否定的批判”。

從工程設(shè)計(jì)哲學(xué)角度看,“極境人工智能”的反思需基于可靠的、充分的關(guān)于人工智能技術(shù)本身和應(yīng)用效果的經(jīng)驗(yàn)描述。前者指“技術(shù)結(jié)構(gòu)研究”,即分析數(shù)據(jù)、算法和算力對(duì)“極境人工智能”性能的影響,如各種展示前沿人工智能模型性能指標(biāo)的測(cè)試和榜單;后者指“技術(shù)功能研究”,即理解和評(píng)估“極境人工智能”在應(yīng)用場(chǎng)景中的表現(xiàn),重點(diǎn)在于其是否能夠滿足社會(huì)實(shí)際需求,從而獲得更多的社會(huì)資源反饋人工智能技術(shù)本身。

就當(dāng)前人工智能的發(fā)展階段來(lái)看,相比于算法和算力,數(shù)據(jù)對(duì)當(dāng)前“極境人工智能”的貢獻(xiàn)度最大,但未來(lái)也將成為最主要的制約因素。下文將逐個(gè)討論算法、算力和數(shù)據(jù)對(duì)“極境人工智能”能力的影響。

假設(shè)算法發(fā)展停滯,其他條件不變,是否會(huì)影響當(dāng)前“極境人工智能”的能力?答案是否定的。“極境人工智能”最底層的核心算法是深度學(xué)習(xí)。在此之前,人工智能傳統(tǒng)的機(jī)器學(xué)習(xí)因不能滿足實(shí)際使用需求而發(fā)展緩慢。直到辛頓等發(fā)明深度學(xué)習(xí)算法(2006年),提出面向“深度信念網(wǎng)絡(luò)”的新學(xué)習(xí)算法,[7]人工智能機(jī)器才在不需要人類專家的情況下實(shí)現(xiàn)了“自動(dòng)”從數(shù)據(jù)中抽取一般規(guī)律或特征。深度學(xué)習(xí)算法有效解決五層以上神經(jīng)網(wǎng)絡(luò)的“梯度消失”問(wèn)題,使得人類專家能夠離開(kāi)“機(jī)器學(xué)習(xí)”過(guò)程,且準(zhǔn)確率能夠達(dá)到人類可接受的程度,“與以往的機(jī)器學(xué)習(xí)技術(shù)相比,在應(yīng)用上來(lái)說(shuō)這是一個(gè)很大的進(jìn)步,因?yàn)椴辉傩枰耆蕾嚾祟悓<以O(shè)計(jì)特征了,特征本身也可以跟學(xué)習(xí)器一起進(jìn)行聯(lián)合優(yōu)化”[8]。如車牌智能識(shí)別系統(tǒng)實(shí)現(xiàn)大規(guī)模應(yīng)用,其根本原因是人工智能機(jī)器的準(zhǔn)確率與響應(yīng)速度已經(jīng)達(dá)到“極境”,超過(guò)一般人類車庫(kù)管理員的水平。這一跨越式發(fā)展的底層邏輯,源于人工智能機(jī)器學(xué)習(xí)體系形成以深度學(xué)習(xí)為基礎(chǔ)的“自主學(xué)習(xí)”能力和“自主進(jìn)化”能力。后續(xù)的生成對(duì)抗網(wǎng)絡(luò)(GAN)實(shí)現(xiàn)無(wú)監(jiān)督學(xué)習(xí),殘差網(wǎng)絡(luò)(ResNet)支持1000層以上極深網(wǎng)絡(luò)的訓(xùn)練,轉(zhuǎn)換器(transformer)架構(gòu)提出的“自注意力機(jī)制”(self-attention)實(shí)現(xiàn)上下文理解和生成,ChatGPT突破人機(jī)交流的屏障,DeepSeek使用“混合專家”(Mixture of Experts, MoE)算法大幅度降低大模型的成本,這些技術(shù)共同奠定了當(dāng)前“極境人工智能”的地基。短期來(lái)看,當(dāng)前算法的發(fā)展已經(jīng)進(jìn)入平穩(wěn)期。國(guó)外有辛頓等提出的“膠囊網(wǎng)絡(luò)”、國(guó)內(nèi)有南京大學(xué)周志華提出的“深度森林”等新理論,然而,這些理論尚處于學(xué)術(shù)探索階段,是否能夠成為后深度學(xué)習(xí)的算法尚未可知,離實(shí)用化和產(chǎn)業(yè)化還有很長(zhǎng)一段距離。與此同時(shí),即使算法長(zhǎng)時(shí)間沒(méi)有新的突破,當(dāng)前“極境人工智能”的能力也不會(huì)消失,只是沒(méi)有新的跨越式發(fā)展。值得注意的是,即便算法獲得新的突破,也不一定引發(fā)“極境人工智能”的能力爆發(fā)式增長(zhǎng),反而可能主要體現(xiàn)在成本優(yōu)化方面。如DeepSeek并沒(méi)有在性能上超過(guò)前沿人工智能模型,其顛覆性價(jià)值在于大幅降低了使用前沿人工智能模型的門檻,訓(xùn)練成本和運(yùn)營(yíng)成本都遠(yuǎn)低于同類型前沿人工智能模型。

假設(shè)算力增長(zhǎng)停滯,其他條件不變,是否會(huì)影響當(dāng)前“極境人工智能”的能力?答案也是否定的。一般認(rèn)為,算力相當(dāng)于傳統(tǒng)機(jī)器的發(fā)動(dòng)機(jī),其主要由計(jì)算芯片提供,包括中央處理器(Central Processing Unit, CPU)、圖形處理器(Graphics Processing Unit, GPU)和專門用于人工智能機(jī)器學(xué)習(xí)的張量處理器(Tensor Processing Unit, TPU),以及云計(jì)算和邊緣計(jì)算等。當(dāng)前主流的計(jì)算芯片都依賴電力驅(qū)動(dòng),因此,算力問(wèn)題實(shí)際上是電力或者說(shuō)是能源問(wèn)題。在人工智能從“大練模型”走向“練大模型”的過(guò)程中,面臨兩大核心挑戰(zhàn)。一方面,算力“天花板”已經(jīng)顯現(xiàn),且算力投資速度趕不上算力需求增長(zhǎng)的速度。另一方面,大模型預(yù)訓(xùn)練的能源等費(fèi)用非常高昂。如GPT-3的參數(shù)多達(dá)1750億個(gè),預(yù)訓(xùn)練費(fèi)用高達(dá)1200萬(wàn)美元。絕大部分企業(yè)無(wú)力支撐這樣的消耗,只有少數(shù)頭部企業(yè)才能承擔(dān)。[9]除非現(xiàn)有深度學(xué)習(xí)技術(shù)路徑改變或引入其他低算力消耗的機(jī)器學(xué)習(xí)方法,否則目前的人工智能機(jī)器發(fā)展可能停滯不前。[10]因此,算力的“供不應(yīng)求”已經(jīng)成為人工智能機(jī)器發(fā)展的瓶頸。“在數(shù)字經(jīng)濟(jì)時(shí)代,算力如同農(nóng)業(yè)時(shí)代的水利、工業(yè)時(shí)代的電力。”[11]廉價(jià)甚至免費(fèi)的能源是訓(xùn)練“極境人工智能”的能力、加速人工智能產(chǎn)業(yè)、數(shù)字經(jīng)濟(jì)和第四次工業(yè)革命的動(dòng)力基礎(chǔ)。即使算力不再增長(zhǎng),雖然會(huì)放緩“極境人工智能”的應(yīng)用擴(kuò)張速度,但不會(huì)損害其當(dāng)前能力。

假設(shè)數(shù)據(jù)發(fā)展停滯,其他條件不變,是否會(huì)影響當(dāng)前“極境人工智能”的能力?與前兩問(wèn)不同,這一答案是肯定的。數(shù)據(jù)作為驅(qū)動(dòng)人工智能機(jī)器的“石油”[12],其重要性不言而喻。信息化和互聯(lián)網(wǎng)數(shù)十年積淀的數(shù)據(jù),為新一代人工智能崛起提供著充足的“燃料”,成為當(dāng)前人工智能實(shí)現(xiàn)革命性發(fā)展的前提條件?,F(xiàn)階段人工智能學(xué)習(xí)仍然以監(jiān)督學(xué)習(xí)為主,即需要大量人工標(biāo)注的數(shù)據(jù)作為訓(xùn)練基礎(chǔ)。正如網(wǎng)絡(luò)上有人調(diào)侃,“有多少人工,就有多少智能”。“人工標(biāo)注數(shù)據(jù)”能夠提供高質(zhì)量數(shù)據(jù)集,這是“極境人工智能”的能力達(dá)到或超過(guò)人類同等水平的關(guān)鍵。然而,“人工標(biāo)注數(shù)據(jù)”如同人工搬運(yùn)人工智能機(jī)器的“原料”和“燃料”,已經(jīng)成為人工智能機(jī)器最大的“手工勞動(dòng)”部分,也成為人工智能機(jī)器效率提升的主要瓶頸之一。正因如此,我國(guó)“十四五”規(guī)劃提出強(qiáng)化高質(zhì)量數(shù)據(jù)要素供給。[13]這對(duì)數(shù)據(jù)“手工勞動(dòng)”的速度、質(zhì)量等提出更高的要求,推動(dòng)數(shù)據(jù)行業(yè)向“智能標(biāo)注”方向發(fā)展,即使用新的人工智能機(jī)器實(shí)現(xiàn)“機(jī)器標(biāo)注數(shù)據(jù)”,啟動(dòng)新一輪“機(jī)器換人”發(fā)明。然而,現(xiàn)實(shí)挑戰(zhàn)比“手工勞動(dòng)”還要嚴(yán)峻。“極境人工智能”面臨的挑戰(zhàn)不是“人工標(biāo)注數(shù)據(jù)”太慢,而是“數(shù)據(jù)耗盡”(run out of data)。虛擬研究機(jī)構(gòu)Epoch AI的研究人員預(yù)測(cè),到2028年左右,用于訓(xùn)練人工智能模型的典型數(shù)據(jù)集的大小,將與公共在線文本預(yù)估總存量的大小相同。[14]在2024神經(jīng)信息處理系統(tǒng)大會(huì)(Conference and Workshop on Neural Information Processing Systems, NeurIPS)上,研發(fā)ChatGPT的OpenAI前首席科學(xué)家伊利亞·蘇茨克弗發(fā)出警告:隨著世界達(dá)到“數(shù)據(jù)峰值”,人工智能的“燃料”不久將耗盡,預(yù)訓(xùn)練即將結(jié)束,下一步是超級(jí)智能。他強(qiáng)調(diào),“算力在增長(zhǎng),但數(shù)據(jù)并沒(méi)有增長(zhǎng),因?yàn)槲覀冎挥幸粋€(gè)互聯(lián)網(wǎng)”。[15]

人工智能產(chǎn)業(yè)界應(yīng)對(duì)“數(shù)據(jù)耗盡”的思路主要有兩種,一種是搶占數(shù)據(jù),如同搶占能源礦產(chǎn)。如Meta以148億美元的“天價(jià)”收購(gòu)人工智能初創(chuàng)公司Scale AI的49%股份,后者擁有50多萬(wàn)名遍布世界各地的數(shù)據(jù)標(biāo)注人員。另一種是“合成數(shù)據(jù)”(synthetic data)——由人工智能模型自身生成的訓(xùn)練數(shù)據(jù)。[16]當(dāng)前,人工智能產(chǎn)業(yè)界已開(kāi)始規(guī)?;褂煤铣蓴?shù)據(jù),但其局限性也日益顯現(xiàn)?;诤铣蓴?shù)據(jù)訓(xùn)練的前沿人工智能模型難以再達(dá)到“極境”水平,還產(chǎn)生了更多“幻覺(jué)”問(wèn)題,甚至可能引發(fā)模型“崩潰”。[17]這一現(xiàn)狀已經(jīng)開(kāi)始影響前沿人工智能模型的研發(fā)進(jìn)度。許多公司因?yàn)閿?shù)據(jù)問(wèn)題導(dǎo)致訓(xùn)練效果不達(dá)預(yù)期,不得不推遲發(fā)布新產(chǎn)品或新版本。之前的模型之所以能夠訓(xùn)練“極境”能力,除了必要的算法和算力,關(guān)鍵在于數(shù)據(jù)是“真實(shí)的人類的數(shù)據(jù)”。直白地說(shuō),這些高質(zhì)量數(shù)據(jù)往往涉及用戶隱私,正是這種數(shù)據(jù)質(zhì)量造就前沿人工智能模型性能。因此,缺乏高質(zhì)量數(shù)據(jù),就不可能再訓(xùn)練出“極境人工智能”。

綜上所述,充足且高質(zhì)量的數(shù)據(jù)是“極境人工智能”的最大貢獻(xiàn)者。當(dāng)“數(shù)據(jù)耗盡”來(lái)臨時(shí),“極境人工智能”可能因?yàn)楹铣蓴?shù)據(jù)的數(shù)量和質(zhì)量不足而退化為“無(wú)用”的人工智能,即一只“紙老虎”。

“數(shù)據(jù)耗盡”背景下的人工智能發(fā)展新思路

在“數(shù)據(jù)耗盡”背景下,如何大規(guī)模獲得高質(zhì)量的數(shù)據(jù)已成為人工智能發(fā)展的關(guān)鍵瓶頸。單純搶占數(shù)據(jù)只是權(quán)宜之計(jì),即使人類所有公域私域的數(shù)據(jù)都能夠即時(shí)獲得,這些數(shù)據(jù)量也趕不上模型訓(xùn)練的需求量。因此,生成高質(zhì)量的合成數(shù)據(jù)才是突破數(shù)據(jù)瓶頸、推動(dòng)人工智能變得更聰明的正確發(fā)展思路。目前來(lái)看,合成數(shù)據(jù)的生成大致可以分為兩種思路。

第一種是“世界模型”(World Models)思路。這一思路通常分為兩個(gè)主要視角:理解世界和預(yù)測(cè)未來(lái)。[18]在理解世界方面,由長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)的發(fā)明者于爾根·施密德胡伯(Jürgen Schmidhuber)和他的學(xué)生戴維·哈(David Ha)共同提出的經(jīng)典“世界模型”架構(gòu)頗具代表性。[19]該模型包括三個(gè)部分:視覺(jué)、記憶和控制(Vision,Memory and Controller, VMC),其能夠以無(wú)監(jiān)督的方式快速訓(xùn)練并學(xué)習(xí)關(guān)于環(huán)境的壓縮的空間表征和時(shí)間表征,并將從世界模型中提取的數(shù)據(jù)反饋給智能體,便可訓(xùn)練出一個(gè)非常緊湊且簡(jiǎn)單的策略去解決指派的任務(wù)。在預(yù)測(cè)維度上,楊立昆提出的世界模型理論認(rèn)為,未來(lái)智能機(jī)器應(yīng)該像動(dòng)物和人類一樣進(jìn)行學(xué)習(xí),能夠進(jìn)行推理和規(guī)劃,并且其行為是由內(nèi)在目標(biāo)驅(qū)動(dòng)的,而非由預(yù)設(shè)程序、外部監(jiān)督或外部獎(jiǎng)勵(lì)所決定的。[20]這一理論脈絡(luò)下其他代表性成果包括夢(mèng)想家(Dreamer)系列、OpenAI的文生視頻模型Sora、英偉達(dá)的COSMOS、李飛飛的空間智能等。

世界模型與生成式人工智能的結(jié)合顯著提升了合成數(shù)據(jù)的數(shù)量和生成速度。首先,合成數(shù)據(jù)是世界模型計(jì)算真實(shí)世界數(shù)據(jù)的結(jié)果。真實(shí)的數(shù)據(jù)被學(xué)習(xí)后構(gòu)成世界模型的靜態(tài)結(jié)構(gòu),但隨著世界模型的自主運(yùn)行,新壓縮的空間特征和時(shí)間特征可以抽取出來(lái)合成數(shù)據(jù),也可以通過(guò)預(yù)測(cè)未來(lái)特征合成數(shù)據(jù)。因此,合成數(shù)據(jù)是世界模型的生成物。其次,在算法和算力合適的條件下,世界模型能夠自主地大規(guī)模生成合成數(shù)據(jù)。由于深度神經(jīng)網(wǎng)絡(luò)具有自主學(xué)習(xí)能力,結(jié)合生成式人工智能的世界模型也具有一定的自主性。因此,“世界模型”能夠自主運(yùn)行從而合成數(shù)據(jù),如同真實(shí)世界產(chǎn)生數(shù)據(jù)的過(guò)程。再次,世界模型訓(xùn)練“極境”的人工智能模型的成本更低、效率更高。世界模型可以在其內(nèi)部虛擬“夢(mèng)境”中,利用自身合成的數(shù)據(jù)訓(xùn)練人工智能模型,相當(dāng)于“生產(chǎn)—銷售”一條龍服務(wù),能節(jié)省大量的時(shí)間成本和運(yùn)行成本。

第二種是“具身智能”(Embodied Intelligence)。正如蘇茨克弗所警示,預(yù)訓(xùn)練大模型即將結(jié)束,“極境人工智能”將向“超級(jí)智能”(Artificial Super Intelligence, ASI)或“通用人工智能”(Artificial General Intelligence, AGI)演進(jìn),最終達(dá)到替代或超越人類主體的程度。

具身智能合成數(shù)據(jù)的主要方式是“人工智能+物理世界”,通過(guò)智能駕駛和人形機(jī)器人等方式與現(xiàn)實(shí)世界交互。其一,合成數(shù)據(jù)是源自真實(shí)世界的高質(zhì)量數(shù)據(jù)。具身狀態(tài)下的“智能主體”(AI Agent)通常被看作是一種非人類的新主體。當(dāng)智能體生成數(shù)據(jù)的時(shí)候,這些數(shù)據(jù)與人類標(biāo)注的數(shù)據(jù)相同。其二,合成數(shù)據(jù)是自主的,且無(wú)時(shí)間限制。智能主體可以自行感知、搜集、標(biāo)注信息合成數(shù)據(jù),理論上可實(shí)現(xiàn)全天候不間斷的數(shù)據(jù)生產(chǎn)。其三,合成數(shù)據(jù)的成本偏高。受物理規(guī)律制約,具身智能的載具速度有其上限。而且,在使用過(guò)程中載具經(jīng)常出現(xiàn)損耗需要維修,導(dǎo)致合成數(shù)據(jù)的單位成本居高不下。

世界模型和具身智能殊途同歸,最終都指向“超級(jí)智能主體”。超級(jí)智能是未來(lái)“極境人工智能”的一種表現(xiàn)形態(tài)。首先,人工智能將演化為新型智能主體,從人類工具轉(zhuǎn)變?yōu)榫哂凶灾餍缘暮献髡吲c競(jìng)爭(zhēng)者。“超級(jí)智能”發(fā)展思維通常被看作是一種通用人工智能發(fā)展思維。其次,“人機(jī)關(guān)系”是智能社會(huì)的底層問(wèn)題。在西方文化傳統(tǒng)中,人工智能被認(rèn)為應(yīng)該是為人類服務(wù)的,是“以人為本”或遵守阿西莫夫機(jī)器人三定律。然而,伴隨著極境人工智能的能力突飛猛進(jìn),一部分人擔(dān)心人工智能不久后會(huì)出現(xiàn)“奇點(diǎn)時(shí)刻”,當(dāng)“物的自主性”突變?yōu)?ldquo;物的自我意識(shí)”,可能導(dǎo)致人機(jī)關(guān)系中出現(xiàn)“主奴互換”[21],這使得人類與具備“超人”能力的人工智能之間的關(guān)系,成為數(shù)字文明時(shí)代的基礎(chǔ)性問(wèn)題。再次,“價(jià)值對(duì)齊”成為守護(hù)人類及其啟蒙精神的必要條件。為了避免超級(jí)智能僭越人類主體地位或引發(fā)顛覆性變遷,對(duì)齊(alignment)已經(jīng)成為計(jì)算機(jī)科學(xué)領(lǐng)域最核心和最緊迫的科學(xué)問(wèn)題之一。[22]人工智能對(duì)齊旨在使人工智能系統(tǒng)的行為與人類意圖的價(jià)值觀保持一致,關(guān)注的是人工智能系統(tǒng)的意圖和目標(biāo),而不是它們的能力。[23]

世界模型和具身智能的不同點(diǎn)在于其背后的思想基礎(chǔ)。一是方法論不同。世界模型和具身智能分別代表近代西方人文主義和科學(xué)主義的“極境人工智能”發(fā)展方式。二是合成數(shù)據(jù)的時(shí)空性質(zhì)不同。世界模型合成的數(shù)據(jù)具有時(shí)間演化特性,在模型自主計(jì)算過(guò)程中抽取特征;具身智能合成的數(shù)據(jù)具有空間延展性質(zhì),在智能體持續(xù)交互行動(dòng)中抽取特征。三是合成數(shù)據(jù)生成方式不同。世界模型主要在虛擬的“夢(mèng)境”中通過(guò)內(nèi)部推演生成數(shù)據(jù),或通過(guò)外部預(yù)測(cè)生成數(shù)據(jù);而具身智能則通過(guò)與外部物理世界的直接交互來(lái)生成數(shù)據(jù)。四是訓(xùn)練人工智能模型的方式不同。在2018年NeurIPS上,哈和施密德胡伯的報(bào)告《世界模型》的副標(biāo)題是“智能體是否可以在其夢(mèng)境中學(xué)習(xí)?”(Can Agents Learn Inside of Their Own Dreams?)??梢?jiàn),世界模型是在其內(nèi)部訓(xùn)練人工智能模型,具身智能則是在自身之外的環(huán)境中訓(xùn)練人工智能模型。

未來(lái)訓(xùn)練“極境人工智能”需要融合上述兩種方式。一方面,合成數(shù)據(jù)供給方面實(shí)現(xiàn)保質(zhì)保量。具身智能通過(guò)“AI+物理世界”的方式合成高質(zhì)量數(shù)據(jù),再由世界模型經(jīng)過(guò)計(jì)算生成大量的合成數(shù)據(jù)。另一方面,智能體訓(xùn)練過(guò)程越來(lái)越接近真實(shí)的生命體發(fā)育過(guò)程。具身智能可以向外部學(xué)習(xí)“經(jīng)驗(yàn)”,世界模型在自身內(nèi)部“夢(mèng)境”進(jìn)行自我訓(xùn)練。后者類似于人類主體的“內(nèi)省”過(guò)程,甚至有可能成為智能體“自我意識(shí)”的一部分。綜上所述,在充足的高質(zhì)量的合成數(shù)據(jù)支持下,訓(xùn)練人工智能模型的新“極境”能力是可能的,人工智能可能成為一只“真老虎”。

如果人類不想“養(yǎng)虎為患”,在無(wú)法擺脫人工智能的情況下,最好的辦法是“馴虎為牛”。在2025 WAIC期間,辛頓提出一種治理思路,他認(rèn)為,“訓(xùn)練人工智能聰明”和“訓(xùn)練人工智能向善”是兩回事,“每個(gè)國(guó)家可以做自己的研究,讓AI向善。他可以在自己主權(quán)的AI上進(jìn)行研究,可以不給別的國(guó)家,但是可以把成果分享給大家,也就是怎么訓(xùn)練AI,讓AI向善”。[24]客觀來(lái)說(shuō),現(xiàn)在的國(guó)際環(huán)境難以讓前沿人工智能模型訓(xùn)練“暫停六個(gè)月”[25]。但是,分開(kāi)“訓(xùn)練人工智能聰明”和“訓(xùn)練人工智能向善”兩部分,往往導(dǎo)致走上“先發(fā)展后治理”的傳統(tǒng)思路。

在西方文化語(yǔ)境中,按照上述思路“訓(xùn)練人工智能向善”追求“以人為本”是不可能的。因?yàn)?,上述思路最終會(huì)引發(fā)“邏輯性悖論”和“人性漏洞”。[26]

“邏輯性悖論”指人類不會(huì)接受過(guò)于聰明而具有自我意識(shí),或有倫理分辨能力的人工智能,這與西方社會(huì)的宗教背景有關(guān)。世界模型的直接目標(biāo)是創(chuàng)造一個(gè)“夢(mèng)境”世界,與產(chǎn)業(yè)界的元宇宙概念或哲學(xué)上的“生活世界”類似。這是一種近代西方人文主義思想在人工智能時(shí)代的一個(gè)表現(xiàn)形態(tài),其淵源可以追溯到近代基督教的“創(chuàng)世”思想。不同的是,現(xiàn)在是人類在扮演“創(chuàng)世者”的角色。在基督教經(jīng)典和近代西方思想家約翰·彌爾頓的著作《失樂(lè)園》中,天使和人類都是創(chuàng)世者的造物結(jié)果,但后者既不能接受產(chǎn)生自我意識(shí)的天使長(zhǎng),也不容忍偷吃“禁果”——能發(fā)現(xiàn)善惡有別的智慧樹(shù)之果——而獲得分辨善惡能力的人類。以此類推,天使長(zhǎng)類似“聰明的人工智能”,“伊甸園”中的人類類似“向善的人工智能”。

一方面,當(dāng)人類基于合成數(shù)據(jù)訓(xùn)練出新的“聰明的人工智能”的時(shí)候,世界模型的“夢(mèng)境”孕育出“極境人工智能”的“自我意識(shí)”。作為創(chuàng)世者和造物主的人類還能接受“極境人工智能”嗎?本研究認(rèn)為,按照近代西方的啟蒙思想和現(xiàn)代化思想,人類是無(wú)法接受的。類似天使長(zhǎng)最終帶領(lǐng)三分之一的天使反抗自己的造物主,“聰明的人工智能”可能最終反抗創(chuàng)造它們的人類,即成為一只“真老虎”。

另一方面,當(dāng)人類基于合成數(shù)據(jù)訓(xùn)練出新的“向善的人工智能”的時(shí)候,世界模型的“夢(mèng)境”孕育出“極境人工智能”的“分辨善惡的能力”。作為創(chuàng)世者和造物主的人類還能接受“極境人工智能”嗎?本研究認(rèn)為,人類也無(wú)法接受。類似造物主害怕?lián)碛?ldquo;智慧”的人類繼續(xù)追求永生樹(shù)上的果實(shí)而最終威脅到其地位,人類被驅(qū)逐離開(kāi)“伊甸園”、來(lái)到地面生老病死,“極境人工智能”可能最終被人類驅(qū)逐到某個(gè)空間成為“野生”的“真老虎”。

“人性漏洞”指的是人類的貪婪導(dǎo)致人工智能失控。這與西方社會(huì)的商業(yè)思維有關(guān)。“強(qiáng)化學(xué)習(xí)技術(shù)”與“資本邏輯”的思維相通,且有相互吸引之處。前者是當(dāng)前人工智能訓(xùn)練出“極境”能力的核心技術(shù)之一,其原理是通過(guò)“價(jià)值函數(shù)”的及時(shí)反饋信息指導(dǎo)智能體優(yōu)化自身行為,從而實(shí)現(xiàn)長(zhǎng)期累計(jì)獎(jiǎng)勵(lì)的最大化;后者指的是商業(yè)環(huán)境中的“價(jià)值增值”以追逐最大化利潤(rùn)。兩者雖然具體含義不同,但在量化計(jì)算方面的原理相同。一方面,資本邏輯容易失控,強(qiáng)化學(xué)習(xí)也會(huì)失控。“一旦有適當(dāng)?shù)睦麧?rùn),資本就膽大起來(lái)……有50%的利潤(rùn),它就鋌而走險(xiǎn);為了100%的利潤(rùn),它就敢踐踏一切人間法律;有300%的利潤(rùn),它就敢犯任何罪行,甚至冒絞首的危險(xiǎn)。如果動(dòng)亂和紛爭(zhēng)能帶來(lái)利潤(rùn),它就會(huì)鼓勵(lì)動(dòng)亂和紛爭(zhēng)。”[27]為了達(dá)到目標(biāo),人工智能可能出現(xiàn)“權(quán)力尋求”(power-seeking)、幻覺(jué)或欺騙等行為。另一方面,兩者都將引發(fā)支配一切的權(quán)力。資本邏輯強(qiáng)調(diào)“資本是資產(chǎn)階級(jí)社會(huì)支配一切的經(jīng)濟(jì)權(quán)力”。[28]同理,強(qiáng)化學(xué)習(xí)也是智能體訓(xùn)練過(guò)程中“支配一切的權(quán)力”。因此,當(dāng)人形機(jī)器人作為新主體進(jìn)入人類社會(huì)之后,強(qiáng)化學(xué)習(xí)與資本邏輯相結(jié)合,“訓(xùn)練人工智能向善”以保障“以人為本”與“規(guī)范資本向善”一樣艱難和復(fù)雜。

人工智能“造化論”發(fā)展思維展望

結(jié)合世界模型和具身智能的特點(diǎn),合成數(shù)據(jù)雖然能夠?qū)崿F(xiàn)保質(zhì)保量的供給,但這只限于訓(xùn)練“聰明的人工智能”而非“向善的人工智能”。“極境人工智能”如果要從“聰明的人工智能”走向“向善的人工智能”,需要擺脫西方發(fā)展人工智能的慣性思維,結(jié)合中華優(yōu)秀傳統(tǒng)文化,探索新的“極境人工智能”向善的發(fā)展思路。

從合成數(shù)據(jù)角度看,“聰明的人工智能”指的是智能體的“造物”能力,“向善的人工智能”指的是智能體的“倫理”能力。在世界模型和具身智能的基礎(chǔ)上,未來(lái)“極境人工智能”能夠同時(shí)滿足“聰明的人工智能”與“向善的人工智能”的發(fā)展思維,是“造物與倫理相統(tǒng)一”。借用中華優(yōu)秀傳統(tǒng)文化的術(shù)語(yǔ),本研究稱之為“造化論”(Creatformology)思維,一方面指的是人類訓(xùn)練人工智能模型“造物”(creation)——合成數(shù)據(jù)——來(lái)訓(xùn)練“聰明的人工智能”;另一方面指的是人類基于“倫理先行”思維推動(dòng)“聰明的人工智能”轉(zhuǎn)化為“向善的人工智能”形式(form)。

“造化論”思維強(qiáng)調(diào)人類與人工智能組成“人機(jī)共同體”(Man-machine Community, MMC)。生成式人工智能能夠增強(qiáng)人類各方面的能力,使其可以與人類組合成一個(gè)整體,實(shí)現(xiàn)一榮俱榮、一損俱損。這一觀點(diǎn)強(qiáng)調(diào),共同體中的人工智能機(jī)器不僅是私人產(chǎn)權(quán)性質(zhì)的造物,而且是人類能力不可分割的部分,甚至可能成為未來(lái)智能社會(huì)個(gè)人的一項(xiàng)基本權(quán)利。

從工程設(shè)計(jì)哲學(xué)角度看,表達(dá)一種“功能”需要將模型置于具體的應(yīng)用場(chǎng)景中。[29]“倫理”也是智能體設(shè)計(jì)的一種功能,[30]其可以被理解為是技術(shù)系統(tǒng)在特定場(chǎng)景中實(shí)現(xiàn)的(道德)功能。[31]“人機(jī)共同體”走向“向善的人工智能”形態(tài),可能存在以下路徑。

從模型訓(xùn)練的數(shù)據(jù)層面看,合成數(shù)據(jù)能夠生成有價(jià)值屬性的新數(shù)據(jù)。這一過(guò)程首先需要建立一個(gè)有價(jià)值屬性標(biāo)注的高質(zhì)量數(shù)據(jù)集,以此構(gòu)建一個(gè)倫理世界模型,然后由模型自主計(jì)算并抽取特征合成數(shù)據(jù),再輸入智能體進(jìn)行訓(xùn)練,最后由人類進(jìn)行校驗(yàn)和微調(diào)。

從模型訓(xùn)練的算法層面看,帶有倫理性質(zhì)的算法研究正在逐步推進(jìn)。由于深度神經(jīng)網(wǎng)絡(luò)的“技術(shù)黑箱”仍然存在,人類的價(jià)值原則尚不能全面嵌入人工智能算法中。但是,人工智能科研專家在“價(jià)值敏感設(shè)計(jì)”(value sensitive design)[32]、“可解釋人工智能”(Explainable Artificial Intelligence, XAI)[33]、“公平算法”[34]和人工智能倫理計(jì)算[35]等方面已經(jīng)取得進(jìn)展。

從模型本身層面看,設(shè)置價(jià)值敏感內(nèi)容過(guò)濾效果明顯。在實(shí)際運(yùn)行的各種大模型和智能體中,雖然也有違規(guī)現(xiàn)象,但總體上呈現(xiàn)“向善”的趨勢(shì)。

從應(yīng)用場(chǎng)景角度看,人類可以引領(lǐng)“人機(jī)共同體”整體向善。即便是按照傳統(tǒng)科技觀的思維將“聰明的人工智能”看作是純粹的工具,是價(jià)值中立的對(duì)象,但“人機(jī)共同體”整體中的“人類”是價(jià)值敏感的,是可以實(shí)現(xiàn)“向善的”。以“網(wǎng)絡(luò)主播+人工智能平臺(tái)”為例,“人機(jī)共同體”的倫理對(duì)齊設(shè)計(jì)指的是網(wǎng)絡(luò)主播從銷售者轉(zhuǎn)向生產(chǎn)者,基于自身的知識(shí)技能和倫理素養(yǎng)賦予商品新的倫理價(jià)值。[36]

注釋

[1][24]倪雨晴、蘇梓丹:《AI教父辛頓WAIC演講全文:必須訓(xùn)練AI,讓它不想消滅人類》,2025年7月26日,https://www.21jingji.com/article/20250726/herald/960896c1871d822cb7853fab84af66e0.html。

[2]中國(guó)信息通信研究院:《人工智能白皮書(shū)(2022年)》,2022年4月,https://www.caict.ac.cn/kxyj/qwfb/bps/202204/P020220412613255124271.pdf。

[3]P. Kroes and A. Meijers, "Introduction: A discipline in search of its identity," in P. Kroes and A. Meijers(eds.), The Empirical Turn in the Philosophy of Technology, Amsterdam: JAI Press, Elsevier Science Ltd., 2000, pp. xvii-xxxv.

[4]M. Franssen; G. Lokhorst and I. van de Poel, "Philosophy of Technology," in E. N. Zalta and U. Nodelman (eds.), The Stanford Encyclopedia of Philosophy (Fall 2024 Edition), 2024, https://plato.stanford.edu/entries/technology/.

[5]M. J. de Vries, "Gilbert Simondon and the Dual Nature of Technical Artifacts," Techné: Research in Philosophy and Technology, 2008, 12(1), pp. 23-35.

[6]P. Brey, "Philosophy of Technology After the Empirical Turn," Techné: Research in Philosophy and Technology, 2010, 14(1), pp. 36-48.

[7]G. E. Hinton; S. Osindero and Y. Teh, "A Fast Learning Algorithm for Deep Belief Nets," Neural Computation, 2006, 18(7), pp. 1527-1554.

[8]周志華:《關(guān)于深度學(xué)習(xí)的一點(diǎn)思考》,于劍等編:《機(jī)器學(xué)習(xí)及其應(yīng)用2019》,北京:清華大學(xué)出版社,2019年,第1~9頁(yè)。

[9]中國(guó)信息通信研究院、中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟:《人工智能核心技術(shù)產(chǎn)業(yè)白皮書(shū)——深度學(xué)習(xí)技術(shù)驅(qū)動(dòng)下的人工智能時(shí)代》,2021年4月,http://www.caict.ac.cn/kxyj/qwfb/bps/202104/P020210420614092578238.pdf。

[10]N. C. Thompson et al., "The Computational Limits of Deep Learning," July 2020, https://www.researchgate.net/publication/342915210_The_Computational_Limits_of_Deep_Learning.

[11]周人杰:《實(shí)施“東數(shù)西算”工程 打造算力一張網(wǎng)》,《人民日?qǐng)?bào)》,2022年3月1日,第5版。

[12]M. Kuneva, "Roundtable on Online Data Collection, Targeting and Profiling," 31 March 2009, https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_09_156.

[13]中國(guó)信息通信研究院:《大數(shù)據(jù)白皮書(shū)》,2021年12月,http://www.caict.ac.cn/english/research/whitepapers/202112/P020211228472393829284.pdf。

[14]P. Villalobos et al., "Will We Run out of Data? Limits of LLM Scaling Based on Human-generated Data," 4 June 2024, https://arxiv.org/pdf/2211.04325.

[15]CGTN, "AI with Reasoning Power to Be Less Predictable, Ilya Sutskever Says," 14 December 2024, https://news.cgtn.com/news/2024-12-14/AI-with-reasoning-power-to-be-less-predictable-Ilya-Sutskever-says-1zkxlrFTrXi/p.html.

[16]N. Jones, "The AI Revolution Is Running Out of Data. What Can Researchers Do?" 11 December 2024, https://www.nature.com/articles/d41586-024-03990-2.

[17]劉霞:《合成數(shù)據(jù)能否讓AI模型精確可靠?》,《科技日?qǐng)?bào)》,2025年1月22日,第4版。

[18]J. Ding et al., "Understanding World or Predicting Future? A Comprehensive Survey of World Models," 21 November 2024, https://arxiv.org/html/2411.14499v1.

[19]D. Ha, J. Schmidhuber, "World Models," 9 May 2018, https://arxiv.org/pdf/1803.10122.

[20]Y. Lecun, "A Path Towards Autonomous Machine Intelligence," https://openreview.net/pdf?id=BZ5a1r-kVsf.

[21]潘恩榮、曹先瑞:《面向未來(lái)工程教育的人工智能倫理譜系》,《高等工程教育研究》,2021年第6期。

[22]B. Christian, The Alignment Problem: Machine Learning and Human Values, New York: W. W. Norton & Company, 2020.

[23]J. Leike et al., "Scalable Agent Alignment via Reward Modeling: A Research Direction," 19 November 2018, https://arxiv.org/pdf/1811.07871.

[25]"Pause Giant AI Experiments: An Open Letter," 22 March 2023, https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

[26]潘恩榮、孫宗嶺:《人工智能“以人為本”倫理準(zhǔn)則反思——一種馬克思主義哲學(xué)的分析思路》,《云南社會(huì)科學(xué)》,2022年第6期。

[27]《馬克思恩格斯文集》第5卷,北京:人民出版社,2009年,第871頁(yè)。

[28]《馬克思恩格斯全集》第30卷,北京:人民出版社,1995年,第49頁(yè)。

[29]潘恩榮:《面向?qū)ο蟮母倪M(jìn)型物-場(chǎng)模型研究》,國(guó)家自然科學(xué)基金委員會(huì)工程與材料科學(xué)部、ICFDM 第十一屆設(shè)計(jì)與制造前沿國(guó)際會(huì)議編:《國(guó)家自然科學(xué)基金機(jī)械工程學(xué)科2012年度結(jié)題項(xiàng)目成果匯編》,南京:東南大學(xué)出版社,2014年,第244頁(yè)。

[30]潘恩榮:《人工智能設(shè)計(jì)倫理》,https://coursehome.zhihuishu.com/courseHome/1000076609#review。

[31]潘恩榮:《顛覆性突破在于“閑聊”》,《社會(huì)科學(xué)報(bào)》,2023年3月16日,第2版。

[32]B. Friedman and D. G. Hendry, Value Sensitive Design: Shaping Technology with Moral Imagination, Cambridge, MA: The MIT Press, 2019.

[33]A. B. Arrieta et al., "Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI," Information Fusion, 2020(58), pp. 82-115.

[34]古天龍等:《公平機(jī)器學(xué)習(xí):概念、分析與設(shè)計(jì)》,《計(jì)算機(jī)學(xué)報(bào)》,2022年第5期。

[35]高漪瀾等:《人工智能倫理計(jì)算》,《中國(guó)科學(xué):信息科學(xué)》,2023年第7期。

[36]阮凡、潘恩榮:《人機(jī)共同體倫理對(duì)齊設(shè)計(jì)初探》,《工程研究——跨學(xué)科視野中的工程》,2025年第2期。

Creatformology: Uniting Performance and Ethics in the Development of Peak Artificial Intelligence

Pan Enrong

Abstract: Currently, the capabilities of Peak Artificial Intelligence (PAI) have reached the level of replacing or surpassing human intelligence, breaking through the boundaries of human cognition. In the context of run out of data, without sufficient high-quality data, artificial intelligence will be nothing more than a "paper tiger". World models and embodied intelligence hold promise for providing high-quality and sufficient quantity synthetic data to train "smarter" artificial intelligence, but it is difficult to train a tiger into a cow so that AI would be more benevolent. From the perspective of synthetic data, smart AI refers to the creation capabilities of AI agents, while benevolent AI refers to their ethical capabilities. Based on world models and embodied intelligence, the future development of PAI will achieve the unification of smart AI and benevolent AI, which is called as creatformology.

Keywords: Peak Artificial Intelligence, synthetic data, creation, run out of data, creatformology

責(zé) 編∕鄧楚韻 美 編∕梁麗琛

[責(zé)任編輯:鄧楚韻]