孫杰
隨著生成式人工智能技術(shù)全面融入經(jīng)濟(jì)社會各領(lǐng)域,其輸出內(nèi)容可能偏離事實(shí)與邏輯的“幻覺”現(xiàn)象,正從單純的技術(shù)特性演變?yōu)椴蝗莺鲆暤姆娠L(fēng)險(xiǎn)源。國家“十五五”規(guī)劃明確要求“加強(qiáng)人工智能治理,完善相關(guān)法律法規(guī)”。習(xí)近平總書記指出,要把握人工智能發(fā)展趨勢和規(guī)律,加緊制定完善相關(guān)法律法規(guī)、政策制度、應(yīng)用規(guī)范、倫理準(zhǔn)則,構(gòu)建技術(shù)監(jiān)測、風(fēng)險(xiǎn)預(yù)警、應(yīng)急響應(yīng)體系,確保人工智能安全、可靠、可控。在此背景下,系統(tǒng)剖析“幻覺”可能觸發(fā)的刑事風(fēng)險(xiǎn),厘清傳統(tǒng)歸責(zé)原則面臨的困境,進(jìn)而構(gòu)建精準(zhǔn)、明晰的刑事責(zé)任分配框架,對統(tǒng)籌人工智能領(lǐng)域發(fā)展與安全具有緊迫的現(xiàn)實(shí)意義。
一、風(fēng)險(xiǎn)透視:生成式人工智能“幻覺”的刑事風(fēng)險(xiǎn)圖譜
生成式人工智能的“幻覺”,指模型生成看似合理但背離事實(shí)或邏輯的內(nèi)容。這一技術(shù)缺陷與特定意圖和場景結(jié)合,便可能對刑法所保護(hù)的法益構(gòu)成現(xiàn)實(shí)威脅。其刑事風(fēng)險(xiǎn)具體呈現(xiàn)于三大核心場景,且在各專業(yè)領(lǐng)域具有鮮明的危害形態(tài)。
一是作為犯罪工具的“惡意利用型”風(fēng)險(xiǎn)。行為人主動(dòng)利用“幻覺”特性,將其作為實(shí)施犯罪的高效工具。例如,在金融領(lǐng)域,可生成虛假的企業(yè)財(cái)報(bào)、審計(jì)意見或內(nèi)幕消息,用于證券詐騙或操縱市場;在司法領(lǐng)域,能編造逼真的證人證言、偽造鑒定意見或篡改裁判文書,嚴(yán)重妨害司法公正。此類行為主觀惡意明顯,完全符合詐騙、妨害作證、偽造公文等相關(guān)罪名構(gòu)成要件,技術(shù)淪為犯罪的“精準(zhǔn)推手”。
二是植根于研發(fā)環(huán)節(jié)的“定向?yàn)E用型”風(fēng)險(xiǎn)。此風(fēng)險(xiǎn)體現(xiàn)為研發(fā)行為本身惡意利用或塑造“幻覺”。例如,為特定商業(yè)競爭目的,通過數(shù)據(jù)投毒訓(xùn)練能系統(tǒng)性生成詆毀競爭對手產(chǎn)品或財(cái)務(wù)虛假信息的模型;或?yàn)榉欠怖?,研發(fā)能自動(dòng)生成虛假醫(yī)療診斷報(bào)告、偽造藥物療效數(shù)據(jù)的專用模型。此類研發(fā)旨在制造“以假亂真”的犯罪工具,其行為本身可能觸及破壞生產(chǎn)經(jīng)營、侵犯著作權(quán)等罪名,具有源頭違法性。
三是聚焦平臺管理的“失職不作為型”風(fēng)險(xiǎn)。生成式AI服務(wù)提供者若未履行法定安全義務(wù),其平臺可能因“幻覺”成為大規(guī)模危害的放大器。例如,在醫(yī)療健康領(lǐng)域,平臺若未對模型生成的診斷建議進(jìn)行必要審核與風(fēng)險(xiǎn)提示,導(dǎo)致錯(cuò)誤用藥建議被廣泛傳播,可能因嚴(yán)重后果追究其刑事責(zé)任;在交通運(yùn)輸領(lǐng)域,對用于路況分析或調(diào)度的模型產(chǎn)生的“幻覺”數(shù)據(jù)(如虛構(gòu)的擁堵或事故)未建立過濾機(jī)制,可能涉嫌危害公共安全。其歸責(zé)基礎(chǔ)在于對可預(yù)見的且具有控制力的風(fēng)險(xiǎn)未盡管理之責(zé)。
二、歸責(zé)困境:傳統(tǒng)刑法原則面對“幻覺”的結(jié)構(gòu)性挑戰(zhàn)
盡管風(fēng)險(xiǎn)已然清晰,但將傳統(tǒng)刑法歸責(zé)體系適用于“幻覺”引發(fā)的案件時(shí),卻面臨源于技術(shù)特性的結(jié)構(gòu)性挑戰(zhàn),主要體現(xiàn)在責(zé)任主體、主觀方面與因果關(guān)系的認(rèn)定上。
主體難定:責(zé)任主體多元與行為歸屬模糊。一項(xiàng)由“幻覺”導(dǎo)致的危害結(jié)果,其成因鏈涉及數(shù)據(jù)提供、算法設(shè)計(jì)、模型訓(xùn)練、服務(wù)運(yùn)營及終端使用等多個(gè)環(huán)節(jié)。在技術(shù)“黑箱”與協(xié)同作業(yè)模式下,難以清晰、唯一地將危害后果歸屬于某一特定主體的獨(dú)立“行為”,直接沖擊了刑法“罪責(zé)自負(fù)”原則,易導(dǎo)致責(zé)任鏈條斷裂與追責(zé)真空。
罪過難識:主觀罪過標(biāo)準(zhǔn)模糊與適用困境。刑事歸責(zé)以行為人存在故意或過失為前提。對于上游研發(fā)者,其目標(biāo)在于提升模型通用性能,對于下游不可預(yù)見的無數(shù)具體危害,難以認(rèn)定其具備刑法上的“預(yù)見可能性”與“避免可能性”。對于中游服務(wù)提供者,其主觀心態(tài)是“基于技術(shù)認(rèn)知的合理疏忽”還是“對明顯風(fēng)險(xiǎn)的放任”,界限難以厘清。傳統(tǒng)故意與過失理論植根于人類理性行為模式,難以直接適用于AI非意圖性、概率性的輸出過程。
因果難斷:因果關(guān)系鏈條復(fù)雜與判斷失準(zhǔn)。刑法要求危害行為與結(jié)果間存在直接、實(shí)質(zhì)的因果關(guān)系。在“幻覺”致害路徑中,從有偏數(shù)據(jù)輸入、缺陷算法運(yùn)算,到隨機(jī)性內(nèi)容生成,再到用戶的傳播擴(kuò)散,穿插著多重技術(shù)節(jié)點(diǎn)與人的意志介入。用戶的惡意誘導(dǎo)是否中斷了上游責(zé)任?模型的固有缺陷是危害發(fā)生的“條件”還是“原因”?這使得傳統(tǒng)“條件說”或“相當(dāng)因果關(guān)系說”的適用充滿不確定性,客觀歸責(zé)理論中的風(fēng)險(xiǎn)實(shí)現(xiàn)判斷也面臨技術(shù)黑箱的阻礙。
三、路徑構(gòu)建:邁向階梯式與精準(zhǔn)化的刑事責(zé)任分配框架
為應(yīng)對上述挑戰(zhàn),必須在堅(jiān)守罪刑法定、責(zé)任主義等基石原則下,構(gòu)建一個(gè)與各參與方實(shí)際角色、技術(shù)控制力及法定義務(wù)精準(zhǔn)匹配的階梯式、差異化刑事責(zé)任分配框架,實(shí)現(xiàn)打擊犯罪與保障創(chuàng)新的平衡。
第一,明確打擊核心:嚴(yán)懲利用“幻覺”的故意犯罪者。對于以實(shí)施犯罪為目的,故意利用或誘導(dǎo)AI生成違法內(nèi)容的使用者,應(yīng)作為刑事歸責(zé)的首要目標(biāo)。其行為模式清晰,主觀惡意明顯,社會危害直接,通過合理解釋適用現(xiàn)有罪名即可有效規(guī)制。這彰顯了“技術(shù)非無罪盾牌”的刑法立場,維護(hù)了刑法體系的穩(wěn)定性與適應(yīng)性。
第二,厘清平臺責(zé)任:以“技術(shù)可控性”與“合規(guī)期待”界定作為義務(wù)。對于生成式AI服務(wù)提供者,刑事責(zé)任的認(rèn)定應(yīng)嚴(yán)格以其對生成內(nèi)容的實(shí)際控制能力和法律法規(guī)設(shè)定的特定義務(wù)為基準(zhǔn),核心在于是否構(gòu)成“不作為犯”。義務(wù)具體化:將《生成式人工智能服務(wù)管理暫行辦法》等規(guī)范中的安全評估、內(nèi)容管理、風(fēng)險(xiǎn)提示等要求,轉(zhuǎn)化為判斷其是否履行“信息網(wǎng)絡(luò)安全管理義務(wù)”的客觀標(biāo)準(zhǔn)。過錯(cuò)層次化:區(qū)分“技術(shù)局限性”與“管理不作為”。對于已采取業(yè)界合理措施(如顯著風(fēng)險(xiǎn)提示、主流緩解技術(shù))仍難以避免的底層“幻覺”,應(yīng)排除刑事歸責(zé);對于未建立基本安全制度、對已知明顯違法模式放任不管、經(jīng)責(zé)令后拒不改正等情形,則應(yīng)結(jié)合后果審慎評估其不作為犯罪責(zé)任。
第三,限縮源頭責(zé)任:捍衛(wèi)技術(shù)中立與創(chuàng)新空間。對于基礎(chǔ)模型研發(fā)者,刑法應(yīng)保持最大限度的謙抑,聚焦于前述第二類風(fēng)險(xiǎn)中的惡意研發(fā)行為。即,只有當(dāng)有確鑿證據(jù)證明研發(fā)者故意通過數(shù)據(jù)、算法等手段,旨在制造或系統(tǒng)性利用模型的“幻覺”特性以實(shí)施特定犯罪(如制造誹謗工具、生成詐騙模板),其行為才可能進(jìn)入刑法規(guī)制的視野,視情況考慮是否構(gòu)成相關(guān)犯罪的預(yù)備或幫助犯。對于因技術(shù)探索中數(shù)據(jù)使用不當(dāng)引發(fā)的普通侵權(quán)風(fēng)險(xiǎn),應(yīng)主要通過民事、行政及行業(yè)自律渠道解決,避免刑事手段過度介入而扼殺技術(shù)創(chuàng)新的源頭活水。
生成式人工智能“幻覺”伴生的刑事風(fēng)險(xiǎn)現(xiàn)實(shí)而具體,但刑法的回應(yīng)貴在精準(zhǔn)與審慎。面對技術(shù)之復(fù)雜,法律應(yīng)秉持“最后手段”之定力,通過構(gòu)建權(quán)責(zé)清晰、分層遞進(jìn)的歸責(zé)體系,將規(guī)制鋒芒精準(zhǔn)指向懷有明確惡意的濫用者與嚴(yán)重失職的管理者,同時(shí)為技術(shù)創(chuàng)新劃出安全的法治空間。未來,亟需深化司法與技術(shù)的對話,構(gòu)建可審計(jì)、可解釋的技術(shù)治理支撐機(jī)制,為刑事歸責(zé)提供堅(jiān)實(shí)的事實(shí)根基。唯有如此,方能筑牢人工智能時(shí)代發(fā)展與安全的法治屏障,護(hù)航其在法治軌道上行穩(wěn)致遠(yuǎn)。
(作者系山東政法學(xué)院副教授,法學(xué)博士,本文系“山東省社科規(guī)劃專項(xiàng)課題”《生成式人工智能“幻覺”的刑事歸責(zé)困境及破解路徑研究》階段性成果)
編輯:霍悅