隨著生成式人工智能技術的迅猛發展,AI工具已深度融入學術活動各個環節。調查數據顯示,近三成中國大學生將生成式人工智能用于論文寫作,88%的英國本科生在課程考核中使用過AI工具。值得注意的是,2023年以來,全球已有超過1萬篇學術論文因AI生成內容被撤稿。AI工具的出現在提升研究效率的同時,也給傳統學術誠信規范帶來了前所未有的挑戰。
長期以來,學術誠信建立在“明確貢獻”與“適當歸屬”兩大基礎上。無論是獨立研究還是合作項目,學術規范要求研究者清晰地標識各方貢獻,準確引用他人成果,并對自己聲明的工作負責。然而,AI的出現使這一傳統框架面臨根本性挑戰:AI生成內容處于人類獨創與工具輔助之間的灰色地帶,歸屬認定陷入困境;AI參與程度從簡單潤色到核心構思跨度極大,貢獻比例難以量化;特別是現有檢測技術對混合內容的識別準確率不足,技術監管遭遇瓶頸;傳統學術規范難以適應與解答AI使用邊界等新問題,導致學術評價體系面臨適應性危機。
面對這些挑戰,各國學術機構已開始探索應對之策。教育部發布《中小學生成式人工智能使用指南》,倡導“知情使用”與“明確邊界”原則;多所高校制定差異化規范,如文科論文AI內容不超20%、理工科不超40%;國際頂級期刊如《自然》《科學》明確AI使用原則,要求在方法部分聲明AI使用情況;各機構也在開發專業檢測工具并建立多層次審查體系,應對AI濫用風險。
本文旨在探討AI時代學術誠信的新內涵,分析典型案例的警示意義,并提出基于透明披露的學術誠信新范式,為構建健康、可持續的AI學術生態提供系統性思路。我們認為,AI時代的學術誠信不應停留在簡單的禁止或放任,而是需要構建一種同時鼓勵創新和維護學術誠信的新機制,這一機制的核心是透明披露和規范使用。
一、AI時代學術誠信的根本性挑戰與案例警示
AI技術給學術誠信帶來的挑戰不僅是技術層面的,更是概念和倫理層面的。首先,AI生成內容具有“半創造性”特征,處于人類獨創與機械輔助之間的模糊地帶。當研究者使用ChatGPT生成文獻綜述或提供研究框架時,這些內容既非完全原創,又不僅是工具輔助,傳統的引用與署名規范難以適用。這導致學術歸屬出現“主體缺位”——AI不具備作者資格,人類又非內容直接創造者,歸屬認定陷入困境。
其次,AI參與學術活動的程度從簡單文本潤色到核心思想構建跨度極大,且過程常不可見。研究者可能在構思、寫作、分析各環節使用AI,但貢獻比例難以量化:是按字數計算,還是基于思想原創性?更重要的是,AI參與常常改變思維路徑本身,使傳統基于“誰做了什么”的學術透明與學術貢獻機制失效。即使有研究者愿意聲明AI使用情況,也難以準確描述AI的實際貢獻。
同時,現有AI檢測技術面臨嚴重局限。例如,DetectGPT等檢測工具對純AI生成內容的識別準確率尚可,但對經人工修改的混合內容誤判率高達30%以上。更嚴峻的是,檢測與反檢測之間形成“軍備競賽”態勢——新型AI可通過“人類化改寫”輕易規避檢測,使技術監管面臨持續挑戰。這意味著,僅依靠技術手段很難確保學術誠信,必須尋求更綜合的解決方案。
這些挑戰不是理論推測,已有多起真實案例揭示了AI不當使用的嚴重后果。2024年2月,《Frontiers in Cell and Developmental Biology》期刊撤回一篇關于精原干細胞的論文,原因是其插圖由Midjourney生成且存在明顯錯誤——實驗大鼠被描繪有四個睪丸,標簽含生造詞匯。該論文發表僅三天即被撤稿,創下“最短命論文”紀錄。這一案例暴露了AI生成科學圖像的風險,以及同行評議對AI內容的審查漏洞。
同樣引人深思的是,2023年9月《Physica Scripta》撤回一篇物理學論文,成為首例因ChatGPT使用而撤稿的SCI論文。該論文被發現包含“Regenerate response”等ChatGPT特有提示詞,表明作者直接復制AI輸出而未審核修改。2024年7月,《Medicine》期刊撤回一篇關于堿性水治療痛風的論文,因其醫學插圖由AI生成且存在明顯錯誤,如手臂和小腿骨骼數量異常。
這些案例共同揭示了AI學術應用的三重風險:技術局限導致的事實錯誤、審核機制的系統性失效,以及學術誠信意識的普遍缺失。更值得注意的是,這些撤稿事件反映出不同學科對AI使用的敏感度差異。醫學研究因直接關系健康安全,對AI生成內容的容忍度最低;自然科學對數據準確性要求極高,也對AI生成圖表持謹慎態度;而人文社科則主要關注思想原創性。這種學科差異性暗示我們,AI使用規范不應一刀切,而需要差異化設計。
二、重構AI時代的學術誠信理念:從禁止到規范
在應對AI帶來的學術誠信挑戰方面,學術界已有多種嘗試。然而,從實施角度看,采取相對“一刀切”的路徑面臨三重挑戰:首先,隨著AI技術的發展,其參與學術研究的程度和方式將更加多樣化,很難用簡單的“核心/非核心”二分法界定;其次,當前文字類AI內容的檢測技術尚不完善,難以對混合內容進行準確判斷,規范的執行面臨技術瓶頸;最后,過于嚴格的禁止性規定可能導致研究者隱瞞AI使用情況,反而不利于學術透明。
面對AI帶來的挑戰,學術誠信理念需要進一步發展和擴展。如前所述,學術誠信一直建立在“明確貢獻”與“適當歸屬”兩大基礎上,但AI的出現使這些原則面臨新的實施挑戰。核心轉變不是拋棄這些原則,而是將其延伸至人機協作場景:從傳統的人類合作者之間的“明確貢獻”,擴展為包含AI在內的“透明協作”;從簡單的文獻“適當歸屬”,擴展為全方位的“過程披露”。
這一轉變將關注點從“是否使用AI”轉向“如何合理使用AI并明確披露”,承認AI作為一種特殊“協作者”的存在。這并非對學術誠信原則的顛覆,而是在新技術環境下對其的深化和具體化,使學術透明度的理念能夠適應人機協作的新模式。這一轉變基于對學術生產本質的理解——學術價值在于推動知識邊界與思維拓展,AI輔助可被納入創造過程,但必須遵循透明原則。
其次,學術規范需從“引用規范”到“協作規范”轉變。傳統引用規范基于文獻資料等靜態內容,而AI參與是一種動態協作。因此,需建立新型“協作規范”,明確AI與人類的責任邊界。這包括:明確操作過程、區分AI與人類的貢獻、驗證AI輸出、對結果負責。這種規范不再僅聚焦于“引用什么”,而是關注“與AI如何互動”的過程,它重新定義了學術創作的過程性特征。
同時,學術評價需從“結果評價”到“過程評價”轉型。傳統學術評價主要關注最終成果,但AI時代需要更重視研究全過程。這種轉變反映在要求研究者提交思路演變記錄、提示詞使用歷史、修改痕跡等過程性材料,強調思維過程而非僅看結果。這不僅有助于評估真實能力,也促進了對AI輔助過程的反思與優化,使學術創作更加自覺和透明。
基于以上理念重構,我們提出學術透明的四級框架,為AI使用設定差異化規范。資源級透明是指AI僅作為資料檢索與整理工具,類似傳統數據庫,此類使用需簡要聲明工具名稱;輔助級透明是指AI提供表達優化或結構建議,但不直接生成核心內容,需聲明優化范圍和人工判斷過程;共創級透明是指AI參與核心內容生成,但在人類主導下進行,需詳細記錄AI提示詞、生成內容及人工修改過程;主導級透明是指AI生成大部分內容,人類主要進行選擇與修正,在大多數學術場景應謹慎采用,若使用則需全面披露。
這一分級框架既承認AI在不同層次的合理使用,又為每一層次設定相應的透明義務,實現包容與規范的平衡。它打破了“用或不用”的二元對立,為研究者提供了清晰的行為指引,也為學術機構提供了差異化管理的基礎。
三、構建透明有效的AI使用披露機制:從理念到實踐
將學術誠信新理念轉化為實踐,核心在于建立標準化、可操作的AI使用披露機制。首先,我們建議在學術成果中引入標準化AI使用聲明,包含四大核心要素:基礎信息區明確使用的AI工具名稱、版本、功能類型;使用范圍區詳細說明AI在哪些環節、何種程度參與創作;貢獻度區對AI貢獻比例進行合理估算與說明;驗證說明區說明對AI輸出的驗證過程與人工修正情況。
標準化AI使用聲明應具備實用性與可操作性,可考慮設計不同場景的標準模板。例如,對于學術論文,可在方法部分設立“AI貢獻聲明”小節,包含四大要素:基礎信息區需明確使用的具體AI模型名稱、版本號和訪問日期,如“本研究采用ChatGPT-4o(2025年3月版)輔助完成部分內容分析”;使用范圍區應細化到具體章節或功能環節,如“AI用于文獻綜述初稿生成(第2章第1節)、數據可視化(圖3-5)和表達潤色(全文)”;貢獻度區可采用定量與定性相結合的方式,如“全文約25%內容由AI輔助生成,主要集中在背景介紹部分,核心分析與結論均由作者獨立完成”;驗證說明區則需說明驗證方法,如“所有AI生成內容均經人工核實并通過X數據庫交叉驗證”。
期刊和學術機構可將此模板直接納入投稿系統和論文模板中,作者只需按要求填寫相關內容即可,降低合規成本。實際操作中,這類聲明可通過AI使用日志自動生成,作者只需確認并必要時修改,進一步簡化流程。同時,為確保聲明準確性,可要求提交關鍵AI交互記錄作為附件,類似于實驗數據的存檔要求。
鑒于學科差異,AI使用披露機制應體現差異化原則。人文社科領域強調思想原創性,AI主要用于資料整理和表達優化,文科論文AI生成內容比例建議控制在20%以內,且核心論點必須由人類提出;理工科領域允許更廣泛的AI輔助,尤其在代碼開發、數據處理環節,AI比例可適當放寬至40%,但創新性方法、理論推導仍需人工主導;醫學健康領域對涉及醫療決策、健康建議的內容實施最嚴格限制,禁止AI生成臨床圖像、病例數據;藝術設計領域則需明確創意構思與技術實現的邊界,鼓勵AI在技術層面輔助,但創意概念應保持人類主導。
這些差異化標準應由各學科領域的專業學會制定細則,形成共識文件,再由期刊和學術機構根據自身特點調整采納。在實施初期,可先在部分期刊或會議試點,收集反饋后再逐步推廣,確保標準既有理論基礎,又具實踐可行性。
然而,僅有規范還不足以確保其能夠落地,還需要建立多層次協同的實施機制。在國家層面,教育、科技主管部門應制定基本原則和指導框架,明確AI使用的法律地位;在行業層面,學術期刊、學會組織需制定統一的AI使用披露標準,將透明度要求納入投稿指南;在機構層面,高校、科研院所應建立AI使用監管和審核機制,將學術透明納入內部治理體系;在學科層面,各學科應根據特點制定差異化實施細則,體現學科特性。
這一多層次機制的關鍵在于層層落實、責任到人,避免成為“空中樓閣”。具體實踐中,可采用從試點、評估到推廣的漸進式路徑,先在重點期刊、高校及研究機構試行,積累經驗后再全面推廣;同時建立反饋與調整機制,定期評估規范實施效果,根據技術發展和實踐反饋及時優化規則,確保機制既有原則性又有靈活性,能夠適應AI技術的快速演進。
同時,技術支撐不可或缺。應開發AI使用日志系統,幫助研究者記錄與AI的交互歷史;研發貢獻標識技術,自動標記內容來源;構建透明度驗證機制,確保披露信息的真實性。這些技術工具能大幅降低透明披露的操作成本,提高執行效率,使規范不至于成為研究者的額外負擔。
值得注意的是,透明機制的建立不應被視為對學術創新的限制,而應成為促進創新的積極力量。明確AI使用細節有助于提高研究的可復制性,這是科學創新的基礎條件;透明要求將推動更高效、更規范的AI使用方法研發,形成方法學創新;明確的人機協作規范為學術創新開辟新型研究范式,拓展知識生產的可能性。因此,透明披露機制不是給創新“設限”,而是為創新提供更可持續的框架。
四、技術與制度協同:AI內容標識的前沿進展
在構建透明披露機制的同時,AI生成內容標識技術也在快速發展,為透明披露提供堅實的技術支撐。2024年10月,谷歌DeepMind在《自然》雜志發表了一項關于AI文本水印的重要研究,這一技術進步為學術誠信問題提供了新的解決思路。他們開發的SynthID-Text能夠在AI生成文本的過程中嵌入不可見的“水印”,這一技術已經在Gemini聊天機器人上進行了大規模部署,服務數百萬用戶,被認為是首次在現實世界中規?;瘧玫奈谋舅〖夹g。
與圖像水印相比,文本水印面臨更大挑戰,因為單詞是唯一可以更改的變量,可調整空間有限。為解決這一問題,SynthID-Text引入了“Tournament采樣算法”,將水印整合到大語言模型文本的生成步驟中,以一種隱秘但有規律的方式標記模型選擇的詞語。該技術通過調整模型在生成過程中的概率分布,使得生成的內容具有某種統計特征,這種特征對人類讀者完全不可見,但可通過特定密鑰檢測。由于密鑰復雜性,試圖刪除、擦洗水印或偽造水印將變得極其困難。更重要的是,即使文本經過第二個語言模型解釋或部分修改,該水印仍可被檢測到,展現出較強的魯棒性,同時不會降低文本生成速度和質量。
這類水印技術為學術誠信提供了新的技術路徑。在學術環境中,水印技術可以與機構政策緊密結合,支持學術透明度。期刊與學術機構可以利用水印檢測技術在投稿審核階段自動識別AI生成內容,確保作者遵守聲明義務;對于已發表的學術內容,水印技術能夠幫助追溯內容的來源,確定是否由特定AI系統生成,為學術歸因提供技術依據;不同學科還可以根據特點調整水印強度,實現技術層面的差異化管理,如醫學和實驗科學領域可采用更嚴格的標準,而理論研究領域可采用更靈活的配置。
然而,技術與制度的協同仍面臨諸多挑戰。瑞士聯邦理工學院的研究表明,任何水印都可能被“擦洗”掉,甚至被用于欺詐,即將水印應用于人工創作的文本,給人一種AI生成的假象。此外,水印技術需要在模型生成階段嵌入,對于已經部署的開源模型難以追加實施;不同機構的水印標準不一,也可能導致檢測結果不一致,增加了學術機構采納這一技術的復雜性。
從長遠來看,AI內容標識需要技術與制度的雙重演進。一方面,需要不斷提升水印技術的魯棒性和適應性,使其能夠應對更復雜的使用場景和可能的對抗性攻擊;另一方面,需要完善相關法規,如今年9月1日起實施的《生成合成內容標識辦法》,推動建立行業共識。谷歌已將SynthID-Text開放給開發者,希望其他AI模型開發人員能夠接受并將水印與自己的系統集成,這種開放共享的態度有助于形成技術標準,為制度建設奠定基礎。
這種技術與制度的融合正是我們前文所提出的透明披露機制的重要支撐。透明披露機制需要依靠技術手段降低操作成本、提高可驗證性,而水印等技術則需要合理的制度設計來規范應用和解釋。只有二者相互配合,才能在保障學術創新活力的同時,維護學術生態的健康發展,確保AI技術在學術領域的良性應用。隨著技術的進步和制度的完善,我們有理由相信,AI時代的學術誠信問題將找到更加平衡和可持續的解決方案。
五、邁向人機協同的學術新生態
隨著AI技術持續進化,學術誠信治理需要更具前瞻性的思考。一方面,應從靜態規范轉向動態治理體系。動態治理體系比固定規則更能適應技術變革帶來的持續挑戰,是學術誠信長期可持續的關鍵。這意味著學術誠信治理應該建立覆蓋研究準備、實施、發布全流程的監管機制,將倫理考量納入AI技術設計與應用全過程,強化AI倫理素養教育,培養負責任使用的意識與能力。
另一方面,需要推動從規范到文化的轉變。再完善的規則也難以覆蓋所有情況,真正有效的學術誠信保障來自內化的學術文化。應將AI倫理納入學術培訓體系,強化對透明價值的認同,培養研究者的自覺意識。只有當透明披露成為學術共同體的普遍期望和自覺行為,而非被迫的合規要求,學術誠信才能真正適應AI時代的挑戰。
然而,AI時代學術誠信建設仍然面臨諸多挑戰。AI貢獻度的量化依然是一個難題,無論是基于字數、工作量還是思想原創性的計算方法都存在局限;差異化與統一性的平衡需要更多實踐探索,既要尊重學科特點,又要維持基本標準的一致性;技術檢測與人工判斷的結合方式仍在摸索中,需要平衡準確性、操作成本和隱私保護;從外部規范到內在文化的轉變也非一朝一夕,需要長期的價值引導和制度塑造。這些挑戰不是學術誠信建設的障礙,而是進一步深化研究和實踐的方向。
AI時代的學術誠信不應停留在傳統的禁止性規定,而應構建基于透明披露和規范使用的新范式。這一變革既是技術形態的升級,更是學術規范的巨大進步。透明披露機制作為核心環節,為學術活動從純人類智力勞動向人機協同模式的轉變提供了倫理基礎和實踐指南。在此基礎上,我們既能充分發揮AI的效率優勢,又能守護人類學術探索的獨特價值;既能促進知識生產的創新與高效,又能確保學術活動的透明與可信。學術誠信新范式的構建不是對創新的限制,而是對創新更可持續、更有價值的引領,它將成為推動人類知識體系健康發展的重要保障。
AI技術持續進步,學術誠信規范的建設之路也隨之鋪開。只有不斷反思、調整和完善,才能確保學術活動在技術變革中保持其核心價值和社會信任。這是學術共同體的集體責任,也是每個研究者的個人使命。(作者為復旦大學馬克思主義研究院人工智能倫理與意識形態安全創新團隊 劉清揚 李凌)