運用人工智慧提升研究生產力:培養識別力與概念清晰度
生成式人工智慧(Generative AI)現在已嵌入學術工作流程:Turnitin 報告其檢測器審查了超過兩億份學生論文,發現 11% 的文件在至少 20% 的文本中包含 AI 生成的語言,而 3% 的提交被標示為主要由 AI 生成。這種快速採用既代表機會,也帶來風險,因為研究者使用 AI 撰寫、摘要或起草參考文獻時可能產生問題。
對於學術作者與導師而言,核心問題不是 AI 是否能寫作,而是人類能否可靠地分辨有用的協助與誤導性輸出(包括虛構事實、不正確的引用、以及表面上合理的錯誤論證)。本文主張研究者必須發展兩項互補能力:識別力(對 AI 輸出進行批判性驗證)與概念清晰度(對研究構想的精確框架),並提出實用框架以在保留 AI 生產力優勢的同時,降低倫理、方法學與編輯層面的傷害。
AI的長處和短處
AI 工具能加速例行性工作。文獻發現助理與大型語言模型(LLM)能摘要論文、建議措辭、生成可讀的初稿,節省早期寫作時間,並協助非英語母語者更有效地溝通。供研究用途設計的服務與學術工具(例如在科學語料上訓練的工具)通常比通用聊天機器人生成更具領域適切性的用語。
然而,現代 LLM 也容易出現幻覺(hallucination),生成在語意上連貫但事實上不正確或捏造的內容。幻覺包括虛構的參考文獻、錯誤數據、或捏造的方法細節,且常以誇大的自信陳述。例子:
- 醫學類提示中的虛構引用:一項以 ChatGPT 回答 20 個醫學問題的實驗研究發現,在評估的 59 篇參考文獻中有 69% 是儘管看似合理,卻是捏造的,警告使用者在將引用用於稿件前應仔細核查。
- 引用幻覺分數(Reference hallucination score, RHS):一項在 JMIR 發表的研究提出並應用 RHS 於數個 AI 聊天機器人,發現引用信實度差異甚大;以領域為導向的工具(如 Elicit、SciSpace)在書目準確性方面明顯優於像 ChatGPT 與 Bing 這類通用聊天機器人。
- 檢測與對抗性規避:一項技術研究顯示,許多 AI 偵測方法可被刻意的編輯手段所規避,這說明僅靠檢測並不能成為負責任使用 AI 的唯一防護手段。
概念清晰可降低錯誤風險
清晰的概念框架——包括明確定義的研究問題、具體的操作性定義,以及透明的證據地圖——能使 AI 的使用更安全、更具生產力。當研究問題與納入標準精確時,AI 的輸出更容易被測試與修正。例如,以清楚定義的 PICO(Population、Intervention、Comparator、Outcome;族群、介入、比較、結果)結構提示 AI,或指定精確的引用格式,可減少歧義並降低虛構或不相關引用的機率。
概念清晰也有助於同行評審與可重現性。明確陳述假設、資料來源與分析選擇的稿件,讓審稿者容易檢查主張,也讓作者能將 AI 協助撰寫的文字與原始紀錄比對驗證。
識別力:科研作者的實用驗證步驟
每當 AI 生成內容涉及學術內容時,研究者必須採用驗證工作流程。以下基本檢查構成一種以驗證的方法:
- 確認來源:驗證 AI 提供的每一則引用,找到原始論文或 DOI,並確認作者、標題、期刊與年份。自動化檢查不能取代人工確認;研究顯示 LLM 生成的許多引用是不正確或捏造的。
- 交叉比對事實性主張:對於關鍵數字、方法或主張,應以原始文獻或原始資料集比對 AI 輸出,而非倚賴次級摘要。
- 使用專門的書目檢索工具:專為文獻發現設計的工具(某些學術聊天機器人與領域工具)在已發表的比較中顯示出比通用聊天機器人較低的引用幻覺率。生成引用時優先使用針對特定領域優化的服務。
- 追蹤 AI 使用與人工監督:記錄 AI 產出的內容、人為修改之處,以及最終文本如何被驗證。這與出版社政策規範一致,呼籲揭露與人工驗證。
提示語衛生:如何減少幻覺
審慎的提示語(prompting)可減少虛假輸出。研究者應:
- 要求可驗證的輸出:要求 DOI、PubMed ID 或精確引用,並指示模型在無法驗證時回答「我不知道」。
- 限制推測性綜述:避免要求模型在沒有明確證據支持下捏造文獻缺口或新數據的提示語。
- 採用迭代式提示並加入驗證步驟:先生成草稿段落,接著請模型列出來源;然後在將段落整合到稿件前驗證每一個來源。
- 偏好支援檢索增強(retrieval augmentation,RAG)或以策劃科學語料為索引的工具;此類模型比開放式 LLM 產生較少捏造引用。證據顯示,此類領域感知系統在引用忠實度上通常表現較佳。
維持作者身份、責任與透明度
主流學術出版社已制定明確規範:AI 不能被列為作者,因為它無法對準確性負責。研究者必須對內容保持問責,並依目標期刊政策在方法或致謝中揭露實質性的 AI 協助。英論閣的 Responsible AI Movement 強調揭露加上強制性人工驗證,作為研究作者的實務標準。
研究者簡明檢查清單
- 在使用 AI 前先定義研究問題與納入標準。
- 生成引用時使用領域專用的 AI 檢索工具。
- 驗證 AI 提供的每一則引用,對照原始來源。
- 在稿件資料中記錄 AI 使用與人工驗證步驟。
- 至少由一位主題專家審核並簽署事實性主張與引用的正確性。
結論與建議
生成式 AI 將持續是研究工具箱中的有用資源。要負責任地使用,研究者必須建立兩項能力:嚴謹的識別力以偵測並修正幻覺,以及堅實的概念清晰度以確保 AI 輸出與明確的研究目標一致。透過下列方式補強這些能力:(1) 選擇適合領域的工具,(2) 對每一項引用與事實性主張以原始來源進行驗證,(3) 記錄 AI 使用與人工監督,及 (4) 在 AI 協助起草前優先進行清晰的研究框架設定。
若您希望獲得更多協助,以便將上述原則真正融入研究流程,英論閣的Responsible AI Movement提供最佳實務指南與相關工具包,協助研究者安全、有效地使用 AI。

