<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:webfeeds="http://webfeeds.org/rss/1.0"><channel><title>verification on 林協霆醫師</title><link>/tags/verification/</link><description>林協霆醫師 (verification)</description><generator>Hugo -- gohugo.io</generator><language>zh-tw</language><image><url>https://htl.physician.tw/favicon-32x32.png</url><title>林協霆醫師</title><link>https://htl.physician.tw/</link><width>32</width><height>32</height></image><webfeeds:icon>https://htl.physician.tw/favicon-32x32.png</webfeeds:icon><webfeeds:logo>https://htl.physician.tw/android-chrome-512x512.png</webfeeds:logo><webfeeds:accentColor>5bbad5</webfeeds:accentColor><lastBuildDate>Fri, 17 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="/tags/verification/index.xml" rel="self" type="application/rss+xml"/><item><title>research-guardian-skill：以多閘自動驗證守護 AI 生成研究產出的品質</title><link>/blog/research-guardian-skill-2026-04-17/</link><pubDate>Fri, 17 Apr 2026 00:00:00 +0000</pubDate><guid>/blog/research-guardian-skill-2026-04-17/</guid><description>&lt;h2 id="introduction引言" >
&lt;div>
&lt;a href="#introduction%e5%bc%95%e8%a8%80">
#
&lt;/a>
Introduction（引言）
&lt;/div>
&lt;/h2>
&lt;p>當 LLM 大規模參與研究寫作後，研究產出（草稿、表格、引用、分析腳本）的品質保證成為新興問題：作者必須在 LLM 速度與學術嚴謹度之間維持平衡。手動審查每一個 AI 生成段落並不可行，研究界需要可程式化的「品質守護人」，在交付前對產出進行系統檢查。本 Skill 即扮演此一角色，將品質審查視為一連串可被自動執行的閘門。&lt;/p>
&lt;h2 id="methods方法" >
&lt;div>
&lt;a href="#methods%e6%96%b9%e6%b3%95">
#
&lt;/a>
Methods（方法）
&lt;/div>
&lt;/h2>
&lt;p>Skill 以 Python 撰寫，提供多閘驗證機制，可由 Claude 對話呼叫。每一閘對應一類常見品質問題：引用真實性（透過 PubMed／Crossref 比對）、統計合理性（檢查報告之 p 值與信賴區間是否內部一致）、結構規範（是否符合 IMRaD 或指引格式）、語氣中立度（避免過度斷言或宣傳語氣）。閘門皆設計為可獨立呼叫，使用者可依需求選擇全部執行或局部執行。&lt;/p>
&lt;p>設計上強調「拒絕分」而非「給分」：守護人並非評鑑作品優劣，而是擋住明顯的錯誤與過度表述。Skill 安裝以 &lt;code>npx skills add htlin222/research-guardian-skill&lt;/code> 完成，與其他作者撰寫工具（如 OpenEvidence、bestseller）可組合運用。&lt;/p>
&lt;h2 id="results結果" >
&lt;div>
&lt;a href="#results%e7%b5%90%e6%9e%9c">
#
&lt;/a>
Results（結果）
&lt;/div>
&lt;/h2>
&lt;p>研究產出在送交審稿前先經過多閘驗證，可大幅減少因引用錯誤、統計矛盾或語氣偏誤而被退稿的風險。對於以 LLM 加速研究寫作的團隊，此 Skill 提供了「自動化的編輯第二雙眼」，特別適合住院醫師、研究生等仍在學習學術規範的階段。&lt;/p>
&lt;h2 id="discussion討論" >
&lt;div>
&lt;a href="#discussion%e8%a8%8e%e8%ab%96">
#
&lt;/a>
Discussion（討論）
&lt;/div>
&lt;/h2>
&lt;p>本專案展現了一個重要趨勢：當生成端進入工業化階段，驗證端也需相應工業化。其貢獻在於提供可組合的品質閘門模組，使研究者能根據自身工作流彈性裝配。限制方面，閘門無法完全取代人工審查，特別是在創新性與洞見的判讀上；過度依賴自動化也可能導致研究者對自身產出的盲目信心。未來可擴充至特定學門的專屬閘門，並結合 LLM 的 chain-of-thought 提供更細緻的審查紀錄。&lt;/p>
&lt;h2 id="連結" >
&lt;div>
&lt;a href="#%e9%80%a3%e7%b5%90">
#
&lt;/a>
連結
&lt;/div>
&lt;/h2>
&lt;ul>
&lt;li>GitHub：&lt;a href="https://github.com/htlin222/research-guardian-skill">htlin222/research-guardian-skill&lt;/a>&lt;/li>
&lt;li>主要語言：Python&lt;/li>
&lt;li>最後更新：2026-04-17&lt;/li>
&lt;/ul></description></item></channel></rss>