<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:webfeeds="http://webfeeds.org/rss/1.0"><channel><title>LLM on 林協霆醫師</title><link>/tags/llm/</link><description>林協霆醫師 (LLM)</description><generator>Hugo -- gohugo.io</generator><language>zh-tw</language><image><url>https://htl.physician.tw/favicon-32x32.png</url><title>林協霆醫師</title><link>https://htl.physician.tw/</link><width>32</width><height>32</height></image><webfeeds:icon>https://htl.physician.tw/favicon-32x32.png</webfeeds:icon><webfeeds:logo>https://htl.physician.tw/android-chrome-512x512.png</webfeeds:logo><webfeeds:accentColor>5bbad5</webfeeds:accentColor><lastBuildDate>Sat, 09 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>polish-prompt：以排程式 LLM 教師回顧每日英文寫作 Prompt 資料庫</title><link>/blog/polish-prompt-2026-05-09/</link><pubDate>Sat, 09 May 2026 00:00:00 +0000</pubDate><guid>/blog/polish-prompt-2026-05-09/</guid><description>&lt;h2 id="introduction引言" >
&lt;div>
&lt;a href="#introduction%e5%bc%95%e8%a8%80">
#
&lt;/a>
Introduction（引言）
&lt;/div>
&lt;/h2>
&lt;p>在 LLM 蓬勃發展之後，撰寫提示詞（prompt）已逐漸由臨時性指令演變為可被反覆檢視、版本管理與評估的「文本產出」。對於非英語母語的研究者而言，prompt 不僅是工具，更是英文寫作練習的高密度場域：每一句指令都需要在語法、語氣與精確度之間取得平衡。然而，多數使用者並不會回頭審視自己過去寫過的 prompt，因此錯誤的句式與不夠精煉的詞彙便不斷重複出現。&lt;code>polish-prompt&lt;/code> 即是為了解決這個盲點而設計的個人化專案。&lt;/p>
&lt;p>本專案的核心問題為：能否以最低耦合的 Shell 工具鏈，將個人累積的 prompt 視為一個小型「寫作語料庫」，並由 LLM 以英語寫作教師（English-writing teacher）的身分週期性地產出回顧報告，協助使用者察覺自身英語寫作的系統性缺陷與成長軌跡。&lt;/p>
&lt;h2 id="methods方法" >
&lt;div>
&lt;a href="#methods%e6%96%b9%e6%b3%95">
#
&lt;/a>
Methods（方法）
&lt;/div>
&lt;/h2>
&lt;p>系統採用以 Shell 為主要黏合劑的最小化架構：使用者每日於工作流中輸入的 prompt 透過 hooks 或排程任務寫入一個輕量資料庫（SQLite 或同等檔案型儲存），形成可被查詢的歷史紀錄。每小時排程器會取出新近 prompt，組裝為附帶上下文的批次請求，傳遞給設定為「英文寫作教師」角色的 LLM，要求其輸出可讀性高的批改報告。&lt;/p>
&lt;p>報告內容遵循固定模板，包含：本批次 prompt 的常見語法錯誤、可改寫的更精準表達、語氣（tone）與正式程度的一致性問題、以及推薦的替代句構。Shell 腳本負責處理檔案 I/O、API 重試與失敗回退，並將輸出統一存放在便於 grep 與 diff 的純文字檔，以利長期追蹤。&lt;/p>
&lt;h2 id="results結果" >
&lt;div>
&lt;a href="#results%e7%b5%90%e6%9e%9c">
#
&lt;/a>
Results（結果）
&lt;/div>
&lt;/h2>
&lt;p>由於 prompt 在累積一段時間後，其文字量已可比擬中等規模的個人寫作集，本系統能在不需手動標註的情況下自動產出語言學習報告。Shell 為主的設計可在任何 macOS 與 Linux 環境執行，且資料完全留在本機，符合作為個人化學習工具的隱私需求。專案目前以私有 repo 形式維護，並持續疊代回饋訊息的訊噪比。&lt;/p>
&lt;h2 id="discussion討論" >
&lt;div>
&lt;a href="#discussion%e8%a8%8e%e8%ab%96">
#
&lt;/a>
Discussion（討論）
&lt;/div>
&lt;/h2>
&lt;p>本專案展示了「prompt 即文本」的觀念：將原本被視為一次性產物的 prompt 升格為值得被批改的寫作素材，能讓非英語母語使用者在不額外付出時間的前提下，獲得連續性的英語寫作訓練。其限制在於批改品質高度取決於 LLM 模型版本與系統提示的工程，且 prompt 的領域過於狹窄時可能導致建議重複。未來可加入錯誤分類分布的視覺化、與更細緻的時間序列分析以呈現語言能力的長期趨勢。&lt;/p>
&lt;h2 id="連結" >
&lt;div>
&lt;a href="#%e9%80%a3%e7%b5%90">
#
&lt;/a>
連結
&lt;/div>
&lt;/h2>
&lt;ul>
&lt;li>GitHub：&lt;a href="https://github.com/htlin222/polish-prompt">htlin222/polish-prompt&lt;/a>&lt;/li>
&lt;li>主要語言：Shell&lt;/li>
&lt;li>最後更新：2026-05-09&lt;/li>
&lt;/ul></description></item><item><title>llm-diagnosis-perspective：以抽象化─地基化觀點剖析 LLM 為何在診斷上失靈</title><link>/blog/llm-diagnosis-perspective-2026-05-06/</link><pubDate>Wed, 06 May 2026 00:00:00 +0000</pubDate><guid>/blog/llm-diagnosis-perspective-2026-05-06/</guid><description>&lt;h2 id="introduction引言" >
&lt;div>
&lt;a href="#introduction%e5%bc%95%e8%a8%80">
#
&lt;/a>
Introduction（引言）
&lt;/div>
&lt;/h2>
&lt;p>當大型語言模型（LLM）在高難度醫學考試展現亮眼表現後，學界與業界普遍出現一波「LLM 即將取代醫師」的討論。然而臨床診斷與紙筆考試之間存在本質差距：前者需要在不完整資訊下對個體病人進行因果推論，後者僅是封閉題庫上的模式辨識。本 Perspective 手稿主張，目前對 LLM 診斷能力的爭論之所以反覆而無法收斂，是因為論者各自混用「抽象化」與「地基化」兩個層次的能力評估。&lt;/p>
&lt;h2 id="methods方法" >
&lt;div>
&lt;a href="#methods%e6%96%b9%e6%b3%95">
#
&lt;/a>
Methods（方法）
&lt;/div>
&lt;/h2>
&lt;p>本專案以 LaTeX 進行版本控制，採用學術期刊投稿之撰稿流程：以 Git 紀錄歷次論述演化，透過 BibTeX 管理引用，並以 CSL 規範符合 NEJM AI 的格式要求。內容方法上，作者借用認知科學「抽象化─地基化」雙軌觀點，將診斷能力拆解為兩個面向：抽象化指能否將病人現象映射至更高層次的概念與分類；地基化則指能否將抽象結論還原為具體、可驗證的臨床訊號。&lt;/p>
&lt;p>文獻分析涵蓋近年具代表性的 LLM 醫學評測（USMLE、MedQA、實境臨床試驗）、認知偏誤研究與診斷錯誤學文獻，並對照真實臨床決策的多步驟、多回合、與資訊獲取的特性。&lt;/p>
&lt;h2 id="results結果" >
&lt;div>
&lt;a href="#results%e7%b5%90%e6%9e%9c">
#
&lt;/a>
Results（結果）
&lt;/div>
&lt;/h2>
&lt;p>論證指出，LLM 的當前優勢集中於抽象化階段：能在大量文本中快速形成假說、列舉鑑別診斷。然而在地基化階段，LLM 缺乏與真實病人互動所需的選擇性問診、檢查解讀與治療反應觀察，導致其表現高度依賴測試者餵入的資訊品質。這個分層觀點解釋了為何相同模型在試題上接近專家、卻在臨床部署中錯誤百出。&lt;/p>
&lt;h2 id="discussion討論" >
&lt;div>
&lt;a href="#discussion%e8%a8%8e%e8%ab%96">
#
&lt;/a>
Discussion（討論）
&lt;/div>
&lt;/h2>
&lt;p>抽象化─地基化框架為 LLM 醫療部署提供具體的研究議程：應改善的不是模型的「考試能力」，而是其與臨床流程的耦合方式。限制方面，本框架仍是觀點性論述，未來需設計能個別測量兩個面向能力的評估基準。意義上，本文希望幫助臨床決策者、政策制定者與工程師建立共通語彙，避免在「會與不會」的二元辯論中浪費資源。&lt;/p>
&lt;h2 id="連結" >
&lt;div>
&lt;a href="#%e9%80%a3%e7%b5%90">
#
&lt;/a>
連結
&lt;/div>
&lt;/h2>
&lt;ul>
&lt;li>GitHub：&lt;a href="https://github.com/htlin222/llm-diagnosis-perspective">htlin222/llm-diagnosis-perspective&lt;/a>&lt;/li>
&lt;li>主要語言：TeX&lt;/li>
&lt;li>最後更新：2026-05-06&lt;/li>
&lt;/ul></description></item></channel></rss>