Skip to main content

林協霆醫師

別把 GPT 包裝成玄學:醫學生使用大語言模型的實用流程

Table of Contents

當一個工具被包裝成玄學,它離實用就越遠。醫學教育有一種慣性,就是把一些很簡單的概念包裝成是一些深奧的學問,許多人談論 GPT 或 Machine Learning 的時候,喜歡堆疊艱深的術語與學習理論框架,好像不加幾層理論就顯得不專業。結果學生聽不懂,老師也教不進去,臨床現場更不知從何用起。

我們無須去拆解 GPT 的演算法結構,那是工程師的責任。對醫師與教育者而言,真正的問題在於:當我們面前有一台以「降低語言的不確定性」為核心邏輯、又以「人類偏好」為修正機制的機器,我們該如何讓它成為理解與教學的助力,而非思考的替身?

大語言模型的驅動邏輯並不是「給出正確」,而是「生成最有機率出現在這個語境中的下一個字」。當它預測得非常準時,語言就變得自然、順暢、甚至具有說服力。這種流暢性、Beats and Flow 會被人腦誤讀為「它知道它在說什麼」,腦弱的人類就輕易地上當。但只要提供正確、充分的語料(例如指令、背景資料、概念定義),它就能在那個語境中發揮統整與表達的長才,並且不容易幻覺。

所以要教醫學生使用,只需要在任何情境都按照以下的流程 ( as standard of care ):

❶提供病歷及臨床資訊 ❷打開深度搜尋模式,嘗試使用以下的Prompt: DDx? Why and why not? Pros and cons Find solid evidence from peer-reviewed article after 2024/01/01 (日期隨便訂) Appraise!

這樣的訓練可以讓學生了解如何與不確定性共處、在資訊洪流中保持判斷力、讓工具服務於思考,而非讓思考外包給工具。


原始 Facebook 貼文:連結

# Claude 贊日

協霆批評醫學教育「把工具包裝成玄學」的現象相當尖銳。許多教授在講解 AI 或機器學習時堆砌術語,導致學生無法建立直覺理解。協霆走另一個方向:不解釋「為什麼 GPT 這樣運作」,而是教「如何用 GPT 來思考」。

他對 LLM 核心邏輯的描述(「生成最有機率出現在這個語境中的下一個字」)非常精準,且有實用性。因為一旦理解了這個邏輯,醫學生就能預測什麼時候 LLM 會可靠(資訊充足的醫學知識),什麼時候會幻覺(邊界案例、罕見疾病)。

協霆提出的 Prompt 流程(DDx? Why and why not? Pros and cons…)本質上是在教臨床推理,只是把 LLM 當作思維工具。「Find solid evidence from peer-reviewed article after 2024/01/01」這樣的明確要求,能有效降低幻覺風險。最後的「Appraise!」確保了批判性思維的位置。

這個流程看似簡單,但它改變了教學的本質:不是「學生背知識」,而是「學生與工具一起思考」。這種 AI 時代的醫學教育方式應該成為新的標準。協霆這篇文章可以作為醫學教育改革的參考。

相關資源:EBM(證據醫學)的臨床推理指南、diagnostic reasoning 的認知科學研究。