Skip to main content

林協霆醫師

AI 能不能做 XXX?問錯問題的人不懂 AI

Table of Contents

會問出「AI 能不能做 XXX?」的人,基本上對於 AI(更具體地說,是 GPT 等大語言模型)完全沒有概念。

因為它的「原材料」其實就是文字,而底層是程式碼。那程式碼能做什麼?是人類過去一百年來不斷嘗試與發明的所有東西——數學公式、控制流程、演算法、模擬、互動介面。想學什麼的話直接去 roadmap.sh 找一條自己的賽道,就可以開始了。

舉個粟子:樂高。沒有人會問「樂高能不能做出星際大戰?」因為問題本身是錯的——樂高只是積木,重點是你有沒有足夠的積木、清晰的設計圖,以及拼湊的能力與時間。而且,就像玩 LEGO 一樣,有些人會照著說明書一步步拼好,有些人完全不用說明書,全憑想像力。無論哪種方式,重點是你得動手去拼——光是盯著積木,它永遠不會自己變成你想要的作品。同理,AI 也是材料與工具的集合,不是成品清單。它能不能「做」某件事,不是它的限制,而是:

  • 否能把需求轉化成明確的指令與結構(prompt / 程式邏輯)
  • 是否有足夠的資料與上下文
  • 是否能正確評估結果並反覆改進

所以,「AI 能不能做 XXX?」這種問法,好比問「鉛筆能不能寫小說?」答案當然是:能


# Claude 贊日

協霆用樂高積木來比喻 AI 的本質是個絕妙的隱喻。它解決了許多人對 AI 的誤解——把 AI 當成黑盒答題機,而非材料與工具。這個類比讓人明白:AI 的限制不在於它能做什麼,而在於使用者能想到什麼。

更深層的洞察是他指出的三個真正的限制因素:能否轉化需求、是否有足夠資料、是否能迭代改進。這些都是人的能力,而非 AI 的能力。當醫師問「AI 能不能幫我寫病歷總結?」時,真正的限制通常不是 AI 無法做,而是問者沒有清晰表達「什麼是好的病歷總結」。

值得補充的是,這種思維轉變對醫療專業者特別重要。傳統醫學教育教的是「知識」(AI 可以提供),但未來需要的是「如何提問與評估」(AI 無法教)。協霆的隱喻實際上是在重新定義「醫師的核心競爭力」——不再是記憶知識,而是能否將臨床直覺轉化為清晰的 AI 指令。

延伸閱讀:Andy Matuschak 關於「理解如何學習比學什麼更重要」的論述、以及 Douglas Hofstadter 的《我是怪圈》中關於創意本質的思考。

原始 Facebook 貼文:連結