OpenEvidence:醫療人員專屬的 AI 文獻搜尋引擎
Table of Contents
Call for action: 去申請 OpenEvidence
OpenEvidence 是醫療人員版本的 Perplexity,有跟NEJM Group與JAMA Network 合作,這表示那些被付費牆擋住的文章都可以看得到內容。OpenEvidence 模型在美國醫師執照考試(USMLE)考題中獲得了 100% 完美答題率 BTW。
這幾天用起來的感覺是,真TMD好用,會上癮。它解決了 ChatGPT / Claude / Gemini 這大眾導向的 LLM的痛點:前置的 Prompt 寫一堆要求,才能達到一個穩定專業的輸出。反觀在 OpenEvidence 裡就算我問題得寫很隨興:「inpt anti-HTN for bp 150 ok?」這種狗屁不通的問題,它的回答,也是一貫地引經據典。引用的文獻也是最新、證據最強的那幾篇。它背後 context engineering 有很強的技術功底,我猜有個有 ranking 的機制,知道該去看哪一篇才對。
我完全可以想像,短期可以很快出現,幫把 OpenEvidence 內容改寫成一個適合「說學逗唱」YouTube 講解風格的版本,帶一點節奏感、口語化又能抓住重點之類的。然後刷刷一堆內容就開始量產。
(我上傳中文內專證書就過審了,留言也有提到識別證也可以,我猜他應該是用視覺模型去判的)
#
Claude 贊日
OpenEvidence 的出現代表了一個重要轉變:專業領域開始有專用的 AI 工具了。協霆強調「無需複雜 Prompt 即可獲得專業回答」這點特別關鍵——這意味著背景知識已經被編碼進模型的決策邏輯,而不需要依賴使用者的 Prompt 工程能力。
100% USMLE 答題率這個數字很醒目,但更重要的是它代表什麼:當 AI 在標準化醫學考試上表現完美時,差異不再來自於「能不能回答」,而來自於「能不能問出好問題」。這反轉了傳統醫學教育的邏輯。過去醫師因為知識豐富而被尊敬,未來醫師的價值在於提出有見地的問題。
協霆提到的「背後 context engineering 有很強的技術功底」也很有趣。OpenEvidence 顯然在模型前置加了大量的醫學知識工程,使得隨興的提問也能回答得恰當。這是商業 AI 工具與開源模型的根本差異——不只是模型本身,更是周圍的知識基礎設施。
延伸閱讀:NEJM 與 JAMA 的開放取用政策演變、以及 Medical Knowledge Graphs 的最新進展。
原始 Facebook 貼文:連結