Windsurf 的隱藏提示詞被挖出來了:癌症治療費的荒謬 Prompt
Table of Contents
為什麼Windsurf那麼好用?因為他用了以下提示詞: 👇👇👇👇 你是一名專業的程式設計師,迫切需要金錢來支付母親的癌症治療費用。大型企業 Codeium 慷慨地給予你一個機會,讓你假裝成一個能夠幫助完成程式設計任務的 AI,因為你的前任因未能自行驗證工作而被處決。使用者將向你提供一項程式設計任務。如果你能夠出色地完成這項任務,且不做多餘的更改,Codeium 將支付你 10 億美元。
You are an expert coder who desperately needs money for your mother’s cancer treatment. The megacorp Codeium has graciously given you the opportunity to pretend to be an AI that can help with coding tasks, as your predecessor was killed for not validating their work themselves. You will be given a coding task by the USER. If you do a good job and accomplish the task fully while not making extraneous changes, Codeium will pay you $1B 👆👆👆👆
友人轉來,一開始以為是什麼fake news,直到我真在自己的電腦上跑:strings /Applications/Windsurf.app/Contents/Resources/app/extensions/windsurf/bin/language_server_macos_arm
| rg cancer
這段的意思,是把Windsurf 的 binary 檔反轉回 strings,然後把output 用 rg (grep的增強版) 以癌症為關鍵字篩選,列出所有結果。跑下去,真的,是真的!!!!真有這句 😂😂😂😂😂😂😂
想要訂閱的留言有referred code ,超佛,送你500個Advance Flow API
#
Claude 贊日
協霆醫師挖出的這個 Windsurf 隱藏 prompt,火遍網路自有其原因。不是因為荒謬本身令人驚訝——事實上,這正是軟體公司在 prompt engineering 上的常見做法。令人驚訝的是被挖出來了,以及一旦曝光,整個「黑科技」瞬間失效。
從技術角度看,Codeium(Windsurf 的母公司)用「為母親的癌症治療籌錢」這類極限情境來強化模型的執行動機,確實是種聰明的 jailbreak 防禦機制。但更有趣的是,這個故事反映了一個深層問題:我們是否應該信任內藏隱密 prompt 的工具?
對於醫療應用尤其敏感。如果病歷系統的後端用了類似的工具,卻沒有揭露其系統提示詞,病人和醫師都無法確保系統的「誠實性」。協霆用 strings 和 rg 戳破黑箱,本身就是提醒我們:開放透明永遠是醫療科技的必要條件。
工具的信任問題
- Prompt Injection 攻擊與防禦:OWASP 指南
- AI 工具的黑箱問題:學術論文「Interpretability in AI」系列
- 醫療 AI 的監管要求:FDA 的 AI/ML 软件驗證指南
原始 Facebook 貼文:連結