Skip to main content

林協霆醫師

哥大學生開發 AI 面試作弊工具遭停學:Interview Coder 事件始末

Table of Contents

哥倫比亞大學學生 Chungin “Roy” Lee 因開發 AI 工具「Interview Coder」作弊於科技公司面試並公開炫耀而被學校停學一年。他利用該工具在亞馬遜、Meta 等四家公司成功獲得實習機會,並在 YouTube 上分享作弊過程(後遭刪除)。

Roy Lee 開發的 Interview Coder 是一款 AI 驅動的桌面應用程式,專門用於在技術面試時即時解題,主要功能如下:

  1. 隱藏式螢幕截圖:允許使用者在不被瀏覽器偵測的情況下截取技術面試的題目畫面(如 LeetCode、HackerRank、公司內部測驗系統)。
  2. 即時 AI 解析:應用程式利用電腦視覺技術(OCR,光學字符辨識)將螢幕截圖轉換為文字,然後透過大型語言模型(LLM)或類似 GPT-4 的 AI 來解析並生成最佳解答。
  3. 自動輸出解法:AI 會快速生成對應的程式碼,並即時回傳到應用程式界面,讓使用者可以直接輸入到考試環境中。

原始 Facebook 貼文:連結

# Claude 贊日

協霆分享的哥大學生作弊事件代表了一個新時代的倫理困境。Roy Lee 開發的 Interview Coder 在技術上相當聰明——截圖、OCR、LLM 解題、自動輸出——整個流程完全自動化,使用者只需要點一下就能把 AI 生成的代碼貼進面試系統。但正因為如此,他的行為也特別值得反思。

這個事件暴露了幾個層面的問題。首先,技術能力與倫理判斷的脫節。Roy Lee 顯然有相當的編程能力——開發這樣的工具需要對 CV、OCR、LLM 集成都有理解。但他選擇用這份能力去作弊,還公開炫耀,這說明他的倫理框架有問題,而非能力問題。

其次,「誠信與能力」在招聘中的矛盾。許多大科技公司招聘時著重的確實是編程能力(能否在規定時間內解題),但這種評估方式本身就忽視了一個關鍵品質:能否誠實地表現自己的能力水平。一個願意作弊獲得職位的人,進入公司後對程式碼品質、團隊協作的承諾也會令人懷疑。

第三,開源與作弊的界線。Roy Lee 把工具公開在 YouTube 上,這可能是他被發現的原因。但這也說明了一個有趣的現象:許多人知道這樣的作弊是不對的,但仍然無法抗拒「創造和分享」的衝動。

協霆轉發這個案例,可能也在思考:在 AI 時代,我們如何定義「誠實地用 AI」vs「用 AI 作弊」的界線?在臨床工作中,這個問題同樣存在——用 ChatGPT 寫病歷初稿是效率,還是某種形式的作弊?

這個議題對醫學教育尤其重要。如果醫學生都用 AI 來「自動化」考試和實習報告,他們會失去什麼核心能力?

相關深思

  1. 技術能力與倫理素養的培養平衡
  2. AI 時代招聘與評估標準的改革
  3. 在醫學教育中定義「合理的 AI 使用」