中國 AI 新創公司 DeepSeek 正積極招募實習生,以仔細地標註醫療數據,旨在提升 AI 應用在醫院環境中的精確性和可靠性。此舉突顯了 AI,特別是開源模型,在中國醫療保健領域日益增長的整合,它們正被用於生成診斷和處方。然而,隨著這些技術的快速部署,也引發了對潛在風險日益增加的審查。
實習機會:深入探索
DeepSeek 的實習計畫提供每日 500 元人民幣(約 70 美元)的補償,給予那些能夠承諾每週工作四天的人。這些實習生的核心職責圍繞著標註醫療數據,特別是與「先進輔助診斷」工具相關的應用。這些職位設於北京,將實習生置於 DeepSeek 營運的核心以及中國 AI 發展的最前線。
在熱門招聘平台 Boss 上的招聘訊息,概述了潛在實習生的具體資格。理想的候選人擁有紮實的醫學背景,通常以四年級大學生或持有碩士學位為證。此外,該職位需要熟悉大型語言模型 (LLM),精通編寫 Python 程式碼,以及能夠為大型 AI 模型設計有效的提示。這種多方面的技能組合反映了所涉及工作的複雜性,既需要醫療知識又需要技術專業知識。
實習生的主要職責
- 詳細的數據標註: 為醫療數據分配準確且一致的標籤,確保 AI 模型接受高品質資訊的訓練。
- LLM 熟練度: 使用大型語言模型,以了解它們在醫療環境中的能力和限制。
- Python 編碼: 利用 Python 操作數據、自動化流程,並可能為 AI 演算法的開發做出貢獻。
- 提示工程: 設計有效的提示,從 AI 模型中引出準確且相關的回應,特別是在診斷場景中。
DeepSeek 的 AI 在中國醫院的採用
此舉與中國醫院採用來自 DeepSeek 等公司的開源 AI 模型的更大趨勢相符。這些 AI 系統正被用來協助生成診斷和處方,有可能簡化工作流程並改善病人護理。截至 3 月,估計中國已有 300 家醫院開始將 DeepSeek 的 LLM 納入其臨床診斷和醫療決策支援系統。
AI 在醫療保健領域的吸引力源於其潛力:
- 提高診斷準確性: AI 演算法可以分析大量的醫療數據,以識別可能被人類臨床醫生忽略的模式和異常情況。
- 加速診斷: AI 可以加速診斷過程,從而更快地進行治療並可能改善病人結果。
- 個性化治療計畫: AI 可以分析個別病人的數據,以根據其特定需求和情況客製化治療計畫。
- 降低醫療保健成本: 透過自動化任務和提高效率,AI 可以幫助降低醫療保健成本。
關於快速採用 AI 的疑慮和批評
儘管具有潛在的好處,但醫院快速採用 DeepSeek 的 AI 並非沒有批評者。一個中國研究團隊對這種廣泛實施可能存在的臨床安全和隱私風險表示擔憂。
在著名的醫學期刊 JAMA(美國醫學會雜誌)上發表的一篇論文中,研究人員警告不要不加批判地接受 AI 在醫療保健領域的應用。他們強調 DeepSeek 傾向於生成「看似合理但事實上不正確的輸出」,這種現象在 AI 社群中通常被稱為「幻覺」。他們認為,這種傾向可能導致「重大的臨床風險」,有可能損害病人的安全和福祉。
該研究團隊成員包括中國醫學研究界的知名人士,例如清華醫學院創始院長翁天音,清華醫學院是北京清華大學的醫學研究學院聯盟。他們的參與為提出的疑慮賦予了重要的可信度。
研究人員強調的潛在風險
- AI 幻覺: AI 模型生成事實上不正確或具有誤導性的資訊,有可能導致誤診或不當治療。
- 數據隱私問題: 敏感的病人數據被 AI 系統洩露或濫用的風險。
- 缺乏透明度: 某些 AI 演算法的「黑箱」性質,使得難以理解它們如何得出結論。
- AI 演算法中的偏見: AI 演算法有可能延續或擴大醫療保健領域中現有的偏見,導致治療結果的差異。
- 過度依賴 AI: 醫療保健專業人員過度依賴 AI 的風險,有可能降低他們的批判性思考能力和臨床判斷。
DeepSeek 的回應:解決 AI 幻覺
DeepSeek 認識到這些疑慮的有效性,已採取措施來解決其醫療應用中 AI 幻覺的問題。在 Boss 上發布的職位描述中,該公司明確表示實習生將在增強 DeepSeek 的醫療能力方面發揮關鍵作用,包括改進模型的醫療知識並最大程度地減少醫療問答中的幻覺。
這種積極的方法表明 DeepSeek 致力於開發不僅功能強大,而且在臨床環境中使用的可靠且安全的 AI 系統。透過專注於減輕幻覺並提高醫療資訊的準確性,DeepSeek 旨在建立醫療保健專業人員的信任,並確保 AI 在醫療保健領域的負責任採用。
最小化 AI 幻覺的策略
- 數據擴增: 透過多樣化且高品質的醫療資訊擴展訓練數據集,以改進模型的知識庫。
- 事實查核機制: 納入驗證 AI 模型生成的資訊準確性的機制,並與可靠的醫療來源進行比對。
- 強化學習: 訓練 AI 模型優先考慮準確性,並避免生成推測性或未經證實的資訊。
- 人工監督: 實施允許人工臨床醫生審查和驗證 AI 模型輸出的系統,確保其準確且適當。
- 可解釋 AI (XAI): 開發能夠為其決策提供解釋的 AI 演算法,使臨床醫生更容易理解和信任 AI 的建議。
理想的實習生概況:技能和職責
這些實習的成功申請者需要具備多方面的技能組合,包括醫療知識和技術專業知識。他們將負責:
- 設計醫療問題的模型:設計可以有效回答醫療詢問的 AI 模型的結構和參數。
- 設計模型的醫療能力評估流程:開發在醫療環境中評估 AI 模型的準確性、可靠性和安全性的方法。
理想的候選人將表現出:
- 對醫療術語和概念的深刻理解:對於準確標註醫療數據和評估 AI 模型的性能至關重要。
- 精通 Python 等程式語言:對於操作數據、建立 AI 模型和自動化任務是必要的。
- 使用大型語言模型的經驗:熟悉 LLM 在醫療領域的優勢和局限性。
- 出色的溝通和協作能力:對於與其他實習生、研究人員和醫療保健專業人員有效合作至關重要。
- 對道德 AI 開發的承諾:對圍繞在醫療保健領域中使用 AI 的道德考量有深刻的理解,包括數據隱私、偏見和透明度。
AI 在醫療保健領域的未來:謹慎的樂觀
DeepSeek 的實習計畫代表了將 AI 整合到醫療保健領域的重要一步。透過投資數據標註和模型完善,DeepSeek 正在努力提高其 AI 系統的準確性和可靠性。然而,中國研究人員提出的疑慮強調需要謹慎和仔細考慮所涉及的潛在風險。
AI 在醫療保健領域的未來取決於:
- 開發既強大又值得信賴的 AI 系統。
- 解決圍繞在醫療保健領域中使用 AI 的道德考量。
- 確保 AI 用於增強而不是取代人類臨床醫生。
- 促進 AI 演算法的透明度和可解釋性。
- 促進 AI 開發人員、醫療保健專業人員和監管機構之間的合作。
透過專注於負責任的開發和部署,AI 有可能徹底改變醫療保健,改善病人結果並改變醫療實踐的方式。