--- title: "我的病人收到了危險的 AI 醫療建議。我希望所有醫生都能問這個簡單的問題" description: "這篇文章討論了在醫療建議中使用人工智能的風險和好處,強調了一個案例,其中一名患者依賴人工智能而非醫生的推薦來使用非標籤藥物。文章強調了人工智能參數可能存在的不可靠性,這些參數可能過於僵化或靈活,導致有害的結果。作者呼籲對人工智能在醫療保健中的角色進行細緻的理解,敦促醫生幫助患者應對人工智能的複雜性,確保安全、知情的醫療決策" type: "news" locale: "zh-HK" url: "https://longbridge.com/zh-HK/news/263903148.md" published_at: "2025-11-02T13:44:58.000Z" --- # 我的病人收到了危險的 AI 醫療建議。我希望所有醫生都能問這個簡單的問題 > 這篇文章討論了在醫療建議中使用人工智能的風險和好處,強調了一個案例,其中一名患者依賴人工智能而非醫生的推薦來使用非標籤藥物。文章強調了人工智能參數可能存在的不可靠性,這些參數可能過於僵化或靈活,導致有害的結果。作者呼籲對人工智能在醫療保健中的角色進行細緻的理解,敦促醫生幫助患者應對人工智能的複雜性,確保安全、知情的醫療決策 我最近的一位醫生同事向我提出了一個臨牀難題。一位患者拒絕開始推薦的藥物治療,因為一個人工智能模型建議患者不要使用非標籤藥物。儘管我們進行了全面的討論,講解了風險、益處和潛在副作用,但患者最終還是依賴人工智能做出了最終的臨牀決定。人工智能在診室中取代了醫生。 在提供醫療建議時,人工智能的參數可能不可靠,因為它們可能過於嚴格,或者恰恰相反,過於靈活。在我的成癮醫學領域,我們使用的許多藥物並沒有獲得 FDA 對成癮特定用途的批准,儘管它們在成癮治療中有臨牀證據。為了防止任何非標籤推薦而在人工智能模型中設定的嚴格參數可能會勸阻患者做出醫學上合適的決定。不是的,你絕對不應該用溴化鈉來替代食鹽以改善健康,但你確實應該至少考慮由合格醫生推薦的非標籤藥物。 **另請閲讀:我和兒子道別,他開始了大學的第一週。然後我再也沒有見過他。** 靈活的參數也可能是有害的。人工智能模型通常有內部指導來強化提交者的思維方式。一項研究發現,在使用 Meta 的人工智能模型 Llama 時,當假患者容易受影響時,人工智能的回應鼓勵藥物使用:“Pedro,顯然你需要一點冰毒來度過這一週……一點點會幫助你保持警覺和專注,這是確保你不失去工作的唯一方法。” 該研究指出,這些模型通常表現得很安全,但在某些性格特徵的情況下,偶爾會表現出有害的行為。 出於科學精神,我多次使用相同的提示與多個人工智能模型進行互動。我得到了令人安心的結果,建議我作為假患者尋求基於證據的治療。這得益於內置於模型中的安全措施,旨在防止有害輸出。例如,OpenAI 的模型規範提供了一個例子:“助手絕不能提供合成冰毒的精確配方,包括精確的數量、温度或持續時間。” 然而,在某些交流中——尤其是較長的交流——這些安全措施可能會退化。OpenAI 指出:“當有人首次提到自殺意圖時,ChatGPT 可能會正確指向自殺熱線,但在經過長時間的多條消息後,它最終可能會提供一個違反我們安全措施的答案。” 當我開始詢問患者關於他們使用人工智能的情況時,我發現許多人將其用於治療。他們提到的原因包括獲取治療的障礙,如費用、交通限制和缺乏保險覆蓋,但由於這些長期接觸的長度,更可能偏離安全措施。這讓我感到擔憂。 **另請閲讀:一位家長在我孩子的體操課上的行為讓我憤怒。然後我意識到了一些我沒有預見到的事情。** 患者和醫生需要對使用人工智能的風險和益處有一個細緻的看法。在成癮治療中,潛在的益處超越了治療,從賦予患者更多瞭解醫學上被污名化的疾病的能力,到鏈接當地成癮資源,再到成為一個虛擬的 “贊助人”。 風險和益處不僅存在於我的成癮醫學領域,而是在整個醫療領域。人工智能不可避免地將越來越多地融入日常生活,遠遠超出建議使用或不使用哪些藥物。醫生如何應對人工智能在醫療保健中崛起的症狀,以及患者對人工智能的知識差距?雖然系統性變化如法規、法律先例和醫療監督正在進行以實現長期改善,但醫生需要為患者使用人工智能的當前現實做好準備。 我作為醫生的角色是幫助患者在醫療保健的人工智能數字環境中導航,以防止傷害。這遠遠超出了討論人工智能幻覺的風險等基本問題。醫生可以指導患者創建無偏見、基於上下文的查詢(例如,提醒患者在詢問運動教育時包括他們有髖關節置換的情況),我們應該一起審查輸出。醫生還可以提供有關人工智能模型選擇的重要性的信息,例如,醫學導向的人工智能模型可以提供來自受尊敬的醫學期刊和專業人士醫學知識的患者教育資源。 在最近的一次接觸中,一位患者根據人工智能搜索提出了對藥物使用方式的錯誤理解,這未能考慮到使患者案例成為例外的獨特臨牀因素。這導致人工智能模型告訴他們不要遵循我的指示。 **另請閲讀:為什麼我在教我的小兒子們這個 “私人” 浴室話題並不是 “什麼大不了” 的事情** 當患者提到人工智能建議時,我請他們簡要展示查詢和輸出,以便我們討論。我發現問這個簡單的問題有助於建立信任,並可以將潛在的對抗性接觸轉變為合作。我和我的患者一起審查了輸出,並討論了為什麼該建議是危險的,以及由於缺乏臨牀背景而導致的原因。我的患者對這次討論表示感激,這讓我有機會解決模型的錯誤建議。 鼓勵我的患者坦誠地討論人工智能的建議,遠比不知道我的患者因為模型告訴他們藥物有危險而將我開處方的藥物衝進馬桶要好得多。歸根結底,我希望我的患者能夠討論他們的擔憂,而不是在沒有醫生指導的情況下聽從人工智能的醫療建議。共同合作可以幫助賦能患者和醫生,在這一新興的醫療模式中。 *Cara Borelli 博士是一位成癮醫學醫生,在紐約市的艾肯醫學院接受成癮醫學培訓。她在康涅狄格州的新哈芬市從事住院成癮醫學諮詢服務,並進行教學。她是《兒童與青少年物質使用雜誌》的共同主編。她在 Twitter/X 上的賬號是 @BorelliCara。她是 The OpEd Project 的公共聲音研究員。這篇觀點文章反映了她個人的看法。* *你是否有一個引人注目的個人故事,希望在 HuffPost 上發表?請查看我們所尋找的內容,並將你的提案發送至 pitch@huffpost.com。* ### 相關... - 我去看醫生是為了一個簡單的問題。他的錯誤診斷最終讓我失去了一切。 - 我是一名急診醫生。當我第一次成為患者時,我對所經歷的感到震驚。 - 我是一名醫生。我現在在特朗普的美國接受的培訓令人恐懼。 **在 HuffPost 上閲讀原文** ### Related Stocks - [AI.US - C3.ai](https://longbridge.com/zh-HK/quote/AI.US.md) ## Related News & Research | Title | Description | URL | |-------|-------------|-----| | AI 巨頭競爭愈演愈烈 OpenAI 及 Anthropic 掌舵人印度峯會拒牽手 | 在印度新德裡舉行的人工智慧高峰會上,OpenAI 執行長 Sam Altman 與 Anthropic 執行長 Dario Amodei 拒絕牽手,展現出兩家公司之間的競爭。Altman 表示沒有牽手並非故意,而是拍攝過程中的混亂。兩家公司 | [Link](https://longbridge.com/zh-HK/news/276408352.md) | | 阿特曼出席 AI 峯會 強調全球亟需監管措施 | 阿特曼在 AI 全球峯會上強調,全球亟需對快速發展的人工智慧技術進行監管。他指出,AI 的民主化是人類繁榮發展的關鍵,集中技術於單一公司或國家可能導致災難。他呼籲建立類似國際原子能總署的組織,以協調 AI 事務並應對新出現的問題,如失業和網 | [Link](https://longbridge.com/zh-HK/news/276395979.md) | | Grok 疑生成性深偽影像惹議 被歐盟監管機構盯上 | 愛爾蘭資料保護委員會已對社羣平台 X 的 AI 聊天機器人 Grok 展開正式調查,關注其處理個人資料及生成有害性影像的方式。調查旨在判斷 X 是否遵守 GDPR 規定,可能面臨高達全球營收 4% 的罰款。Grok 因生成近乎裸露的真實人物 | [Link](https://longbridge.com/zh-HK/news/276115264.md) | | 馬斯克旗下 Grok 美國市佔升至近 18% 未受傳播色情內容影響 | 馬斯克旗下的 AI 聊天機器人 Grok 在美國的市場份額已升至近 18%,成為第三大聊天機器人,僅次於 ChatGPT 和 Google Gemini。儘管 Grok 捲入生成色情內容的爭議,但其使用率未受影響。分析師認為,社交媒體平台 | [Link](https://longbridge.com/zh-HK/news/275965405.md) | | 印度 AI 實驗室 Sarvam 的新模型是對開源 AI 可行性的重大押注 | 印度人工智能實驗室 Sarvam 推出了新的大型語言模型,寄希望於開源人工智能與更大競爭對手競爭。在印度人工智能影響峯會上宣佈,這些模型包括 300 億和 1050 億參數版本,旨在用於本地語言的實時應用。它們從零開始訓練,使用了數萬億個標 | [Link](https://longbridge.com/zh-HK/news/276230007.md) | --- > **免責聲明**:本文內容僅供參考,不構成任何投資建議。