當消費遇上AI | 專家診斷一年,大模型僅用幾分鐘!AI醫生看病是炒作嗎

生成式AI正在快速席捲醫療行業,針對AI醫療系統的炒作也在愈演愈烈。

很多醫生都對此表達了擔憂——在生成式AI大模型興起後,AI醫生的能力被誇大了,彷彿什麼病都會看了;還有不少患者直接拿着DeepSeek的診斷結果來向醫生諮詢。

有臨牀醫生表示,AI模型現在還存在不少幻覺,用於醫療診斷應格外謹慎。

大模型能力真假難辨

近日,網上有消息稱,上海瑞金醫院使用某人工智能系統,成功挽救了一名25歲因誤診陷入多器官衰竭的程序員的生命。不過,據第一財經記者從院方相關人士方面瞭解,這一案例並不屬實,瑞金醫院也沒有使用過該人工智能系統。

網上消息杜撰了瑞金醫院ICU的急救場景,稱主治醫生接診一“肺炎”疑難雜症患者,在使用抗生素48小時後不見好轉,在束手無策之際,一個叫做“醫智星”的AI醫療系統通過分析全球700多例抗利尿激素異常分泌綜合徵(SIADH)病例數據和患者的CT影像,僅用數秒便鎖定患者病因,並提供了成功率高達82%的治療方案。

對此,瑞金醫院方面向第一財經記者表示,消息是假的,瑞金醫院也從來沒有使用過這個被稱爲“醫智星”的AI醫療系統。

但也有醫院使用人工智能大模型救治患者成功的真實案例。上海市東方醫院就曾出現過一個病例,一名11歲男童因不明原因發熱、間歇性暈厥、嗜睡等症狀在外地某著名三甲醫院兒科反覆檢查,卻始終無法查明病因,直至一年後,他才被確診爲患有一種十分罕見的自身免疫性疾病。而當醫生將這名患兒的病例輸入AI大模型後,醫學大模型僅用幾分鐘便給出了專家耗費一年才完成的診斷。

上海某大型三甲醫院重症科主任向第一財經記者解釋稱:“大模型的知識是相對全面的,而推理和結論在醫學方面的能力取決於輸入的信息。大模型只有輸入有效數據,才能輸出有效的信息;正確的輸入纔有可能得到正確的輸出,越全面的輸入就可能產生更準確的輸出。就診斷而言,所有與病人疾病發病相關的信息都是有效信息。”

在上述重症醫學專家看來,目前要建醫學大模型並不難,因爲有了很多開源的模型基礎,難點是場景應用中的局部數據治理。

去年,上海市東方醫院發佈了一款由醫生團隊主創、技術團隊共同研發的AI醫學大模型“Med-Go”,引發業內關注。據介紹,這款大模型“啃下”6000多本國內外權威教材、成功通過國家執業醫師資格考試,多次參加中文醫學信息挑戰賽連續獲得冠軍,並已接入東方醫院的HIS系統。

“Med-Go”發明人、東方醫院急診與重症醫學科主任張海濤介紹,“Med-Go”如同一名醫學教授,具有強大的思考與分析能力,給予醫生輔助決策支持,是生成式AI對臨牀診療極具價值的部分。

患者帶着DeepSeek報告就診

隨着人工智能公司DeepSeek大模型的普及,已有不少患者在就診前開始諮詢DeepSeek與疾病相關的諮詢,甚至拿着DeepSeek的“診斷報告”找醫生“對簿公堂”。

對此,一位心內科醫生向第一財經記者坦言:“DeepSeek大約90%的結論是正確的,這樣確實能夠減輕一部分醫生和患者的溝通成本。有時DeepSeek的信息更新甚至比醫生的知識更新更快,如果醫生不與時俱進,確實面臨被AI淘汰的風險。”

不過,某醫學背景的醫療信息系統開發者對第一財經記者表示:“目前市面上的醫療AI大模型可以取代一部分社區全科醫生的工作,爲患者提供某些建議,但深入到大型三甲醫院的臨牀診斷,恐怕還需要垂直醫療大模型的持續深入的研究和訓練,核心是醫院的深度數據。”

上述人士還稱,雖然目前已有AI大模型在臨牀上實現了個別精準診斷的案例,但這些成功的個案尚無法推及更廣泛的患者羣體,一般臨牀上還是會看AI模型在長時間落地統計上是否取得顯著效果。

上海市第十人民醫院超聲醫學科副主任郭樂杭與團隊正開展“超聲+AI”的臨牀研究,主要面向全身多器官、多疾病,針對診斷、預測、教學、遠程醫療等多重任務。

在他看來,“幻覺”是醫療AI普及的最大阻礙。“這可能導致錯誤的診斷、治療建議或醫療決策,從而對患者的健康造成嚴重影響。”郭樂杭表示。目前,已有企業正在着手解決AI幻覺產生的問題,業內認爲這可能與強化學習的方式有關。

中國科學院院士陳潤生也曾提到,破除AI“幻覺”需跨越技術難題、倫理問題等諸多挑戰。從技術層面來說,AI的表現很大程度上依賴於訓練數據的質量和多樣性,如果訓練數據存在偏差,模型可能會產生錯誤的輸出。從倫理層面看,算法可能因爲訓練數據的不完善或設計者的主觀偏見而導致歧視性的決策結果。