剛剛,AI醫(yī)療新突破,來自谷歌!
這一次,他們直接瞄準了真實臨床環(huán)境的痛點。
長期以來,醫(yī)療模型就像是一個“偏科生”,它擅長“讀病歷”,卻對CT、MRI、病理切片這些醫(yī)學影像“力不從心”。
這是因為,它們被迫用文本邏輯去理解圖像,導致效率低、錯誤多、成本高。
為此,谷歌祭出了最新模型MedGemma 1.5,找到了破局答案。
相較于此前的MedGemma 1.5,MedGemma 1.5在多模態(tài)應用上實現(xiàn)重大突破,融合了:
高維醫(yī)學影像:計算機斷層掃描(CT)、磁共振成像(MRI)和組織病理學
縱向醫(yī)學影像:胸部X光時間序列回顧
解剖定位:胸部X光片中解剖特征的定位
醫(yī)學文檔理解:從醫(yī)學實驗室報告中提取結構化數(shù)據(jù)
谷歌表示,MedGemma 1.5是首個公開發(fā)布的開源多模態(tài)大語言模型,既能夠解讀高維醫(yī)學數(shù)據(jù),同時還擁有解讀通用二維圖像和文本的能力。
更關鍵的是,MedGemma 1.5只有40億參數(shù)量,這意味著,普通的消費級顯卡甚至高性能工作站,就能流暢運行。
MedGemma 1.5開源地址:https://huggingface.co/google/medgemma-1.5-4b-it

不僅如此,谷歌還發(fā)布了MedASR,一個專門為醫(yī)療語音微調(diào)的語音識別模型,可以將醫(yī)生與患者的對話轉(zhuǎn)化為文本,并無縫接入到MedGemma。
MedASR開源地址:https://huggingface.co/google/medasr
直白講,MedGemma 1.5解決「怎么看圖」,MedASR解決「怎么聽音」。
這并不是簡單的模型迭代,而是谷歌對“如何讓AI真正走進診室”給出的一套體系化答案。
一個讀得透病歷、看得懂影像、聽得清語音的AI醫(yī)生,即將走進每一家醫(yī)院。
AI醫(yī)療,進入多模態(tài)時代
在過去的一年里,我們見證了GPT-5等模型在醫(yī)學考試中的驚艷表現(xiàn),
但在真實的臨床場景中,它們的表現(xiàn)往往不盡如人意。
一個重要的原因在于信息維度的斷層。
包括初代MedGemma在內(nèi)的很多醫(yī)療模型本質(zhì)是“文字專家”,對于圖像的理解能力不強,帶來了診斷信息的丟失。
MedGemma 1.5則在醫(yī)學影像應用場景中實現(xiàn)了全方位、多維度的性能躍升,顯著超越其前代模型。
針對高維醫(yī)學影像,MedGemma 1.5做到了:
CT疾病分類準確率從58%提升至61%。
MRI疾病分類準確率從51%提升65%,尤其在腦部、關節(jié)等復雜解剖結構識別上進步顯著。
全切片病理描述質(zhì)量ROUGE-L分數(shù)從近乎無效的0.02提高到0.49,達到專用模型PolyPath的水平(0.498),可生成臨床可用的組織學描述。

圖:MedGemma 1.5在醫(yī)療影像上的性能提升
針對縱向時序影像分析,MedGemma 1.5做到了:
在MS-CXR-T 時序評估基準上,宏觀準確率從 61% 提升至 66%
有效捕捉病灶動態(tài)變化,例如判斷肺炎浸潤是否吸收,支持隨訪決策
針對通用2D醫(yī)學圖像解讀,MedGemma 1.5做到了:
在內(nèi)部綜合單圖基準(涵蓋X光、皮膚、眼底、病理切片)上,整體分類準確率從59% 提升至 62%。
表明模型在保持廣泛2D能力的同時,未因新增高維任務而犧牲基礎性能。
針對結構化醫(yī)學文檔,MedGemma 1.5做到了:
從非結構化PDF或文本中提取檢驗項目、數(shù)值、單位的宏平均F1分數(shù)從60%提升至78%(+18%)。
自動構建結構化數(shù)據(jù)庫,打通影像-文本-檢驗多源信息融合分析的最后一環(huán)。

圖:MedGemma 1.5在文本任務上的性能提升
與此同時,傳統(tǒng)的語音識別(ASR)模型在面對生僻醫(yī)療術語時,也表現(xiàn)得像一個完全沒受過醫(yī)學教育的外行,極高的詞錯率讓AI錄入變成了醫(yī)生的負擔。
而新發(fā)布的自動語音識別模型MedASR針對醫(yī)療進行了微調(diào),錯誤率大大減少
研究人員將MedASR的性能與通用ASR模型Whisper large-v3進行了對比。
發(fā)現(xiàn)MedASR在胸部X光口述錯誤率上降低了58%,在不同??浦g的口述中錯誤減少82%。
萬億谷歌,押注AI醫(yī)療
谷歌在醫(yī)療健康領域的布局十分深入,其技術觸角已延伸至行業(yè)各個角落。
投資上,谷歌通過旗下風險投資及其私募股權部門投資了許多生命科學公司。
其中,AI制藥成為谷歌偏愛的重點領域,在Google Ventures在2021年51筆醫(yī)療健康領域投資中,對于藥物研發(fā)的投資就達到28筆,超過半數(shù)。
合作層面,憑借業(yè)內(nèi)領先的人工智能、云計算等服務,谷歌近年來與拜耳、輝瑞、施維雅、梅奧診所等藥企和醫(yī)院達成協(xié)議,探索從藥物研發(fā)到臨床診療的智能解決方案。
在內(nèi)部,谷歌除了Google Health外,還有包括Verily、Calico在內(nèi)專注于不同領域的業(yè)務單元,形成多元化的強大矩陣。
尤其是,作為全球頂尖的人工智能研究機構,GoogleDeepMind推出多個具有重要意義的科學模型,包括AlphaFold(蛋白質(zhì)結構)、AlphaGenome(DNA調(diào)控)、C2S-Scale(單細胞)等。
DeepMind的CEO,Demis Hassabis,就因為在AI蛋白質(zhì)結構預測上的貢獻獲得了2024年諾貝爾化學獎。
近年來,在大語言模型的潮流下,谷歌也開發(fā)了多款用于醫(yī)療保健的垂類大模型。
這些模型不僅能夠幫助醫(yī)生更精準地診斷疾病,還能為患者提供個性化的健康建議。
谷歌團隊首先研發(fā)了Flan-PaLM,這一模型挑戰(zhàn)了美國醫(yī)學執(zhí)照考試(USMLE),取得了67.6%的成績,比此前最好的模型提高了17%。
之后,谷歌發(fā)布了Med-PaLM,該成果登上了Nature,經(jīng)過專業(yè)臨床醫(yī)生評判,Med-PaLM對實際問題的回答準確率與真人相差無幾。
2023年,全球首個全科醫(yī)療大模型Med-PaLM M發(fā)布,其在14項測試任務(問題回答、報告生成和摘要、視覺問題回答、醫(yī)學圖像分類和基因組變體調(diào)用)中均接近或超過現(xiàn)有SOTA。
去年,谷歌首席健康官Karen DeSalvo博士宣布了六項進展,包括AI制藥模型TxGemma、獲得FDA批準的手表脈搏停止檢測功能、多智能體系統(tǒng)“AI聯(lián)合科學家”、兒科個性化癌癥治療模型等。
從醫(yī)學影像到藥物研發(fā),從健康助手到可穿戴設備,谷歌正在重新定義未來醫(yī)療,
特別聲明:智慧醫(yī)療網(wǎng)轉(zhuǎn)載其他網(wǎng)站內(nèi)容,出于傳遞更多信息而非盈利之目的,同時并不代表贊成其觀點或證實其描述,內(nèi)容僅供參考。版權歸原作者所有,若有侵權,請聯(lián)系我們刪除。
凡來源注明智慧醫(yī)療網(wǎng)的內(nèi)容為智慧醫(yī)療網(wǎng)原創(chuàng),轉(zhuǎn)載需獲授權。
特別聲明:智慧醫(yī)療網(wǎng)轉(zhuǎn)載其他網(wǎng)站內(nèi)容,出于傳遞更多信息而非盈利之目的,同時并不代表贊成其觀點或證實其描述,內(nèi)容僅供參考。版權歸原作者所有,若有侵權,請聯(lián)系我們刪除。
凡來源注明智慧醫(yī)療網(wǎng)的內(nèi)容為智慧醫(yī)療網(wǎng)原創(chuàng),轉(zhuǎn)載需獲授權。
Copyright ? 2022 上??评讜狗沼邢薰?旗下「智慧醫(yī)療網(wǎng)」版權所有 ICP備案號:滬ICP備17004559號-5