成人a片不需要播放器|无码高清欧美性爱|黄色三级片在线免费播放)2|超碰久操福利a级黄论片|国产一级婬片A片AAA情欲王朝|亚洲第一免费网页|看免费AV片av天堂1|国内成人一个色在线|青青艹在线观看色欧美性爱|黄色视频无遮挡免费观看

歡迎訪問智慧醫(yī)療網(wǎng) | 網(wǎng)站首頁
 

AI醫(yī)療,谷歌放大招!開源全球首個「AI全能醫(yī)生」,告別算力焦慮,醫(yī)院一鍵部署!

發(fā)布時間:2026-01-18 來源:智藥局 瀏覽量: 字號:【加大】【減小】 手機上觀看

打開手機掃描二維碼
即可在手機端查看

剛剛,AI醫(yī)療新突破,來自谷歌!


這一次,他們直接瞄準了真實臨床環(huán)境的痛點。

 

長期以來,醫(yī)療模型就像是一個“偏科生”,它擅長“讀病歷”,卻對CTMRI、病理切片這些醫(yī)學影像“力不從心”。

 

這是因為,它們被迫用文本邏輯去理解圖像,導致效率低、錯誤多、成本高。


為此,谷歌祭出了最新模型MedGemma 1.5,找到了破局答案。


相較于此前的MedGemma 1.5,MedGemma 1.5在多模態(tài)應用上實現(xiàn)重大突破,融合了:


  • 高維醫(yī)學影像:計算機斷層掃描(CT)、磁共振成像(MRI)和組織病理學

  • 縱向醫(yī)學影像:胸部X光時間序列回顧

  • 解剖定位:胸部X光片中解剖特征的定位

  • 醫(yī)學文檔理解:從醫(yī)學實驗室報告中提取結構化數(shù)據(jù)


谷歌表示,MedGemma 1.5是首個公開發(fā)布的開源多模態(tài)大語言模型,既能夠解讀高維醫(yī)學數(shù)據(jù),同時還擁有解讀通用二維圖像和文本的能力。


更關鍵的是,MedGemma 1.5只有40億參數(shù)量,這意味著,普通的消費級顯卡甚至高性能工作站,就能流暢運行。


MedGemma 1.5開源地址:https://huggingface.co/google/medgemma-1.5-4b-it


微信圖片_2026-01-18_215040_662.png


不僅如此,谷歌還發(fā)布了MedASR,一個專門為醫(yī)療語音微調(diào)的語音識別模型,可以將醫(yī)生與患者的對話轉(zhuǎn)化為文本,并無縫接入到MedGemma。


MedASR開源地址:https://huggingface.co/google/medasr


直白講,MedGemma 1.5解決「怎么看圖」,MedASR解決「怎么聽音」。

 

不是簡單的模型迭代,而是谷歌如何讓AI真正走進診室給出的一套體系化答案。

 

一個讀得透病歷、看得懂影像、聽得清語音AI醫(yī)生,即將走進每一家醫(yī)院。


AI醫(yī)療,進入多模態(tài)時代

 

在過去的一年里,我們見證了GPT-5等模型在醫(yī)學考試中的驚艷表現(xiàn),

 

但在真實的臨床場景中,它們的表現(xiàn)往往不盡如人意。

 

一個重要的原因在于信息維度的斷層。

 

包括初代MedGemma在內(nèi)的很多醫(yī)療模型質(zhì)是文字專家,對于圖像的理解能力不強,帶來了診斷信息的丟失。

 

MedGemma 1.5則在醫(yī)學影像應用場景中實現(xiàn)了全方位、多維度的性能躍升,顯著超越其前代模型。

 

針對高維醫(yī)學影像,MedGemma 1.5做到了:

 

  • CT疾病分類準確率從58%提升至61%。

  • MRI疾病分類準確率從51%提升65%,尤其在腦部、關節(jié)等復雜解剖結構識別上進步顯著。

  • 全切片病理描述質(zhì)量ROUGE-L分數(shù)從近乎無效的0.02提高到0.49,達到專用模型PolyPath的水平(0.498),可生成臨床可用的組織學描述。


微信圖片_2026-01-18_215045_754.png

圖:MedGemma 1.5在醫(yī)療影像上的性能提升


針對縱向時序影像分析,MedGemma 1.5做到了:


  • MS-CXR-T 時序評估基準上,宏觀準確率從 61% 提升至 66%

  • 有效捕捉病灶動態(tài)變化,例如判斷肺炎浸潤是否吸收,支持隨訪決策

 

針對通用2D醫(yī)學圖像解讀MedGemma 1.5做到了: 


  • 在內(nèi)部綜合單圖基準(涵蓋X光、皮膚、眼底、病理切片)上,整體分類準確率從59% 提升至 62%。

  • 表明模型在保持廣泛2D能力的同時,未因新增高維任務而犧牲基礎性能。

 

針對結構化醫(yī)學文檔,MedGemma 1.5做到了:

 

  • 從非結構化PDF或文本中提取檢驗項目、數(shù)值、單位的宏平均F1分數(shù)從60%提升至78%+18%)。

  • 自動構建結構化數(shù)據(jù)庫,打通影像-文本-檢驗多源信息融合分析的最后一環(huán)。


微信圖片_2026-01-18_215049_057.png

圖:MedGemma 1.5在文本任務上的性能提升


與此同時,傳統(tǒng)的語音識別(ASR)模型在面對生僻醫(yī)療術語時,也表現(xiàn)得像一個完全沒受過醫(yī)學教育的外行,極高的詞錯率讓AI錄入變成了醫(yī)生的負擔。


而新發(fā)布的自動語音識別模型MedASR針對醫(yī)療進行了微調(diào),錯誤率大大減少

 

研究人員將MedASR的性能與通用ASR模型Whisper large-v3進行了對比。

 

發(fā)現(xiàn)MedASR在胸部X光口述錯誤率上降低了58%,在不同??浦g的口述中錯誤減少82%。


萬億谷歌,押注AI醫(yī)療

 

谷歌在醫(yī)療健康領域的布局十分深入,其技術觸角已延伸至行業(yè)各個角落。

 

投資上,谷歌通過旗下風險投資及其私募股權部門投資了許多生命科學公司。

 

其中,AI制藥成為谷歌偏愛的重點領域,在Google Ventures202151筆醫(yī)療健康領域投資中,對于藥物研發(fā)的投資就達到28筆,超過半數(shù)。

 

合作層面,憑借業(yè)內(nèi)領先的人工智能、云計算等服務,谷歌近年來與拜耳、輝瑞、施維雅、梅奧診所等藥企和醫(yī)院達成協(xié)議,探索從藥物研發(fā)到臨床診療的智能解決方案。

 

在內(nèi)部,谷歌除了Google Health外,還有包括Verily、Calico在內(nèi)專注于不同領域的業(yè)務單元,形成多元化的強大矩陣。

 

尤其是,作為全球頂尖的人工智能研究機構,GoogleDeepMind推出多個具有重要意義的科學模型,包括AlphaFold(蛋白質(zhì)結構)、AlphaGenomeDNA調(diào)控)、C2S-Scale(單細胞)等。

 

DeepMindCEO,Demis Hassabis,就因為在AI蛋白質(zhì)結構預測上的貢獻獲得了2024年諾貝爾化學獎。

 

近年來,在大語言模型的潮流下,谷歌也開發(fā)了多款用于醫(yī)療保健的垂類大模型。


這些模型不僅能夠幫助醫(yī)生更精準地診斷疾病,還能為患者提供個性化的健康建議。

 

谷歌團隊首先研發(fā)了Flan-PaLM,這一模型挑戰(zhàn)了美國醫(yī)學執(zhí)照考試(USMLE),取得了67.6%的成績,比此前最好的模型提高了17%


之后,谷歌發(fā)布了Med-PaLM,該成果登上了Nature,經(jīng)過專業(yè)臨床醫(yī)生評判,Med-PaLM對實際問題的回答準確率與真人相差無幾。


2023
年,全球首個全科醫(yī)療大模型Med-PaLM M發(fā)布,其在14項測試任務(問題回答、報告生成和摘要、視覺問題回答、醫(yī)學圖像分類和基因組變體調(diào)用)中均接近或超過現(xiàn)有SOTA。

 

去年,谷歌首席健康官Karen DeSalvo博士宣布了六項進展,包括AI制藥模型TxGemma、獲得FDA批準的手表脈搏停止檢測功能、多智能體系統(tǒng)AI聯(lián)合科學家”、兒科個性化癌癥治療模型等。 

 

從醫(yī)學影像到藥物研發(fā),從健康助手到可穿戴設備,谷歌正在重新定義未來醫(yī)療,


特別聲明:智慧醫(yī)療網(wǎng)轉(zhuǎn)載其他網(wǎng)站內(nèi)容,出于傳遞更多信息而非盈利之目的,同時并不代表贊成其觀點或證實其描述,內(nèi)容僅供參考。版權歸原作者所有,若有侵權,請聯(lián)系我們刪除。

凡來源注明智慧醫(yī)療網(wǎng)的內(nèi)容為智慧醫(yī)療網(wǎng)原創(chuàng),轉(zhuǎn)載需獲授權。


特別聲明:智慧醫(yī)療網(wǎng)轉(zhuǎn)載其他網(wǎng)站內(nèi)容,出于傳遞更多信息而非盈利之目的,同時并不代表贊成其觀點或證實其描述,內(nèi)容僅供參考。版權歸原作者所有,若有侵權,請聯(lián)系我們刪除。

凡來源注明智慧醫(yī)療網(wǎng)的內(nèi)容為智慧醫(yī)療網(wǎng)原創(chuàng),轉(zhuǎn)載需獲授權。

Copyright ? 2022 上??评讜狗沼邢薰?旗下「智慧醫(yī)療網(wǎng)」版權所有    ICP備案號:滬ICP備17004559號-5