暨南大學(xué)融媒體中心訊 近日,暨南大學(xué)信息科學(xué)技術(shù)學(xué)院、暨南大學(xué)第一附屬醫(yī)院(華僑醫(yī)院)、廣州市婦女兒童醫(yī)療中心,中山大學(xué)第三附屬醫(yī)院,聯(lián)合全球多所知名高校與醫(yī)療機(jī)構(gòu)完成的最新研究成果《Beyond Benchmarks of IUGC: Rethinking Requirements of Deep Learning Method for Intrapartum Ultrasound Biometry from Fetal Ultrasound Videos》在醫(yī)學(xué)影像領(lǐng)域國(guó)際權(quán)威期刊Image Analysis(IF=11.8)發(fā)表。該研究在前期產(chǎn)時(shí)超聲智能測(cè)量國(guó)際基準(zhǔn)研究基礎(chǔ)上,進(jìn)一步深挖母胎超聲視頻的臨床價(jià)值,首次構(gòu)建了面向臨床應(yīng)用的產(chǎn)時(shí)超聲視頻多任務(wù)自動(dòng)測(cè)量框架,為解決資源匱乏地區(qū)超聲專(zhuān)業(yè)人員短缺、分娩進(jìn)展評(píng)估效率低等臨床痛點(diǎn)提供了全新的深度學(xué)習(xí)解決方案,推動(dòng)智能?chē)a(chǎn)保健技術(shù)向更貼近臨床的視頻分析方向邁進(jìn)。陸堯勝教授與鄭崢主任為該研究共同通訊作者。
全球每年約有 28.7 萬(wàn)例孕產(chǎn)婦死亡、240 萬(wàn)例新生兒死亡和 190 萬(wàn)例死產(chǎn),其中 45% 的悲劇發(fā)生在分娩階段,中低收入國(guó)家受此影響尤為嚴(yán)重。產(chǎn)時(shí)超聲生物測(cè)量是監(jiān)測(cè)分娩進(jìn)展的關(guān)鍵手段,其核心指標(biāo)角度進(jìn)展度(AoP)和頭恥距(HSD)能有效預(yù)測(cè)分娩結(jié)局、降低不必要剖宮產(chǎn)率,但傳統(tǒng)人工評(píng)估方式不僅耗時(shí)費(fèi)力、易受主觀(guān)因素影響,還依賴(lài)專(zhuān)業(yè)超聲醫(yī)師的操作,在醫(yī)療資源有限地區(qū)難以普及。同時(shí),產(chǎn)時(shí)超聲視頻存在的圖像偽影、胎體動(dòng)態(tài)運(yùn)動(dòng)、解剖結(jié)構(gòu)變形等問(wèn)題,也為自動(dòng)化分析帶來(lái)了巨大技術(shù)挑戰(zhàn)。為攻克上述難題,陸堯勝教授團(tuán)隊(duì)聯(lián)合奧克蘭大學(xué)、悉尼大學(xué)、牛津大學(xué)、穆罕默德本扎耶德人工智能大學(xué)等全球數(shù)十家機(jī)構(gòu),依托 MICCAI 2024 Intrapartum Ultrasound Grand Challenge(IUGC)挑戰(zhàn)賽,開(kāi)展了基于產(chǎn)時(shí)超聲視頻的分娩進(jìn)展評(píng)估深度學(xué)習(xí)分析系統(tǒng)性研究。研究團(tuán)隊(duì)構(gòu)建了目前全球規(guī)模最大的多中心產(chǎn)時(shí)超聲視頻數(shù)據(jù)集,該數(shù)據(jù)集涵蓋來(lái)自 3 家醫(yī)院的 774 段視頻(含 68106 幀圖像),均為經(jīng)會(huì)陰采集的分娩期母胎超聲影像,嚴(yán)格遵循國(guó)際婦產(chǎn)超聲學(xué)會(huì)(ISUOG)采集規(guī)范,同時(shí)設(shè)置了明確的納入與排除標(biāo)準(zhǔn),保證了數(shù)據(jù)的臨床代表性和可靠性。

文章發(fā)表頁(yè)面截圖
基于該數(shù)據(jù)集,研究團(tuán)隊(duì)創(chuàng)新設(shè)計(jì)了融合標(biāo)準(zhǔn)平面分類(lèi)、胎頭- 恥骨聯(lián)合分割、生物參數(shù)測(cè)量的多任務(wù)自動(dòng)測(cè)量框架,實(shí)現(xiàn)了從超聲視頻中端到端的分娩進(jìn)展關(guān)鍵指標(biāo)提取。該框架突破了傳統(tǒng)單張超聲圖像分析的局限性,充分挖掘視頻的時(shí)空特征,讓算法能夠利用多維度時(shí)空互補(bǔ)信息,顯著提升分娩進(jìn)展評(píng)估的準(zhǔn)確性和魯棒性。本次挑戰(zhàn)賽吸引了全球 18 個(gè)國(guó)家的 126 支團(tuán)隊(duì)注冊(cè)參與,最終 16 支團(tuán)隊(duì)完成有效提交,研究團(tuán)隊(duì)對(duì)其中 8 支頂尖團(tuán)隊(duì)的算法方案進(jìn)行了全面剖析,從預(yù)處理、數(shù)據(jù)增強(qiáng)、學(xué)習(xí)策略、模型架構(gòu)、后處理五個(gè)維度展開(kāi)系統(tǒng)性研究,深入挖掘了不同深度學(xué)習(xí)方法在產(chǎn)時(shí)超聲視頻分析中的優(yōu)勢(shì)與不足。研究結(jié)果顯示,最優(yōu)算法在標(biāo)準(zhǔn)平面分類(lèi)、胎頭- 恥骨聯(lián)合分割及 AoP、HSD 測(cè)量等任務(wù)上展現(xiàn)出優(yōu)異性能,其中分割任務(wù)的骰子相似系數(shù)(DSC)達(dá)0.8857,AoP 測(cè)量絕對(duì)誤差低至9.1557°,HSD 測(cè)量絕對(duì)誤差僅10.3878 mm,部分指標(biāo)已接近資深臨床超聲醫(yī)師水平。同時(shí),研究團(tuán)隊(duì)通過(guò)大量對(duì)照實(shí)驗(yàn),明確了一系列提升算法性能的關(guān)鍵策略:在預(yù)處理階段,圖像尺寸歸一化和對(duì)比度增強(qiáng)能有效降低數(shù)據(jù)復(fù)雜度;數(shù)據(jù)增強(qiáng)方面,結(jié)合幾何變換與強(qiáng)度調(diào)整的復(fù)合策略可使模型準(zhǔn)確率提升約24%;模型架構(gòu)上,Video Swin Transformer 等視頻專(zhuān)用網(wǎng)絡(luò)能更好捕捉時(shí)空特征,Segment Anything Model(SAM)在分割和參數(shù)測(cè)量任務(wù)中表現(xiàn)出顯著優(yōu)勢(shì);后處理階段,直接基于分割輪廓提取關(guān)鍵點(diǎn)的方式,比橢圓擬合更適合動(dòng)態(tài)的產(chǎn)時(shí)超聲影像分析。

IUGC 2024 基于超聲視頻的分娩進(jìn)展評(píng)估流程示意圖
此外,研究團(tuán)隊(duì)還針對(duì)臨床實(shí)際應(yīng)用中的關(guān)鍵問(wèn)題展開(kāi)深入探究。通過(guò)對(duì)不同醫(yī)院、不同超聲設(shè)備采集的數(shù)據(jù)進(jìn)行分層分析,發(fā)現(xiàn)算法在跨設(shè)備、跨中心場(chǎng)景下的魯棒性仍有提升空間,為后續(xù)域自適應(yīng)學(xué)習(xí)、多源數(shù)據(jù)融合等研究指明了方向;通過(guò)評(píng)估三位資深醫(yī)師的人工標(biāo)注一致性,明確了產(chǎn)時(shí)超聲測(cè)量的固有臨床難度,為算法性能評(píng)估設(shè)定了更貼合實(shí)際的參考標(biāo)準(zhǔn);通過(guò)對(duì)比兩階段訓(xùn)練與端到端訓(xùn)練、圖像基分析與視頻基分析等不同范式,證實(shí)了視頻基端到端多任務(wù)學(xué)習(xí)范式是未來(lái)產(chǎn)時(shí)超聲自動(dòng)化分析的重要發(fā)展方向。
該研究得到了國(guó)家自然科學(xué)基金、廣東省自然科學(xué)基金、廣州市重點(diǎn)研發(fā)計(jì)劃、歐盟“地平線(xiàn)歐洲”計(jì)劃等多個(gè)項(xiàng)目的聯(lián)合資助。
論文鏈接:https://www.sciencedirect.com/science/article/pii/S136184152600112X
責(zé)編:李梅