結合CLIP ViT-H/14 與 LLaMA-3模型之白血球分類系統設計
本研究旨在建立一套結合多模態深度學習技術之白血球影像分類系統,藉由 CLIP 與 LLaMA 架構實現語意驅動的分類方式。 透過與傳統純影像分類模型之比較,驗證語意配對技術在醫療影像辨識中之可行性與優勢。 此外,本研究亦嘗試解決醫療影像資料樣本不足問題,提升在臨床應用上的實用性與推廣潛力。
本研究主要分為以下步驟:
本研究透過真實性與多樣性兩個面向,對14種白血球類別的生成影像進行品質評估。
| 細胞種類 | FID指標 | CMMD指標 |
|---|---|---|
| Smudge Cells | 34.33 | 0.0634 |
| Promyelocyte | 43.13 | 0.1591 |
| NRBC | 35.88 | 0.1467 |
| Neutrophilic Myelocyte | 37.52 | 0.1598 |
| Neutrophilic Metamyelocyte | 35.31 | 0.1491 |
| Neutrophil Segment | 34.50 | 0.1235 |
| Monocyte | 32.32 | 0.1220 |
| Lymphocyte | 31.12 | 0.1518 |
| GIANT PLT | 38.51 | 0.1661 |
| Eosinophils | 34.77 | 0.1392 |
| Blast | 31.44 | 0.1321 |
| Basophils | 35.89 | 0.0878 |
| Band | 35.23 | 0.1234 |
| Atypical lymphocyte | 37.43 | 0.1678 |
14類白血球分類準確率
年資5年以上
年資5年以上
年資5年
透過Soft Cosine Similarity評估生成文字描述與標準答案的語意相似度,分數高於0.7視為正確,本系統在醫學描述生成方面表現優異,能夠提供準確的分類依據說明。
為了讓白血球分類系統更貼近實際應用,我們設計並開發了 Android 應用程式,讓使用者可以透過手機進行白血球影像辨識。 App 提供拍照、影像上傳、分類結果查看與紀錄瀏覽等功能,操作簡單、流程清晰,方便使用者快速完成分析。
使用者可透過手機相機拍攝白血球顯微影像,App 將照片傳送至後端伺服器進行分析處理。
系統回傳分類結果(共 14 類白血球),並搭配 LLaMA 模型生成的說明文字,協助使用者理解判斷依據。
使用者可檢視與修正 AI 分類結果,提供回饋機制以強化模型準確度。
以白血球類別進行分類,並以卡片形式呈現過去影像與拍攝時間,方便比對與回顧。
透過手機拍攝顯微影像後,自動上傳至後端進行分析
顯示模型預測的白血球類型與文字說明
使用者可確認或修改系統預測結果,回饋系統提升準確性
依照白血球類別瀏覽過去影像,並顯示對應的拍攝時間
僅需檢驗人員使用手機結合顯微鏡拍照,大幅降低傳統昂貴設備的建置成本,促進偏鄉醫療發展。與傳統高價儀器DI-60相比,本系統在六類白血球分類上已超越該設備效能。
採用創新的Text as Hub框架,同步生成細胞醫學描述,幫助資淺檢驗人員或醫學生快速掌握細胞特徵和分類原因,在提升效率的同時促進學習。
有效解決各醫院國家認證細胞型態分類臨床專家人員不足的問題,減緩資深檢驗人員的工作負擔,提供24小時不間斷的專業級分類服務。
結合大型語言模型輸出分類依據,通過多項指標評估達標,為醫療決策提供可靠的AI輔助支援,提升診斷品質與一致性。