top of page

​研究成果

​使用 ResNet50 模型進行分類
​訓練方法:
  • 影像進行3-windows處理後組成三通道影像
  • 加入切層位置的 Z 值正規化
  • 後端的位置感知 MLP 融合機制
  • ​影像和位置特徵融合
  • 最佳閥值搜尋
  • Sigmoid 多標籤損失 + BCE Loss
Precision
Recall
F1 Score
epidural

0.89362

0.86897

0.88112

subdural

0.90055

0.81500

0.85564

subarachnoid

0.86598

0.84000

0.85279

intraparenchymal

0.92727

0.76500

0.83836

intraventricular

0.87558

0.95000

0.91127

0.95465

0.96852

0.96154

any
平均

0.90294

0.86791

0.88345

未來展望

1.  ​技術優化
  • 引入更先進的深度學習架構(Vision Transformer)

       未來可嘗試以 Transformer 架構取代部分 CNN 模組,藉由自注意力機制(Self-Attention)提升模型對影像中長距離特徵的捕捉能力,以進一步增強顱內出血區域辨識的精確度與解釋性。

  • 改善少數類別辨識與資料不平衡問題

       將導入如 Focal Loss、Class-Balanced Loss 或資料重採樣(Re-sampling)技術,以提升罕見出血類型(如 Epidural)的辨識 率,並確保模型在多標籤情境下維持穩定表現。透過上述改進,有望在精準度、 計算效率與臨床可用性之間取得更佳平衡,為顱內出血 CT 影像的自動化分類 與優化提供更完善的解決方案。

2. 功能拓展
  • 結合病灶分割與時序追蹤分析

       在分類任務基礎上,進一步加入病灶區域分割 (Lesion Segmentation)與切層追蹤功能,以提供病變體積變化與進展趨勢分析, 協助臨床醫師進行長期追蹤。

  • 延伸應用至其他醫學影像診斷任務

       將本研究模型框架應用至其他影像領域,如 腦中風偵測、肺部病灶分類或皮膚病變判別等,驗證系統在多任務、多模態醫 學影像分析上的可行性與擴展性。

元智大學資訊管理學系  |   元智大學資管系第三十屆專題製作競賽展

bottom of page