透過您的圖書館登入
IP:3.141.24.134
  • 期刊

淺談可解釋性人工智慧於醫學影像之應用

摘要


在人工智慧演算法不斷進步的時代裡,開發人員不斷嘗試修正深度學習模型,為的就是讓測試出來的模型準確率能夠愈來愈高。然而,這些深度學習模型常常被科學家視為「黑盒子」,也就是說,僅管能夠得到模型預測的結果,但卻無法得知模型在判斷時的邏輯與依據。「黑盒子」的現象可能會使得人們無法驗證模型本質的正確性,在低度容錯的醫療應用上,這樣的模型便不足以信賴,也會大大降低人工智慧應用在醫療領域的可行性。在本篇文章中,我們探討如何對一個已經訓練完成的模型進行解釋,其中常見的方法包括:基於干擾的方法、局部可理解的模型解釋法、顯著圖、生成模型。而當我們發現訓練模型真的存在邏輯錯誤的情況,又該如何從資料集和模型層面去調整我們設計的演算法。最後,我們回過頭來思考「由人類判斷模型邏輯是否錯誤」的這件事情是否合理,為什麼電腦的思考方式一定要是人類能完全理解的呢?也許電腦找出了一個完全正確但是從來沒有任何人類想到的思考模式?期盼這篇文章可以讓大家更深入認識人工智慧的本質,並謹慎小心地使用這些日新月異的技術,更促進其在醫療應用上的發展與創新。

參考文獻


ZHOU, Wenying, et al. Ensembled deep learning model outperforms human experts in diagnosing biliary atresia from sonographic gallbladder images. Nature communications 2021;12:1-14.
ZEILER, Matthew D.; FERGUS, Rob. Visualizing and understanding convolutional networks. In: European conference on computer vision. Springer, Cham 2014;818-33.
AMINU, Muhammad; AHMAD, Noor Atinah; NOOR, Mohd Halim Mohd. Covid-19 detection via deep neural network and occlusion sensitivity maps. Alexandria Engineering J 2021;60:4829-55.
Selvaraju RR, Cogswell M, Das A, et al. Grad-cam: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE international conference on computer vision 2017;618-26.
Ramaswamy HG. Ablation-cam: Visual explanations for deep convolutional network via gradient-free localization. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision 2020;983-91.

延伸閱讀