透過您的圖書館登入
IP:3.135.62.42

摘要


2012年所提出的AlexNet [1]演算法大幅提升了圖形辨識準確度,因而開啟了之後人工智慧的浪潮,接著VGG16 [2]、ResNet [3]、GoogleNet [4]等相關的演算法如雨後春筍冒出,以下就以圖1來比較不同DNN網路的TOP 1準確度(Accuracy)、運算量(Operation)與參數量:圖1 [5]為不同DNN網路的TOP 1準確度(Accuracy)、運算量(Operation)與參數量之比較圖。圖1左下角為AlexNet網路,它的TOP 1準確度為57.1%,所需要的參數量為60M。圖1右上角為NASNet-A-Large [6]網路,他的TOP 1準確度可達到82.7%,所需要之參數量與運算量分別高達為88.9M與23.8 G-FLOPs。然而,天下沒白吃的午餐。NASNet-A-Large網路的TOP 1準確度遠優於AlexNet網路並高達25.6%,是付出了大量的運算量與參數量才得到的。因此,為了提升需大量運算之DNN網路運算速度與效率,像TPU [6]這種人工智慧加速器便油然而生。然而,以往在設計硬體時通常有明確的規格與介面,但在這一波人工智慧的發展中,軟體系統應用與DNN網路的演進非常迅速。因此若想研發真正具高度AI運算效率的人工智慧加速器,必須由應用的角度來解決問題。另外,人工智慧之運用範疇非常廣泛,從計算量需求較小的物聯網(Internet of Things, IoT)到計算量較大的自動駕駛,其運算量之差異非常大。因此設計不同應用需求之人工智慧加速處理器,並以高效能與低耗能為目標,便是非常挑戰的項目。

關鍵字

無資料

延伸閱讀


國際替代計量