透過您的圖書館登入
IP:3.17.79.60

清華大學資訊工程學系所學位論文

國立清華大學,正常發行

選擇卷期


已選擇0筆
本文將於2026/07/15開放下載。若您希望在開放下載時收到通知,可將文章加入收藏
  • 學位論文

在高等程式語言中,執行時系統正變得越來越重要。它可以用來當作控制與向後協尋幫助的引擎,為人工智能模型和人工智能語言提供一個執行環境。 在現在的開放計算語言中,執行時系統,可以調用核心程序在圖形處理器上並做運算。因此,執行時系統可以在程序調度,執行和分區等方面發揮作用。 在我們的研究工作中,我們將努力的為執行時系統提供幾個先進的研究。 本文的主要貢獻如下。 首先,在先前的工作中,我們的實驗室成員幫助異構系統架構中啟用了開放計算語言框架1.2的版本,使用開源軟體的便攜式計算語言的執行時框架作為實作的架構基礎。在這項工作中,我們進一步擴展了框架,予以支持開放計算語言2.0功能,並通過了13隻AMD軟體開發套件中的計算語言2.0範例程式。 其次,我們的研究工作開發出允許交換式神經網路格式的模型在Host和Android 平台上執行推理的任務,並通過Android平台上的神經網絡應用接口靈活地調用神經網絡,以加快推理操作。 我們開發了一種名為BFSelector的算法,該算法基於經典的廣度優先搜索,並包括使用成本的考量去決定輸入的模型如何做區分。我們的初步實驗結果表明,我們在交換式神經網路格式的模型上使用API 27的神經網路應用接口,可以使基準速度提高1.32至22.52倍,在API 28的基準下速度提高4.56至211倍,其中基準是無調用神經網路應用接口。實驗包括AI模型,例如LeNet,AlexNet,MobileNet_V1,MobileNet_V2,VGG-16和VGG-19。 最後,我們看一下在圖形處理器架構上調度相依程序的執行時功能。 我們創建框架來分析神經網路模型(例如交換式神經網路格式和開放式神經網路格式的模型)並找到相關相依程序的模板,然後可將其進行調度使用開放計算語言或CUDA在圖形處理器架構上。 初步的實驗結果表明,通過結合神經網路運算單元和適當的內存策略,該技術平均可將整體性能提高8%,並將緩存未命中率平均降低14%。

若您是本文的作者,可授權文章由華藝線上圖書館中協助推廣。
  • 學位論文

隨著5G網路快速的發展,為了達到更好的可靠性及表現,發展低延遲及高頻寬 為其中的目標,而用戶以及基地台的數量在未來的發展自然也大量的增加,這 便導致了儘管在跟以前網路在相同的範圍之下,遭受到的干擾以及對Quality of Experience (QoE)的影響相較之前更加劇烈,更加難以保持甚至提升用戶的要求。 再來,小覆蓋範圍的基地台自然導致了更多的換手發生,頻繁以及不佳的換手選擇 更影響了用戶的體驗嚴重甚至斷線,因此,考慮一個對用戶更有效率的換手方式至 關重要。本文中,由於無法獲得完整的環境資訊,不少資訊為未知,例如:排程 器,所以透過使用RL來跟環境互動使幫助用戶做出換手決定,實驗結果也表明在 平均QoE的部分我們的方法可以比傳統的方法更好。

  • 學位論文

我們提出 Omnidirectional Neural Radiance Fields (OmniNeRF),是第一 個可使用在全景圖上的新視角合成應用。近期在新視野合成領域中的作品主 要都關注在透視影像的合成,但透視影像會受限於有限的視野和需要在特定 條件下足夠數量的影像資訊。相比之下,只要給予一張 360 影像作為訓練資 料,OmniNeRF 就可以在未知的視野下生成全景圖。因此,我們提出一種資 料擴充的方法,將單張的全景圖從 3D 世界投影到在不同場景位置的 2D 平面 座標系。利用這樣的方式,我們可以用在固定相機位置往 360 度全方向可視 的像素去最佳化 Omnidirectional Neural Radiance Field,以估算在任意相機 地點所看到的場景。總結而言,我們提出的 OmniNeRF 產生全新視野的全景 圖時,可以輸出具說服力的影像,並且能夠產生雙眼視差的效果。我們在合 成與真實世界的資料集中驗證我們的結果 。

若您是本文的作者,可授權文章由華藝線上圖書館中協助推廣。
  • 學位論文

基於市場與實務需求,CNN模型的準確度並不是唯一的指標,硬體資源如記憶體與電力在執行推斷時的消耗量也非常重要,尤其是將ML應用部屬在終端設備上時,其記憶體與電量必有一定的限制。為了解決這個問題,學者們經常使用量化技術來縮減應用中數值所使用的bits數,使用低精度/低功耗數值來表達運算中的激活值與權重。此篇論文便著重於該議題,使用與引入低精度/功耗數值轉換.使用Quantized integer與Fixed point integer於深度學習編譯器(TVM)中,且利用RISC-V P extension支援Subword SIMD運算的特性,來優化我們轉換後的低精度運算,在硬體指令的使用上提高Convolution運算中乘積的效能。 此篇論文主要支援兩種流程,兩種流程皆佐以前面描述的指令優化,對於量化過的模型,我們使用現有的QNN Dialect來對接與引入Quantized integer;而對於一般的FP32模型,我們會介紹Graph-level的轉換(AutoFXP),其幫助我們將模型中指定的Convolution layer自動從FP32運算轉換為Fixed point運算,而對於轉換過程中需要設置的參數 - binary point,我們設計了Profiling-based的Selector來自動化的取得每一個轉換層所需要的binary point,其中亦考慮了精準度的維持與效能的優化程度。 實驗顯示,以最終推斷時的指令數量為比較,優化過的Quantization流程可以比一般模型高過2.43至9.98倍的加速,實驗模型包含MobileNet v1, v2 與 Inception v3, v4;而對於優化過的Fixed point流程,則是可以比一般的模型達到約1.31至8.95倍的加速,同時維持在約1%內的精準度損失,實驗模型包含MobileNet, SqueezeNet, VGG, ResNet 與 Inception。實驗使用2000張ImageNet的圖來測量精準度,使用Spike(RISC-V ISA Simulator)作為平台。

本文將於2026/07/06開放下載。若您希望在開放下載時收到通知,可將文章加入收藏
  • 學位論文

具有並列連接的最新卷積神經網絡,例如 DenseNet,FractalNet 和 HarDNet 藉由大量的特徵融合運算在眾多計算機視覺任務(包括圖像分類 和目標檢測)取得了傲人的成績。但是,相對密集的連接模式限制了這些 有效模型的推理速度。在本文中,我們提出了一個維持多尺度特徵融合特 色且但具有更少的記憶體搬運量的新計算模塊,稱為 HarDX 塊和一個用於 設計特定於輸入大小的卷積神經網路結構名為 Stage Receptive Field 的新穎 概念。基於這兩個創新的概念,我們提出了一種新的卷積神經網路結構, 名為 HarDNeXt,速度分別比 DenseNets 和 HarDNets 快了 200%和 30%並 且在進行推論所需的功耗上分別少了 60%和 15%。對於結腸鏡檢查圖像息 肉分割的應用任務,HarDNeXt 與最先進的神經網路模型相比達到相同水平 的精度並將運行速度提高了 25%。

  • 學位論文

近幾年來,回放攻擊一直威脅著自動語者驗證系統(ASV)。經驗模態分解(EMD)是分析語音信號的一種有效方法。由於相對較高的頻率區域包含了更多的資訊來區分真假語音信號。因此,EMD是一種有效的分析語音信號的方法。語音信號被分解為多個本質模態函數(IMF)。我們提出了一種基於EMD的方法來實現檢測回放攻擊。該方法的主要思想是用EMD對信號進行分解,然後從不同的IMF組合中提取常數Q倒頻譜係數(CQCC)或者梅爾倒頻譜係數(MFCC)。根據我們在ASVspoof 2019資料庫上的結果,每個IMFs都在一定程度上提供了一些資訊。通過對部分IMFs的組合,我們可以得到比原始信號更好的結果。我們提出的方法可實現92.04%的高正確率和0.0693左右的低相等錯誤率(EER)。我們也討論了實驗結果可能的原因,包括EMD適合與CQCC結合,而不適合與MFCC結合的可能因素。

  • 學位論文

我們提出了一種新的捲積神經網絡架構,稱為HarDNet-MSEG,應用於腸鏡檢查圖像的息肉分割。 HarDNet-MSEG由骨幹網路和解碼器組成。 骨幹網路採用 HarDNet,是一種低記憶體流量的 CNN 模型。 解碼器的靈感來自於以快速準確的顯著物體檢測而聞名的 Partial Decoder。 我們提出的模型有效地融合來自不同尺度的特徵。 在五個公開的息肉分割數據集上(Kvasir-SEG, CVC-ColonDB, EndoScene, ETIS-Larib Polyp DB 與 CVC-ClinicDB),不論是準確性或是推理速度上,皆達到世界第一的性能。 其中,在 Kvasir-SEG 上的表現,HarDNet-MSEG 是唯一達到超過 0.9 mean Dice 並且在 GeForce RTX 2080 Ti GPU 上有超過 100 FPS 的運行速度。 該代碼和所有實驗詳細信息均在 Github 上開源。

本文將於2025/05/09開放下載。若您希望在開放下載時收到通知,可將文章加入收藏
  • 學位論文

深度學習已在許多領域獲得值得關注的進展,尤其深度卷積網路在圖像辨識相關領域的成就,然而深度卷積網路的能源消耗與計算量非常高,使得該技術能被應用的領域非常受限。深度卷積網路的過度參數化已經是為人所知的,為了能將深度卷積網路應用於資源受限的裝置上,模型壓縮成為了一個重要的研究領域,目前主要的研究領域包括剪枝,量化與分解,其中,分解演算法中的張量分解是深度卷積網路壓縮中的重要技巧之一,歸功於其能夠發現隱藏於卷積層複雜節構中的線性關西。然而,現有方法尚無法提供在模型加速與正確率的損失間令人滿意的平衡點。在本工作中,我們提出一個基於張量分解的模型壓縮方法,針對深度卷積網路中的卷積層進行低維近似。首先,一個全新的卷積網路訓練方法被設計來在模型壓縮過程中更好的維持正確率。再來,我們以最佳化方法解決在使用張量分解於壓縮卷積網路中的維度選擇問題。最後,我們提出一個全新的迴歸方法,稱之為漏斗函數,來決定張量的維度。實驗結果顯示我們的演算法相較於其他張量壓縮演算法可以移除更多模型中的參數並維持更好的正確率。在數個指標性的大型卷積網路上,我們在平均上達到約一個百分比的正確率損失與兩倍的計算量加速。