透過您的圖書館登入
IP:3.144.230.82

清華大學電機工程學系所學位論文

國立清華大學,正常發行

選擇卷期


已選擇0筆
  • 學位論文

在本篇論文中,我們提出了能夠偵測遮蔽行人的方法,將行人分成頭部、身體、腿部三個部位,每個部位的姿勢皆不相同,根據各個部位所能運動的自由度,等量量化後產生不同的姿勢,頭部分成中間、右邊、左邊三種姿勢,身體分成正身和側身兩種姿勢,腿部則是由左右腳的彎曲程度分成八種姿勢,將定義的部位和各個姿勢,分別訓練專屬的偵測器。 在特徵擷取部分利用梯度方向直方圖(HOG)特徵,結合串聯式AdaBoost的分類演算法來訓練分類器,梯度方向直方圖(HOG)能夠成功的擷取行人的輪廓和邊緣資訊。AdaBoost是以特徵選取為基礎的分類演算法,從一大群弱分類器(weak classifier),找出具有鑑別性的特徵,並給予弱分類器各自的權重,成為一個強分類器(strong classifier)。串聯(cascade)的結構能使得分類更有效率,將一個大分類器分成多層的小分類器串聯,大部分屬於非行人的影像能夠在前幾層就被排除,能夠通過最後一層才會被判斷為行人。 在遮蔽處理部分,將行人各個部位的偵測分數,給予不同的權重重新組合後,建立遮蔽配置圖(occlusion map),從中找出最可能發生的遮蔽情形,被遮蔽的部位偵測器不列入考量中,其餘可見部位再由剩餘的偵測器分數平均,分數最高的遮蔽情形即為最佳配置,對每個行人重新給分數,透過以上的方法,就可以判斷出行人或是非行人的影像,此外,我們使用了兩個資料庫INRIA dataset[16]和Caltech dataset[17]來訓練與測試實驗數據。

  • 學位論文

行車中,駕駛者的缺乏專注力往往是造成行車事故發生的原因,本論文的目的在建立一套駕駛者輔助系統,此系統可應用於智慧型車輛,來避免由於駕駛者的不當駕駛造成的事故發生。本篇論文使用第一人稱視覺架構,有別於傳統固定式攝影機的環境,是由使用者配戴可攜式攝影機直接取得前方影像,代表使用者眼睛所觀察到的。本論文共有兩個主要的技術:車內外視角偵測及視角角度估測。在第一項技術,我們利用了“bag of words”影像分類的方法,事先蒐集資料庫並應用FAST+BRIEF的特徵萃取方法。之後我們利用此方法將輸入影像轉換成特徵向量,將此利用SVM分類器來偵測輸入影像是車內或車外,進而辨別駕駛者目前的專注程度。在第二項技術,我們額外架設一台行車紀錄器來擷取車輛前方的影像並且作為視角角度估測的參考座標軸。透過雙攝影機的影像特徵比對方法,來估測兩台攝影機的世界座標運動轉換關係,進而估測駕駛者目前的視角方向。本論文實驗結果顯示,我們可以達到即時的估測出駕駛者的視角方向,以及在駕駛者視角車內影像偵測也有良好的準確程度。

  • 學位論文

長久以來人臉辨識都被熱烈的研究,而傳統基於外觀人臉辨識方法通常都考慮每人多張訓練樣本來提取特徵進行辨識學習訓練,但在實際生活中卻經常遇到以電子護照、身分證件、識別證上的相片當作訓練樣本,這些訓練樣本往往每人只有一張,使的多數傳統人臉辨識方法因訓練樣本不夠多無法有效去實現,因此我們使用了DMMA (Discriminative Multimanifold Analysis) 的方法並進一步提出加速方法有效且準確地解決問題。 本篇訓練快速多重流行判別分析主要分成三步驟: (1)首先帶入每人單張的訓練樣本,使用改良的K-means方法分出相像的兩群人(2)將這兩群人臉切割成不重疊的區塊,代入多重流形判別分析(3)重複執行步驟(1)和(2)訓練出快速多重流形分析的樹狀判別矩陣。論文最後使用了AR資料庫和FERET資料庫驗證本篇人臉辨識,證明方法能在準確率不大幅降低的情況下得到相當有效的加速。

  • 學位論文

由於人體動作辨識廣泛的應用,其在電腦視覺研究中一直是許多研究者相當感興趣的主題,其應用包含:人機互動,智慧型家庭,老年、幼年看護或是視覺監控系統;動作辨識技術在這些領域皆有很大的發展空間。先前的研究多數主要在辨識動作間差異性大的影片,但生活中有許多動作其間的差異性並不大,因此,本論文旨在提出一個辨識方法來辨識這兩種類型的動作。 對於動作辨識而言,從動作影片擷取有辨識度的特徵描述對辨識結果有很大的影響,而local features在辨識上有不錯的效能,因此本論文使用Dense Trajectories的方式來截取動作影片中motion的資訊,因Dense Trajectories可追蹤較完整的前景物件,我們根據這些trajectories將影片切割出許多spatio-temporal grid,再利用HOG及HOF來描述影像前景的appearance及motion,然後使用Bag of words來整理它們。為達更好的效果,我們使用vocabulary tree來做words的分類,進而產生放入分類器做訓練的特徵向量。本論文在分類器選擇的是採用multi-channel 的Random forest,將特徵向量中較為重要的bin利用隨機訓練的方式找出並記錄下來,來當作節點的分類函式。在測試的過程中,可經由一層層的分類來得到測試影片會落入的葉點,並根據葉點中的機率分佈來判斷此動作影片的動作型態。 我們利用兩個資料庫來驗證所提出來的方法,KTH database and URADL database。由實驗結果來看,我們的實驗結果相對於其他的方法有著較高的辨識率,也說明所提出方法可處理動作間差異性大與差異性小的影片。

  • 學位論文

影像處理研究領域中,表情分析辨識一直是具挑戰性的研究議題。表情在人與人的溝通中扮演著很重要的角色,最主要是用來傳遞一些情感上面的訊息,是除了語言之外最重要的溝通方式之一。 表情辨識的難度在於每個人的五官長相和個性都不相同,因此表情的表現方式也會有所差異,這些差異會使得臉部因表情產生較細微的變化,而使分析起來更加複雜。表情基本上是屬於一種臉部連續的變化,所以過去的人把表情分割成四個不同的階段去分析。這四個階段分別是,(1)Neutral、(2)Onset、(2)Apex、(4)Offset。表情變化狀態的順序為,Neutral-> Onset-> Apex-> Offset-> Neutral。 在本研究中,我們採取針對靜態影像做處理的做法,主要是對單張影像的人臉做辨識,只分析人臉部表情四個狀態中Apex時的狀態。我們以Gabor當作訓練特徵,第一階段辨識出數個臉部細微部份的特徵,稱為動作元件(Action Units (AUs) ),再利用這些AU當作辨識表情的特徵,不同的表情會由不同AU的組合來明顯表達,透過隨機森林做訓練,最終辨識六種典型的表情(高興、生氣、難過、驚訝、厭惡、害怕)。

  • 學位論文

本論文提出一個可以辨識人體上身動作及身體部位模擬的即時系統。系統的輸入為即時的深度影像,攝影機是使用微軟的深度攝影機Kinect,系統有三個階段:使用者現在的動作、使用者目前的身體部位估計位置、使用者的部位誤差補償。在第一階段,深度影像經過前處理、萃取特徵、將特徵送入兩個動作分類器辨識目前使用者動作,再加上最後考慮動作上的時間相依性修正並輸出使用者當前動作。第二階段,依照第一階段辨識出的使用者動作,挑選適當的部位分類器,將前處理過的深度影像送入分類器,辨識出當前使用者的身體部位分布。之後考慮身體各部位的關聯性,推論出可能被遮擋住的身體部位,輸出使用者目前的身體部位估計位置。第三階段,依照第二階段估計的身體部位,並依照第一階段辨識出的使用者動作來決定適當的誤差補償分類器,將估計的身體部位當作輸入,辨識出當前身體部位的誤差數值,最後將誤差加回使之修正第二階段的輸出。產生的身體部位修正結果,以及第二階段的身體部位估計,這兩個結果來判斷何者於深度影像較為符合,即是最後的身體部位估計輸出。

  • 學位論文

本論文提出了一種基於深度影像來實現快速且準確的手勢參數估測系統。此系統先將深度影像轉換為特徵向量,再以回歸函式得出手指關節參數。有別於目前手勢估測的兩種主要方向Model-based和Appearance-based,此方法只需要極短的時間便可計算出值域連續的參數。一開始先從深度影像中擷取出手部影像並標準化,透過隨機森林分類器找出手上的幾個特定點,將其轉換為不受手部旋轉影響的特徵向量之後,再使用預先訓練好的回歸函式計算出手勢參數。其中我們所使用的手部影像擷取系統可以不受手部旋轉影響而準確地定位出手掌中心,標準化使得手部的大小不隨距離遠近而變化。隨機森林分類器中所使用的分裂函式經過我們的修改後,得以處裡在影像平面上的旋轉情況,使其更加適合應用在手勢偵測上。實驗方面,我們將提出的方法所估算的參數與電子手套取得的實際參數做比對,來計算此系統的準確度。我們也統計出不同距離以及不同的手部旋轉角度對準確度的影響;並且,不同的測試者對系統的影響與其應對方法也在文章的最後一併討論。