過去的移動物體偵測技術大都用於大樓監控系統(surveillance system),由於使用靜止相機,即靜止背景在一段時間內都在畫面中呈現固定不動,所以這樣的監控系統可以輕易的建立背景模型,再利用背景相減法(background subtraction),即可扣除畫面中不變的靜止背景區,未被減去的殘餘區塊即為移動物體所在區域。 當前述監控系統所使用之演算法用於盲人導航、汽車防撞等具有自我移動的裝置系統時,相機拍攝的一連串畫面將因為像機具有自我運動,而導致靜止背景在畫面中亦會隨著相機的自我運動而改變,靜止物體與移動物體在畫面中將變得難以區分。許多既有文獻採取對整張影像使用相同平面轉換參數將第一時間影像補償至第二時間,以達成背景補償目的,然而遠近不同景物並無法用同一平面轉換良好補償之,故部分文獻使用多次疊代來達到全域最佳化的方式以求取良好背景補償,但這樣的策略卻導致計算量龐大,故本研究改使用色彩分割作為景物切割依據,再依據各色塊給予不同平面轉換參數補償之,以色塊為單位之背景補償可涵蓋平移、旋轉、縮放等因素,明顯優於既有文獻以整張影像為單位折中的平移補償方式,而且使用色彩分割比起疊代求取全域最佳化的方式節省大量的運算時間。對於前後時間控制點匹配問題則根據固有的投影幾何關係提出搜尋區域概念,直接預估控制點下一時間可能位置,大幅縮減搜尋區域,降低運算時間,也同時提高正確匹配結果。 根據前述對既有文獻的改良,本研究所提出之演算法運算量低,而且可達到比既有文獻更優良的背景補償結果,強健快速的特性使本演算法更能達成即時偵測目的。