本研究於不同時期真實正射影像採用深度學習偵測建物變遷資訊。於第一階段以深度學習MS-FCN模型進行建物辨識,研究加入DSM與DHM探討高程對模型之助益,成果顯示相比僅使用真實正射影像,加入DSM與DHM之高程資訊能提升模型建物辨識能力,其F1-score能達87.16%與87.65%;於第二階段以深度學習U-Net模型執行建物變遷,然而在比較兩期真實正射影像間建物變遷時,可能因兩期真實正射影像有些許的對位誤差,故研究中透過將訓練資料隨機移動,訓練能抵抗對位誤差之深度學習模型,其F1-score約為71.63%,成果顯示應用深度學習搭配高解析度真實正射影像協助建物變遷偵測作業有其可行性。
本研究自製行動載台搭載經過率定的雙相機系統,拍攝立體像對,透過逐步光束法平差的演算法發展立體視覺里程計,其中利用攝影測量中的共面式以及共線式進行影像匹配後錯誤特徵點的除錯。為加強特徵點的穩定性,加入了循環匹配的概念,保留前一時刻像對與此時刻像對的四張影像共同的特徵點。最後利用逐步光束法平差,解算前後時刻拍攝的四張影像的相對位移量,將每一站解算成果結合即可恢復載台的移動軌跡。本實驗包含室內及室外場域,室內場地為成大測量系系館一樓,室外場地為成大博物館前的空地,成果顯示兩者的漂移比率分別小於1%及1.6%。
近年來自駕車技術發展,可降低人為失誤以改善交通安全。而現有自駕安全研究多使用單一方法,且少考慮路外環境因素與其傷亡程度。因此,本研究採用四種研究方法(關聯規則、決策樹、隨機森林與羅吉斯迴歸),以加州自駕車測試報告(2019至2021年),並額外由開放街圖蒐集興趣點資料,以求完整探討自駕車傷亡事故相關因子。結果顯示:新興自駕車廠牌與車禍傷亡負相關;而自駕車特定被撞位置、車輛行駛狀態(直行、停止、左右轉、加減速)和興趣點(Point of Interest, POI)(商業、交通)亦與事故傷亡程度相關。建議未來研究可分析不同車廠自駕模式安全性、改善加固自駕車外觀車體或探討特定興趣點對自駕車安全影響。
使用影像處理進行裂縫檢測是近年常見的方法,現今常使用無人機協助拍攝,透過將這些影像拼接在一起,可以得到一個完整高解析度之裂縫影像。拼接方法主要分為傳統以及拼接學習方法,傳統方法高度依賴所選取之特徵點,在特徵較少或解析度較低的場景中,拼接性能下降可能會造成拼接失敗,近年來拼接學習方法興起,利用卷積神經網路(CNN)發揮強大的特徵提取能力,本研究選用Nie et al.(2021)提出的具深度感知能力的多網格深度單應性估計網路模型進行針對裂縫之訓練,從實驗中尋找出最適用於背景單調之混凝土裂縫之連續影像的拼接方法。