人工智慧革命: 無標記姿態擷取技術顛覆影片錄影
由 TIS Marketing 於 2019年8月9日 發表。
哪些神經迴路驅動適應運動行為? 這些行為在神經編碼中又如何表現呢? 哈佛大學羅蘭研究中心(Rowland Institute)的馬蒂斯實驗室Mathis Lab 研究人員透過腦/行為互動研究,揭示了這些問題的答案。 由馬蒂斯Mackenzie Mathis博士所領導的團隊「[目的]在於瞭解神經迴路對於適應性運動行為所產生的影響」。 其研究的挑戰在於將特定的行為與特定腦部活動相連結。以老鼠作為研究個體,這些科學家們使用The Imaging SourceDMK 37BUX287相機進行高速錄影,結合實驗室自行開發的開源軟體工具DeepLabCut所寫成的機器學習演算法,來追蹤老鼠的行為事件及相應其腦部活動。
就本質上,研究人員必須能夠精確且全面地追蹤老鼠的行為並提供定量資料,來描述動物的動態。 馬蒂斯博士表示:「我們想瞭解動物們如何適應環境,而觀察牠們的運動行為是一個很好的開始,以闡釋大腦如何達成這些任務。 因此,研究計畫的第一步就是在動物學習新任務時對其進行觀察。」 其團隊借重DMK 37BUX287所構成的多相機影像追蹤系統。他們的研究個體行動相當快速,馬蒂斯博士接著表示:「…老鼠能夠在大約200毫秒內快速地觸及並抓取物體,因此我們必須採用高畫面播放速率且優質解析度的相機。」
影片錄影是有效記錄動物行為的一種方法,然而擷取姿態(即多個身體部位的幾何構型) ,多年來一直是研究人員的一項難題。 在人體研究領域中,先進的動態捕捉可透過標記來追蹤關節和四肢動作。 然而,基於種種因素,運用於研究動物體上,這種方法卻不切實際。 也就是說,至今,人們仍然使用手動數位元錄影方式來追蹤動物行為 (即以人工方式逐幀編碼標注影片) - 這種勞力密集的過程往往導致結果不夠精確,且額外增加了數百甚或數千小時的研究時間。
為了自動擷取研究個體的姿態,馬蒂斯博士團隊開發了DeepLabCut: 一套開源軟體,由使用者自訂身體部位的無標記姿態估算。 根據(人體)姿態估計演算法DeeperCut,研究人員使用基於深度卷積神經網路(CNN)的演算法,專門針對此項任務進行訓練。根據《Nature Neuroscience自然神經科學》期刊中所發表的一篇論文,作者表述該團隊藉由「調整預訓練過的模組運用至新的任務上[....過程經由] 即被稱為遷移學習(transfer learning)的現象。」而得以顯著地減少所必要的訓練資料的資料量。 DeepLabCut程式設計庫具穩健性且高效率,即使是相對少量的圖像(約200),「其演算法亦能達到極佳的追蹤表現。」許多科學家們皆讚譽此軟體套件是一項顛覆傳統、完全嶄新的發展。 馬蒂斯實驗室也使用了The Imaging Source 的 IC Capture 並增添The Imaging Source相機應用程式camera control API至GitHub。
DeepLabCut 自動追蹤及標記(紅、白、藍點)老鼠的動態。 影像來源: Mackenzie Mathis