隨著技術的發展,諸多場景中人機交互的方式也在逐漸發生著變化,手勢控製也應運而生。顧名思義(yi) ,手勢控製是指人手不需要直接接觸機器,而是在空中做出相應的姿勢變化,繼而控製機器做出相應的動作。手勢控製目前在車載環境中已有較多應用,在司機與(yu) 中控係統的互動中,用手勢控製的方式代替原有的按鍵控製,可以增加司機行車的安全性。那麽(me) ,手勢控製是如何實現的呢?
手勢控製目前隻在一些特定領域得到了應用,但這些技術都離不開感應設備、處理芯片和算法這些基本要素。目前手勢識別的實現主要有三種方法,第一種是飛行時間(Time of flight ,ToF)技術,該技術的基本原理是基於(yu) 光子在空中的飛行時間來確定手指的位置,因此被稱為(wei) 飛行時間技術。其基本過程是發光元件發出光線之後,計算光線碰到目標物體(ti) 返回到感光元件所經曆的時間來判斷手的狀態和位置。該技術需要配備具有發射和接收脈衝(chong) 光的3D相機模塊,3D相機具有兩(liang) 個(ge) 鏡頭通過不同鏡頭接收的光線信息對照射物體(ti) 進行立體(ti) 成像。首先相機模塊發射出脈衝(chong) 光線,由於(yu) 不同距離處的手指接受到光線照射的時間不同,從(cong) 而返回到接收模塊的時間也不相同。根據返回時間的不同,處理芯片就可以構建出來判斷出不同手指的具體(ti) 位置,從(cong) 而判斷出具體(ti) 的手勢,通過實時采集這些信息,係統就可以判斷用戶正在進行的動作,再根據預先定義(yi) 的功能,對應到相應的控製命令之上,就實現手勢控製。

3D相機示意圖(作者供圖)
第二種方式稱為(wei) 結構光技術,所謂結構光技術是指利用發光器投射出特定光信息到目標物體(ti) 及背景,之後由感光元件采集後,根據物體(ti) 造成光線的變化來計算物體(ti) 的深度和位置信息,以此複原物體(ti) 所在的三維空間。對應於(yu) 手勢識別,首先利用激光發射器將結構光投射至前方的人體(ti) 表麵,再使用紅外傳(chuan) 感器接收人體(ti) 反射的結構光圖案。之後,處理芯片根據接收圖案的位置和形變程度來計算人體(ti) 的空間信息,再結合一定算法進行深度計算,即可進行識別。
第三種識別方式為(wei) 毫米波雷達,毫米波雷達的工作頻率較高,因此工作波長較短,毫米波雷達所發射的電磁波波長在毫米量級,因此被稱為(wei) 毫米波雷達。其基本原理與(yu) ToF相似,隻不過用於(yu) 測量的介質由光線變成了電磁波。首先,利用毫米波發射器把無線電波發射出去,然後利用接收器接收回波,這時,內(nei) 置的處理芯片會(hui) 根據收發之間的時間差實時計算目標的位置數據,通過比較不同時間段手指位置,就可以與(yu) 內(nei) 置的數據比較,得到手指正在進行的動作,從(cong) 而可以實現特定的指令。
手勢控製是近年來發展起來的全新的交互方式,與(yu) 一般的按鍵、語音等交互方式不同,手勢控製更容易掌握和應用。但由於(yu) 目前技術的限製,依舊存在使用成本較高、手勢識別正確率較低等問題,因此目前沒有得到廣泛的應用,相信隨著技術的發展革新,手勢識別必將在更多的領域發揮功用。

