ErgoVR可穿戴行走虛擬現(xiàn)實系統(tǒng)以人-信息-物理系統(tǒng)理論為基礎,以人-機-環(huán)境同步技術為核心,可對接CATIA,UG/NX,Pro/E,SpaceClaim等主流CAD軟件以及Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開發(fā)平臺制作的產品原型,進行VR原型產品定量化人機交互測試、評價及定量化分析,解決各制造業(yè)、工業(yè)設計、人因工程、環(huán)境行為、建筑設計等領域中的裝備設計、人機界面設計、產品設計、工業(yè)設計、產品可用性測試等問題。
覆蓋項目與被試信息管理-云實驗設計-主客觀多維度數(shù)據采集-大數(shù)據云存儲-多維度數(shù)據同步與交叉分析-測試報告生成與導出的實驗標準化測試全流程,保證項目的完整性以及測試結果的精準性。
完整的云項目管理涵蓋整個科學研究流程,包括云項目管理、實驗設計、同步記錄、數(shù)據回放、信號處理與分析、測試報告導出??晒芾砼c編輯每位被試的相關信息,如性別、年齡、自定義屬性等。
支持使用Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開發(fā)平臺制作的產品原型,均可通過ErgoVR 人因分析引擎進行實時數(shù)據通訊,便捷地導入實驗設計系統(tǒng)進行人機交互分析,系統(tǒng)自動計算與識別所有模型。
支持傳統(tǒng)的可用性測試研究方法,包括問卷、量表和行為范式等主觀評價方式;同時實驗室可采用定量的研究方法,在可用性測試過程中采集多維度數(shù)據實現(xiàn)客觀定量化評價,彌補了傳統(tǒng)測試評價方法中缺乏實時性、主觀性強、易受社會環(huán)境影響等因素。
可實時采集與綜合分析用戶與虛擬場景交互下的多模態(tài)數(shù)據定量化反應,包括時空軌跡數(shù)據、眼動數(shù)據、生理數(shù)據、腦電數(shù)據、腦成像、生物力學、環(huán)境、動作捕捉數(shù)據、行為編碼及交互數(shù)據等。
支持所有原始數(shù)據、處理數(shù)據以及可視化分析報告的導出。
虛擬現(xiàn)實呈現(xiàn)技術實現(xiàn)畫面的無縫拼接和融合,呈現(xiàn)身臨其境的3D沉浸感。整個實驗室空間均為行走虛擬現(xiàn)實系統(tǒng)的實驗場地,被試可以不受任何限制自由行走,模擬真實世界的行為,采集的數(shù)據更真實。
支持多人在同一個虛擬現(xiàn)實場景中協(xié)同完成人機交互任務,并進行本地或云端人機環(huán)境數(shù)據同步的定量評價,測試者的交互動作均細致地呈現(xiàn)在同一個虛擬世界中,即時互動感大大增強。
ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數(shù)據的同步采集與綜合分析,包括眼動追蹤、生理測量、生物力學、腦電、腦成像、行為、人機交互、動作姿態(tài)、面部表情、主觀評 價、時空行為、模擬器、物理環(huán)境等,為科學研究及應用提供完整的數(shù)據指標。平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據分析-人工智能應用-可視化報告,支持基于云架構技術的團體測試和大數(shù)據云管理。