ErgoLAB管理行為實(shí)驗(yàn)室設(shè)計(jì):結(jié)合ErgoLAB人機(jī)環(huán)境測(cè)試云平臺(tái)實(shí)驗(yàn)設(shè)計(jì)模塊,可基于不同的實(shí)驗(yàn)環(huán)境,包括標(biāo)準(zhǔn)實(shí)驗(yàn)室環(huán)境、物理環(huán)境模擬環(huán)境、虛擬現(xiàn)實(shí)環(huán)境以及真實(shí)現(xiàn)場(chǎng)環(huán)境,面向圖片、音頻、文字、視頻、網(wǎng)頁(yè)、APP以及VR原型、HMI界面等測(cè)試對(duì)象,進(jìn)行專(zhuān)業(yè)的實(shí)驗(yàn)設(shè)計(jì);同時(shí)平臺(tái)具備問(wèn)卷、量表、行為實(shí)驗(yàn)范式等主觀測(cè)評(píng)模型庫(kù)。
數(shù)據(jù)同步采集:通過(guò)ErgoLAB人機(jī)環(huán)境同步云平臺(tái),可以同步采集主客觀多模態(tài)數(shù)據(jù),包括腦電與功能性腦成像數(shù)據(jù)、人體多通道生理數(shù)據(jù)、眼動(dòng)追蹤數(shù)據(jù)、行為與面部表情數(shù)據(jù)、動(dòng)作捕捉數(shù)據(jù)、生物力學(xué)數(shù)據(jù)等。從視覺(jué)注意偏好、生理應(yīng)激壓力緩解、行為表現(xiàn)、主觀情緒體驗(yàn)、人機(jī)交互等數(shù)據(jù)。同步采集多維度數(shù)據(jù)能夠?yàn)檠芯刻峁└佑辛Φ闹危材軌蜇S富研究?jī)?nèi)涵、拓寬研究維度。
數(shù)據(jù)分析:通過(guò)ErgoLAB人機(jī)環(huán)境同步云平臺(tái)所采集到的主客觀多模態(tài)數(shù)據(jù),都可以通過(guò)平臺(tái)進(jìn)行進(jìn)一步的分析與處理。平臺(tái)提供多種信號(hào)處理算法,研究人員可以依據(jù)自身研究需求進(jìn)行調(diào)整,完成數(shù)據(jù)分析。此外,原始數(shù)據(jù)、處理后的數(shù)據(jù)以及數(shù)據(jù)報(bào)告都可以通過(guò)平臺(tái)進(jìn)行導(dǎo)出。可根據(jù)研究人員的需求進(jìn)行相關(guān)功能定制開(kāi)發(fā)。
狀態(tài)識(shí)別與模型訓(xùn)練:研究人員能夠結(jié)合機(jī)器學(xué)習(xí)的算法,使用ErgoLAB人機(jī)環(huán)境同步云平臺(tái)所收集的多模態(tài)主客觀數(shù)據(jù),進(jìn)行算法模型訓(xùn)練與人員狀態(tài)識(shí)別研究和應(yīng)用。