簡(jiǎn)要描述:ErgoLAB人機(jī)環(huán)境同步云平臺(tái),是基于云架構(gòu)的專(zhuān)業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺(tái),是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過(guò)對(duì)人、機(jī)器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時(shí)代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對(duì)人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進(jìn)行人機(jī)交互評(píng)估以及人因與工效學(xué)的智能評(píng)價(jià)。
詳細(xì)介紹
品牌 | 津發(fā)科技 | 產(chǎn)地類(lèi)別 | 國(guó)產(chǎn) |
---|---|---|---|
應(yīng)用領(lǐng)域 | 交通,航天,汽車(chē),綜合 |
ErgoLAB人機(jī)環(huán)境同步云平臺(tái),是基于云架構(gòu)的專(zhuān)業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺(tái),是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過(guò)對(duì)人、機(jī)器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時(shí)代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對(duì)人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進(jìn)行人機(jī)交互評(píng)估以及人因與工效學(xué)的智能評(píng)價(jià)。
平臺(tái)以人機(jī)環(huán)境多模態(tài)數(shù)據(jù)同步技術(shù)為基礎(chǔ),突出智能化、可穿戴的特點(diǎn),采用國(guó)內(nèi)自主研發(fā)技術(shù),結(jié)合VR三維虛擬現(xiàn)實(shí)與環(huán)境模擬技術(shù)、動(dòng)作捕捉技術(shù)、人體建模與仿真技術(shù)、腦認(rèn)知神經(jīng)科學(xué)與電生理技術(shù)、視覺(jué)追蹤技術(shù)、行為分析技術(shù)、面部表情與狀態(tài)識(shí)別技術(shù)等,客觀定量化分析人機(jī)環(huán)境交互影響的關(guān)系,提升縱向研究的深度與橫向研究的外延性。平臺(tái)與許多認(rèn)知神經(jīng)科學(xué)、人因工程、 人工智能領(lǐng)域科研實(shí)驗(yàn)設(shè)備相兼容,提供了人因工程與工效學(xué)、人機(jī)交互與人工智能、心理學(xué)與認(rèn)知科學(xué)以及神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)等研究?jī)?nèi)容的解決方案。
平臺(tái)從基于云端的項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、數(shù)據(jù)同步采集、信號(hào)處理與分析到綜合統(tǒng)計(jì)與輸出可視化報(bào)告,涵蓋整個(gè)研究流程。對(duì)于特殊領(lǐng)域客戶(hù)可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識(shí)別。
ErgoLAB數(shù)據(jù)與綜合統(tǒng)計(jì)分析模塊含多維度人-機(jī)-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動(dòng)分析以及可視化、行為觀察、面部表情、動(dòng)作姿態(tài)傷害評(píng)估與工效學(xué)分析、交互行為、時(shí)空行為、車(chē)輛與駕駛行為、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號(hào)分析,具備專(zhuān)門(mén)的信號(hào)處理與開(kāi)放式信號(hào)處理接口,可直接導(dǎo)出可視化分析報(bào)告以及原始數(shù)據(jù),支持第三方處理與開(kāi)發(fā)。
平臺(tái)通過(guò)SDK/API/TTL等廣泛的數(shù)據(jù)接口進(jìn)行第三方設(shè)備或者數(shù)據(jù)同步,同時(shí)可以直接導(dǎo)入外部數(shù)據(jù),與系統(tǒng)內(nèi)數(shù)據(jù)進(jìn)行同步分析,支持定制開(kāi)發(fā)。
平臺(tái)配備在線資源中心,內(nèi)含大量豐富的技術(shù)與文獻(xiàn)資料,包括在線 說(shuō)明書(shū)、功能培訓(xùn)視頻、技術(shù)、參數(shù)算法解釋、操作手冊(cè)、演示DEMO等,方便研究者能夠更快速的掌握大量實(shí)驗(yàn)技能與知識(shí)。
平臺(tái)可以進(jìn)行實(shí)驗(yàn)室研究、移動(dòng)終端研究、虛擬仿真以及真實(shí)戶(hù)外環(huán)境的研究。云實(shí)驗(yàn)設(shè)計(jì)模塊具備多時(shí)間軸、隨機(jī)化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實(shí)驗(yàn)設(shè)計(jì),支持任何類(lèi)型的刺激材料,包括問(wèn)卷、量表與范式、聲光電刺激、實(shí)時(shí)API編碼/TTL事件標(biāo)記、多媒體刺激編輯,在線網(wǎng)站和手機(jī)應(yīng)用程序,以及所有的原型設(shè)計(jì)材料,也支持與如下刺激實(shí)時(shí)同步采集:如場(chǎng)景攝像機(jī),軟件,游戲,VR,AR程序等。兼容第三方刺激編譯軟件,如E-prime,Superlab,Tobii Pro Lab等。
平臺(tái)采用主客觀結(jié)合多維度數(shù)據(jù)驗(yàn)證的方法,同步大腦認(rèn)知數(shù)據(jù)、視覺(jué)數(shù)據(jù)、生理信號(hào)數(shù)據(jù)、行為觀察、肢體動(dòng)作與面部表情數(shù)據(jù)、生物力學(xué)數(shù)據(jù)、人機(jī)交互數(shù)據(jù)、多類(lèi)型時(shí)空行為數(shù)據(jù)采集與環(huán)境數(shù)據(jù)等。
在標(biāo)準(zhǔn)的實(shí)驗(yàn)室環(huán)境下,以桌面或移動(dòng)終端為載體呈現(xiàn)的刺激材料,包括圖片、文本、視頻、音頻、網(wǎng)頁(yè)刺激、交互程序、錄制屏幕等,可實(shí)時(shí)預(yù)覽、自由拖拽、一鍵導(dǎo)入多刺激材料。實(shí)時(shí)同步采集眼動(dòng)、腦電、近紅外腦成像以及電生理指標(biāo)等高精度多模態(tài)測(cè)量數(shù)據(jù)。
支持搭建多類(lèi)型虛擬現(xiàn)實(shí)交互設(shè)備與場(chǎng)景,包括頭戴式虛擬現(xiàn)實(shí)系統(tǒng)、CAVE大型沉浸式虛擬現(xiàn)實(shí)交互系統(tǒng)以及多人交互系統(tǒng)等。在虛擬環(huán)境中通過(guò)模擬真實(shí)世界交互模式,可以添加視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)以及重力等真實(shí)感受模擬;在虛擬現(xiàn)實(shí)的環(huán)境下,實(shí)時(shí)同步采集人-機(jī)-環(huán)境數(shù)據(jù)并進(jìn)行定量化分析與評(píng)價(jià),包括人員在虛擬環(huán)境下的空間定位、交互行為、腦電、眼動(dòng)、生理、生物力學(xué)、動(dòng)作捕捉、面部表情等數(shù)據(jù)。
提供逼真道路交通仿真場(chǎng)景、真實(shí)感駕駛模擬座艙,精確的駕駛操縱傳感器輸出,滿(mǎn)足研究所需的交通場(chǎng)景編輯系統(tǒng),并且具備定制和升級(jí)能力,支持在各種道路交通和駕駛行為研究中實(shí)時(shí)同步采集駕駛?cè)?車(chē)輛-道路-環(huán)境的客觀、定量化數(shù)據(jù)。
平臺(tái)能夠結(jié)合光、聲、振動(dòng)、微氣候等多種環(huán)境模擬條件下,同步采集個(gè)體在模擬環(huán)境下進(jìn)行操作任務(wù)時(shí)的多模態(tài)客觀數(shù)據(jù)反應(yīng)。
平臺(tái)采用可穿戴測(cè)量技術(shù)、移動(dòng)終端采集技術(shù)以及離線采集與數(shù)據(jù)儲(chǔ)存,于真實(shí)的現(xiàn)場(chǎng)環(huán)境研究。
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場(chǎng)所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問(wèn)題
人-車(chē)-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶(hù)體驗(yàn)的影響
研究如何通過(guò)城市規(guī)劃與建筑設(shè)計(jì)來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過(guò)ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I(yíng)銷(xiāo)策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信