日韩精品久久无码人妻中文字幕_久热无码中文视频在线_护士XXOO做爰猛烈_欧美亚洲另类精品第一页_国产免费自拍视频在线观看

當(dāng)前位置:主頁(yè) > 產(chǎn)品展示 > > 行為觀察與面部表情 > ErgoLAB Observation便攜式行為觀察系統(tǒng)

ErgoLAB Observation便攜式行為觀察系統(tǒng)

型號(hào):

產(chǎn)品時(shí)間:2022-11-29

簡(jiǎn)要描述:

ErgoLAB便攜式行為觀察分析系統(tǒng)是戶外現(xiàn)場(chǎng)研究和田野實(shí)驗(yàn)人類行為活動(dòng)或者作業(yè)任務(wù)績(jī)效的實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來(lái)實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化,對(duì)觀察內(nèi)容進(jìn)行分類和量化編碼的觀察記錄體系,可以對(duì)被試的行為數(shù)據(jù)進(jìn)行實(shí)時(shí)采集、實(shí)時(shí)編碼、分析與統(tǒng)計(jì)。便攜式行為觀察系統(tǒng)移動(dòng)終端版本,通過移動(dòng)終端與便攜性手持設(shè)備的有機(jī)

產(chǎn)品目錄

Product catalog

相關(guān)文章

Related articles

詳細(xì)介紹
產(chǎn)品簡(jiǎn)介

ErgoLAB便攜式行為觀察分析系統(tǒng)是戶外現(xiàn)場(chǎng)研究和田野實(shí)驗(yàn)人類行為活動(dòng)或者作業(yè)任務(wù)績(jī)效的實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來(lái)實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化,對(duì)觀察內(nèi)容進(jìn)行分類和量化編碼的觀察記錄體系,可以對(duì)被試的行為數(shù)據(jù)進(jìn)行實(shí)時(shí)采集、實(shí)時(shí)編碼、分析與統(tǒng)計(jì)。便攜式行為觀察系統(tǒng)移動(dòng)終端版本,通過移動(dòng)終端與便攜性手持設(shè)備的有機(jī)結(jié)合,可以在戶外或者作業(yè)現(xiàn)場(chǎng)進(jìn)行實(shí)時(shí)行為編碼記錄,收集數(shù)據(jù)后不需要把大量工作全留在事后行為編碼。可以隨時(shí)隨地進(jìn)行精確的戶外現(xiàn)場(chǎng)數(shù)據(jù)采集、實(shí)時(shí)行為編碼和分析與統(tǒng)計(jì)。

功能特點(diǎn)
支持與ErgoLAB行為觀察分析模塊和人機(jī)環(huán)境同步平臺(tái)配套使用。
支持實(shí)時(shí)觀察和離線觀察兩種編碼方式。
通過行為編碼體系實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化。
結(jié)合便攜性手持設(shè)備,精確編碼和分析。
支持同時(shí)創(chuàng)建點(diǎn)狀行為、片段行為以及行為組。
支持行為數(shù)據(jù)的實(shí)時(shí)發(fā)送、實(shí)時(shí)標(biāo)記和實(shí)時(shí)統(tǒng)計(jì)。
支持實(shí)時(shí)接收/發(fā)送SyncBox TTL觸發(fā)刺激事件信息。
可在人體移動(dòng)狀態(tài)中觀察行為過程并進(jìn)行實(shí)時(shí)編碼。
支持跨平臺(tái)移動(dòng)終端實(shí)時(shí)編碼。
手持行為觀察記錄系統(tǒng)API實(shí)時(shí)行為編碼模塊。
基于智能機(jī)或平板電腦的掌上行為觀察分析系統(tǒng)。
同步方案

ErgoLAB人機(jī)環(huán)境同步云平臺(tái)可人-機(jī)-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測(cè)量、生物力學(xué)、腦電、腦成像、行為、人機(jī)交互、動(dòng)作姿態(tài)、面部表情、主觀評(píng) 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)云管理。


 

產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細(xì)地址:

  • 補(bǔ)充說明:

  • 驗(yàn)證碼:

    請(qǐng)輸入計(jì)算結(jié)果(填寫阿拉伯?dāng)?shù)字),如:三加四=7

人因工程與工效學(xué)

人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場(chǎng)所與工效學(xué)負(fù)荷等

安全人機(jī)工程

從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等

用戶體驗(yàn)與交互設(shè)計(jì)

ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶體驗(yàn)的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設(shè)計(jì)來(lái)滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費(fèi)行為與神經(jīng)營(yíng)銷

通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I(yíng)銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為

產(chǎn)品中心
行為觀察與面部表情
新聞中心
公司新聞
技術(shù)文章
關(guān)于我們
公司簡(jiǎn)介
人才招聘
聯(lián)系方式
北京市海淀區(qū)安寧莊后街12號(hào)院1號(hào)樓一層、三層
sales@kingfar.cn

掃一掃,加微信

版權(quán)所有 © 2024北京津發(fā)科技股份有限公司(taotvgo.com)
備案號(hào):京ICP備14045309號(hào)-4 技術(shù)支持:智慧城市網(wǎng) 管理登陸 GoogleSitemap