產(chǎn)品中心
ErgoAI®面部表情分析科研平臺面向情感計算、人機(jī)交互、虛擬數(shù)字人及心理學(xué)研究等領(lǐng)域,提供高精度面部表情采集、分析與驅(qū)動的全鏈路研究支持。平臺集成光學(xué)成像、計算機(jī)視覺與深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)對細(xì)微肌肉運(yùn)動、微表情變化及情緒狀態(tài)的精準(zhǔn)捕捉與參數(shù)化表征,為虛擬角色驅(qū)動、情感交互系統(tǒng)及行為學(xué)研究提供先進(jìn)的技術(shù)平臺與創(chuàng)新解決方案。
ErgoAI®行為識別科研平臺面向智能安防、健康監(jiān)護(hù)、人機(jī)協(xié)同及工業(yè)安全等前沿領(lǐng)域,提供多模態(tài)行為數(shù)據(jù)采集、智能分析與決策支持的全鏈路研究基礎(chǔ)。平臺融合計算機(jī)視覺、毫米波雷達(dá)與慣性傳感等多維感知技術(shù),通過目標(biāo)追蹤、行為特征提取、時空建模與智能決策算法的系統(tǒng)整合,實(shí)現(xiàn)對個體與群體行為的精準(zhǔn)識別、異常檢測與意圖預(yù)測,為行業(yè)提供高效可靠的行為理解解決方案。
Behavior行為觀察采集與分析模塊,采用標(biāo)準(zhǔn)攝像頭錄制行為視頻,實(shí)時獲取被研究對象的動作,姿勢,運(yùn)動,位置,表情,情緒,社會交往,人機(jī)交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時間-頻次數(shù)據(jù)庫,記錄與編碼分析個體在活動中的行為頻次或習(xí)慣性動作的特點(diǎn)等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進(jìn)一步了解人們行為與心理反應(yīng)的相互關(guān)系。
津發(fā)科儀Captiv行為觀察分析系統(tǒng),法國國家安全研究所(INRS)與法國TEA公司聯(lián)合開發(fā)的CAPTIV行為觀察分析系統(tǒng)是研究人類行為的標(biāo)準(zhǔn)工具,該系統(tǒng)可以用來記錄分析被研究對象的動作,姿勢,運(yùn)動,位置,表情,情緒,社會交往,人機(jī)交互等各種活動;廣泛應(yīng)用于心理與行為觀察、親子互動、人機(jī)界面設(shè)計、產(chǎn)品(廣告)營銷、汽車駕駛(交通安全環(huán)境行為學(xué)等研究。
ErgoLAB行為觀察分析系統(tǒng)可實(shí)時獲取被研究對象的動作、姿勢、運(yùn)動、位置、表情、情緒、社會交往、人機(jī)交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為編碼-時間-頻次標(biāo)準(zhǔn)化據(jù)庫,記錄與分析個體在操作任務(wù)中的行為頻次或習(xí)慣性動作的特點(diǎn)等。
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信
電話
微信掃一掃