
產(chǎn)品中心/ PRODUCTS

在線咨詢
聯(lián)系電話:13021282218
| 產(chǎn)品概述 ErgoLAB行為觀察分析系統(tǒng)是研究人類行為活動或者作業(yè)任務(wù)績效的標(biāo)準(zhǔn)行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化,對觀察內(nèi)容進(jìn)行分類和量化編碼的觀察記錄體系,可以對被試的行為數(shù)據(jù)進(jìn)行采集分析與統(tǒng)計(jì)。系統(tǒng)分為行為觀察實(shí)驗(yàn)室PC版本和便攜式行為觀察移動終端版本,便攜式行為觀察分析系統(tǒng)版本通過移動終端與便攜性手持設(shè)備的有機(jī)結(jié)合,可以隨時(shí)隨地進(jìn)行精確的戶外現(xiàn)場實(shí)時(shí)編碼和分析。 ErgoLAB系統(tǒng)是自主研發(fā)利技術(shù),具有多項(xiàng)國家發(fā)明利與軟件著作權(quán),通過了省部新技術(shù)新產(chǎn)品認(rèn)證,歐洲CE、美國FCC、歐盟Rohs、ISO9001、ISO14001、OHSAS18001等多項(xiàng)管理體系認(rèn)證。 廣泛應(yīng)用于心理與行為觀察、智能交互與人機(jī)互動、人機(jī)界面設(shè)計(jì)與產(chǎn)品可用性測試、產(chǎn)品(廣告)營銷、汽車駕駛(交通安全)、工業(yè)管理、工業(yè)設(shè)計(jì)、人因工程、消費(fèi)行為學(xué)、應(yīng)急行為研究、安全科學(xué)、環(huán)境行為學(xué)、建筑設(shè)計(jì)等研究。 ErgoLAB行為觀察分析系統(tǒng)可實(shí)時(shí)獲取被研究對象的行為、動作、姿勢、運(yùn)動、位置、表情、情緒、社會交往、人機(jī)交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為編碼-時(shí)間-頻次標(biāo)準(zhǔn)化數(shù)據(jù),記錄與分析個(gè)體在操作任務(wù)中的行為頻次或習(xí)慣性動作的特點(diǎn)等。通過分析可以得出各種行為次發(fā)生的時(shí)間、發(fā)生次數(shù)、頻率、每次發(fā)生的時(shí)間、總的持續(xù)時(shí)間、總的持續(xù)時(shí)間在全部觀察時(shí)間中所占的百分比、短的持續(xù)時(shí)間、長的持續(xù)時(shí)間、平均持續(xù)時(shí)間、持續(xù)時(shí)間的標(biāo)準(zhǔn)差、持續(xù)時(shí)間間隔下一區(qū)間等數(shù)據(jù),并得到定量的行為分析報(bào)告。通過基礎(chǔ)行為分析、行為交叉分析、行為發(fā)生順序分析與延遲分析等,探索心理、生理的外在表現(xiàn),進(jìn)一步了解人類行為、任務(wù)績效、人機(jī)交互過程中的行為與心理反應(yīng)的相互關(guān)系。 ErgoLAB系統(tǒng)代表著行為觀察分析與作業(yè)任務(wù)績效分析軟件發(fā)展的新方向。他使研究模式由單純的記錄行為轉(zhuǎn)向通過多種模式數(shù)據(jù)進(jìn)行同步記錄和綜合分析。多模態(tài)集成功能支持?jǐn)?shù)據(jù)同步采集與分析,通過集成ErgoLAB人機(jī)環(huán)境同步平臺采集多維度數(shù)據(jù)并與許多實(shí)驗(yàn)設(shè)備相兼容,他是一個(gè)可以兼容廣泛數(shù)據(jù)來源的整合平臺。能夠?qū)崟r(shí)同步采集和分析人類行為以及腦功能成像、腦電波、眼動軌跡、生理信號、動作姿勢和面部表情、人機(jī)交互、聲光熱物理環(huán)境等多個(gè)數(shù)據(jù)源,同步觀察和統(tǒng)計(jì)分析所有數(shù)據(jù)流之間的相關(guān)關(guān)系。研究人員可以手動記錄以及編碼各種行為。所有數(shù)據(jù)流可以同時(shí)回放。共同為人類行為與任務(wù)績效研究創(chuàng)造了理想的解決方案。 二、產(chǎn)品特點(diǎn) 1. 行為記錄與多類型編碼 ● 記錄模塊:主要用于記錄實(shí)驗(yàn)參與者的各種行為,支持外部設(shè)備以及多路視頻的同步采集與數(shù)據(jù)傳輸;支持在移動設(shè)備中進(jìn)行使用和數(shù)據(jù)采集;支持記錄點(diǎn)狀行為以及持續(xù)行為。 ● 視頻模塊:系統(tǒng)支持實(shí)時(shí)觀察和離線觀察方式,外部視頻源采集的多路視頻可以被兼容導(dǎo)入到觀察和分析系統(tǒng)中進(jìn)行數(shù)據(jù)編碼與統(tǒng)計(jì);支持任意格式的視頻導(dǎo)入與播放管理。 ● 編碼模塊:系統(tǒng)包含多終端API/TTL實(shí)時(shí)行為編碼與事件標(biāo)記應(yīng)用程序,進(jìn)行實(shí)時(shí)行為編碼;支持通過鼠標(biāo)/快捷鍵等多種方式的離線半自動行為編碼。 2. 行為統(tǒng)計(jì)分析模塊 ● 基礎(chǔ)行為統(tǒng)計(jì):系統(tǒng)對所有編碼行為數(shù)據(jù)進(jìn)行統(tǒng)計(jì)分析,包括每種行為次發(fā)生的時(shí)間、發(fā)生次數(shù)、頻率、每次發(fā)生的時(shí)間、總的持續(xù)時(shí)間、總的持續(xù)時(shí)間在全部觀察時(shí)間中所占的百分比、短的持續(xù)時(shí)間、長的持續(xù)時(shí)間、平均持續(xù)時(shí)間、持續(xù)時(shí)間的標(biāo)準(zhǔn)差、持續(xù)時(shí)間間隔下一區(qū)間等數(shù)據(jù)。 ● 交互行為數(shù)據(jù)分析:自動識別多種行為發(fā)生的交互關(guān)系,針對兩種或多種行為同時(shí)發(fā)生的時(shí)間、次數(shù)、概率等數(shù)據(jù)指標(biāo)進(jìn)行統(tǒng)計(jì);支持同一時(shí)間點(diǎn)或同一時(shí)間段內(nèi)多模態(tài)數(shù)據(jù)與行為數(shù)據(jù)的交叉分析。 ● 行為順序效應(yīng)分析:支持一種行為發(fā)生在另一種行為之后/之的多層次數(shù)據(jù)統(tǒng)計(jì),包括行為之間的延遲效應(yīng)、順序效應(yīng)分析,并一鍵導(dǎo)出行為發(fā)生的可視化序列性 3. 時(shí)空行為編碼可視化分析 ● 時(shí)空行為編碼可視化分析:支持所有行為編碼數(shù)據(jù)進(jìn)入時(shí)空分析,系統(tǒng)提供不同類型的熱圖及可視化不同行為發(fā)生的時(shí)空位置關(guān)系;支持多被試的行為數(shù)據(jù)統(tǒng)計(jì)與動態(tài)時(shí)空位置的疊加分析。 ● 時(shí)空行為編碼SOI統(tǒng)計(jì):支持自動統(tǒng)計(jì)SOI興趣區(qū)域內(nèi)的行為編碼數(shù)據(jù),統(tǒng)計(jì)指標(biāo)包括SOI內(nèi)行為發(fā)生的次數(shù)、每分鐘發(fā)生的次數(shù)、總持續(xù)時(shí)間、小持續(xù)時(shí)間、大持續(xù)時(shí)間、平均持續(xù)時(shí)間等數(shù)據(jù)。 ● 多維度數(shù)據(jù)的交叉分析:基于多維度人-機(jī)-環(huán)境與時(shí)空數(shù)據(jù)同步技術(shù),時(shí)空行為數(shù)據(jù)可以與項(xiàng)目中采集的任意數(shù)據(jù)源進(jìn)行交叉統(tǒng)計(jì)分析,如基于時(shí)間同步的眼動數(shù)據(jù)、生理數(shù)據(jù)、空間位置等;實(shí)現(xiàn)基于時(shí)間軸同步數(shù)據(jù)的交集可視化以及多維度數(shù)據(jù)的綜合統(tǒng)計(jì)。 ErgoLAB便攜式行為觀察分析系統(tǒng) 一、產(chǎn)品概述 ErgoLAB便攜式行為觀察分析系統(tǒng)是戶外現(xiàn)場研究和田野實(shí)驗(yàn)人類行為活動或者作業(yè)任務(wù)績效的實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化,對觀察內(nèi)容進(jìn)行分類和量化編碼的觀察記錄體系,可以對被試的行為數(shù)據(jù)進(jìn)行實(shí)時(shí)采集、實(shí)時(shí)編碼、分析與統(tǒng)計(jì)。便攜式行為觀察系統(tǒng)移動終端版本,通過移動終端與便攜性手持設(shè)備的有機(jī)結(jié)合,可以在戶外或者作業(yè)現(xiàn)場進(jìn)行實(shí)時(shí)行為編碼記錄,收集數(shù)據(jù)后不需要把大量工作全留在事后行為編碼。可以隨時(shí)隨地進(jìn)行精確的戶外現(xiàn)場數(shù)據(jù)采集、實(shí)時(shí)行為編碼和分析與統(tǒng)計(jì)。 二、產(chǎn)品特點(diǎn) ● 系統(tǒng)支持與ErgoLAB行為觀察分析模塊和人機(jī)環(huán)境同步平臺配套使用,支持實(shí)時(shí)觀察和離線觀察兩種編碼方式。通過行為編碼體系實(shí)現(xiàn)行為觀察的結(jié)構(gòu)化和系統(tǒng)化,與便攜性手持設(shè)備的有機(jī)結(jié)合,可以精確的編碼和分析。 ● 支持基于便攜式行為觀察分析系統(tǒng)以及ErgoLAB APP手持終端實(shí)時(shí)創(chuàng)建點(diǎn)狀行為、片段行為、以及行為組行為,實(shí)時(shí)發(fā)送、實(shí)時(shí)標(biāo)記、實(shí)時(shí)統(tǒng)計(jì),支持實(shí)時(shí)接收/發(fā)送SyncBox TTL觸發(fā)刺激事件信息。 ● 可以在人體移動狀態(tài)中觀察行為過程并進(jìn)行實(shí)時(shí)行為編碼,系統(tǒng)支持實(shí)時(shí)行為編碼技術(shù),基于跨平臺的手持終端如Windows、IOS、Android手機(jī),Windows、IPad、Android平板進(jìn)行實(shí)時(shí)的行為編碼,可以詳細(xì)地對觀察到的行為進(jìn)行數(shù)據(jù)記錄,并允許在尋找自由實(shí)驗(yàn)參與者時(shí)進(jìn)行編碼。 1)手持式行為觀察記錄系統(tǒng)(API實(shí)時(shí)行為編碼模塊) ● 如果你需要進(jìn)行野外觀察,并要求編碼和分析比較準(zhǔn)確的話,ErgoLAB手持式觀察分析系統(tǒng)API實(shí)時(shí)行為編碼模塊是你的佳選擇,在這種情況下,掌上觀察記錄分析系統(tǒng)為觀測編碼行為提供了理想的解決方案。有了掌上行為觀察記錄分析系統(tǒng),你可以詳細(xì)的記錄觀察到的數(shù)據(jù),同時(shí),由于它便捷的用戶界面使得掌上觀察編碼數(shù)據(jù)變得更加簡單。 ● 這種輕便式設(shè)備是現(xiàn)場行為觀察的理想記錄器,你可以采用手持移動終端。新版的手持式行為觀察記錄分析系統(tǒng)API實(shí)時(shí)行為編碼模塊(ErgoLAB API),你可以在現(xiàn)場真實(shí)觀察時(shí)通過手持式行為觀察分析系統(tǒng)將行為編碼實(shí)時(shí)添加到移動行為觀察分析系統(tǒng)中?;氐睫k公室后,將記錄結(jié)果輸入到安裝有行為觀察記錄分析系統(tǒng)的電腦中進(jìn)行分析處理。 2)智能機(jī)或者平板上的掌上行為觀察分析系統(tǒng) ● 手持式行為觀察記錄分析系統(tǒng)是一種運(yùn)行在便攜式設(shè)備上的行為分析軟件 。適用于安卓系統(tǒng)的掌上數(shù)據(jù)分析系統(tǒng)有很多優(yōu)勢。 ● 便攜式行為觀察分析系統(tǒng),支持觀察者在系統(tǒng)中提創(chuàng)建好欲研究的點(diǎn)狀行為、片段行為、行為組行為等,通過行為觀察分析系統(tǒng)進(jìn)行實(shí)時(shí)觸發(fā);同時(shí)支持在手機(jī)APP手持終端中提或?qū)崟r(shí)創(chuàng)建狀行為、片段行為、行為組行為,進(jìn)行實(shí)時(shí)觸發(fā)與編碼。 ● 系統(tǒng)支持離線行為編碼與統(tǒng)計(jì),支持多行為組編碼的同時(shí)進(jìn)行,無需進(jìn)行層切換,即可通過手指點(diǎn)擊、快捷鍵等方式實(shí)現(xiàn),可以實(shí)現(xiàn)行為的添加、刪除、補(bǔ)充、替換等方式,并詳細(xì)展示時(shí)間信息。 ● 系統(tǒng)支持實(shí)時(shí)數(shù)據(jù)統(tǒng)計(jì),如點(diǎn)狀行為、片段行為、行為組行為的發(fā)生次數(shù)等,預(yù)測行為趨勢;同時(shí)直接離線數(shù)據(jù)統(tǒng)計(jì)。同樣可以實(shí)現(xiàn)多被試的行為基礎(chǔ)統(tǒng)計(jì)、行為交叉統(tǒng)計(jì)、以及行為序列性分析與延遲統(tǒng)計(jì)等。 三、應(yīng)用域 ●心理學(xué)與神經(jīng)科學(xué)研究; ●人因工程與工效學(xué)研究; ●人因智能與人機(jī)交互研究; ●智能交通與駕駛行為研究; ●建筑人居健康與環(huán)境行為研究; ●市場研究與消費(fèi)者調(diào)研; ●用戶體驗(yàn)與交互研究; ●教育研究; ●臨床研究; ●嬰兒研究; ●體育運(yùn)動研究; ●沉浸式VR研究; |