У развоју: паметни телефони који могу проценити расположење
Истраживачи са Универзитета у Роцхестеру развијају нови рачунарски програм који мери људска осећања говором, са већ створеном прототипском апликацијом за паметне телефоне.Програм не анализира шта особа говори, већ како.
„Заправо смо користили снимке глумаца који читају датум у месецу - заиста није важно шта кажу, већ како нас то занимају“, рекла је др Венди Хеинзелман, професор електротехничког и рачунарског инжењерства.
Програм анализира 12 карактеристика говора, попут висине и јачине звука, да би идентификовао једну од шест емоција из звучног записа. Истраживачи кажу да се постиже тачност од 81 одсто, што је значајно побољшање у односу на раније студије које су постигле само око 55 процената тачности.
Истраживање је већ коришћено за развој прототипа апликације која приказује срећно или тужно лице након што забележи и анализира глас корисника. Изградио га је један од Хеинзелманових постдипломаца, На Ианг, током летње праксе у компанији Мицрософт Ресеарцх.
„Истраживање је још у раним данима“, признао је Хеинзелман, „али лако је замислити сложенију апликацију која би могла да користи ову технологију за све, од подешавања боја приказаних на вашем мобилном телефону (телефона) до пуштања музике која одговара вашем начину на који осећам се након што снимим свој глас. “
Хеинзелман и њен тим сарађују са психолозима из Роцхестера Др. Мелисса Стурге-Аппле и Патрицк Давиес, који тренутно проучавају интеракцију између тинејџера и њихових родитеља. „Поуздан начин категоризације емоција могао би бити врло користан у нашем истраживању“, рекла је Стурге-Аппле. „То би значило да истраживач не мора да слуша разговоре и ручно уноси осећања различитих људи у различитим фазама.“
Научници рачунару да разуме емоције започињу препознавањем како то људи раде, према истраживачима.
„Могли бисте да чујете како неко говори и помисли„ ох, звучи бесно. “Али шта је то што вас тера да тако мислите?“ рекао је Стурге-Аппле.
Објаснила је да осећања утичу на начин на који људи говоре мењањем јачине звука, висине и чак хармонике свог говора. „Не обраћамо пажњу на ове карактеристике појединачно, тек смо дошли да сазнамо како звучи бесно - посебно за људе које познајемо“, додала је.
Али да би рачунар категоризовао емоције, мора да ради са мерљивим количинама. Тако су истраживачи установили 12 специфичних карактеристика у говору које су измерене у сваком снимку у кратким интервалима. Затим су истраживачи категоризовали сваку од снимака и користили их за подучавање рачунарског програма како звуче „тужни“, „срећни“, „бојажљиви“, „згађени“ или „неутрални“.
Систем је затим анализирао нове снимке и покушао да утврди да ли је глас на снимку приказивао неку од познатих емоција. Ако рачунарски програм није могао да одлучи између две или више емоција, једноставно је тај снимак оставио некласификованим.
„Желимо да будемо сигурни да када рачунар мисли да снимљени говор одражава одређену емоцију, врло је вероватно да он заиста приказује ту емоцију“, рекао је Хеинзелман.
Претходно истраживање показало је да су системи класификације емоција у великој мери зависни од говорника, што значи да раде много боље ако систем тренира исти глас који ће анализирати. „Ово није идеално за ситуацију у којој желите да имате могућност да само покренете експеримент на групи људи који разговарају и комуницирају, попут родитеља и тинејџера са којима радимо“, рекла је Стурге-Аппле.
Нови резултати потврђују ово откриће. Ако се класификација емоција заснована на говору користи за глас који се разликује од гласа који је обучио систем, тачност је пала са 81 на око 30 процената. Истраживачи сада истражују начине за смањење овог ефекта тренирајући систем гласом у истој старосној групи и истог пола.
„Још увек постоје решиви изазови ако желимо да користимо овај систем у окружењу које подсећа на стварну ситуацију, али знамо да је алгоритам који смо развили ефикаснији од претходних покушаја“, рекао је Хеинзелман.
Извор: Универзитет у Роцхестеру