Нови приступ откривању лажи користи стварне судске случајеве

Пажљивим посматрањем људи који говоре лажи током високих улога на судовима, истраживачи са Универзитета у Мичигену развијају јединствени софтвер за откривање лажи заснован на подацима из стварног света.

Њихов модел откривања лажи узима у обзир речи и гесте особе, и за разлику од полиграфа, не треба да додирује звучник да би могао да ради.

У експериментима, прототип је био до 75 процената тачан у идентификовању онога ко говори лаж (како је дефинисано резултатима испитивања), у поређењу са резултатима људи од нешто изнад 50 процената. Алат би могао бити од помоћи једног дана агентима обезбеђења, пороти, па чак и професионалцима за ментално здравље.

Истраживачи кажу да су идентификовали неколико црвених застава лажљивог понашања. На пример, на видео снимцима лажљиви људи су више покретали руке. Трудили су се да звуче извесније. И, донекле контраинтуитивно, било је мало вероватније да ће своје испитанике погледати у очи него што су људи мислили да говоре истину, између осталог понашања.

Да би развили софтвер, истраживачи су користили технике машинског учења да би га истренирали на сету од 120 видео клипова из медијског покривања стварних суђења. Неки од исечака које су користили били су са веб странице Тхе Инноценце Пројецт, националне организације која ради на ослобађању од неправде осуђених.

„Стварни свет“ аспекта дела један је од главних начина на који се разликује.

„У лабораторијским експериментима је тешко створити поставку која мотивише људе да истински лажу. Улози нису довољно високи “, рекла је др Рада Михалцеа, професор рачунарских наука и инжењерства који води пројекат са др Михаи Бурзо, доцентом машинства на Универзитету у Мичигену.

„Можемо понудити награду ако људи могу добро да лажу - платите им да убеде другу особу да је нешто лажно истина. Али у стварном свету постоји истински мотив за обмањивање “.

Видео записи укључују сведочење оптужених и сведока. У половини исечака сматра се да субјекат лаже. Да би утврдили ко говори истину, истраживачи су упоређивали своје сведочење са пресудама.

Истраживачи су транскрибовали звук, укључујући вокални испун, као што је „хм, ах и ух“. Затим су анализирали колико су испитаници често користили разне речи или категорије речи. Такође су бројали гестове у видео записима користећи стандардну шему кодирања за међуљудске интеракције која постиже девет различитих покрета главе, очију, обрва, уста и руку.

Затим су податке убацили у свој систем, омогућавајући им да сортира видео записе. Када је користио унос из речи и геста говорника, било је тачно 75 одсто у идентификовању ко лаже. То је много боље од људи који су прошли боље од бацања новчића.

"Људи су лоши детектори лажи", рекао је Михалцеа. „Ово није врста задатка у којој смо природно добри.

„Постоје трагови које људи дају природно када су варљиви, али не обраћамо довољно пажње да бисмо их покупили. Не рачунамо колико пута особа каже „ја“ или подигне поглед. Фокусирамо се на виши ниво комуникације. “

У клиповима људи који лажу, истраживачи су пронашли следећа уобичајена понашања:

  • Лажови су чешће мрштили или искривили цело лице. То је било у 30 процената лажних клипова наспрам 10 процената истинитих;
  • Лажови су чешће гледали директно у испитивача, у 70 процената лажних клипова наспрам 60 процената истинитих;
  • Лажови су чешће гестикулирали са обе руке, у 40 процената лажних клипова, у поређењу са 25 процената истинитих;
  • Лажљивци су чешће користили вокалне испуне попут „ум;“
  • Лажови су се вероватније дистанцирали од акције речима попут „он“ или „она“, уместо „ја“ или „ми“ и користећи фразе које су одражавале сигурност.

„Интегришемо физиолошке параметре као што су пулс, фреквенција дисања и колебање телесне температуре, а сви су прикупљени неинвазивним термичким снимањем“, рекао је Бурзо. „Откривање обмана је веома тежак проблем. Долазимо до тога из неколико различитих углова. “

За овај рад истраживачи су сами класификовали гесте, уместо да то ради рачунар. Они су у процесу обуке рачунара за то.

Налази су представљени на Међународној конференцији о мултимодалној интеракцији и објављени су у зборнику конференције 2015. године.

Извор: Универзитет у Мицхигану

!-- GDPR -->