Изненађење: Фацебоок каже да је Фацебоок у реду за вести!

Студија је објављена прошле недеље у часопису Наука то показује да Фејсбуков алгоритам није узрок хипотетичког „балона са филтером“ - где људи виде само вести које се поклапају са њиховим политичким склоностима на друштвеној мрежи.

Једини проблем? То је Фацебоок студија коју су спровели људи који су запослени у Фацебоок-у.

Да ли би требало да будемо заиста толико изненађени да Фацебоок-ови истраживачи минимизирају утицај манипулација своје компаније са вестима људи?

Студија, Изложеност идеолошки разноликим вестима и мишљењима на Фејсбуку, Еитан Баксхи и колеге на Фејсбуку објављено је прошле недеље у Наука. Како би ова студија могла бити објављена у престижном часопису Наука? 1 Зар не би требало да се рецензијом обухвате самопослужне студије које објављују компаније које само показују шта компанија жели да подаци показују?

Треба се запитати како су рецензенти прошли ову студију онако како је објављена. Многе критике студије су већ објављене, па ћу само направити кратки преглед проблема које су други навели. Ова критика Цхристиана Сандвига прилично резимира проблем са начином на који су истраживачи Фацебоок-а окренули сопствене налазе у објављеној студији:

На тему поређења, студија наставља да каже:

„Непобитно утврђујемо да ... појединачни избори више од алгоритама ограничавају изложеност садржају изазовном ставу.“

„У поређењу са алгоритамским рангирањем, одабир појединаца о томе шта ће конзумирати имао је јачи ефекат“

Звоне ми аларми. Дуванска индустрија је некада могла финансирати студију која каже да је пушење мање опасно од вађења угља, али овде имамо студију о пушењу рудара угља. Вероватно док су у руднику угља.

Оно што желим да кажем је да не постоји сценарио у којем се могу мењати „избор корисника“ насупрот „алгоритму“, јер се они дешавају заједно […]. Корисници бирају између онога што им је алгоритам већ филтрирао. То је низ.

Мислим да је правилна изјава о ове две ствари да су обе лоше - обоје повећавају поларизацију и селективност. Као што сам горе рекао, чини се да алгоритам скромно повећава селективност корисника.

Заиста, помислили бисте да би истраживачи Фејсбука који, знате, раде на Фејсбуку, разумели да не можете да задиркујете и одвојите алгоритам од понашања корисника, јер један зависи од другог. Без манипулисања алгоритмом (за које је Фацебоок истраживање Адам Крамер открио да није добра ствар без претходног добијања информисаног пристанка корисника), заправо не можете рећи зашто корисници кликћу на једну ствар више него на нешто друго.

Али овај преглед студије на Фејсбуку Зеинеп Туфекци, професорке са Универзитета Северне Каролине, Цхапел Хилл, написао је да су оно што су подаци студије заиста пронађени сахрањени у додатку студије:

Што је виша веза, већа је вероватноћа да ће се на њу кликнути (много више). Живите и умирете смештањем, одређеним алгоритмом вести. (Ефекат је, како правилно примећује Сеан Ј. Таилор, комбинација смештаја и чињенице да алгоритам погађа шта бисте желели).

То је већ било познато, углавном, али сјајно је што то потврђују истраживачи Фацебоок-а (аутори студије су само запослени на Фацебоок-у). […]

Једно ново откриће је да алгоритам храњења вести (скромно) потискује разноврстан садржај, а друго кључно, а такође ново откриће је да пласман у фиду (снажно) утиче на стопу учесталости кликова.

Фацебоок вам приказује вести за које ћете вероватније да их прочитате (јер се слажу са вашим политичким гледиштем) и да је што је већа у вашој вести, већа је вероватноћа да ћете кликнути на њу.

Другим речима, Фацебоок-ова манипулација вашим феед-ом вести и даље је важан фактор који одређује шта ћете вероватно кликнути. И они настављају да манипулишу тим феедом да би вам приказивали политички усклађене вести више него да у њиховом алгоритму уопште нема пристрасности.

И, као што Туфекци важно напомиње, ово је била мала, одабрана група корисника Фацебоок-а која је проучавала, само зато што је истраживачима Фацебоок-а било згодније (и јефтиније) да их проучавају. Гледали су само кориснике који су идентификовали своју политичку припадност на Фацебооку и редовно се пријављују на услугу (око 4 процента укупних корисника Фацебоока [само 9 процената корисника се изјашњава о својој политичкој припадности на Фацебоок-у, што значи да ово није узорак који можете генерализирати било шта од]). Не говори ништа о корисницима Фејсбука који се не изјашњавају о својој политичкој припадности на Фејсбуку - што је већина нас.

Да ли је Фацебоок могао да спроведе снажнију студију? Свакако, али захтевале би више традиционалних истраживачких техника, попут регрутације путем анкете на веб локацији у комбинацији са насумичним регрутовањем е-поште ван локације.

Дакле, ево нефилтрираног, непристрасног открића из података (љубазношћу Туфекција) које су се истраживачи Фацебоока наизглед окренули да кажу да оно што видите у њиховом феед-у није њихова кривица:

Истраживачи Фејсбука недвосмислено показују да Фејсбуков алгоритам вести смањује идеолошки разноврстан, пресечни садржај који људи виде са својих друштвених мрежа на Фејсбуку за мерљиву количину. Истраживачи извештавају да Фејсбуков алгоритам за излагање различитом садржају сузбија 8% за самоидентификоване либерале и 5% за самоидентификоване конзервативце.

Или, како каже Цхристиан Сандвиг, „алгоритам филтрира 1 од 20 унакрсних тешких вести које самоидентификовани конзервативац види (или 5%) и 1 од 13 унакрсних тешких вести да је самоидентификовани либерал види (8%). “ Видите мање вијести са којима се не бисте сложили, а које деле ваши пријатељи, јер вам их алгоритам не приказује.

Нажалост, изван Нев Иорк Тимес и неколико одабраних медија, већина редовних интернет страница вести управо је известила оно што су истраживачи Фацебоок-а тврдили у својој студији, без скептицизма.

Али сада знате истину - Фацебоок је проучио мали, нерепрезентативни узорак, а затим је умањио оно што су њихови подаци заправо показали како би нагласио резултат позитивнији према компанији. За мене је ово још један пример истраживача Фејсбука који заправо не разумеју поенту научног истраживања - да деле знање са светом који није пристрасан и којим се не манипулише.

За даље читање ...

Зеинеп Туфекци: Како Фацебоок алгоритам сузбија разноликост садржаја (скромно) и како Невсфеед управља вашим кликовима

Цхристиан Сандвиг: Фацебоок студија „Није наша грешка“

НИ Тимес: Фацебоок користи поларизацију? Сајт почиње да се разликује

Фусноте:

  1. Нажалост, сада морам да додам још један часопис на своју листу цењених научних публикација које треба даље испитати. Као што знају дугогодишњи читаоци Свијета психологије, та се листа сваке године све више повећава: Педијатрија (Педијатрија објављује студије о технологији које очигледно не прегледа нико упознат са основним истраживачким узрочним везама.), Киберпсихологија, понашање и друштвене мреже (Киберпсихологија очигледно објављује било коју студију о зависности од Интернета или друштвеним мрежама, без обзира на њихов квалитет.) И сада, Наука. [↩]

!-- GDPR -->