Reklama

Komentár 52. týždeň: Prečo potrebujeme strojové rozpoznávanie falošných správ?

Zdroj | NerdAlert
TECHBOX
Zdroj | NerdAlert
Zdroj | NerdAlert

Tento týždeň komentujeme nenápadnú udalosť ktorá zahýbala celým Internetom – odblokovanie B.S. Detectora na stránkach Facebooku. Od tohto momentu, téma lživých správ zamestnáva všetkých internetových podnikateľov. Lživé správy ohrozujú ich biznis. Ohrozujú kredit Internetu ako zdroja informácií. Ako na túto situáciu reaguje Facebook?

Nie ľudia, ale stroje nás povedú k pravde

V utorok 2. decembra sa na webe odohral zdanlivo bezvýznamný incident. Facebook najprv zablokoval, neskoršie povolil prístup na stránky bsdetector.tech. Čo sa vlastne stalo?

Všetko sa to začalo nešťastným vyhlásením Marka Zuckerberga, ešte počas volebnej kampane na amerického prezidenta, že Facebook nie je schopný efektívne zasiahnuť proti šíreniu falošných správ na jeho platforme.

Toto tvrdenie vyprovokovalo mladého žurnalistu a aktivistu – Daniela Sieradského k zásadnému činu. Aby Markovi predviedol, že sa mýli, v priebehu niekoľkých hodín naprogramoval plug-in do prehliadača Google Chrome – B.S. Detector (angl. Bull Shit Detector, slov. slang. detektor hovadín).

B.S. Detector overuje, či správa zdieľaná na Facebooku alebo Twitteri, pochádza z dôveryhodného zdroja, respektíve z dôveryhodných stránok. Ak nie, automaticky pripojí výstrahu: „…stránka nie je spoľahlivým zdrojom správ…“ a pripojí dôvod:

  • falošná správa
  • satira
  • extrémne zaujatá správa
  • konšpiračná teória
  • klebeta
  • štátom manipulovaná správa
  • pseudo-vedecká správa
  • nenávistná správa
  • správa – návnada: manipulačná správa za účelom pritiahnutia pozornosti, tzv. Clickbait
  • čítať s rezervou: správa potrebuje ďalšie overovanie
Zdroj | BSDetector

Ako to BSDetector robí?

Jednoducho zisťuje, či je stránka uvedená na zozname pochybných webov. A kto ten zoznam pochybných webov vytvára? Človek. Respektíve, komunita ľudí: novinári, aktivisti, dobrovoľníci. A keďže je to práca človeka, objektivita tejto metódy môže byť spochybnená.

To si Mark veľmi dobre uvedomoval. Vedel, že identifikácia falošných správ je kontroverzná, technicky i filozoficky veľmi náročná úloha. Preto spočiatku od tohto problému dával ruky preč. Dokonca vyhlásil, že Facebook je technologická firma a nie vydavateľstvo, preto preberanie zodpovednosti za obsah zverejnený používateľmi neprichádza do úvahy.

Potom prišlo víťazstvo Donalda Trumpa vo voľbách.

A Zuckerberg otočil.

Zdroj | www.facebook.com

Už viac nemohol prehliadať skutočnosť, že niečo zásadné sa v spoločnosti zmenilo. Niečo znepokojujúce. A jeho dieťa – Facebook – je toho hlavným motorom.

Ako tvrdí spisovateľ Ralph Keyes, prebudili sme sa do „post-pravdivej“ éry (angl. post-truth era). Éry, v ktorej sa diskusia len zriedkakedy zameriava na fakty, alebo politiku. Miesto toho sa koncentruje na emócie a divoké tvrdenia.

Mark priznal, že falošných správ na Facebooku bolo asi jedno percento. Čo však zamlčal je fakt, že to jedno percento pritiahlo pozornosť obrovského počtu ľudí.

BuzzFeed zistil, že 20 „najvýkonnejších“ falošných predvolebných správ uverejnených gerilovými a trollskými webmi vygenerovalo 8 711 000 zdieľaní, reakcií a komentárov na Facebooku. Zatiaľčo 20 „najvýkonnejších“ predvolebných správ uverejnených zavedenými spravodajskými médiami vygenerovalo iba 7 367 000 zdieľaní, reakcií a komentárov.

Zdroj | www.buzzfeed.com

Len pre ilustráciu – zopár príkladov tých najokatejších predvolebných hovadín:

  • Trumpa potvrdil pápež
  • Hilary Clintonová predávala zbrane ISIS
  • dôstojník FBI, ktorý otvoril vyšetrovanie Hilary Clintonovej je mŕtvy
  • moderátorská hviezda Fox News – Megyn Kelly – bola prepustená za lojalitu k Hilary Clintonovej
Zdroj | www.buzzfeed.com

A to nie je to najhoršie. Univerzita v Južnej Karolíne urobila analýzu správ na Twitteri a zistila, že okolo 20 percent predvolebných tvítov bola generovaná automaticky – botami. Dnes už sú tieto programy vybavené umelou inteligenciou. Dokážu skomponovať správu, ktorá je na nerozoznanie od ľudskej. Ba čo viac, keď sú boti naprogramovaní tak, aby pritiahli čo možno najväčšiu pozornosť, sme – slušne povedané – v háji.

Umelá inteligencia sa totiž dokáže učiť. Neporovnateľne rýchlejšie, neporovnateľne efektívnejšie. Postupne, metódou pokus-omyl, bude zisťovať, ktoré slová, slovné spojenia a vety majú najväčší ohlas. A tie bude kombinovať tak, aby dosiahla maximálnu emocionálnu reakciu.

Jej nepôjde o pravdu, pointu, posolstvo pre čitateľa. Pôjde jej len o počet reakcií. Ktorá správa pritiahne najväčšiu pozornosť – tú bude šíriť. Bude šokovať, preháňať, urážať. Bude robiť čokoľvek, čo v nás vyvolá potrebu reagovať. Pritom ani nebudeme vedieť, že máme dočinenia so strojom. Smutná predstava, však?

Zuckerberg ako správny obchodník vie, že filtrovať príspevky s pomocou expertov je veľmi dočasné, nepresné a nedôveryhodné riešenie. Preto svoje nádeje vsadil na umelú inteligenciu. Nech tá rozhodne ktoré príspevky sú falošné a ktoré pravdivé. Ale ako to urobiť?

Inšpiráciu si zobral – kde inak – u Googla. Vyhľadávač Google je nielen najobľúbenejším vyhľadávačom na Internete. Je i najpresnejší. Prečo? Vôbec nie preto, že má na diskových poliach uložený najväčší počet preskenovaných webstránok. I keď i to je pravda.

A ani nie preto, že dokáže „pochopiť“ zámer otázky a očakávania používateľa. To dokážu aj iné vyhľadávače. Obľúbený je najmä preto, lebo je dôveryhodný. Manipulácia s poradím vyhľadávania je prakticky vylúčená. Jeho rankingovací algoritmus funguje bez zásahu človeka.

Dokonca nikto ani presne nevie ako funguje. Je to Googlovo najstráženejšie tajomstvo. Všeobecne sa vie len to, že keď chcete byť na popredných priečkach vyhľadávania, musíte zaujať. Musí byť o váš obsah záujem. Musí na vaše stránky smerovať viac referencií ako na stránky vašich konkurentov.

A ako to dosiahnuť? Budujte si v kyber-priestore komunitu podporovateľov, sympatizantov. Znie to síce jednoducho, ale je to mravenčia, zdĺhavá práca. Žiadne skratky neexistujú…

Pri tejto príležitosti spomeniem, že už neexistujúci vyhľadávací stroj Yahoo najímal tímy expertov pre triedenia a zaraďovanie výrazov do databázy vyhľadávaných slov. A to mu nakoniec vykrútilo krk.

Človek, zdá sa, je najslabší článok procesu posudzovania. Zvláštne však? Donedávna sme si mysleli, že nič spoľahlivejšieho a dokonalejšieho ako človek neexistuje.

https://www.youtube.com/watch?v=ZSyj9DUiFSA

Z tohto a ďalších iných pragmatických dôvodov začal Mark na účely identifikácie nevhodných príspevkov používať umelú inteligenciu. Tá rozpoznáva nahotu, násilie, extrémizmus a iné porušenia politiky Facebooku.

Služba je stále vo vývoji a preto často zlyháva. Okrem iného je zodpovedná za stiahnutie z Facebook-u svetoznámej fotografie nahého vietnamského dievčatka, ktoré si zachraňuje život po útoku napalmom vo Vietnamskej vojne.

Ďalším jej zlyhaním je zablokovanie už spomínaného B.S.Detectora, ktorý bol zablokovaný údajne preto, lebo z domény .tech prichádzalo v minulosti často k porušeniam politiky Facebooku. Aspoň tak informuje o incidente vedenie Facebooku na Twitteri.

Ďalším nástrojom na kultiváciu obsahu na Facebooku je chystaná služba Collections. Facebook požiadal partnerské mediálne organizácie, aby poskytovali svoj obsah: správy, komentáre, videá, fotografie cez jednu aplikáciu – Collections. Či si takýto informačný kanál z overených zdrojov nájde svojich používateľov – uvidíme.

Filtrácia príspevkov podľa zoznamu pochybných webov, budovanie obsahu zo serióznych médií, nahlasovanie nekorektných príspevkov užívateľmi – to sú viac-menej jednoduchšie časti úlohy.

Rozpoznávanie nahoty, násilia a extrémizmu pomocou umelej inteligencie je už ťažšia, ale ešte stále realizovateľná úloha.

Identifikácia nenávistných, výhražných a šikanujúcich príspevkov je však, podľa slov Yanna LeCuna – riaditeľa výskumu umelej inteligencie u Facebook-u, už za hranicami súčasných možností umelej inteligencie. K detekcii takýchto príspevkov potrebujete kontext. Veľa kontextu. Kontextu, ktorý často ani na siete nie je. Preto presnosť takejto detekcie je veľmi nízka.

Automatická detekcia falošných správ je však oriešok najtvrdší.

Ale ani v tomto prípade nie je všetko stratené. Facebook navrhol veľmi zaujímavú metódu. Nechal sa inšpirovať prácou svojich kolegov v úplne inom sektore. Tí učia umelú inteligenciu predpovedať koľkokrát ktorý príspevok bude zdieľaný, koľko dostane lajkov, koľko bude k nemu komentárov.

Mark povedal, že do desať rokov budú jeho algoritmy schopné predpovedať reakciu čitateľov s minimálnou chybou.

Prečo je to zaujímavé? Lebo takým istým spôsobom možno naučiť umelú inteligenciu predpovedať, či bude príspevok nahlásený alebo nie. A máme čo sme potrebovali.

Algoritmus, ktorý dokáže s nejakou štatistickou chybou predpovedať, či daný príspevok uverejniť, alebo nie. Aby takýto algoritmus fungoval, musí sa nazbierať obrovské množstvo správ označených používateľmi, alebo expertmi ako nevhodné a to bude trvať aj niekoľko rokov. Presne ako povedal Mark.

Na druhej strane dobrou správou je, že metódy umelej inteligencie sú tak trochu čiernou skrinkou. My vidíme, že produkujú správny výsledok, ale nie sme schopní určiť, ako presne sa tie výsledky rodia. Nie že by sme boli takí hlúpi.

Nie, jednoducho nie sme schopní interpretovať milióny koeficientov, ktoré dávajú zmysel len ak sa navzájom skombinujú.

Prečo to spomínam? Pretože bude ľuďom dosť dlho trvať, kým zistia ako taký detekčný algoritmus oklamať. Kým zistia na akú kombináciu slov, alebo obrázkov je detekčný algoritmus imúnny, aby mohli prepašovať na verejnosť falošnú správu.

Označovanie falošných správ zatiaľ Zuckerberg zveruje verifikačným organizáciám, aktivistom a novinárom. Nechce byť arbitrom. Chce byť prevádzkovateľom platformy. Biznismenom. A biznis nemá rád kontroverzné politické témy. Odháňajú mu potenciálnych zákazníkov.

O nejakú formu preverovania faktov sa pokúša i Google, hoci menej automatizovanú. V jeho službe Google News pridal ku každému článku tlačítko „Fact check“.

Keď ho stlačíte, Google vás presmeruje na analytický článok, kde si môžete fakty potvrdiť. Bohužiaľ, služba je zatiaľ dostupná len v USA a vo Veľkej Británii. Spomínané analytické články pripravujú také organizácie ako „International Fact-Checking Network„, „PolitiFact„, alebo „FullFact„.

Problému falošných správ už venujú pozornosť aj zavedené médiá:

  • Mirror Group vyvinul nástroj, ktorý identifikuje, či organizácia, ktorá správu publikuje sa riadi kódexom „Projektu Dôvery“, a pripája informácie o autorovi.
  • La Stampa vyvinula nástroj, ktorý identifikuje stupeň dôveryhodnosti článku podľa toho, koľko podobných článkov autor napísal.
  • WoshingtonPost/BuzzFeed vyvinul nástroj, ktorý skenuje článok a hľadá linky a zdroje, ktoré zobrazuje čitateľovi.
  • BBC News Lab vyvinul nástroj, ktorý vizualizuje informačné zdroje z ktorých autor čerpal pri písaní článku.
  • The Guardian sa pokúša vyviesť čitateľa z informačnej bubliny tak, že automaticky ponúka k danému článku aj oponujúci článok.

Ale nezaostávajú ani novinári a aktivisti na Slovensku:

  • Už dlhodobo existuje stránka demagog.sk, ktorá hodnotí výroky politikov.
  • Index konšpiračných webov vedie stránka konspiratori.sk.
  • A zoznam dezinformačných webov vedie i známy aktivista Juraj Smatana.

A prečo sú falošné správy také záludné? Prečo majú takú popularitu?

Zdroj | www.sciencenews.org

Čiastočne je za tým aj psychológia. Ešte z čias Tretej ríše bol známy Goebelsov výrok, že 100-krát opakovaná lož sa stáva pravdou. Až teraz však vedci zistili prečo.

Po viacerých experimentoch psychológ David Rapp z Northwestern Univerzity v Evanstone zistil, že často opakované fakty sa ľahšie pamätajú.

A to čo sa ľahšie pamätá, máme tendenciu skôr označiť za pravdu. A to dokonca aj vtedy, keď sme na začiatku boli jasne upozornení, že správa je falošná.

Ďalší psychologický efekt, ktorý uľahčuje šírenie falošných správ sa volá kognitívna disonancia. Človek automaticky zavrhne fakt keď protirečí jeho presvedčeniu alebo viere. Držať v sebe protichodné informácie je skrátka pre nás veľmi nepohodlné až ohrozujúce.

Sme teda úplne bezbranní voči vymývaniu mozgov? Ako prezentovať niekomu pravdivý fakt, ktorý odporuje jeho viere? Michael Shermer v časopise Scientific American radí:

  1. nemiešajte do diskusie emócie;
  2. diskutujte, neútočte;
  3. počúvajte pozorne a hovorte ako rozumiete argumentom druhej strany;
  4. preukazujte rešpekt svojmu oponentovi;
  5. pokúste sa porozumieť, prečo má dotyčný daný názor;
  6. pokúste sa ukázať, že prijatie nového názoru nemusí znamenať zmenu jeho svetonázoru, alebo presvedčenia.

Dlhé, prácne a zložité. Však?

Žiadny z týchto problémov umelá inteligencia nemá. Nemá politické názory, nemá vieru, nemá evolúciou (zde)formovanú psychológiu, nemá zámer, nemá záujmy – bola by ideálnym nástrojom na hľadanie pravdy. Keby… Keby sme vedeli zostrojiť kritériá, ako falošné správy rozpoznať.

Jednou z možností je – nechať to na ňu. Nech si kritériá falošnej správy nájde sama. Ukážme jej milióny falošných správ a milióny pravdivých správ. Nech sa trápi. Nech hľadá čo majú spoločné a čím sa od seba odlišujú. Bol by to najambicióznejší projekt Internetu aký kedy kto vymyslel. Práca ako stvorená pre superpočítače typu IBM Watson.

Zdroj | agsandrew@depositphotos

Ale skúsme domyslieť do dôsledkov čo by to bol za systém, keby sa ho podarilo vyvinúť. Internet by zrazu dostal zvláštnu vlastnosť. Vedel by sa sám brániť falošným informáciám. Dostal by akýsi indikátor ohrozenia. Indikátor s jednoduchou škálou: pravda – lož, prijímam – zavrhnem, dobro – zlo, príjemné – nepríjemné, radosť – strach.

Nepripomína vám to niečo? Veď presne túto istú funkciu v živote človeka hrajú emócie! Sú našim indikátorom prežitia: strach = šanca na prežitie klesá, radosť = šanca na prežitie stúpa.

Vybavíme teda Internet emóciami, aby nás ochránil pred falošnými správami? Zveríme overovanie pravdy algoritmom, lebo si navzájom nedôverujeme? Budú nám robiť arbitrov sofistikované stroje a nie ľudia? Je teda umelá inteligencia alternatívou politickej moci?

Internet bude vybavený umelou inteligenciu, bude vybavený emóciami. Už chýba len posledná ingrediencia – vedomie. Hoci nevieme presne ako vedomie vzniká, vieme, že jeho primárnou činnosťou je logická interpretácia emócií. A keďže presne to chceme od umelej inteligencie v prípade falošných správ, existuje oprávnená obava, že by Internet mohol nadobudnúť vedomie celkom spontánne. Ako vedľajší produkt učenia.

Hoci nechtiac – oživíme obra.

Zdroj | agsandrew@depositphotos

 

Ďalšia story
Zatvoriť

Newsletter

Ďakujeme za váš záujem! Odteraz vám už neunikne žiadna novinka.
Ľutujeme, ale váš formulár sa nepodarilo odoslať.