Aflați Compatibilitatea Prin Semn Zodiacal
Vandalismul Wikipedia ar putea împiedica fraudarea farselor pe Google, YouTube și Facebook
Verificarea Faptelor

Pentru o scurtă clipă, Partidul Republican din California a susținut nazismul. Cel puțin, asta a spus Google.
Asta pentru că cineva a vandalizat pagina Wikipedia a partidului pe 31 mai pentru a enumera „nazismul” alături de ideologii precum „conservatorismul”, „liberalismul pieței” și „conservatorismul fiscal”. Greșeala a fost eliminată din rezultatele căutării, cu Google clarificând pentru Vice News că motorul de căutare nu reușise să surprindă vandalismul din intrarea Wikipedia.
Dacă căutați „California Republicans” pe Google, Google listează „Nazismul” ca una dintre ideologii. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31 mai 2018
Google are tras de mult enciclopedia online pentru atașarea informațiilor de bază la rezultatele căutării. Conform jurnalul de editare pentru pagina California GOP, cineva a adăugat „nazism” la secțiunea de ideologie a partidului în jurul orei 7:40 UTC pe 31 mai. Editarea a fost eliminată într-un minut, dar se pare că algoritmul Google a răzuit pagina exact la timp pentru fals.
„Uneori oamenii vandalizează surse de informații publice, cum ar fi Wikipedia, ceea ce poate afecta informațiile care apar în căutare”, a declarat un purtător de cuvânt al Google pentru Poynter într-un e-mail. „Avem sisteme care detectează vandalismul înainte ca acesta să afecteze rezultatele căutării, dar ocazional apar erori și asta s-a întâmplat aici.”
Fundația Wikimedia, o organizație nonprofit care operează Wikipedia, a emis de asemenea o declarație pe Twitter.
Rezultatul unui panou de cunoștințe Google a scos la iveală vandalism din partea a @Wikipedia articol de azi. Iată mai multe despre ce s-a întâmplat și despre cum este abordat vandalismul pe Wikipedia. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1 iunie 2018
Potrivit Google, mai mult de 99,9% dintre editările Wikipedia care apar în Knowledge Panels, care afișează informații de bază despre cuvintele cheie care pot fi căutate în partea de sus a rezultatelor, nu sunt acte de vandalism. Utilizatorul care a creat editarea originală a paginii GOP din California nu a folosit un profil de utilizator , făcându-i greu de urmărit.
Asta este o tactică comună printre oamenii care vandalizează paginile Wikipedia, o practică pe care o are organizația nonprofit documentat pe larg . Dar având în vedere volumul de editări care se fac pe Wikipedia - aproximativ 10 pe secundă , cu 600 de pagini noi pe zi - și faptul că Facebook și YouTube se descurcă acum de la ele pentru a oferi mai mult context postărilor, potențialul și efectul abuzului sunt mari.
„Desigur, este o modalitate destul de slabă de a combate știrile false, deoarece Wikipedia nu este o sursă sigură de informații – așa cum recunoaște chiar și Wikipedia”, a spus Magnus Pharao Hansen , un cercetător postdoctoral la Universitatea din Copenhaga, într-un mesaj către Poynter. „Wikipedia este foarte vulnerabilă la farse și conține tot felul de dezinformări, așa că nu este o modalitate foarte serioasă de a combate problema știrilor fabricate.”
Hansen editează pagini Wikipedia de aproximativ 10 ani și a spus că vandalismul este obișnuit pe platformă. Numărul de redactori s-a diminuat în ultimii ani, în timp ce partizanii online au a vizat din ce în ce mai mult platforma — o problemă care ajuns la cap în timpul controversei Gamergate din 2014. Este în esență un joc cu cifre.
E departe de asta unde era Wikipedia în 2005 , când un studiu a constatat că era la fel de precisă ca Britannica. Și este mai greu pentru editorii voluntari să combată vandalismul la scară pe Wikipedia, ceea ce nu este de bun augur pentru utilizarea acestuia pentru a combate dezinformarea pe alte platforme.
„Cu siguranță există o mulțime de informații greșite pe Wikipedia și multe dintre ele vor rămâne”, a spus Hansen. „De multe ori cineva scrie un articol și pot trece ani înainte ca cineva să vină și să-l editeze. Oamenii nu efectuează verificări de fapt decât dacă ceva pare că este într-adevăr deplasat.”
unu articol fabricat pe Wikipedia a trăit pe site timp de un deceniu înainte de a fi șters în 2015.
În același timp, platforma s-a dovedit rezistentă la genul de farse care devin virale în mod regulat Facebook și Stare de nervozitate . estimări Wikimedia că aproximativ 2,5% din editările zilnice sunt vandalism, iar Samantha Lien, un manager de comunicații pentru Wikimedia, a indicat un algoritm care semnalează automat editările discutabile ca fiind un succes cheie pentru eforturile sale de integritate.
„Articolele tind să ofere o reprezentare echilibrată a faptelor, iar site-ul s-a dovedit a fi rezistent la știri false și informații greșite până în acest moment”, a spus ea pentru Poynter într-un e-mail. „De asemenea, am lucrat cu editori voluntari în ultimii doi ani pentru a construi și îmbunătăți instrumente de moderare pentru a identifica și aborda rapid vandalismul pe Wikipedia.”
Dincolo de propriile limitări ale Wikipedia, sistemele proprii ale platformelor tehnologice sunt adesea subiectul unor greșeli și controverse – în special panelurile de cunoștințe.
Tot pe 31 mai, o căutare a unui senator republican care sprijină Donald Trump în Carolina de Nord a scos la suprafata o imagine a ei cu „bigot” scris în partea de jos. În ianuarie, The Daily Caller a constatat că Google a adăugat în mod greșit verificări de fapt la conținutul său și nu pe cel al altor magazine. Asta a determinat compania de tehnologie să suspende funcția până când a rezolvat erorile.
Google i-a spus lui Poynter că nu modifică manual rezultatele căutării pentru a arăta preferința pentru o parte față de alta. Dar algoritmii săi sunt jucați în mod regulat de farseli , reclame false și trolii care caută să modifice rezultatele căutării. Și aceste probleme s-ar putea extinde și la alte platforme care fac legătura cu Wikipedia.
„Atunci când mai multe platforme media folosesc conținut de pe Wikipedia în mod necrit, asta ridică miza – atât pentru cei care ar induce în eroare sau păcăli, cât și pentru cei care ar răspândi cunoștințele”, a spus Hansen. „Cred că, în special cu linkurile la Wikipedia din videoclipurile YouTube despre teoriile conspirației, asta ar putea avea efectul de a atrage mulțimea greșită.”
În martie, A anunțat YouTube că ar lega direct la paginile Wikipedia în descrierile video pentru a oferi mai mult context și a dezminți teoriile conspirației virale, care devin adesea virale după evenimentele de știri de ultimă oră. Acele „indici de informare” – care au fost introduse pe platformă fără știrea Wikipedia — va include un scurt rând despre sursă și un link către pagina sa Wikipedia.
Această funcție nu a fost încă lansată, dar YouTube a introdus una similară în februarie, care oferă mai mult context organizațiilor de știri care primesc bani de la guvernul SUA.

(Captură de ecran de pe YouTube)
Având în vedere vizibilitatea crescută a paginilor Wikipedia, este de imaginat ca vandalii să se întâlnească pe platformă pentru a găsi mai multe platforme cu o singură editare.
„„Hacking” pe Wikipedia a fost întotdeauna o problemă, dar a fost o problemă care a afectat cu adevărat doar cititorii Wikipedia. Acum este cu atât mai periculos cu cât platformele se retrag din ce în ce mai automat de pe Wikipedia”, a declarat Claire Wardle, director executiv al First Draft, într-un e-mail către Poynter. „Pentru agenții de dezinformare care doresc o amplificare maximă, orice tehnică care asigură că platformele sau redacțiile se vor repeta și, prin urmare, legitimează o falsitate, oferă un „randament al investiției” disproporționat.”
În ciuda faptului că servește drept sursă pentru mai multe platforme, Wikipedia nu a înregistrat o creștere a vandalismului, a spus Lien. Dar văzând cum completările au prins organizația pe nepregătite, nu este sigur cum vor afecta exact integritatea paginilor Wikipedia.
„Tendința companiilor de tehnologie care utilizează Wikipedia pentru a aborda problemele de dezinformare pe propriile lor platforme este un teritoriu nou pentru noi și nu știm care vor fi implicațiile complete”, a spus ea. „Pe termen scurt, monitorizăm îndeaproape modul în care aceasta afectează Wikipedia și comunitatea noastră globală de voluntari. Nu am văzut nimic care să indice o problemă de vandalism la scară mai largă până în prezent.”
Dar chiar dacă ar exista o creștere a vandalismului Wikipedia cu intenția de a modifica rezultatele pe platforme, Lien a spus că organizația nu ar avea de unde să știe.
„Nu avem date disponibile care să indice tendințe de vandalism cu intenția explicită de a manipula alte platforme”, a spus ea.
Deci, cât de probabil este ca mai multă dezinformare să-și facă loc pe alte platforme? Joseph Reagle, profesor asociat de comunicații la Universitatea Northeastern și expert Wikipedia, a spus lui Poynter, deși nu există nicio modalitate de a ști fără sistemele de monitorizare potrivite, structura care a fost configurată ar putea face dezinformarea mai vizibilă - chiar și atunci când nu este creată pentru a juca. platforme precum Google și Facebook.
„Da, acest lucru este probabil și cred că va deveni și mai probabil, pe măsură ce aceste companii cu scop profit continuă să sară în val”, a spus el. „În cazul Google, nu cred că intenția editării a fost să polueze utilizatorii din aval ai Wikipedia, dar acesta a fost efectul. Faptul că Wikipedia este folosită de acești agregatori din aval, de asemenea, va face Wikipedia mai mult o țintă, ceea ce este un punct de îngrijorare.”
Totuși, deși se micșorează, Wikipedia are încă o comunitate de editori dedicate care au Ani de experienta gestionarea articolelor despre ultimele știri. Nathan Matias, un asociat de cercetare postdoctoral la Universitatea Princeton, i-a spus lui Poynter într-un e-mail că dezinformarea nu este probabil să scape frecvent din cauza acestei comunități.
Dar la marginea site-ului, această șansă crește substanțial.
„În cazurile de știri de ultimă oră, în care activiștii de tot felul au dezvoltat modalități de a influența algoritmii platformei mai repede decât viteza jurnalismului, mă aștept ca Wikipedia să fie mai rezistentă la influență”, a spus el. „Riscurile pentru Wikipedia și pentru platforme vor fi mai mari la marginea cunoștințelor și a atenției, deoarece este mai greu de observat un flux mic de oameni care accesează materiale extremiste de profil redus.”
În ciuda provocărilor, unii experți văd platformele tehnologice care fac legătura cu paginile Wikipedia ca un pas înainte pentru combaterea dezinformării online.
Eni Mustafaraj, profesor asistent de informatică la Wellesley College, a spus lui Poynter într-un e-mail că adăugarea Wikipedia la marile platforme tehnologice este o mișcare pozitivă. Dar vine cu avertismente.
„Trebuie să facă acest lucru în mod consecvent și nu numai pentru a combate dezinformarea, farsele sau teoriile conspirației”, a spus ea. „Pentru a combate dezinformarea, nu ar trebui să punem Facebook și Google la conducere, pentru că ei au fost cei care au exacerbat problema în primul rând.”
În același timp, scoaterea informațiilor de pe Wikipedia de pe platformă poate deruta în mod inerent cititorii. Hansen a spus că văzând link-uri către site de pe platformele de socializare, chiar dacă sunt bine etichetate, nu va provoca același tip de scepticism care este intrinsec în utilizatorii Wikipedia.
„Cititorul nu știe că este de pe Wikipedia. Acest fel introduce un strat în care nu poți fi sigur de sursa informațiilor”, a spus el. „Oamenii sunt sceptici când sunt pe Wikipedia – poți să vezi când nu există nicio sursă... când ești pe o altă platformă, nu ești atent la așa ceva.”
Apoi mai este problema lățimii de bandă. Pe măsură ce redacțiile continuă să scadă, Wikipedia ar putea dori să ia în considerare angajarea de angajați cu normă întreagă a căror sarcină este să monitorizeze vandalismul și să se asigure că nu se răspândește pe alte platforme. Hansen a spus că consideră că organizația nonprofit ar trebui să creeze o unitate internă de verificare a faptelor sau să solicite editori și cadre universitare experți pentru a evalua unele dintre paginile mai nuanțate.
„Cred că acesta este singurul mod de a combate dezinformarea pe Wikipedia”, a spus el.
Cel puțin, Lien a sugerat că platformele tehnologice care folosesc Wikipedia pentru a contracara dezinformarea dau înapoi organizației nonprofit într-un fel - un punct pe care directorul executiv al Wikimedia, Katherine Maher, a susținut-o. un articol recent pentru Wired . (Facebook și YouTube nu sunt incluse printre cei mai buni binefăcători ai Wikimedia.)
„Încurajăm companiile care folosesc conținutul Wikipedia să ofere înapoi în același spirit de durabilitate”, a spus ea. „Făcând acest lucru, ei s-ar alătura milioanelor de indivizi care contribuie pentru a menține Wikipedia puternică și înfloritoare.”
Și Matias a fost de acord.
„Dacă companiile se așteaptă să se bazeze pe cantități masive de muncă neplătită și adesea împovărătoare din punct de vedere psihologic din partea Wikipedianilor și a Fundației Wikimedia pentru a rezolva unele dintre cele mai grele probleme ale lor, trebuie să găsească modalități de a sprijini această activitate, protejând în același timp independența intelectuală a Wikipedia”, a spus el.