Compensare Pentru Semnul Zodiacal
Substabilitatea C Celebrități

Aflați Compatibilitatea Prin Semn Zodiacal

Întreabă eticianul: Este corect ca Facebook să suprime știrile conservatoare?

Etică Și Încredere

Fotografie de Dave Pape prin Flickr.

Gizmodo a declanșat o furtună de rețele sociale astăzi raportat că curatorii pentru secțiunea „Trending” a Facebook pun în mod regulat kibosh pe știrile înclinate spre dreapta.

Povestea, atribuită unor surse anonime, a fost remarcabilă în parte din cauza statutului Facebook de un gigant media care direcționează zilnic un furtun de trafic către organizațiile de știri. Dar a făcut furori și pentru că Facebook s-a străduit să se prezinte drept un intermediar nepartizan pentru știri, o companie care oferă povești fără nicio tendință. În un raspuns Cu privire la povestea lui Gizmodo, Facebook a spus că ia „foarte în serios” acuzațiile de părtinire și și-a reafirmat angajamentul de a oferi opinii „pe tot spectrul politic”.

În puțin mai mult de un deceniu, Facebook a trecut de la începutul unei camere de cămin la una dintre cele mai mari distribuitori de știri și informații din întreaga lume. Deci, cum ar trebui să reacționăm când unul dintre cei mai importanți intermediari ai jurnalismului se dezvăluie a fi compus din ființe umane cu părtiniri umane? Mai jos este o sesiune de întrebări și răspunsuri cu Kelly McBride, vicepreședinte al Institutului Poynter și eticianul său în media, despre ce înseamnă raportul de astăzi pentru industria știrilor.

Dacă afirmația lui Gizmodo este corectă și curatorii de știri de la Facebook au evitat în mod deliberat știrile conservatoare, reprezintă aceasta o problemă? Dacă da, de ce?

Aceasta este o problemă, deoarece demonstrează capacitatea de a manipula piața de idei din culise. Nu este nimic nou, dar subminează susținătorii rețelelor sociale care spun că Facebook este un forum de distribuție de știri mai democratic.

Știm de mult timp că algoritmii au părtiniri programate în procesul lor de selecție. Dar această afirmație că oamenii au depășit procesul de selecție subminează întreaga idee a listelor de știri și fluxurilor algoritmice. Îmi sugerează că Facebook nu a avut încredere totală în baza lor de utilizatori. Acest lucru este valabil mai ales când luați în considerare afirmația sursei anonime conform căreia echipa a fost instruită să găsească o sursă mai neutră pentru informații care au avut tendințe pe baza raportării inițiale de pe un site conservator.

Bănuiesc că există mai multe informații despre această practică, descrise de surse anonime, care ne vor ajuta să înțelegem ce încerca Facebook să realizeze. Pentru că nu are prea mult sens ca Facebook să manipuleze în secret subiecte în tendințe pe baza punctului de vedere politic.

Nu ar înstrăina asta o mare parte a utilizatorilor lor? Trebuie să existe mai multe detalii care ne-ar ajuta să înțelegem acest lucru. Poate, așa cum a speculat o sursă, ei rafinau algoritmul?

Organizațiile de știri, evident au prejudecăți despre ceea ce aleg să prezinte. Preferința Facebook aici este într-adevăr atât de diferită de un ziar, post TV sau startup digital?

Acest lucru este puțin mai greu de perceput pentru public, deci este mai puțin transparent și, prin urmare, diferit. Este mai ușor să observi o părtinire umană atunci când știi să cauți una. Până acum, am crezut că echipa de subiecte în tendințe scria doar titluri și descrieri, fără a influența de fapt înțelegerea noastră despre ceea ce este în tendințe.

Această poveste dezvăluie că recomandările Facebook nu sunt în întregime bazate pe algoritm – sunt făcute parțial de oameni, cu preferințe umane. Există pași pe care Facebook îi poate lua pentru a reduce aspectul părtinirii în selecțiile sale?

Dacă vrei ca publicul să aibă încredere în tine, transparența este întotdeauna răspunsul, indiferent dacă vorbim despre părtinire umană sau părtinire mașină. Este mai ușor de spus decât de făcut, în ambele cazuri. Este greu pentru oameni să-și descrie cu exactitate părtinirile. Și algoritmii au nevoie de puțină opacitate dacă vor fi rezistenți la manipulare.

Dacă Facebook ne-ar putea spune mai multe despre ce privilegiază algoritmul și ce respinge algoritmul, ar fi de ajutor. Dacă Facebook ne-ar putea spune și ce fac oamenii și ce nu fac, am avea mai multe informații decât avem acum și mai multe motive să avem încredere în ceea ce vedem.

Facebook este un factor determinant uriaș al știrilor pe care le vedem online. Are responsabilitatea de a fi transparent cu privire la modul în care ne servește poveștile?

Fiind primul motor al audienței site-urilor de știri, Facebook a devenit cea mai mare forță de pe piața ideilor. Cu această influență vine o responsabilitate semnificativă. Există multe moduri prin care Facebook ar putea să-și asume această responsabilitate. În trecut, Facebook a afirmat că își recunoaște obligațiile democratice. Dar poate face întotdeauna mai mult.

Există și alți pași pe care Facebook i-ar putea face?

Iată o idee nebună: ce se întâmplă dacă Facebook (și alte companii care au capacitatea clară de a influența piața de idei) ar avea un editor public, așa cum are The New York Times. Acea persoană ar putea să cerceteze și să scrie despre companie din punctul de vedere al publicului, răspunzând la întrebări și explicând valorile care conduc anumite decizii.

Editorul director al lui Poynter, Benjamin Mullin, a contribuit la acest raport.