Skutecznym sposobem na walkę ze zjawiskiem fake news jest zaangażowanie użytkowników mediów społecznościowych.
Rozprzestrzenianie się fałszywych wiadomości to jedno z największych wyzwań społeczeństwa informacyjnego obecnej dekady. Co prawda rozsiewanie dezinformacji jest starsze niż media, ale współcześnie zjawisko to jest szczególnie niepokojące, przede wszystkim z uwagi na potężne narzędzia dystrybucji i niemożliwe wcześniej do uzyskania zasięgi docierania z informacją. Fałszywe wiadomości są obecnie narzędziem dużego kalibru zarówno propagandy politycznej, jak i marketingu. Biorąc pod uwagę gwałtowny rozwój technologii i np. głębokich fejków (sfałszowanych nagrań wideo), nieprawdziwe treści mają potencjał, aby rozsadzić delikatną tkankę wspólnie uzgodnionej społecznej rzeczywistości. Jest tak zwłaszcza dlatego, że obecnie oprócz błyskawicznego propagowania informacji mamy do czynienia z możliwą jej bardzo daleką personalizacją, w dodatku opartą na dogłębnym zrozumieniu profilu psychologicznego poszczególnych osób.
Stań się lepszym negocjatorem w życiu prywatnym i zawodowym »
Fałszywe informacje atakują wszystkich, ale wbrew powszechnej opinii najbardziej na nie narażeni nie są ludzie młodzi, tylko raczej dojrzali. Dość powiedzieć, że według najnowszych badań osoby po 65. roku życia udostępniają w mediach społecznościowych siedem razy więcej wiadomości pochodzących z domen produkujących fałszywe informacje niż przedstawiciele najmłodszych pokoleń.
Głównym problemem zwalczania dezinformacji nie jest brak pomysłów, tylko przede wszystkim woli. Sieci społecznościowe, jak Facebook czy Twitter, są żywotnie zainteresowane tym, aby treści popularne, klikalne i wiralne były jak najszerzej dostępne, bo generują ruch. Oczywiście wiarygodność ich samych, jako platform, także jest ważna, ale trudno ocenić, na ile może przeważać. Co prawda serwisy te ostatnio coraz głośniej deklarują, że rozpoczną zwalczanie fałszywych informacji, ale deklaracje te można będzie ocenić dopiero po rezultatach.
W pomysłach na eliminację fałszywych informacji często jest pomijany kluczowy, w mojej ocenie, aspekt: aktywnego włączenia społeczności w tworzenie procedur, systemów decyzyjnych i egzekwowanie reguł. To problem szerszy niż tylko fałszywe informacje, ale szczególnie na nich widoczny: Facebook nie chce oddać społeczności możliwości decydowania o kryteriach blokowania osób, kasowania treści czy wyciszania nośnych, choć kłamliwych, tematów, a jednocześnie próbuje problem rozwiązać nisko opłacaną siłą roboczą i nie przeznacza nań odpowiednich środków. Unika także jak ognia przejrzystości procedur, jawności możliwości odwoławczych i, szerzej patrząc, w ogóle podjęcia odpowiedzialności za ważną funkcję publiczną, jaką współcześnie pełni.
Społeczność internautów powinna mieć wpływ na to, jakie narzędzia do kasowania i wykrywania nieprawdziwych wiadomości należy rozwinąć.
Fundacja Wikimedia, w której Radzie Powierniczej zasiadam, z problemem dezinformacji spotyka się od lat. Na świecie są dziesiątki tysięcy ludzi i organizacji, którym zależy na tym, aby z różnych powodów dodawać do Wikipedii nieprawdziwe informacje. Z mojego doświadczenia, zarówno jako aktywisty ruchu Wikimedia, jak i wieloletniego badacza problematyki społeczności otwartej współpracy, wiem jedno: koncentracja na jednostkach i edukacji, zachętach, narzędziach i regulacjach to potrzebne, ale niewystarczające kroki.
Na Wikipedii – jeszcze zanim wprowadziliśmy wygodne ułatwienia narzędziowe czy algorytmy sztucznej inteligencji zapobiegające wandalizmowi – wybrani przez społeczność administratorzy i administratorki skutecznie zwalczali nieprawdziwe treści. Tak samo można eliminować nieprawdziwe informacje w sieciach społecznościowych, jednakże do tego niezbędne byłoby zrezygnowanie przez korporacje z części władzy i decyzyjności. Warto zauważyć, że najprawdopodobniej nie zaszkodziłoby to znacząco ich modelowi biznesowemu, wymagałoby jednak odważnego zaufania użytkownikom i użytkowniczkom. To społeczność powinna wybierać osoby godne zaufania i uprawnione do pełnienia funkcji moderacyjnych. To społeczność powinna mieć wpływ na to, jakie narzędzia do kasowania i wykrywania nieprawdziwych wiadomości należy rozwinąć. I to społeczność powinna tworzyć reguły eliminowania szkodników. Natomiast organizacja powinna przede wszystkim umiejętnie wspierać społeczność i wprowadzać pewne twarde, nienegocjowalne reguły, jak choćby zakaz mowy nienawiści. Nad ich przestrzeganiem czuwałaby zbiorowość moderatorów i moderatorek z zaufania publicznego.
Tego rodzaju elementu społecznościowego najbardziej mi brakuje w podejściu gigantów mediów społecznościowych. Uważam, że wciąż sporo mogą się nauczyć od prekursorów społeczeństwa współpracy, czyli ruchu otwartego oprogramowania i otwartej wiedzy, a komercyjne organizacje, takie jak Yelp, Reddit, Quora czy Tripadvisor, mogą stanowić inspirację dla Facebooka i Twittera.