autor: Bartosz Świątek
YouTube będzie ograniczać zasięg teorii spiskowych
Administracja YouTube'a poinformowała, że zamierza zmienić funkcjonujący w serwisie system rekomendacji – celem jest ograniczenie widoczności tzw. treści skrajnych, w tym np. promujących teorie spiskowe lub zawierających fałszywe informacje. Co ciekawe, zadanie to spadnie w dużej mierze na barki algorytmów AI.
W SKRÓCIE:
- YouTube planuje ograniczyć widoczność tzw. skrajnych treści – w tym takich, które zawierają fałszywe informacje lub teorie spiskowe;
- filmy, które są bliskie złamania tzw. wytycznych dla społeczności, nie będą podsuwane przez system rekomendacji;
- za wprowadzenie zmiany w życie odpowiadać mają moderatorzy oraz algorytmy AI.
W zeszły piątek firma YouTube poinformowała, że zamierza podjąć działania na rzecz ograniczenia zasięgu filmów zawierających „dezinformację” i „teorie spiskowe”, w celu zmniejszenia wpływu materiałów o charakterze ekstremistycznym na opinię publiczną. Portal ma przestać rekomendować filmy z tzw. „treściami na granicy” – czyli takimi, które co prawda nie łamią wytycznych dla społeczności, ale niewiele im brakuje. Zmiana podobno dotknie mniej więcej 1% materiałów zamieszczanych w serwisie i w pierwszej kolejności będzie testowana w USA.
Zaczniemy redukować rekomendacje dla treści z pogranicza i takich, które mogłyby wprowadzać użytkowników w błąd w szkodliwy sposób - jak np. filmów promujących cudowne lekarstwo na poważną chorobę czy twierdzenie, że Ziemia jest płaska, lub rażąco fałszywe informacje o wydarzeniach historycznych, takich jak 9/11 - czytamy w oświadczeniu.
Problematyczne „treści z pogranicza”
Portal YouTube często był oskarżany o radykalizowanie opinii poprzez promowanie skrajnych lub nieprawdziwych materiałów (zgodnie z badaniem Pew Research Center, aż 64% jego użytkowników trafia okazyjnie na treści zawierające fałszywe lub kłamliwe tezy, a zdaniem BuzzFeed osoba, która założy nowe konto i zacznie oglądać filmy dotyczące polityki, po mniej więcej szóstym otrzyma rekomendację z treściami ekstremistycznymi).
Obecny krok firmy pozornie wydaje się więc iść w dobrą stronę, jednak diabeł tkwi w szczegółach. Warto sobie bowiem zadać pytanie o to, jakie filmy będą uznawane za „skrajne”. Wyznacznikiem mają być tutaj wspomniane już wytyczne dla społeczności, w których znajduje się np. punkt dotyczący „treści szerzących nienawiść”.
Nasze usługi zapewniają swobodę wypowiedzi. Nie dotyczy to jednak materiałów, które zachęcają do przemocy wobec osób lub grup z powodu rasy, pochodzenia etnicznego, religii, niepełnosprawności, płci, wieku, statusu weterana bądź orientacji seksualnej czy tożsamości płciowej, a także tych, które szerzą nienawiść na tle wspomnianych cech. Nie zawsze jest to oczywiste, jednak jeśli głównym celem materiału jest atakowanie chronionych grup, jest on niedopuszczalny – czytamy.
Sęk w tym, że w wielu wypadkach odróżnienie krytyki od ataku bywa niełatwym zadaniem, co świetnie widać w przypadku wielu sporów światopoglądowych (np. dotyczących wolności słowa, tożsamości płciowej, tzw. „poprawności politycznej”, a nawet zjawisk/wydarzeń z naszej własnej branży, takich jak słynne GamerGate). Gdzie kończy się polemika, a zaczyna hejt?
Algorytmy i ludzie na straży porządku
Odpowiedź na to ostatnie pytanie będzie należała do zespołu moderatorów, wspieranych przez uczące się algorytmy – a w zasadzie na odwrót, bowiem, co ciekawe, głównym zadaniem ludzi ma być właściwe wyedukowanie maszyn, tak, by możliwie jak najskuteczniej radziły sobie z wykrywaniem problematycznych treści. Dzięki temu zmiany w systemie rekomendacji mają zostać wprowadzone automatycznie i skutecznie.
Warto odnotować, że filmy, które zostaną „oznaczone” przez AI, nie będą usuwane z platformy – jedyną konsekwencją będzie uniemożliwienie im występowania w systemie rekomendacji. Zdaniem firmy, dzięki pomysłowi uda się zapewnić równowagę pomiędzy wolnością słowa a odpowiedzialnością. W praktyce jednak z pewnością pojawią się liczne oskarżenia o cenzurę i w gruncie rzeczy naprawdę trudno jest powiedzieć, czy będą całkowicie bezpodstawne. Czy swoboda wypowiedzi ma taką samą wartość w sytuacji, kiedy wolno nam głosić swoje racje wyłącznie w zamkniętym, wygłuszonym pomieszczeniu, podczas gdy inni mogą robić to na środku ulicy?
Walka z fałszywymi informacjami i ekstremizmem w sieci zdaje się być jednym z największych wyzwań, które stoją przed ludźmi w XXI wieku. Rozwiązanie zaproponowane przez YouTube może w tym pomóc – ale może też okazać się źródłem wielkiej frustracji i poważnych problemów dla wielu osób. Z oceną trzeba będzie poczekać co najmniej do zakończenia testów w Stanach Zjednoczonych.