autor: Zuzanna Domeradzka
Rockstar walczy z toksycznością w GTA Online nowym narzędziem, które rozumie polską mowę
GTA Online korzysta teraz z narzędzia AI, które przechwytuje dane z czatu głosowego i wykrywa toksyczne zachowanie. Technologia rozpoznaje też mowę w języku polskim.
Rockstar postanowił skuteczniej walczyć z toksycznymi osobami w Grand Theft Auto Online. Od teraz gracze będą musieli zwracać szczególną uwagę na to, co mówią.
Do gry trafił bowiem patch, który wprowadził istotną zmianę w wersji na PC. Jak podaje znany wśród społeczności produkcji Rockstara informator Tez2, w ramach tej niewielkiej aktualizacji zaimplementowane zostało narzędzie ToxMod. Wykrywa ono dzięki sztucznej inteligencji toksyczne zachowanie na czatach głosowych.
ToxMod jest bardzo dokładny, bowiem analizuje nie tylko słowa, ale również ton wypowiedzi, kontekst, intencje, a nawet emocje gracza. Pomaga to w wykryciu i ewentualnym blokowaniu kont toksycznych osób.
Twórcy tego narzędzia zapewniają, że jest ono w stanie odróżnić zwykłe przekomarzanie się od prawdziwego złego zachowania i dręczenia innych. Ponadto dane zbierane podczas rozmów z czatu głosowego są chronione.
Sztuczna inteligencja wykorzystywana w ToxMod rozpoznaje mowę w aż 18 językach, w tym angielskim, hiszpańskim, francuskim, niemieckim, a nawet polskim. Czas pokaże, czy dzięki narzędziu zmniejszony zostanie problem toksyczności w GTA Online oraz czy bardzo emocjonalnie reagujące podczas gry osoby, które nie dręczą innych, nie będą masowo blokowane.
Kilka innych gier poza GTA Online już korzysta z ToxMod, m.in. Among Us VR czy Breachers. Od sierpnia narzędzie jest też obecne w niektórych częściach serii Call of Duty.
Tez2 podaje również, że do dzieła Rockstara zostały dodane dwie opcje zgłaszania graczy, którzy źle się zachowują lub oszukują: poprzez wirtualne wiadomości tekstowe w telefonie i e-maile. Pełną listę zmian, które zostały wprowadzone do gry wraz z tym małym (to tylko kilka zmian) patchem, zobaczycie tutaj.