TikTok, należący do chińskiego ByteDance podjął decyzję o likwidacji berlińskiego biura moderatorów treści. Liczył on około 150 pracowników, w tym osoby zajmujące się językiem niderlandzkim. Ich obowiązki przejmą algorytmy sztucznej inteligencji wspierane przez ludzi z firm zewnętrznych. Ruch ten wywołał falę strajków i protestów, a eksperci ostrzegają przed potencjalnymi konsekwencjami dla bezpieczeństwa platformy.
Dotychczasowy zespół „Trust and Safety” odpowiadał za usuwanie z platformy szkodliwych treści, takich jak przemoc, pornografia, mowa nienawiści i dezinformacja, działając w wielu językach. Jak podają belgijskie media, w tym flamandzki nadawca VRT i „The Brussels Times”, w odpowiedzi na te zwolnienia już w lipcu odbyły się protesty. 17 lipca około 50 osób zebrało się w Berlinie, niosąc transparenty z hasłem „Wytrenowaliśmy wasze maszyny – zapłaćcie nam za to, na co zasługujemy”. Niemiecki związek zawodowy Ver.di zapowiedział dalsze działania, jeśli TikTok nie wycofa się z planowanych zwolnień.
Decyzja TikToka budzi poważne zaniepokojenie wśród ekspertów. Głównym punktem spornym jest wiara w zdolność AI do samodzielnej i skutecznej moderacji. Jak ostrzega Ver.di, AI może błędnie klasyfikować niektóre treści, takie jak tęczowe flagi, jako politycznie kontrowersyjne. „To niebezpieczne. Nie można moderacji oddać w pełni algorytmom” – podkreśla Sara Tegge, jedna ze zwolnionych moderatorek, cytowana przez agencję AFP.
Szczególne obawy wyrażają moderatorzy odpowiedzialni za język niderlandzki. Według VRT, w berlińskim biurze pracowało ich zaledwie 11. Jeden z nich, wypowiadając się anonimowo, alarmuje: „Już teraz często reagujemy za późno na niebezpieczne trendy, bo jesteśmy zbyt małym zespołem. Zastąpienie nas przez sztuczną inteligencję tylko pogorszy sytuację. Aplikacja stanie się mniej bezpieczna”.
Specjaliści w dziedzinie sztucznej inteligencji również podchodzą do sprawy krytycznie. Olivier Cauberghs, ekspert ds. AI, w rozmowie z VRT Radio 1, zwraca uwagę, że „AI nie potrafi rozpoznać subtelnych form mowy nienawiści ukrytej w emoji, kodach czy muzyce. Tylko człowiek ma ten kontekst„. Cauberghs dodaje, że zwolnienia moderatorów wpisują się w szerszy, globalny trend, w którym platformy cyfrowe ograniczają inwestycje w ręczną moderację, co może prowadzić do wzrostu liczby treści nielegalnych lub nieodpowiednich.
