Były pracownik Meta, który pracował nad systemami i polityką moderowania treści i który rozmawiał z WIRED pod warunkiem zachowania anonimowości, mówi jednak, że masowe zgłaszanie może przynajmniej spowodować oznaczenie niektórych treści lub kont do sprawdzenia. A im częściej dany typ treści jest oznaczany, tym bardziej prawdopodobne jest, że algorytm oznaczy go w przyszłości. Jednak w przypadku języków, w których jest mniej materiału do trenowania algorytmu, takich jak bułgarski, a sztuczna inteligencja może być mniej dokładna, były pracownik mówi, że prawdopodobnie więcej prawdopodobne, że moderator-człowiek podejmie ostateczną decyzję, czy usunąć fragment treści.
Rzecznik Meta, Ben Walters, powiedział WIRED, że Meta nie usuwa treści na podstawie liczby zgłoszeń. „Jeśli dana treść nie narusza naszych Standardów społeczności, bez względu na liczbę zgłoszeń nie doprowadzi to do usunięcia treści” — mówi.
Niektóre problemy z moderacją mogą być wynikiem błędu ludzkiego. „Będą pojawiać się wskaźniki błędów, będą usuwane rzeczy, których Meta nie zamierzała usuwać. To się zdarza – mówią. A te błędy są jeszcze bardziej prawdopodobne w językach innych niż angielski. Moderatorzy treści często mają tylko kilka sekund na przejrzenie postów przed podjęciem decyzji o tym, czy pozostaną one online, co jest wskaźnikiem, za pomocą którego mierzy się ich wydajność pracy.
Istnieje również realna możliwość, że wśród ludzkich moderatorów mogą występować uprzedzenia. „Większość społeczeństwa faktycznie popiera Rosję nawet po wojnie na Ukrainie”, mówi Galev. Galev mówi, że nie jest nierozsądne sądzić, że niektórzy moderatorzy mogą mieć takie poglądy, szczególnie w kraju z ograniczonymi niezależnymi mediami.
„Brakuje przejrzystości co do tego, kto decyduje, kto podejmuje decyzje”, mówi Ivan Radev, członek zarządu Stowarzyszenia Dziennikarzy Europejskich w Bułgarii, organizacji non-profit, która wydała oświadczenie potępiające delegowanie pracowników przez Bird.bg Informacja. „To nastroje podsycają niezadowolenie w Bułgarii”. Ta nieprzejrzystość może wywołać zamieszanie.
Brak równowagi między zdolnością skoordynowanych kampanii do oznaczania treści a zdolnością pojedynczych osób lub małych organizacji społeczeństwa obywatelskiego, których raporty trafiają do ludzkich moderatorów, pomógł stworzyć w Bułgarii wrażenie, że Meta przedkłada treści prorosyjskie nad proukraińskie treść.
Nieco ponad połowa z 6,87 miliona mieszkańców Bułgarii korzysta z Facebooka, który jest dominującą platformą społecznościową w kraju. Bułgaria od dawna jest celem rosyjskich trolli i prorosyjskiej propagandy, zwłaszcza od początku wojny na Ukrainie. Zarówno przychylne lokalne media, jak i rosyjskie operacje dezinformacyjne forsowały prorosyjską narrację, obwiniając NATO za konflikt.
Ezekiev, członek BOEC, powiedział WIRED, że nigdy nie otrzymał wyjaśnienia, dlaczego jego treść została usunięta ani w jaki sposób dokonano wyboru. „Jeśli podniesiesz głos przeciwko propagandzie i powiesz coś o wojnie na Ukrainie, twoje konto może zostać zawieszone” – mówi. Własny brak przejrzystości Meta w zakresie jej procesów moderacji, mówi Ezekiev, sprawia, że cała sytuacja jest bardziej mętna.
To właśnie ta frustracja doprowadziła BOEC do protestu w biurze Telus International w Sofii i doprowadziła do tego, że pracownicy – sami w dużej mierze bezsilni – byli dręczeni i nękani, chociaż nie ma dowodów na to, że którykolwiek z moderatorów firmy odstąpił od własnych instrukcji Meta.
W lutym bułgarskie media poinformowały, że Telus International zamknie swoją działalność w kraju i przeniesie pracę do Niemiec. „W ramach konsolidacji operacji, praca Telus International dla Meta w Sofii zostanie przeniesiona do innej z naszych lokalizacji”, mówi Michelle O’Brodovich, rzeczniczka Telus International. „Telus International kontynuuje pomyślną współpracę z firmą Meta, zapewniając najwyższy poziom standardów zawodowych.” Firma nie odpowiedziała, czy dochodzenie w sprawie jej pracy w Bułgarii przyczyniło się do podjęcia tej decyzji.