Poważna wada „wielojęzycznej” moderacji treści AI

0
104

Trzy części po bośniacku tekst. Trzynaście części kurdyjskich. Pięćdziesiąt pięć części suahili. Jedenaście tysięcy części angielskich.

Jest to część przepisu na dane dla nowego dużego modelu językowego Facebooka, który według firmy jest w stanie wykryć i powstrzymać szkodliwe treści w ponad 100 językach. Bumble wykorzystuje podobną technologię do wykrywania niegrzecznych i niechcianych wiadomości w co najmniej 15 językach. Google używa go do wszystkiego, od tłumaczenia po filtrowanie sekcji komentarzy w gazetach. Wszystkie mają porównywalne przepisy i ten sam dominujący składnik: dane w języku angielskim.

Przez lata firmy zajmujące się mediami społecznościowymi koncentrowały swoje wysiłki w zakresie automatycznego wykrywania i usuwania treści bardziej na treściach w języku angielskim niż w 7000 innych językach świata. Facebook pozostawił prawie 70 procent dezinformacji Covid w języku włoskim i hiszpańskim, w porównaniu z zaledwie 29 procentami podobnych dezinformacji w języku angielskim. Dokumenty, które wyciekły, ujawniają, że posty w języku arabskim są regularnie błędnie oznaczane jako mowa nienawiści. Słaba moderacja treści w lokalnym języku przyczyniła się do naruszeń praw człowieka, w tym ludobójstwa w Mjanmie, przemocy na tle etnicznym w Etiopii i dezinformacji wyborczej w Brazylii. Na dużą skalę decyzje o hostowaniu, degradowaniu lub usuwaniu treści mają bezpośredni wpływ na prawa podstawowe ludzi, zwłaszcza osób zmarginalizowanych, które mają niewiele innych możliwości organizowania się lub swobodnego wypowiadania się.

Problem polega po części na woli politycznej, ale jest to również wyzwanie techniczne. Tworzenie systemów, które mogą wykrywać spam, mowę nienawiści i inne niepożądane treści we wszystkich językach świata, jest już trudne. Utrudnieniem jest fakt, że wiele języków ma „niskie zasoby”, co oznacza, że ​​mają niewiele zdigitalizowanych danych tekstowych dostępnych do trenowania zautomatyzowanych systemów. Niektóre z tych języków o niskich zasobach mają ograniczoną liczbę użytkowników i użytkowników Internetu, ale inne, takie jak hindi i indonezyjski, są używane przez setki milionów ludzi, co zwielokrotnia szkody powodowane przez błędne systemy. Nawet jeśli firmy byłyby skłonne zainwestować w budowanie indywidualnych algorytmów dla każdego rodzaju szkodliwych treści w każdym języku, mogą nie mieć wystarczającej ilości danych, aby te systemy działały efektywnie.

Nowa technologia zwana „wielojęzycznymi dużymi modelami językowymi” zasadniczo zmieniła sposób, w jaki firmy zajmujące się mediami społecznościowymi podchodzą do moderacji treści. Wielojęzyczne modele językowe — jak opisujemy w nowym artykule — są podobne do GPT-4 i innych dużych modeli językowych (LLM), z wyjątkiem tego, że uczą się bardziej ogólnych zasad języka, ucząc się tekstów w dziesiątkach lub setkach różnych języków. Zostały zaprojektowane specjalnie do tworzenia powiązań między językami, umożliwiając im ekstrapolację z tych języków, dla których mają dużo danych szkoleniowych, takich jak angielski, aby lepiej radzić sobie z tymi, dla których mają mniej danych szkoleniowych, takich jak bośniacki.

Modele te okazały się zdolne do prostych zadań semantycznych i składniowych w wielu językach, takich jak analizowanie gramatyki i analizowanie tonacji, ale nie jest jasne, na ile są one zdolne do znacznie bardziej specyficznego dla języka i kontekstu zadania moderowania treści, szczególnie w języki, w których są ledwie wyszkoleni. Oprócz okazjonalnych wpisów na blogu z gratulacjami, firmy zajmujące się mediami społecznościowymi niewiele ujawniły na temat tego, jak dobrze ich systemy działają w prawdziwym świecie.

Dlaczego wielojęzyczny modele są mniej zdolne do identyfikowania szkodliwych treści, niż sugerują firmy zajmujące się mediami społecznościowymi?

Jednym z powodów jest jakość danych, na których się szkolą, szczególnie w językach o niższych zasobach. W dużych zestawach danych tekstowych, często używanych do uczenia modeli wielojęzycznych, najmniej reprezentowane języki to także te, które najczęściej zawierają tekst obraźliwy, pornograficzny, słabo przetłumaczony maszynowo lub po prostu bełkot. Deweloperzy czasami próbują nadrobić słabe dane, wypełniając lukę tekstem przetłumaczonym maszynowo, ale znowu oznacza to, że model nadal będzie miał trudności ze zrozumieniem języka, w jaki faktycznie posługują się nim ludzie. Na przykład, jeśli model językowy został przeszkolony tylko na maszynie tekstowej tłumaczonej z angielskiego na cebuański, język, którym posługuje się 20 milionów ludzi na Filipinach, model mógł nie widzieć terminu „kuan”, slangu używanego przez native speakerów, ale taki, który nie ma żadnego porównywalnego terminu w innych językach.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj