dwa lata temu, Twitter uruchomił prawdopodobnie najbardziej ambitną próbę w branży technologicznej, aby zapewnić przejrzystość algorytmiczną. Jego badacze napisali artykuły pokazujące, że system sztucznej inteligencji Twittera do przycinania obrazów w tweetach faworyzuje białe twarze i kobiety, i że posty prawicy politycznej w kilku krajach, w tym w USA, Wielkiej Brytanii i Francji, otrzymały większy impuls algorytmiczny niż ci z lewicy.
Na początku października zeszłego roku, gdy Elon Musk miał przed sądem termin na sfinalizowanie przejęcia Twittera za 44 miliardy dolarów, najnowsze badania firmy były prawie gotowe. Okazało się, że program uczenia maszynowego błędnie zdegradował niektóre tweety, w których wymieniono dowolne z 350 terminów związanych z tożsamością, polityką lub seksualnością, w tym „gej”, „muzułmanin” i „głuchoniemy”, ponieważ system miał na celu ograniczenie wyświetleń niewyraźnych tweetów grupy marginalizowane utrudniały również posty celebrujące te społeczności. Odkrycie – i częściowa poprawka opracowana przez Twittera – może pomóc innym platformom społecznościowym lepiej wykorzystywać sztuczną inteligencję do nadzorowania treści. Ale czy ktoś kiedykolwiek przeczytałby wyniki badań?
Musk kilka miesięcy wcześniej wspierał algorytmiczną przejrzystość, mówiąc, że chce „otwartego źródła” kodu rekomendacji treści Twittera. Z drugiej strony Musk powiedział, że przywróci popularne konta trwale zablokowane za tweety łamiące zasady. Wyśmiewał także niektóre z tych samych społeczności, które badacze Twittera starali się chronić, i skarżył się na nieokreślony „wirus przebudzenia umysłu”. Dodatkowo niepokojące jest to, że naukowcy Muska zajmujący się sztuczną inteligencją w Tesli generalnie nie opublikowali badań.
Badacze etyki AI z Twittera ostatecznie zdecydowali, że ich perspektywy są zbyt mętne pod rządami Muska, aby czekać, aż ich badanie zostanie opublikowane w czasopiśmie akademickim, a nawet skończyć pisanie blogu firmowym post. Tak więc mniej niż trzy tygodnie przed tym, jak Musk ostatecznie przejął własność 27 października, pospieszyli z badaniem moderacji na ogólnodostępny serwis Arxiv, gdzie uczeni publikują badania, które nie zostały jeszcze zweryfikowane.
„Słusznie martwiliśmy się, co pociągnie za sobą ta zmiana przywództwa” — mówi Rumman Chowdhury, który był wówczas dyrektorem technicznym grupy Machine Learning Ethics, Transparency and Accountability na Twitterze, znanej jako META. „Istnieje wiele ideologii i nieporozumień co do tego, jaką etykę pracy wykonują zespoły jako część czegoś w rodzaju przebudzonego programu liberalnego, a nie jako rzeczywistą pracę naukową”.
Według Chowdhury i pięciu innych byłych pracowników, obawy związane z reżimem Muska zachęciły naukowców z Cortex, organizacji zajmującej się uczeniem maszynowym i badaniami na Twitterze, do ukradkowego publikowania wielu badań znacznie wcześniej niż planowano. Wyniki obejmowały takie tematy, jak dezinformacja i algorytmy rekomendacji. Szalony nacisk i opublikowane artykuły nie były wcześniej zgłaszane.
Naukowcy chcieli zachować wiedzę odkrytą na Twitterze, aby każdy mógł z niej korzystać i ulepszać inne sieci społecznościowe. „Czuję wielką pasję, aby firmy bardziej otwarcie mówiły o swoich problemach i próbowały przewodzić szarżom oraz pokazywać ludziom, że jest to coś, co jest wykonalne” — mówi Kyra Yee, główna autorka moderacji.
Twitter i Musk nie odpowiedzieli na szczegółową prośbę e-mailową o komentarz do tej historii.
Zespół zajmujący się innym badaniem pracował przez całą noc, aby wprowadzić ostateczne zmiany, zanim kliknął opcję Publikuj na Arxiv w dniu, w którym Musk założył Twittera, mówi jeden z badaczy, mówiąc anonimowo z obawy przed odwetem ze strony Muska. „Wiedzieliśmy, że pas startowy zostanie zamknięty, gdy wyląduje jumbo jet Elon” – mówi źródło. „Wiedzieliśmy, że musimy to zrobić przed zamknięciem przejęcia. Możemy wbić flagę w ziemię i powiedzieć, że istnieje”.
Strach nie był nieuzasadniony. Większość badaczy Twittera straciła pracę lub zrezygnowała z pracy za czasów Muska. W zespole META Musk zwolnił wszystkich oprócz jednej osoby 4 listopada, a pozostały członek, współzałożyciel i kierownik badań Luca Belli, zrezygnował pod koniec miesiąca.