W miniony piątek po południu Twitter opublikował kod źródłowy swojego algorytmu rekomendacji na GitHub. Twitter powiedział, że „otwiera źródło” swojego algorytmu, co zwykle byłbym za. Algorytmy rekomendacji i otwarty kod źródłowy to główne obszary mojej pracy jako badacza i orędownika odpowiedzialności korporacyjnej w branży technologicznej. Moje badania pokazały, dlaczego iw jaki sposób firmy takie jak YouTube powinny być bardziej przejrzyste w kwestii wewnętrznego działania swoich algorytmów rekomendacji — i prowadziłem kampanie, które na nie naciskały. Mozilla, organizacja non-profit, której jestem starszym członkiem, słynie z otwartego kodu przeglądarki Netscape i zaprosiła społeczność programistów z całego świata do współtworzenia tego projektu w 1998 roku i od tego czasu kontynuuje działania na rzecz otwartego Internetu. Dlaczego więc nie jestem pod wrażeniem ani nie jestem podekscytowany decyzją Muska?
Jeśli już, tak zwane „otwarte zaopatrzenie” Twittera jest sprytnym czerwonym śledziem, aby odwrócić uwagę od jego ostatnich ruchów z dala od przezroczystości. Zaledwie kilka tygodni temu Twitter po cichu ogłosił, że zamyka bezpłatną wersję swojego API, narzędzia, na którym naukowcy z całego świata polegali od lat w prowadzeniu badań nad szkodliwymi treściami, dezinformacją, zdrowiem publicznym, monitorowaniem wyborów, zachowaniami politycznymi i nie tylko . Narzędzie, które jest zastępowane, będzie teraz kosztować badaczy i programistów od 42 000 do 210 000 USD miesięcznie. Ruch Twittera zwrócił uwagę ustawodawców i organizacji społeczeństwa obywatelskiego (w tym Koalicji na rzecz Niezależnych Badań Technologicznych, której zasiadam w zarządzie), którzy potępili decyzję Twittera.
Ironia polega na tym, że wiele problemów, które ludzie podnieśli w weekend podczas analizy kodu źródłowego, można faktycznie przetestować za pomocą tego samego narzędzia, które Twitter jest w trakcie wyłączania. Na przykład badacze spekulowali, że znaleziony w kodzie źródłowym Twittera parametr „UkraineCrisisTopic” był sygnałem dla algorytmu do degradacji tweetów odnoszących się do inwazji na Ukrainę. Korzystając z API Twittera, badacze mogli pobrać tweety związane z inwazją na Ukrainę i przeanalizować ich zaangażowanie, aby określić, czy algorytm je wzmocnił, czy osłabił. Narzędzia takie jak te pozwalają opinii publicznej na niezależne potwierdzanie lub odrzucanie samorodków informacji, które zapewnia kod źródłowy. Bez nich jesteśmy zdani na łaskę tego, co Twitter mówi nam, że jest prawdą.
Wyczyn Twittera to tylko najnowszy przykład prania przezroczystości w branży technologicznej. W 2020 roku TikTok użył również słowa „kod źródłowy”, aby olśnić regulatorów w USA i Europie, którzy domagali się większej przejrzystości działania platformy. Była to pierwsza platforma, która ogłosiła otwarcie fizycznych „Centrów przejrzystości”, rzekomo zaprojektowanych, aby „umożliwić ekspertom badanie i weryfikację praktyk TikTok”. W 2021 roku uczestniczyłem w wirtualnej wycieczce po Centrum, która była czymś więcej niż prezentacją Powerpoint przeprowadzoną przez pracowników ds. polityki TikTok, wyjaśniającą, jak działa aplikacja i przeglądającą ich już publiczne zasady moderowania treści. Trzy lata później Centra pozostają zamknięte dla publiczności (strona internetowa TikTok jako przyczynę podaje pandemię), a TikTok nie udostępnił żadnego kodu źródłowego.
Gdyby Musk naprawdę chciał wziąć odpowiedzialność za algorytm Twittera, mógłby to zrobić sprawdzalny oprócz przezroczysty. Mógł na przykład stworzyć narzędzia, które symulują wyniki systemu algorytmicznego na podstawie szeregu danych wejściowych. Umożliwiłoby to naukowcom przeprowadzanie kontrolowanych eksperymentów w celu sprawdzenia, w jaki sposób systemy rekomendacji uszeregowałyby rzeczywiste treści. Narzędzia te powinny być dostępne dla badaczy, którzy działają w interesie publicznym (i oczywiście mogą wykazać, w jaki sposób ich metody szanują prywatność ludzi) za niewielką opłatą lub za darmo.
Na tym froncie są dobre wieści: europejski akt prawny o usługach cyfrowych, który ma wejść w życie dla bardzo dużych platform internetowych już tego lata, zmusi platformy do przeprowadzania zewnętrznych audytów ich algorytmów, aby upewnić się, że nie są one narażone na szkody ludzie. Rodzaj danych, które będą wymagane do takich audytów, wykracza daleko poza to, co obecnie zapewnia Twitter, TikTok lub jakakolwiek inna platforma.
Wydanie kodu źródłowego było odważnym, ale pospiesznym posunięciem, na które sam Twitter wydawał się nieprzygotowany: repozytorium GitHub zostało zaktualizowane co najmniej dwukrotnie od czasu wydania, aby usunąć zawstydzające fragmenty kodu, które prawdopodobnie nigdy nie miały zostać upublicznione. Chociaż kod źródłowy ujawnia logikę leżącą u podstaw systemu algorytmicznego, nie mówi nam prawie nic o tym, jak system będzie działał w czasie rzeczywistym, na prawdziwych tweetach. Decyzja Elona Muska nie pozwala nam powiedzieć, co dzieje się teraz na platformie lub co może się wydarzyć dalej.
WIRED Opinia publikuje artykuły autorów zewnętrznych reprezentujących szeroki wachlarz punktów widzenia. Przeczytaj więcej opinii Tutaji zapoznaj się z naszymi wskazówkami dotyczącymi przesyłania Tutaj. Prześlij opinię o godz [email protected].