Przypadek przerażającego algorytmu, który „przewidział” ciążę nastolatek

0
137

para leer este articulo en español por favor aprete aqui.

W 2018 r., podczas gdy Kongres Argentyński gorąco debatował nad dekryminalizacją aborcji, Ministerstwo Wczesnego Dzieciństwa w północnej prowincji Salta i amerykański gigant technologiczny Microsoft zaprezentowały algorytmiczny system przewidywania ciąży u nastolatek. Nazwali to Platformą Technologiczną Interwencji Społecznej.

„Dzięki technologii można przewidzieć z pięcio- lub sześcioletnim wyprzedzeniem, podając imię, nazwisko i adres, która dziewczyna — przyszła nastolatka — jest w 86 procentach predestynowana do zajścia w ciążę młodocianą — Juan Manuel Urtubey, ówczesny gubernator prowincji , z dumą ogłosił w ogólnokrajowej telewizji. Zadeklarowanym celem było wykorzystanie algorytmu do przewidzenia, które dziewczęta z obszarów o niskich dochodach zajdą w ciążę w ciągu najbliższych pięciu lat. Nigdy nie wyjaśniono, co się stanie, gdy dziewczynę lub młodą kobietę uzna się za „przeznaczoną” do macierzyństwa, ani w jaki sposób ta informacja pomogłaby zapobiec ciąży w okresie dojrzewania. Teorie społeczne stanowiące podstawę systemu AI, podobnie jak jego algorytmy, były nieprzejrzyste.

System oparto na danych — obejmujących wiek, pochodzenie etniczne, kraj pochodzenia, niepełnosprawność i to, czy w domu osoby badanej była ciepła woda w łazience — od 200 000 mieszkańców miasta Salta, w tym 12 000 kobiet i dziewcząt w wieku od 10 do 19. Chociaż nie ma oficjalnej dokumentacji, z przeglądu artykułów w mediach i dwóch przeglądów technicznych, wiemy, że „agenci terytorialni” odwiedzali domy wspomnianych dziewcząt i kobiet, zadawali pytania ankietowe, robili zdjęcia i nagrywali lokalizacje GPS. Co mają wspólnego osoby poddane tej intymnej inwigilacji? Byli biedni, niektórzy byli migrantami z Boliwii i innych krajów Ameryki Południowej, a inni pochodzili z rdzennych społeczności Wichí, Qulla i Guaraní.

Chociaż rzecznicy Microsoftu z dumą ogłosili, że technologia w Salta była „jednym z pionierskich przypadków wykorzystania danych AI” w programach państwowych, nie przedstawia ona nic nowego. Zamiast tego jest przedłużeniem długiej argentyńskiej tradycji: kontrolowania populacji za pomocą nadzoru i siły. A reakcja na to pokazuje, jak oddolne argentyńskie feministki były w stanie poradzić sobie z nadużywaniem sztucznej inteligencji.

W XIX wieku i na początku XX wieku, kolejne argentyńskie rządy dokonywały ludobójstwa społeczności tubylczych i promowały politykę imigracyjną opartą na ideologiach mających na celu przyciągnięcie europejskich osadników, wszystko w nadziei na blanquismo, czyli „wybielanie” kraju. Z biegiem czasu konstruowano tożsamość narodową wzdłuż linii społecznych, kulturowych, a przede wszystkim rasowych.

Według historyczki Marisy Mirandy, która śledzi próby Argentyny kontrolowania ludności poprzez naukę i technologię, ten rodzaj myślenia eugenicznego ma skłonność do zmiany kształtu i adaptacji do nowych paradygmatów naukowych i okoliczności politycznych. Weźmy pod uwagę imigrację. W całej historii Argentyny opinia oscylowała między celebrowaniem imigracji jako środka „poprawiania” populacji a uważaniem imigrantów za niepożądanych i zagrożenie polityczne, które należy uważnie obserwować i zarządzać.

Niedawno argentyńska dyktatura wojskowa w latach 1976-1983 kontrolowała ludność poprzez systematyczną przemoc polityczną. Podczas dyktatury kobiety miały „patriotyczne zadanie” zaludniania kraju, a antykoncepcja była zakazana przez prawo z 1977 roku. Najokrutniejszym wyrazem zainteresowania dyktatury macierzyństwem była praktyka porywania ciężarnych kobiet, uznawana za politycznie wywrotową. Większość kobiet została zamordowana po porodzie, a wiele ich dzieci zostało nielegalnie adoptowanych przez wojsko na wychowanie przez „patriotyczne, katolickie rodziny”.

Chociaż system AI Salty do „przewidywania ciąży” został okrzyknięty futurystyczny, można go zrozumieć tylko w świetle tej długiej historii, w szczególności, mówiąc słowami Mirandy, uporczywego impulsu eugenicznego, który zawsze „zawiera odniesienie do przyszłości” i zakłada, że ​​reprodukcja „powinny być zarządzane przez potężnych”.

Z powodu całkowity brak krajowych regulacji dotyczących sztucznej inteligencji, Platforma Technologiczna Interwencji Społecznej nigdy nie została poddana formalnemu przeglądowi i nie dokonano oceny jej wpływu na dziewczęta i kobiety. Nie opublikowano żadnych oficjalnych danych dotyczących ich dokładności ani wyników. Podobnie jak większość systemów sztucznej inteligencji na całym świecie, w tym tych używanych w wrażliwych kontekstach, brakuje mu przejrzystości i odpowiedzialności.

Chociaż nie jest jasne, czy program technologiczny został ostatecznie zawieszony, wszystko, co wiemy o systemie, pochodzi z wysiłków feministycznych aktywistek i dziennikarzy, którzy prowadzili oddolny audyt wadliwego i szkodliwego systemu sztucznej inteligencji. Poprzez szybkie uruchomienie dobrze naoliwionej machiny organizowania społeczności, aktywiści ci zwrócili uwagę krajowych mediów na to, jak nieprzetestowana, nieuregulowana technologia jest wykorzystywana do naruszania praw dziewcząt i kobiet.

„Pomysł, że algorytmy mogą przewidzieć ciążę nastolatek, zanim do niej dojdzie, jest doskonałą wymówką dla działaczy sprzeciwiających się kobietom i działaczom na rzecz praw reprodukcyjnych i seksualnych, by ogłosić, że przepisy dotyczące aborcji są niepotrzebne” – napisały wówczas feministki Paz Peña i Joana Varon. Rzeczywiście, wkrótce ujawniono, że za technologią stoi argentyńska organizacja non-profit Conin Foundation, prowadzona przez doktora Abela Albino, zagorzałego przeciwnika prawa do aborcji, wraz z Microsoftem.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj