Biały Dom już wie, jak sprawić, by sztuczna inteligencja była bezpieczniejsza

0
129

Po drugie, może poinstruować każdą agencję federalną zamawiającą system sztucznej inteligencji, który może „znacząco wpłynąć”. [our] prawa, możliwości lub dostęp do krytycznych zasobów lub usług”, aby wymagać, aby system był zgodny z tymi praktykami i aby dostawcy dostarczali dowody tej zgodności. Uznaje to władzę rządu federalnego jako klienta w zakresie kształtowania praktyk biznesowych. W końcu jest największym pracodawcą w kraju i mógłby wykorzystać swoją siłę nabywczą do dyktowania najlepszych praktyk dla algorytmów, które służą na przykład do selekcji i selekcji kandydatów do pracy.

Po trzecie, rozporządzenie wykonawcze może wymagać, aby każdy, kto bierze dolary federalne (w tym podmioty stanowe i lokalne), zapewnił, że używane przez nich systemy sztucznej inteligencji są zgodne z tymi praktykami. Uznaje to ważną rolę inwestycji federalnych w stanach i miejscowościach. Na przykład sztuczna inteligencja jest zaangażowana w wiele elementów systemu wymiaru sprawiedliwości w sprawach karnych, w tym predykcyjną policję, inwigilację, areszt przedprocesowy, wydawanie wyroków i zwolnienie warunkowe. Chociaż większość praktyk organów ścigania ma charakter lokalny, Departament Sprawiedliwości oferuje federalne dotacje stanowym i lokalnym organom ścigania i może objąć te fundusze warunkami określającymi sposób korzystania z technologii.

Wreszcie, to rozporządzenie wykonawcze może nakazać agencjom posiadającym organ regulacyjny aktualizację i rozszerzenie ich tworzenia przepisów na procesy w ramach ich jurysdykcji, które obejmują sztuczną inteligencję. Trwają już wstępne próby uregulowania podmiotów korzystających ze sztucznej inteligencji z urządzeniami medycznymi, algorytmami zatrudniania i punktacją kredytową, a inicjatywy te można dalej rozwijać. Systemy nadzoru pracowników i wyceny mienia to tylko dwa przykłady obszarów, które skorzystałyby na tego rodzaju działaniach regulacyjnych.

Oczywiście reżim testowania i monitorowania systemów sztucznej inteligencji, który tutaj nakreśliłem, może wywołać szereg obaw. Niektórzy mogą argumentować na przykład, że inne kraje nas wyprzedzą, jeśli zwolnimy tempo wdrażania takich barier. Ale inne kraje są zajęte uchwalaniem własnych przepisów, które nakładają rozległe ograniczenia na systemy sztucznej inteligencji, a wszelkie amerykańskie firmy, które chcą działać w tych krajach, będą musiały przestrzegać ich przepisów. UE ma wkrótce uchwalić obszerną ustawę o sztucznej inteligencji, która zawiera wiele przepisów, które opisałem powyżej, a nawet Chiny nakładają ograniczenia na komercyjne systemy sztucznej inteligencji, które wykraczają daleko poza to, co jesteśmy obecnie skłonni rozważyć.

Inni mogą wyrazić zaniepokojenie, że mała firma może mieć trudności z spełnieniem tego obszernego zestawu wymagań. Można temu zaradzić, łącząc wymagania ze stopniem wpływu: oprogramowanie, które może wpłynąć na źródła utrzymania milionów, powinno zostać dokładnie sprawdzone, niezależnie od tego, jak duży lub jak mały jest programista. System sztucznej inteligencji, którego ludzie używają do celów rekreacyjnych, nie powinien podlegać tym samym restrykcjom i ograniczeniom.

Prawdopodobne są również obawy co do tego, czy wymagania te są praktyczne. Tutaj znowu ważne jest, aby nie lekceważyć siły rządu federalnego jako animatora rynku. Rozporządzenie wykonawcze wzywające do ram testowania i walidacji zapewni zachęty dla firm, które chcą przełożyć najlepsze praktyki na opłacalne komercyjne systemy testowania. Odpowiedzialny sektor sztucznej inteligencji już się zapełnia firmami świadczącymi usługi audytu i oceny algorytmów, konsorcjami branżowymi wydającymi szczegółowe wytyczne, których dostawcy powinni przestrzegać, oraz dużymi firmami konsultingowymi oferującymi wskazówki swoim klientom. A niezależne organizacje non-profit, takie jak Data and Society (z zastrzeżeniem: zasiadam w ich zarządzie), utworzyły całe laboratoria, aby opracować narzędzia, które oceniają, w jaki sposób systemy sztucznej inteligencji wpłyną na różne populacje.

Przeprowadziliśmy badania, zbudowaliśmy systemy i zidentyfikowaliśmy szkody. Istnieją ustalone sposoby, aby upewnić się, że technologia, którą budujemy i wdrażamy, może przynieść korzyści nam wszystkim, jednocześnie zmniejszając szkody dla tych, którzy już są dotknięci przez głęboko nierówne społeczeństwo. Czas na naukę się skończył – teraz Biały Dom musi wydać dekret i podjąć działania.


WIRED Opinia publikuje artykuły autorów zewnętrznych reprezentujących szeroki wachlarz punktów widzenia. Przeczytaj więcej opinii Tutaj. Prześlij opinię o godz pomysł[email protected].

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj