Nadzór szkolny nigdy nie uchroni dzieci przed strzelaninami

0
77

Jeśli my jesteśmy wierzyć dostawcom systemów nadzoru szkolnego, wkrótce szkoły K-12 będą działać w sposób podobny do aglomeracji Raport mniejszości, Zainteresowana osobaoraz Robocop. Systemy „klasy wojskowej” pochłaniały dane uczniów, wychwytując jedynie ślady szkodliwych wyobrażeń, i wysyłały funkcjonariuszy, zanim potencjalni sprawcy dokonaliby swoich nikczemnych czynów. W mało prawdopodobnym przypadku, gdyby ktoś był w stanie ominąć systemy predykcyjne, nieuchronnie zatrzymałyby go systemy wykrywania broni nowej generacji i czujniki biometryczne, które interpretują chód lub ton osoby, ostrzegając władze o zbliżającym się niebezpieczeństwie. Ostatnia warstwa może być najbardziej zaawansowana technologicznie — jakaś forma drona, a może nawet psa-robota, który byłby w stanie rozbroić, odwrócić uwagę lub unieszkodliwić niebezpieczną osobę, zanim wyrządzi ona jakiekolwiek szkody. Jeśli zainwestujemy w te systemy, to zgodnie z naszym tokiem myślenia, nasze dzieci w końcu będą bezpieczne.

Nie tylko nie jest to nasza teraźniejszość, ale nigdy nie będzie naszą przyszłością — bez względu na to, jak rozległe i skomplikowane staną się systemy nadzoru.

W ciągu ostatnich kilku lat powstało wiele firm, które obiecują różne interwencje technologiczne, które ograniczą, a nawet wyeliminują ryzyko strzelanin w szkole. Proponowane „rozwiązania” obejmują narzędzia, które wykorzystują uczenie maszynowe i monitorowanie ludzi do przewidywania agresywnych zachowań, sztuczną inteligencję w połączeniu z kamerami, które określają intencje osób za pomocą mowy ciała, po mikrofony, które identyfikują potencjał przemocy na podstawie tonu głosu . Wielu z nich wykorzystuje widmo martwych dzieci, aby sprzedawać swoją technologię. Na przykład firma nadzorująca AnyVision wykorzystuje zdjęcia ze strzelanin w Parkland i Sandy Hook w prezentacjach prezentujących swoją technologię rozpoznawania twarzy i broni palnej. Zaraz po strzelaninie w Uvalde w zeszłym miesiącu firma Axon ogłosiła plany dotyczące drona wyposażonego w paralizatory jako sposobu na radzenie sobie ze szkolnymi strzelankami. (Firma później wstrzymała ten plan, po tym jak członkowie jej rady etyki zrezygnowali.) Lista jest długa i każda firma chciałaby, abyśmy uwierzyli, że tylko ona jest w stanie rozwiązać ten problem.

Porażka tutaj leży nie tylko w samych systemach (na przykład Uvalde wydawał się mieć co najmniej jeden z tych „środków bezpieczeństwa”), ale w sposobie, w jaki ludzie je postrzegają. Podobnie jak samo działanie policji, każda awaria systemu nadzoru lub systemu bezpieczeństwa najczęściej powoduje, że ludzie domagają się szerszego nadzoru. Jeśli niebezpieczeństwo nie jest przewidywane i zapobiegane, firmy często wskazują na potrzebę posiadania większej ilości danych w celu uzupełnienia luk w ich systemach – a rządy i szkoły często to kupują. W Nowym Jorku, pomimo wielu awarii mechanizmów nadzoru, które zapobiegały (lub nawet schwytały) niedawną strzelankę do metra, burmistrz miasta postanowił podwoić zapotrzebowanie na jeszcze więcej technologii nadzoru. Tymczasem miejskie szkoły podobno ignorują moratorium na technologię rozpoznawania twarzy. New York Times informuje, że tylko w 2021 r. szkoły amerykańskie wydały 3,1 miliarda dolarów na produkty i usługi związane z bezpieczeństwem. A ostatnie przepisy Kongresu dotyczące broni przewidują kolejne 300 milionów dolarów na zwiększenie bezpieczeństwa w szkołach.

Ale u podstaw tego, co obiecuje wiele z tych systemów predykcyjnych, jest miara pewności w sytuacjach, w których nie może być żadnej. Firmy technologiczne konsekwentnie prezentują pojęcie kompletnych danych, a tym samym doskonałych systemów, jako czegoś, co znajduje się tuż za następnym grzbietem — środowiska, w którym jesteśmy tak całkowicie monitorowani, że można przewidzieć wszelkie antyspołeczne zachowania, a tym samym można zapobiec przemocy. Ale obszerny zestaw danych o trwającym ludzkim zachowaniu jest jak horyzont: można go skonceptualizować, ale nigdy nie osiągnąć.

Obecnie firmy stosują różne dziwaczne techniki w celu trenowania tych systemów: Niektóre symulowane ataki; inni używają filmów akcji, takich jak John Wick, mało dobre wskaźniki prawdziwego życia. W pewnym momencie, choć brzmi to makabrycznie, można sobie wyobrazić, że firmy te będą szkolić swoje systemy na danych z rzeczywistych strzelanin. Jednak nawet jeśli materiały filmowe z prawdziwych incydentów stałyby się dostępne (i w dużych ilościach, jakich wymagają te systemy), modele nadal nie potrafiłyby dokładnie przewidzieć następnej tragedii w oparciu o poprzednie. Uvalde różniło się od Parkland, który różnił się od Sandy Hook, który różnił się od Columbine.

Technologie, które oferują przewidywania dotyczące intencji lub motywacji, obstawiają statystycznie prawdopodobieństwo danej przyszłości w oparciu o dane, które zawsze będą niekompletne i pozbawione kontekstu, bez względu na ich źródło. Podstawowym założeniem podczas korzystania z modelu uczenia maszynowego jest to, że istnieje wzorzec do zidentyfikowania; w tym przypadku, że istnieje pewne „normalne” zachowanie strzelców na miejscu przestępstwa. Ale znalezienie takiego wzoru jest mało prawdopodobne. Jest to szczególnie prawdziwe, biorąc pod uwagę niemal ciągłe zmiany w leksykonie i praktykach nastolatków. Prawdopodobnie bardziej niż wiele innych grup społecznych, młodzi ludzie zmieniają sposób, w jaki mówią, ubierają się, piszą i prezentują się – często wyraźnie, aby uniknąć i uniknąć czujnego oka dorosłych. Opracowanie konsekwentnie dokładnego modelu tego zachowania jest prawie niemożliwe.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj