Sprawa dotycząca projektu platformy regulacyjnej

0
90

Latem w 2017 roku trzech nastolatków z Wisconsin zginęło w wypadku samochodowym z dużą prędkością. W momencie zderzenia chłopcy rejestrowali swoją prędkość za pomocą filtra prędkości Snapchata — 123 mil na godzinę. To nie był pierwszy taki incydent: ten sam filtr był powiązany z kilkoma innymi awariami w latach 2015-2017.

Rodzice nastolatków z Wisconsin pozwali Snapchata, twierdząc, że jego produkt, który przyznaje „trofea, serie i uznanie społeczne” użytkownikom, którzy przekroczyli 100 mil na godzinę, został niedbale zaprojektowany, aby zachęcać do niebezpiecznej i szybkiej jazdy. Sąd niższej instancji początkowo stwierdził, że sekcja 230 ustawy Communications Decency Act uodparnia Snapchata na odpowiedzialność, twierdząc, że aplikacja nie ponosi odpowiedzialności za treści osób trzecich utworzone przez osoby korzystające z filtra prędkości. Jednak w 2021 roku Dziewiąty Okręg uchylił orzeczenie sądu niższej instancji.

Platformy są w dużej mierze odporne na pociągnięcie do odpowiedzialności za tego rodzaju treści ze względu na sekcję 230. Ale w tym ważnym przypadku –Lemmon kontra Snap–The Ninth Circuit dokonał krytycznego rozróżnienia między własnym projektem szkodliwego produktu platformy a hostingiem szkodliwych treści osób trzecich. Argumentem nie było to, że Snapchat stworzył lub hostował szkodliwe treści, ale raczej to, że niedbale zaprojektował funkcję, filtr prędkości, która zachęcała do niebezpiecznych zachowań. Dziewiąty Okręg słusznie uznał, że sąd niższej instancji popełnił błąd, powołując się na artykuł 230 jako obronę. To był niewłaściwy instrument prawny. Zamiast tego sąd skupił się na niedbałym projekcie Snapchata dotyczącym filtra prędkości — powszechnego czynu niedozwolonego z tytułu odpowiedzialności za produkt.

Frustrujące jest to, że w międzyczasie, a ostatnio w zeszłym miesiącu podczas ustnych argumentów Sądu Najwyższego Stanów Zjednoczonych za Gonzalez przeciwko Google, sądy nie zrozumiały ani nie rozróżniły szkodliwych treści od szkodliwych wyborów projektowych. Sędziowie rozpatrujący te sprawy oraz ustawodawcy pracujący nad powstrzymaniem nadużyć i szkodliwych działań w Internecie muszą pamiętać o tym rozróżnieniu i skupić się na niedbałym projekcie platformy, zamiast rozpraszać się szerokimi roszczeniami dotyczącymi immunitetu z sekcji 230 w stosunku do szkodliwych treści.

W sercu Gonzalez jest pytanie, czy Sekcja 230 chroni YouTube nie tylko wtedy, gdy przechowuje treści osób trzecich, ale także wtedy, gdy zawiera ukierunkowane zalecenia dotyczące tego, co użytkownicy powinni oglądać. Adwokat Gonzaleza argumentował, że YouTube nie powinien otrzymać immunitetu na podstawie sekcji 230 za polecanie filmów, twierdząc, że akt kuratorowania i polecania wyświetlanych materiałów stron trzecich jest samodzielnym tworzeniem treści. Adwokat Google odparował, że jego algorytm rekomendacji jest neutralny, traktując wszystkie treści, które poleca użytkownikom w ten sam sposób. Ale te argumenty mijają się z celem. W ogóle nie ma potrzeby powoływania się na sekcję 230, aby zapobiec rozpatrywaniu szkód w tej sprawie. Nie chodzi o to, że funkcja rekomendacji YouTube stworzyła nowe treści, ale o to, że „neutralne” algorytmy rekomendacji zostały niedbale zaprojektowane, aby nie rozróżniać, powiedzmy, filmów ISIS i filmów z kotami. W rzeczywistości rekomendacje aktywnie faworyzują szkodliwe i niebezpieczne treści.

Funkcje rekomendacji, takie jak YouTube Do obejrzenia i Polecane dla Ciebie, które leżą u podstaw Gonzalez– materialnie przyczyniają się do szkód, ponieważ priorytetowo traktują materiały oburzające i sensacyjne oraz zachęcają i nagradzają użytkowników za tworzenie takich treści. YouTube zaprojektował swoje funkcje rekomendacji, aby zwiększyć zaangażowanie użytkowników i przychody z reklam. Twórcy tego systemu powinni byli wiedzieć, że będzie on zachęcał i promował szkodliwe zachowania.

Chociaż większość sądów zaakceptowała szeroką interpretację sekcji 230, która wykracza poza zwykłe uodpornienie platform na odpowiedzialność za niebezpieczne treści osób trzecich, niektórzy sędziowie poszli dalej i zaczęli nakładać surowszą kontrolę na zaniedbanie projektowe, powołując się na odpowiedzialność za produkt. Na przykład w 2014 roku Omegle, usługa czatu wideo, która łączy w pary losowych użytkowników, dopasowała 11-letnią dziewczynę do 30-letniego mężczyzny, który przez lata ją uwodził i wykorzystywał seksualnie. W 2022 roku sędzia rozpatrujący tę sprawę, AM przeciwko Omegle, stwierdził, że sekcja 230 w dużej mierze chroni rzeczywisty materiał przesłany przez obie strony. Ale platforma nadal była odpowiedzialna za swój niedbały wybór projektu, aby połączyć seksualnych drapieżników z nieletnimi ofiarami. W zeszłym tygodniu podobna sprawa została złożona przeciwko Grindrowi. 19-latek z Kanady pozwał aplikację, ponieważ powiązała go z dorosłymi mężczyznami, którzy gwałcili go przez cztery dni, gdy był nieletni. Ponownie w pozwie twierdzi się, że Grindr zaniedbał proces weryfikacji wieku i że aktywnie starał się, aby nieletni użytkownicy dołączyli do aplikacji, kierując swoje reklamy na TikTok do nieletnich. Te przypadki, jak np Lemmon kontra Snappotwierdzają znaczenie skupienia się na szkodliwych cechach projektu produktu, a nie na szkodliwych treściach.

Przypadki te stanowią obiecujący precedens w zakresie zwiększania bezpieczeństwa platform. Kiedy próby powstrzymania nadużyć w Internecie koncentrują się na treściach stron trzecich i sekcji 230, pogrążają się w drażliwych kwestiach związanych z wolnością słowa, które utrudniają wprowadzenie znaczących zmian. Ale jeśli strony procesowe, sędziowie i organy regulacyjne pominą te kwestie dotyczące treści i zamiast tego skupią się na odpowiedzialności za produkt, dotrą do źródła problemu. Pociągnięcie platform do odpowiedzialności za niedbałe wybory projektowe, które zachęcają do tworzenia i rozpowszechniania szkodliwych treści i zarabiają na nich, jest kluczem do rozwiązania wielu zagrożeń, które utrzymują się w Internecie.


WIRED Opinia publikuje artykuły autorów zewnętrznych reprezentujących szeroki wachlarz punktów widzenia. Przeczytaj więcej opinii Tutaji zapoznaj się z naszymi wskazówkami dotyczącymi przesyłania Tutaj. Prześlij opinię o godz [email protected].

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj