Przy okazji jednej z naszych rozmów pewien chirurg wykonujący transplantacje opowiedział nam, jak kiedyś w środku nocy obudził go dzwonek telefonu. Głos w słuchawce poinformował go, że doszło do wypadku, w którym zginęła osoba będąca dawcą organów, i jedna z nerek nadaje się do transplantacji. W związku z tym powinien jak najszybciej przyjechać do szpitala, ponieważ z każdą godziną zmniejsza się szansa na udany przeszczep. Musiał też od razu zdecydować, którego z pacjentów należy przygotować do operacji. Niestety, wyrwany z głębokiego snu chirurg był jeszcze nieco zaspany, nie miał przy sobie kart pacjentów, a w dodatku zdawał sobie sprawę, że do niektórych chorych pała większą sympatią. Z tych i innych powodów nie był to najlepszy moment do podejmowania moralnej decyzji, która odmieni życie wybranego przez niego pacjenta.Czy sztuczna inteligencja może przestrzegać naszych zasad moralnych?

Czy sztuczna inteligencja mogłaby mu w tym pomóc? Systemy AI nie bywają zaspane, mają zawsze dostęp do szczegółowych informacji na temat pacjentów i nie faworyzują nikogo, tylko dlatego, że bardziej odpowiada im czyjeś usposobienie. Co więcej, mogą podejmować podobne decyzje bardzo szybko, o dowolnej porze dnia i nocy. Z tego względu, korzystając z dobrze zaprojektowanej sztucznej inteligencji, moglibyśmy uniknąć niektórych (choć nie wszystkich) problemów, utrudniających lekarzom podjęcie właściwej decyzji. Gdy powiedzieliśmy o takiej możliwości naszemu chirurgowi, odparł, że taka pomoc bardzo by mu się przydała tamtej nocy.

Opisany przypadek jest tylko jedną z wielu sytuacji, w których ludzie muszą podejmować ważne moralnie decyzje w dalekich od ideału okolicznościach. Podobnie jest, gdy podczas wojny trzeba wyznaczyć cele do zaatakowania, rozpatrzyć wniosek o zwolnienie oskarżonego za kaucją, ustalić, kiedy rozpocząć hamowanie (i w którą stronę skręcić kierownicę), gdy dochodzi do niebezpiecznej sytuacji na drodze… Gdyby sztuczna inteligencja mogła pomóc ludziom w dokonywaniu moralnych wyborów, choćby tylko w niektórych z tych przypadków, odnieślibyśmy ogromną korzyść.

Oczywiście spełnienie nadziei pokładanych w tego typu systemach będzie możliwe tylko wtedy, gdy sztuczna inteligencja zostanie dobrze zaprojektowana. System AI mógłby nas łatwo skierować na drogę wiodącą do katastrofy, gdyby dokonywał niewłaściwych wyborów moralnych, czego skrajnym przykładem jest przytoczona w rozdziale drugim hipotetyczna sytuacja, w której sztuczna inteligencja postanawia zniszczyć ludzkość, by zmaksymalizować produkcję spinaczy biurowych. Musimy sobie zatem postawić kluczowe pytanie: czy potrafimy zaprojektować sztuczną inteligencję w taki sposób, by pomogła nam w podejmowaniu decyzji moralnych, nie stanowiąc przy tym zagrożenia?

Jedna z dróg, które mogą prowadzić do osiągnięcia tego celu, polega na przeanalizowaniu zasad moralności na tyle dobrze, by można było wbudować sztucznej inteligencji ludzką moralność, a nie specjalną moralność zaprojektowaną na potrzeby sztucznej inteligencji. Ludzie z pewnością uznaliby, że działania prowadzące do uśmiercenia ludzkości w celu zwiększenia produkcji spinaczy są niemoralne. Gdyby sztuczna inteligencja wiedziała, jakie decyzje są moralne z punktu widzenia ludzi, mogłaby udzielać nam porad, które pozwoliłyby uniknąć błędów w sytuacjach takich, jak opisana przed chwilą konieczność wybrania pacjenta do przeszczepu. Systemy AI zaprojektowane tak, by unikały decyzji, które są naszym zdaniem niemoralne, rzadziej przedstawiałyby niewłaściwe rekomendacje. Mówiliśmy tu już o problemach moralnych związanych z zagrożeniem prywatności i naruszeniem zasad sprawiedliwości. Gdyby systemy AI potrafiły rozpoznać, które decyzje mogą być wątpliwe, mogą naruszać czyjąś prywatność bez wystarczającego uzasadnienia lub potęgować niesprawiedliwość, a następnie starały się ich unikać, to w ogólnym rozrachunku zachowywałyby się w sposób bardziej etyczny, a ich wpływ na społeczeństwo byłby zgodny z naszymi wartościami.

Oczywiście zaprojektowanie sztucznej inteligencji, która będzie przestrzegała ludzkich zasad moralnych, nie jest proste. Musimy najpierw uporać się z wieloma wyzwaniami natury praktycznej, teoretycznej i społecznej. Od strony technicznej realizacja tak postawionego celu również jest bardzo skomplikowana. Ale taką sztuczną inteligencję zapewne będzie można zbudować na wiele sposobów. Omówmy kilka z tych możliwości.

Podejście zstępujące?

Jedno z ogólnych podejść, które mogą prowadzić do uzyskania sztucznej inteligencji przestrzegającej ludzkich zasad moralnych, polega na zapisaniu tych zasad na dużym poziomie ogólności w samym programie tworzonego systemu i dostarczeniu sztucznej inteligencji wskazówek, jak należy je stosować w określonych sytuacjach. Intuicja podpowiada nam, że taka metoda może być skuteczna, ponieważ pozwala nam decydować, jakie zasady moralne przekażemy budowanemu systemowi. Jeśli się jednak nad tym chwilę zastanowimy, bardzo szybko zauważymy, że wymaga uporania się z dużym wyzwaniem, którym jest ustalenie, jakie zasady moralne należałoby zapisać w programie systemu AI.

Jedną z popularnych propozycji są trzy prawa robotyki Isaaca Asimova, które przedstawimy tu w nieco zmienionej wersji, obejmującej wszystkie rodzaje sztucznej inteligencji (a nie tylko roboty):

(1) Sztuczna inteligencja nie może wyrządzić krzywdy człowiekowi ani przez brak reakcji dopuścić, aby człowiekowi stała się krzywda.

(2) Sztuczna inteligencja musi wykonać każdy rozkaz człowieka z wyjątkiem rozkazów kolidujących z pierwszym prawem.

(3) Sztuczna inteligencja musi chronić swoją egzystencję, jeśli nie jest to sprzeczne z pierwszym i drugim prawem.

Te trzy proste zasady mogą być dobrym punktem wyjścia, choć szybko prowadzą do problematycznych sytuacji. Czy naprawdę chcemy, żeby sztuczna inteligencja nie dopuściła do wyrządzenia jakiejkolwiek krzywdy żadnemu człowiekowi, w tym również krzywdy o charakterze emocjonalnym? Jak w takim razie powinna się zachować, gdy należy usunąć z mediów społecznościowych obraźliwe wpisy, ale jednocześnie ich autorzy poczują się tym skrzywdzeni? Co powinien zrobić robot sterowany przez sztuczną inteligencję, który jest świadkiem bójki między ludźmi i nie może obronić ofiary, nie wyrządzając krzywdy napastnikowi? Prawa Asimova okazują się w takich sytuacjach niewystarczające.

Może więc powinniśmy się zwrócić o pomoc do filozofów? Niestety oni również nie zdołają nam pomóc, ponieważ nie potrafią dojść do porozumienia, jakie zasady lub teoria moralności powinny trafić do programu sztucznej inteligencji. Każda teoria moralności ma swoje wady i zalety. Konsekwencjalizm głosi na przykład, że powinniśmy postępować tak, by w dłuższej perspektywie zwiększać dobro i zmniejszać zło. Wydaje się, że takie postępowanie byłoby rozsądne. Gdybyśmy jednak chcieli zastosować tę zasadę w konkretnej sytuacji, musielibyśmy wiedzieć, jakie mogą być skutki naszych działań w krótkim i długim horyzoncie czasowym. Nikt nie wie, co należy zrobić, by zdobyć wszystkie potrzebne do tego dane i mieć przy tym pewność, że jest to informacja wiarygodna – a już na pewno nie wiadomo, jak uzyskać takie dane na drodze obliczeniowej. Co więcej, niewłaściwie zastosowany konsekwencjalizm może prowadzić do przerażających skutków. Konsekwencjalistyczna sztuczna inteligencja, która ma dążyć do „minimalizacji cierpienia i śmierci w dłużej perspektywie”, mogłaby dojść do wniosku, że powinna uśmiercić wszystkich ludzi już teraz, ponieważ to zapobiegnie cierpieniu w przyszłości.

Inne teorie moralności opierają się na pewnych podstawowych zasadach, takich jak zasada mówiąca o tym, że nie należy kłamać, lub obowiązkach, takich jak obowiązek wierności, zadośćuczynienia, wdzięczności, dobroczynności, nieszkodzenia, a czasami także sprawiedliwości lub samodoskonalenia. Zaprojektowanie algorytmu, który będzie przestrzegał takich zasad i wypełniał tego typu obowiązki, jest zapewne możliwe, ponieważ nie wymaga to przetwarzania informacji na temat wszystkich możliwych skutków poszczególnych działań, wciąż jednak toczy się spór o to, jak należałoby uzasadnić wybór takiego, a nie innego zestawu zasad i obowiązków.

Co więcej, trudno jest opisać takie teorie moralności w praktyczny sposób w kontekście sztucznej inteligencji. Większość ludzi uważa, że czasami powinniśmy jednak łamać zasady moralne, na przykład w sytuacji, gdy złamanie zasady „nie kłam” jest jedynym sposobem na powstrzymanie zabójcy przed zamordowaniem naszego przyjaciela. Jak w takim razie należałoby opisać sztucznej inteligencji sytuacje, w których złamanie jakiejś zasady lub niedopełnienie obowiązku jest usprawiedliwione?

Moglibyśmy podjąć próbę stworzenia listy takich wyjątków, ale szybko by się okazało, że ich liczba jest praktycznie nieskończona. Ponadto obowiązki i zasady mogą być czasami sprzeczne, jak w sytuacji, gdy chirurg jest zobowiązany udzielić pomocy dwóm pacjentom wymagającym przeszczepu nerki, ale ma tylko jeden organ do transplantacji, lub gdy odmowa zwolnienia za kaucją oskarżonego, który może popełnić kolejne przestępstwo, krzywdzi jego niewinną rodzinę. Jak wytłumaczyć sztucznej inteligencji, jakie są priorytety stosowania poszczególnych zasad i wypełniania obowiązków? Bez jakiejś miarodajnej metody rozwiązywania konfliktów między możliwymi do pominięcia zasadami i obowiązkami, działającej także w nieprzewidzianych wcześniej sytuacjach, sztuczna inteligencja nigdy nie dojdzie do wniosku, który będzie dla nas akceptowalny.

Fragment książki „Moralna AI. Czy bać się sztucznej inteligencji?” Jany Schaich Borg, Waltera Sinnott-Armstronga i Vincenta Conitzera wydanej przez Prószyński Media. Tytuł, lead i skróty od redakcji „Newsweeka”. Książkę można kupić tutaj.

Udział

Leave A Reply

Exit mobile version