Close Menu
  • Aktualności
  • Polska
  • Lokalne
  • Świat
  • Biznes
  • Polityka
  • Nauka
  • Sport
  • Klimat
  • Zdrowie
  • Wybór Redaktora
  • Komunikat Prasowy
Modne Teraz
UE wprowadza nowe zasady. Powstała lista 31 zakazanych słów

UE wprowadza nowe zasady. Powstała lista 31 zakazanych słów

6 marca, 2026
Chicago. Czesław „Chester” Wojnicki zginął w katastrofie lotniczej

Chicago. Czesław „Chester” Wojnicki zginął w katastrofie lotniczej

6 marca, 2026
Nowa deklaracja klimatyczna Europy. Polska była przeciwna

Nowa deklaracja klimatyczna Europy. Polska była przeciwna

6 marca, 2026
Szwecja. Statek rosyjskiej floty cieni zatrzymany na Bałtyku

Szwecja. Statek rosyjskiej floty cieni zatrzymany na Bałtyku

6 marca, 2026
Afera przed startem igrzysk paraolimpijskich. Rosjanie kpią po decyzji Polski

Afera przed startem igrzysk paraolimpijskich. Rosjanie kpią po decyzji Polski

6 marca, 2026
Facebook X (Twitter) Instagram
Popularność
  • UE wprowadza nowe zasady. Powstała lista 31 zakazanych słów
  • Chicago. Czesław „Chester” Wojnicki zginął w katastrofie lotniczej
  • Nowa deklaracja klimatyczna Europy. Polska była przeciwna
  • Szwecja. Statek rosyjskiej floty cieni zatrzymany na Bałtyku
  • Afera przed startem igrzysk paraolimpijskich. Rosjanie kpią po decyzji Polski
  • Problemy z dostawami gazu LNG z Kataru. Polska może odczuć wzrost cen – Biznes Wprost
  • Ropa rozlana na plażach. Kolejny wyciek w Zatoce Meksykańskiej
  • Azerbejdżan. Służby udaremniły serię zamachów. Miał za nimi stać Iran
  • Polityka prywatności
  • Regulamin
  • Skontaktuj się z nami
Historie Internetowe
Razy DzisiajRazy Dzisiaj
Biuletyn Zaloguj Sie
  • Aktualności
  • Polska
  • Lokalne
  • Świat
  • Biznes
  • Polityka
  • Nauka
  • Sport
  • Klimat
  • Zdrowie
  • Wybór Redaktora
  • Komunikat Prasowy
Razy DzisiajRazy Dzisiaj
Strona Główna » Moralna AI. Czy sztuczna inteligencja może pomóc w wyborze osoby do przeszczepu?
Moralna AI. Czy sztuczna inteligencja może pomóc w wyborze osoby do przeszczepu?
Aktualności

Moralna AI. Czy sztuczna inteligencja może pomóc w wyborze osoby do przeszczepu?

Pokój WiadomościPrzez Pokój Wiadomości30 września, 2024

Przy okazji jednej z naszych rozmów pewien chirurg wykonujący transplantacje opowiedział nam, jak kiedyś w środku nocy obudził go dzwonek telefonu. Głos w słuchawce poinformował go, że doszło do wypadku, w którym zginęła osoba będąca dawcą organów, i jedna z nerek nadaje się do transplantacji. W związku z tym powinien jak najszybciej przyjechać do szpitala, ponieważ z każdą godziną zmniejsza się szansa na udany przeszczep. Musiał też od razu zdecydować, którego z pacjentów należy przygotować do operacji. Niestety, wyrwany z głębokiego snu chirurg był jeszcze nieco zaspany, nie miał przy sobie kart pacjentów, a w dodatku zdawał sobie sprawę, że do niektórych chorych pała większą sympatią. Z tych i innych powodów nie był to najlepszy moment do podejmowania moralnej decyzji, która odmieni życie wybranego przez niego pacjenta.Czy sztuczna inteligencja może przestrzegać naszych zasad moralnych?

Czy sztuczna inteligencja mogłaby mu w tym pomóc? Systemy AI nie bywają zaspane, mają zawsze dostęp do szczegółowych informacji na temat pacjentów i nie faworyzują nikogo, tylko dlatego, że bardziej odpowiada im czyjeś usposobienie. Co więcej, mogą podejmować podobne decyzje bardzo szybko, o dowolnej porze dnia i nocy. Z tego względu, korzystając z dobrze zaprojektowanej sztucznej inteligencji, moglibyśmy uniknąć niektórych (choć nie wszystkich) problemów, utrudniających lekarzom podjęcie właściwej decyzji. Gdy powiedzieliśmy o takiej możliwości naszemu chirurgowi, odparł, że taka pomoc bardzo by mu się przydała tamtej nocy.

Opisany przypadek jest tylko jedną z wielu sytuacji, w których ludzie muszą podejmować ważne moralnie decyzje w dalekich od ideału okolicznościach. Podobnie jest, gdy podczas wojny trzeba wyznaczyć cele do zaatakowania, rozpatrzyć wniosek o zwolnienie oskarżonego za kaucją, ustalić, kiedy rozpocząć hamowanie (i w którą stronę skręcić kierownicę), gdy dochodzi do niebezpiecznej sytuacji na drodze… Gdyby sztuczna inteligencja mogła pomóc ludziom w dokonywaniu moralnych wyborów, choćby tylko w niektórych z tych przypadków, odnieślibyśmy ogromną korzyść.

Oczywiście spełnienie nadziei pokładanych w tego typu systemach będzie możliwe tylko wtedy, gdy sztuczna inteligencja zostanie dobrze zaprojektowana. System AI mógłby nas łatwo skierować na drogę wiodącą do katastrofy, gdyby dokonywał niewłaściwych wyborów moralnych, czego skrajnym przykładem jest przytoczona w rozdziale drugim hipotetyczna sytuacja, w której sztuczna inteligencja postanawia zniszczyć ludzkość, by zmaksymalizować produkcję spinaczy biurowych. Musimy sobie zatem postawić kluczowe pytanie: czy potrafimy zaprojektować sztuczną inteligencję w taki sposób, by pomogła nam w podejmowaniu decyzji moralnych, nie stanowiąc przy tym zagrożenia?

Jedna z dróg, które mogą prowadzić do osiągnięcia tego celu, polega na przeanalizowaniu zasad moralności na tyle dobrze, by można było wbudować sztucznej inteligencji ludzką moralność, a nie specjalną moralność zaprojektowaną na potrzeby sztucznej inteligencji. Ludzie z pewnością uznaliby, że działania prowadzące do uśmiercenia ludzkości w celu zwiększenia produkcji spinaczy są niemoralne. Gdyby sztuczna inteligencja wiedziała, jakie decyzje są moralne z punktu widzenia ludzi, mogłaby udzielać nam porad, które pozwoliłyby uniknąć błędów w sytuacjach takich, jak opisana przed chwilą konieczność wybrania pacjenta do przeszczepu. Systemy AI zaprojektowane tak, by unikały decyzji, które są naszym zdaniem niemoralne, rzadziej przedstawiałyby niewłaściwe rekomendacje. Mówiliśmy tu już o problemach moralnych związanych z zagrożeniem prywatności i naruszeniem zasad sprawiedliwości. Gdyby systemy AI potrafiły rozpoznać, które decyzje mogą być wątpliwe, mogą naruszać czyjąś prywatność bez wystarczającego uzasadnienia lub potęgować niesprawiedliwość, a następnie starały się ich unikać, to w ogólnym rozrachunku zachowywałyby się w sposób bardziej etyczny, a ich wpływ na społeczeństwo byłby zgodny z naszymi wartościami.

Oczywiście zaprojektowanie sztucznej inteligencji, która będzie przestrzegała ludzkich zasad moralnych, nie jest proste. Musimy najpierw uporać się z wieloma wyzwaniami natury praktycznej, teoretycznej i społecznej. Od strony technicznej realizacja tak postawionego celu również jest bardzo skomplikowana. Ale taką sztuczną inteligencję zapewne będzie można zbudować na wiele sposobów. Omówmy kilka z tych możliwości.

Podejście zstępujące?

Jedno z ogólnych podejść, które mogą prowadzić do uzyskania sztucznej inteligencji przestrzegającej ludzkich zasad moralnych, polega na zapisaniu tych zasad na dużym poziomie ogólności w samym programie tworzonego systemu i dostarczeniu sztucznej inteligencji wskazówek, jak należy je stosować w określonych sytuacjach. Intuicja podpowiada nam, że taka metoda może być skuteczna, ponieważ pozwala nam decydować, jakie zasady moralne przekażemy budowanemu systemowi. Jeśli się jednak nad tym chwilę zastanowimy, bardzo szybko zauważymy, że wymaga uporania się z dużym wyzwaniem, którym jest ustalenie, jakie zasady moralne należałoby zapisać w programie systemu AI.

Jedną z popularnych propozycji są trzy prawa robotyki Isaaca Asimova, które przedstawimy tu w nieco zmienionej wersji, obejmującej wszystkie rodzaje sztucznej inteligencji (a nie tylko roboty):

(1) Sztuczna inteligencja nie może wyrządzić krzywdy człowiekowi ani przez brak reakcji dopuścić, aby człowiekowi stała się krzywda.

(2) Sztuczna inteligencja musi wykonać każdy rozkaz człowieka z wyjątkiem rozkazów kolidujących z pierwszym prawem.

(3) Sztuczna inteligencja musi chronić swoją egzystencję, jeśli nie jest to sprzeczne z pierwszym i drugim prawem.

Te trzy proste zasady mogą być dobrym punktem wyjścia, choć szybko prowadzą do problematycznych sytuacji. Czy naprawdę chcemy, żeby sztuczna inteligencja nie dopuściła do wyrządzenia jakiejkolwiek krzywdy żadnemu człowiekowi, w tym również krzywdy o charakterze emocjonalnym? Jak w takim razie powinna się zachować, gdy należy usunąć z mediów społecznościowych obraźliwe wpisy, ale jednocześnie ich autorzy poczują się tym skrzywdzeni? Co powinien zrobić robot sterowany przez sztuczną inteligencję, który jest świadkiem bójki między ludźmi i nie może obronić ofiary, nie wyrządzając krzywdy napastnikowi? Prawa Asimova okazują się w takich sytuacjach niewystarczające.

Może więc powinniśmy się zwrócić o pomoc do filozofów? Niestety oni również nie zdołają nam pomóc, ponieważ nie potrafią dojść do porozumienia, jakie zasady lub teoria moralności powinny trafić do programu sztucznej inteligencji. Każda teoria moralności ma swoje wady i zalety. Konsekwencjalizm głosi na przykład, że powinniśmy postępować tak, by w dłuższej perspektywie zwiększać dobro i zmniejszać zło. Wydaje się, że takie postępowanie byłoby rozsądne. Gdybyśmy jednak chcieli zastosować tę zasadę w konkretnej sytuacji, musielibyśmy wiedzieć, jakie mogą być skutki naszych działań w krótkim i długim horyzoncie czasowym. Nikt nie wie, co należy zrobić, by zdobyć wszystkie potrzebne do tego dane i mieć przy tym pewność, że jest to informacja wiarygodna – a już na pewno nie wiadomo, jak uzyskać takie dane na drodze obliczeniowej. Co więcej, niewłaściwie zastosowany konsekwencjalizm może prowadzić do przerażających skutków. Konsekwencjalistyczna sztuczna inteligencja, która ma dążyć do „minimalizacji cierpienia i śmierci w dłużej perspektywie”, mogłaby dojść do wniosku, że powinna uśmiercić wszystkich ludzi już teraz, ponieważ to zapobiegnie cierpieniu w przyszłości.

Inne teorie moralności opierają się na pewnych podstawowych zasadach, takich jak zasada mówiąca o tym, że nie należy kłamać, lub obowiązkach, takich jak obowiązek wierności, zadośćuczynienia, wdzięczności, dobroczynności, nieszkodzenia, a czasami także sprawiedliwości lub samodoskonalenia. Zaprojektowanie algorytmu, który będzie przestrzegał takich zasad i wypełniał tego typu obowiązki, jest zapewne możliwe, ponieważ nie wymaga to przetwarzania informacji na temat wszystkich możliwych skutków poszczególnych działań, wciąż jednak toczy się spór o to, jak należałoby uzasadnić wybór takiego, a nie innego zestawu zasad i obowiązków.

Co więcej, trudno jest opisać takie teorie moralności w praktyczny sposób w kontekście sztucznej inteligencji. Większość ludzi uważa, że czasami powinniśmy jednak łamać zasady moralne, na przykład w sytuacji, gdy złamanie zasady „nie kłam” jest jedynym sposobem na powstrzymanie zabójcy przed zamordowaniem naszego przyjaciela. Jak w takim razie należałoby opisać sztucznej inteligencji sytuacje, w których złamanie jakiejś zasady lub niedopełnienie obowiązku jest usprawiedliwione?

Moglibyśmy podjąć próbę stworzenia listy takich wyjątków, ale szybko by się okazało, że ich liczba jest praktycznie nieskończona. Ponadto obowiązki i zasady mogą być czasami sprzeczne, jak w sytuacji, gdy chirurg jest zobowiązany udzielić pomocy dwóm pacjentom wymagającym przeszczepu nerki, ale ma tylko jeden organ do transplantacji, lub gdy odmowa zwolnienia za kaucją oskarżonego, który może popełnić kolejne przestępstwo, krzywdzi jego niewinną rodzinę. Jak wytłumaczyć sztucznej inteligencji, jakie są priorytety stosowania poszczególnych zasad i wypełniania obowiązków? Bez jakiejś miarodajnej metody rozwiązywania konfliktów między możliwymi do pominięcia zasadami i obowiązkami, działającej także w nieprzewidzianych wcześniej sytuacjach, sztuczna inteligencja nigdy nie dojdzie do wniosku, który będzie dla nas akceptowalny.

Fragment książki „Moralna AI. Czy bać się sztucznej inteligencji?” Jany Schaich Borg, Waltera Sinnott-Armstronga i Vincenta Conitzera wydanej przez Prószyński Media. Tytuł, lead i skróty od redakcji „Newsweeka”. Książkę można kupić tutaj.

Okładka książki „Moralna AI. Czy bać się sztucznej inteligencji?”

Foto: Prószyński i S-ka

Udział Facebook Twitter LinkedIn Telegram WhatsApp Email

Czytaj dalej

Koalicja w ogniu walki. Poważne starcia w partii Donalda Tuska

Koalicja w ogniu walki. Poważne starcia w partii Donalda Tuska

W PiS mówią o psychozie. „Ludzie się dziwią, co Morawiecki odwala”

W PiS mówią o psychozie. „Ludzie się dziwią, co Morawiecki odwala”

W planie SEJF 0 proc. jedynym konkretem jest zero. Zero procent odpowiedzialności za kraj

W planie SEJF 0 proc. jedynym konkretem jest zero. Zero procent odpowiedzialności za kraj

Grożąc Orbanowi, Zełenski popełnił kardynalny błąd [OPINIA]

Grożąc Orbanowi, Zełenski popełnił kardynalny błąd [OPINIA]

Kulisy tajnego planu NBP. Karol Nawrocki wbił klin w koalicjantów

Kulisy tajnego planu NBP. Karol Nawrocki wbił klin w koalicjantów

„Upadek USA” w Chinach odmieniają przez wszystkie przypadki. Bo Pekin czuje się coraz mocniejszy

„Upadek USA” w Chinach odmieniają przez wszystkie przypadki. Bo Pekin czuje się coraz mocniejszy

Grochal: oto człowiek z gumy. W koalicji śmieją się, że ma syndrom odstawienia

Grochal: oto człowiek z gumy. W koalicji śmieją się, że ma syndrom odstawienia

„Straciłeś pracę? Zaciągnij się!”. Putin chce przerobić rosyjską klasę średnią na mięso armatnie

„Straciłeś pracę? Zaciągnij się!”. Putin chce przerobić rosyjską klasę średnią na mięso armatnie

Wszyscy jesteśmy Dulskimi? Chutnik: tak jesteśmy wychowani

Wszyscy jesteśmy Dulskimi? Chutnik: tak jesteśmy wychowani

Add A Comment

Leave A Reply Cancel Reply

Wybór Redaktora

Chicago. Czesław „Chester” Wojnicki zginął w katastrofie lotniczej

Chicago. Czesław „Chester” Wojnicki zginął w katastrofie lotniczej

6 marca, 2026
Nowa deklaracja klimatyczna Europy. Polska była przeciwna

Nowa deklaracja klimatyczna Europy. Polska była przeciwna

6 marca, 2026
Szwecja. Statek rosyjskiej floty cieni zatrzymany na Bałtyku

Szwecja. Statek rosyjskiej floty cieni zatrzymany na Bałtyku

6 marca, 2026
Afera przed startem igrzysk paraolimpijskich. Rosjanie kpią po decyzji Polski

Afera przed startem igrzysk paraolimpijskich. Rosjanie kpią po decyzji Polski

6 marca, 2026

Najnowsze Wiadomości

Problemy z dostawami gazu LNG z Kataru. Polska może odczuć wzrost cen – Biznes Wprost

Problemy z dostawami gazu LNG z Kataru. Polska może odczuć wzrost cen – Biznes Wprost

6 marca, 2026
Ropa rozlana na plażach. Kolejny wyciek w Zatoce Meksykańskiej

Ropa rozlana na plażach. Kolejny wyciek w Zatoce Meksykańskiej

6 marca, 2026
Azerbejdżan. Służby udaremniły serię zamachów. Miał za nimi stać Iran

Azerbejdżan. Służby udaremniły serię zamachów. Miał za nimi stać Iran

6 marca, 2026
Facebook X (Twitter) Pinterest TikTok Instagram
© 2026 Razy Dzisiaj. Wszelkie prawa zastrzeżone.
  • Polityka Prywatności
  • Regulamin
  • Skontaktuj się z nami

Type above and press Enter to search. Press Esc to cancel.