– Praca fizyczna, bezpośrednie relacje międzyludzkie, empatia – tego AI jeszcze nie potrafi, więc pracownicy z takimi umiejętnościami są nie do zastąpienia. Ale pozostali, trybiki w korporacjach? Niestety, mają o czym myśleć – mówi Piotr Mieczkowski, prezes Fundacji Digital Poland.

  • Więcej ciekawych historii przeczytasz na stronie głównej „Newsweeka”

Piotr Mieczkowski: Pytanie, co się kryje dalej za tym „słyszałem/słyszałam”. Często to zasługa informacji z mediów czy nawet filmów i seriali. I nie jest to pogłębiona wiedza o tym nowym zjawisku, jakim jest AI. W naszej fundacji w 2023 r. też robiliśmy badanie dotyczące nowych technologii, w tym sztucznej inteligencji. Z pojęciem „sztuczna inteligencja” zetknęło się wtedy 88 proc. badanych. Ale dopiero w pogłębionych pytaniach wychodziły niezwykle ciekawe rzeczy. Okazało się, że taką prawdziwą sztuczną inteligencją dla ludzi były… roboty. Niektórzy wskazywali ewentualnie chatboty, pewnie za sprawą popularności ChatGPT. Ale kiedy pytaliśmy o mapy pogody czy system rekomendacyjny w Netfliksie, ludziom otwierały się szeroko oczy, że to też robią algorytmy AI. Najwyraźniej dla ludzi te algorytmy musi uosabiać robot…

– Idę o zakład, że większość nie wie. W ogóle w takich badaniach często wychodzi, że ludzie mocno przeceniają swoje umiejętności i wiedzę. Może to kwestia wstydu, żeby się nie zbłaźnić? Bo gdy pytamy, czy ktoś zna pakiet biurowy Office, to większość odpowie, że tak. Ale wpisać konkretną formułę w Excelu będą umieli tylko nieliczni, którzy naprawdę korzystają z tego narzędzia.

– Tak, ludzie lubią się chwalić. Ale często to tylko deklaracje bez pokrycia.

– Taka korelacja to właściwie standard, nie tylko w przypadku sztucznej inteligencji. To samo dotyczy migracji czy osób LGBTQ. Jeśli masz w rodzinie taką osobę albo mieszkasz z nią w bloku, to nie ulegasz tak łatwo absurdalnemu straszeniu, czego to migranci nie robią kobietom i dzieciom. Bo wiesz, kim jest twój kuzyn czy sąsiad. My w fundacji obserwujemy podobne zależności w przypadku innych technologii. W kwestii sieci 5G prowadzimy badania co dwa lata. Podatność na bzdury z internetu o promieniowaniu jest tu przeogromna.

– A wystarczy ludziom wytłumaczyć, że są normy, że poziom promieniowania się bada, że da się to sprawdzić w państwowych instytucjach – i nagle strach znika.

– I aktywniejszego działania państwa, by edukować obywateli do nowych czasów. To się powinno zaczynać już w podstawówce i trwać aż do uniwersytetów trzeciego wieku. Mnóstwo ludzi łyka fake newsy. Ale nie tylko one podsycają ten strach. Częściową odpowiedzialność ponosi show-biznes i część mediów. Negatywne treści lepiej się klikają i oglądają. Gdybyśmy ­mieli sobie przypomnieć filmy o AI, to z czym nam się będzie kojarzyć? Z Terminatorem, czyli światem maszyn, który chce zniszczyć ludzi. W najnowszych dwóch częściach „Mission: Impossible” też negatywnym bohaterem jest zaawansowana AI, która chce zniszczyć ludzkość, ale wcześniej musi się zabezpieczyć w specjalnym schronie w Afryce. A ile było pozytywnych filmów o robotach i AI?

– Ja kojarzę jedną bajkę o robociku zbudowanym przez złego profesora, ale ten robocik się buntuje i zamiast szkodzić, pomaga ludziom. Druga to „WALL-E”, czyli przesympatyczny robocik sprzątający zaśmieconą przez ludzi planetę. Jest nawet wątek miłości robotów. Ale częściej historie o robotach mają nas przestraszyć.

– To może być ta chwila.

– Tylko to chyba nie jest największa obawa, jaką budzi AI.

– W naszych badaniach wśród największych obaw ludzie wymieniali nie robota zabójcę, ale perspektywę utraty pracy.

– Bo okazało się, że AI wcale nie zagraża najbardziej niebieskim kołnierzykom. Wręcz przeciwnie: hydraulicy, brukarze czy murarze mogą spać spokojniej, ich się nie da zastąpić algorytmem. Ale pracowników biurowych, od najniższego do coraz wyższego szczebla? Proszę bardzo. Nawiasem mówiąc, będziemy mieli w Polsce spory problem, bo ściągnęliśmy swego czasu wiele tzw. centrów usług wspólnych, czyli po prostu infolinii obrabiających faktury dla międzynarodowych koncernów. Okazuje się, że takie wyszukiwanie błędów w fakturach i odpowiednią ich kategoryzację w budżecie da się zautomatyzować za pomocą chatbota, któremu można wysłać skan faktury, a on sobie to sam zamieni na tekst i przeanalizuje.

– Praca fizyczna, bezpośrednie relacje międzyludzkie, empatia – tego AI jeszcze nie potrafi, więc pracownicy z takimi umiejętnościami są nie do zastąpienia. Ale pozostali, trybiki w korporacjach? Niestety, mają o czym myśleć. Bo ich pracę prędzej czy później może przejąć algorytm.

– No właśnie, bo to jest po prostu narzędzie. I sięgają po nie grupy, które nie przyszłyby nam do głowy w pierwszej kolejności. W rozmaitych izbach gospodarczych i uniwersytetach trzeciego wieku widzę, jak użytkownicy sięgają po ChatGPT czy Perplexity i każą mu wykonywać czarną robotę, czyli wyszukiwanie literatury do raportu na jakiś temat. Kiedyś trzeba było na to poświęcić, powiedzmy, 10 godzin, dziś chatbot wykona to w kilka minut. Może nie będzie to praca najwyższych lotów, ale wystarczająco dobra.

– Ale nie bez wad. Ci, którzy z niego korzystają, opowiadają, że chatboty są świetne w szybkim pisaniu kodu, ale gorzej idzie im ogarnianie całości projektu.

Sam się w to trochę bawię i widzę, że kiedy AI się zapędzi np. w szukaniu błędów, potrafi nawet zepsuć kod, który do tej pory dobrze działał. Świetnie potrafi pisać kolejne moduły aplikacji, ale raczej nie zaprojektuje jej w całości i to tak, żeby człowiekowi jak najlepiej się jej używało.

– Cały czas podchodzimy do tych modeli językowych jak do bytów, które myślą lub coś wiedzą. A przecież to tylko algorytmy, które zamieniają słowa na jedne cyferki i porównują je z innymi cyferkami. Te, które statystycznie najbardziej do siebie pasują, uznają za właściwą odpowiedź. Ale to nie ma nic wspólnego z wiedzą ani tym bardziej prawdą. To po prostu statystyczne przybliżanie wyniku, trochę jak w słynnej grze Saper: klikasz kwadraciki i możesz oznaczyć miejsce, gdzie leży mina, ale równie dobrze możesz na niej wybuchnąć.

– Błędy biorą się z braku informacji zwrotnej. W chatbotach często mamy symbole typu „łapka w górę”, żeby potwierdzić jakość odpowiedzi. W ten sposób uczymy algorytm, która odpowiedź była dobra.

– Oczywiście. Dlatego duża część tych chatbotów jest darmowa, choć serwerownie i prąd do nich nie są za darmo. Ale zatrudnianie testerów do uczenia modelu byłoby często droższe i bardziej uciążliwe niż udostępnienie chata za darmo po to, by się uczył na naszych odpowiedziach i reakcjach.

– To zjawisko ma już swoją nazwę: AI slope. Jesteśmy zalewani syntetycznymi treściami, tworzonymi po to, by przyciągnąć naszą uwagę, zabawić nas. Ludzie się cieszą, bo to jeszcze jest mało szkodliwe. Ale kiedy pomyślę o tej energii i CO2 wyemitowanym, żeby ktoś wygenerował kotka…

– Żeby przyciągnąć uwagę, żeby się zaangażować, żeby w ten sposób zgromadzić dużą społeczność np. na Facebooku. Którą potem można sprzedać ludziom czy instytucjom szerzącym dezinformację rosyjską, chińską czy nawet amerykańską.

– Jak najbardziej. W „Guardianie” czytałem jakiś czas temu, że podczas niedawnego blackoutu sieci energetycznej w Iranie nagle zniknęły z internetu konta szerzące dezinformację i nawołujące do oderwania się Szkocji od Wielkiej Brytanii. Sami zresztą widzimy, że w sieci jest wiele grup i influencerów, wśród których kiedyś szerzono sprzeciw wobec szczepionek, potem wobec imigrantów, zmian klimatycznych. Jutro będą atakować sztuczną inteligencję albo Unię Europejską.

– Oszustwa z wykorzystaniem narzędzi AI szerzą się coraz bardziej. Jeśli jesteś osobą publiczną i nagrania z tobą są dostępne w sieci, to masz przechlapane, bo to wystarczy, żeby sklonować twój głos i dzwonić w twoim imieniu do znajomych czy rodziny z prośbą o przelew czy BLIK. My z żoną mamy ustalone specjalne słowo klucz, bez którego nie ma mowy o przelewaniu żadnych pieniędzy.

– Jestem przekonany, że tak jak po zdominowaniu rynku restauracyjnego przez fast foody pojawiła się moda na jedzenie fast food, tak samo będzie z elektroniką. Będą dwa światy – przehajpowane superturbo życie z dopaminą, wirtualnym światem z awatarami i kipiące od syntetycznych treści. Z drugiej strony pojawią się jakieś sieci, grupy, wydarzenia całkiem analogowe, gdzie będą mogli pojawić się wyłącznie ludzie.

– Szatański pomysł: tworzysz AI, a potem oferujesz narzędzie do udowadniania, że ktoś nie jest tworem AI. Wirus i antidotum. Ale to ma głęboki sens. Dziś jeszcze trudno sobie wyobrazić, byśmy mieli przesyt AI, bo dopiero zachłystujemy się możliwościami tej technologii. Media społecznościowe są na innym etapie. Coraz więcej ludzi zdaje sobie sprawę, że ich nadmiar może szkodzić. Są raporty, notorycznie ignorowane lub ukrywane przez big techy, plaga problemów psychicznych wśród dzieciaków. Przypomina to trochę historię z promowaniem palenia papierosów. Początkowo też nikt nie wierzył, że palenie powoduje raka. A dziś stale rugujemy papierosy z przestrzeni publicznej, żeby ludzie sobie nie szkodzili.

– Zdecydowanie. Samodzielnie czy we współpracy z sektorem prywatnym i NGO, ale państwo powinno uczyć nas, czym są te nowe technologie, pokazywać szanse, ale i zagrożenia. Tego się nie załatwi jedną czy drugą kampanią w telewizji. W szkołach powinien być program dla dzieci. Ale takie rzeczy trzeba też uświadamiać starszym, którzy z większymi oporami przyswajają nowe technologie. Uniwersytety trzeciego wieku, a może koła gospodyń wiejskich? Zamiast rozdawać garnki jak Ziobro, lepiej byłoby za te pieniądze zorganizować cykl pogadanek o AI.

Udział

Leave A Reply

Exit mobile version