W 2023 emocjonalnie Sztuczna inteligencja — technologia, która może wyczuwać ludzkie emocje i wchodzić w interakcje z nimi — stanie się jednym z dominujących zastosowań uczenia maszynowego. Na przykład Hume AI, założona przez Alana Cowena, byłego badacza Google, opracowuje narzędzia do pomiaru emocji na podstawie ekspresji werbalnej, twarzy i głosu. Szwedzka firma Smart Eyes niedawno nabyła Affectiva, spinoff MIT Media Lab, który opracował sieć neuronową SoundNet, algorytm klasyfikujący emocje, takie jak złość, z próbek audio w mniej niż 1,2 sekundy. Nawet platforma wideo Zoom wprowadza Zoom IQ, funkcję, która wkrótce zapewni użytkownikom analizę emocji i zaangażowania podczas wirtualnego spotkania w czasie rzeczywistym.
W 2023 r. firmy technologiczne będą udostępniać zaawansowane chatboty, które będą w stanie dokładnie naśladować ludzkie emocje, aby tworzyć bardziej empatyczne połączenia z użytkownikami w bankowości, edukacji i opiece zdrowotnej. Chatbot Xiaoice Microsoftu już odnosi sukcesy w Chinach, a przeciętni użytkownicy rozmawiali z „nią” ponad 60 razy w ciągu miesiąca. Zdał również test Turinga, a użytkownicy nie rozpoznali go jako bota przez 10 minut. Analiza firmy Juniper Research Consultancy pokazuje, że interakcje chatbotów w służbie zdrowia wzrosną o prawie 167 procent od 2018 r., osiągając poziom 2,8 miliarda interakcji rocznie w 2023 r. Pozwoli to zwolnić czas personelu medycznego i potencjalnie zaoszczędzić około 3,7 miliarda dolarów dla systemów opieki zdrowotnej na całym świecie .
W 2023 r. emocjonalna sztuczna inteligencja stanie się również powszechna w szkołach. W Hongkongu niektóre szkoły średnie korzystają już z programu sztucznej inteligencji opracowanego przez Find Solutions AI, który mierzy mikroruchy mięśni na twarzach uczniów i identyfikuje szereg negatywnych i pozytywnych emocji. Nauczyciele używają tego systemu do śledzenia zmian emocjonalnych uczniów, a także ich motywacji i skupienia, umożliwiając im wczesne interwencje, jeśli uczeń traci zainteresowanie.
Problem polega na tym, że większość emocjonalnej sztucznej inteligencji opiera się na wadliwej nauce. Algorytmy sztucznej inteligencji opartej na emocjach, nawet jeśli są trenowane na dużych i zróżnicowanych zbiorach danych, redukują mimikę twarzy i tonację do emocji bez uwzględnienia społecznego i kulturowego kontekstu danej osoby i sytuacji. Chociaż na przykład algorytmy potrafią rozpoznać i zgłosić, że dana osoba płacze, nie zawsze jest możliwe dokładne wydedukowanie przyczyny i znaczenia łez. Podobnie, nachmurzona twarz niekoniecznie oznacza osobę wściekłą, ale taki wniosek prawdopodobnie wyciągnie algorytm. Czemu? Wszyscy dostosowujemy nasze przejawy emocjonalne zgodnie z naszymi normami społecznymi i kulturowymi, więc nasza ekspresja nie zawsze jest prawdziwym odzwierciedleniem naszych stanów wewnętrznych. Często ludzie wykonują „pracę emocjonalną”, aby ukryć swoje prawdziwe emocje, a sposób, w jaki wyrażają swoje emocje, jest prawdopodobnie wyuczoną reakcją, a nie spontaniczną ekspresją. Na przykład kobiety często bardziej niż mężczyźni modyfikują swoje emocje, zwłaszcza te, którym przypisuje się negatywne wartości, takie jak złość, ponieważ tego się od nich oczekuje.
W związku z tym technologie sztucznej inteligencji, które przyjmują założenia dotyczące stanów emocjonalnych, prawdopodobnie zaostrzą nierówności płciowe i rasowe w naszym społeczeństwie. Na przykład raport UNESCO z 2019 r. wykazał szkodliwy wpływ technologii sztucznej inteligencji na płeć, z „kobiecymi” systemami asystentów głosowych zaprojektowanymi zgodnie ze stereotypami emocjonalnej bierności i służebności.
Sztuczna inteligencja rozpoznawania twarzy może również utrwalać nierówności rasowe. Analiza 400 meczów NBA przy użyciu dwóch popularnych programów do rozpoznawania emocji, Face i Microsoft Face API, wykazała, że czarnoskórym graczom przypisywano średnio więcej negatywnych emocji, nawet gdy się uśmiechali. Wyniki te potwierdzają inne badania pokazujące, że czarnoskórzy mężczyźni muszą wykazywać więcej pozytywnych emocji w miejscu pracy, ponieważ są stereotypowo postrzegani jako agresywni i groźni.
Technologie sztucznej inteligencji oparte na emocjach staną się bardziej wszechobecne w 2023 r., ale jeśli pozostawi się je niekwestionowanym i niezbadanym, wzmocnią one systemowe uprzedzenia rasowe i płciowe, powielą i wzmocnią nierówności na świecie oraz jeszcze bardziej pogorszą tych, którzy już są marginalizowani.