Meta przeprowadziła gigantyczny eksperyment w zarządzaniu. Teraz zwraca się do AI

0
102

Pod koniec ubiegłego miesiąca Meta po cichu ogłosiła wyniki ambitnego, niemal globalnego, przemyślanego „demokratycznego” procesu mającego na celu podejmowanie decyzji dotyczących odpowiedzialności firmy za tworzony przez nią metaverse. To nie było zwykłe ćwiczenie korporacyjne. Wzięło w nim udział ponad 6000 osób, które zostały wybrane jako reprezentatywne pod względem demograficznym w 32 krajach i 19 językach. Uczestnicy spędzili wiele godzin na rozmowach w małych sesjach grupowych online i mogli usłyszeć od ekspertów spoza Meta o omawianych zagadnieniach. Osiemdziesiąt dwa procent uczestników stwierdziło, że poleciłoby ten format jako sposób podejmowania decyzji w firmie w przyszłości.

Meta zobowiązała się teraz publicznie do przeprowadzenia podobnego procesu dla generatywnej sztucznej inteligencji, co jest zgodne z ogromnym zainteresowaniem demokratycznymi innowacjami w zakresie zarządzania lub kierowania systemami sztucznej inteligencji. Robiąc to, Meta dołącza do Google, DeepMind, OpenAI, Anthropic i innych organizacji, które zaczynają badać podejścia oparte na demokracji deliberatywnej, za którą opowiadałem się ja i inni. (Ujawnienie: jestem członkiem komitetu doradczego ds. wniosków o wkład Demokratów OpenAI w grant AI.) Po obejrzeniu procesu Meta od wewnątrz jestem podekscytowany tym, że jest to cenny dowód słuszności koncepcji ponadnarodowego demokratycznego zarządzania. Ale aby taki proces był naprawdę demokratyczny, uczestnicy potrzebowaliby większej władzy i sprawczości, a sam proces musiałby być bardziej publiczny i przejrzysty.

Po raz pierwszy poznałem kilku pracowników odpowiedzialnych za tworzenie forów społeczności Meta (jak zaczęto nazywać te procesy) wiosną 2019 r. podczas bardziej tradycyjnych konsultacji zewnętrznych z firmą w celu określenia jej polityki dotyczącej „zmanipulowanych mediów”. Pisałem i mówiłem o potencjalnych zagrożeniach związanych z tak zwaną generatywną sztuczną inteligencją i zostałem poproszony (wraz z innymi ekspertami) o przedstawienie informacji na temat zasad, jakie Meta powinna opracować, aby rozwiązać problemy, takie jak dezinformacja, która może zostać zaostrzona przez technologię.

Mniej więcej w tym samym czasie po raz pierwszy dowiedziałem się o obradach reprezentatywnych — podejściu do demokratycznego podejmowania decyzji, które rozprzestrzeniło się jak pożar, z coraz bardziej znanymi zgromadzeniami obywatelskimi i sondażami deliberatywnymi na całym świecie. Podstawową ideą jest to, że rządy przedstawiają społeczeństwu trudne kwestie polityczne do rozstrzygnięcia. Zamiast referendum czy wyborów reprezentatywny mikrokosmos społeczeństwa wybierany jest w drodze loterii. Ta grupa jest zbierana na kilka dni, a nawet tygodni (za wynagrodzeniem), aby uczyć się od ekspertów, interesariuszy i siebie nawzajem, zanim dojdzie do ostatecznego zestawu zaleceń.

Reprezentatywne obrady dostarczyły potencjalnego rozwiązania dylematu, z którym zmagałem się od dawna: jak podejmować decyzje dotyczące technologii, które wpływają na ludzi ponad granicami narodowymi. Zacząłem opowiadać się za pilotowaniem tych procesów przez firmy, aby pomóc w podejmowaniu decyzji dotyczących ich najtrudniejszych problemów. Kiedy Meta niezależnie uruchomiła taki pilotaż, zostałem nieformalnym doradcą w Governance Lab firmy (które kierowało projektem), a następnie włączonym obserwatorem podczas projektowania i realizacji gigantycznego procesu Forum Społecznościowego obejmującego 32 kraje (nie zaakceptowałem odszkodowanie za ten czas).

Przede wszystkim Forum Społecznościowe było ekscytujące, ponieważ pokazało, że przeprowadzenie tego rodzaju procesu jest rzeczywiście możliwe, pomimo ogromnych przeszkód logistycznych. Partnerzy Meta w Stanford w dużej mierze prowadzili postępowanie i nie widziałem żadnych dowodów na to, by pracownicy Meta próbowali wymusić wynik. Firma wywiązała się również ze swojego zobowiązania, aby partnerzy ze Stanford bezpośrednio zgłaszali wyniki, bez względu na to, jakie one były. Co więcej, było jasne, że zastanawiano się, jak najlepiej wdrożyć potencjalne wyniki forum. Wyniki ostatecznie obejmowały perspektywy dotyczące tego, jakie reperkusje byłyby odpowiednie dla gospodarzy przestrzeni Metaverse w przypadku powtarzającego się zastraszania i nękania oraz jakie rodzaje systemów moderacji i monitorowania należy wdrożyć.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj