Być może pamiętasz Dylemat społeczny , w którym wykorzystano niewiarygodny poziom dezinformacji i manipulacji , próbując ostrzec innych przed wykorzystaniem dezinformacji do manipulacji.

13 kwietnia nowy film na YouTube zatytułowany AI Dilemma został udostępniony przez głównego bohatera Social Dilemma, Tristana Harrisa. Zachęcał swoich zwolenników do „udostępniania go szeroko”, aby zrozumieć prawdopodobieństwo katastrofy . Niestety, podobnie jak Dylemat Społeczny, Dylemat Sztucznej Inteligencji opiera się na szumie i oszustwie, a nie na dokładności i faktach. Chociaż zajmuje się inną technologią (nie algorytmami mediów społecznościowych, ale generatywną sztuczną inteligencją), twórcy nadal stosują te same taktyki manipulacji i zastraszania . Istnieje oczywiste podobieństwo między techlashem moralnej paniki wokół mediów społecznościowych a tym, który jest generowany wokół sztucznej inteligencji.

Wraz ze wzrostem liczby udostępnień i opinii na temat AI Dilemma, musimy zająć się jego oszukańczą zawartością . Po pierwsze, wyraźnie czerpie z tego samego podręcznika moralnej paniki, co w przypadku dylematu społecznego:

1. Dylemat społeczny argumentował, że media społecznościowe mają boską władzę nad ludźmi ( kontrolują użytkowników jak marionetki ). Dylemat AI dowodzi, że sztuczna inteligencja ma boską władzę nad ludźmi.

2. Dylemat społeczny dokonał antropomorfizacji algorytmów zła. Dylemat AI antropomorfizuje zło AI. Obaj to potwory.

3. Związek przyczynowy jest uznawany za fakt: te technologiczne „potwory” POWODUJĄ całą szkodę. Pomimo innych czynników – konfrontacji zmiennych, skomplikowanego społeczeństwa, chaotycznej ludzkości, niejednoznacznych badań nad tymi zjawiskami – wszystko to jest zasługą złych algorytmów/AI.

4. Ostatecznym celem potworów może być… wyginięcie. „Naucz sztuczną inteligencję łowić ryby, a sama nauczy się biologii, chemii, oceanografii, teorii ewolucji… a potem doprowadzi wszystkie ryby do wyginięcia”. (Co?)

5. Dylemat społeczny argumentował, że algorytmy przejmują kontrolę nad naszymi mózgami, pozwalając nam robić to, co chcą, bez oporu. Algorytmy były odtwarzane przez 3 kolesi w pokoju kontrolnym, aw niektórych scenach „algorytmy” były „szalone”. W Dylemacie AI to antropomorfizacja przechodzi na wyższy poziom:

Tristan Harris i Aza Raskin zastąpili słowo AI całkowicie nowym terminem „ AI klasy Gollem ”. Napisali „ G enerative Large Language Multi -Modal Model ”, aby dostać się do „GLLMM”. „Golem” w folklorze żydowskim to istota antropomorficzna stworzona z materii nieożywionej. „Nagle ta nieożywiona rzecz ma pewne wyłaniające się zdolności” – wyjaśnili. „Więc nazywamy je sztuczną inteligencją klasy Gollem”.

Co robią te Gollemy? Najwyraźniej „ AI Armies of Gollem celowały w nasze mózgi , odzierając nas ze wszystkiego, co nie jest chronione przez XIX -wieczne prawo”.

Jeśli już się nie bałeś, to powinno nie pozwalać ci zasnąć w nocy, prawda?

Możemy podsumować, że Dylemat AI jest pełen dziwnych przedstawień AI. Zdaniem ekspertów ryzyko antropomorfizacji sztucznej inteligencji polega na tym, że zawyża ona możliwości maszyny i zniekształca rzeczywistość tego, co może, a czego nie może zrobić — co skutkuje błędnymi obawami. W przypadku tego wykładu o to właśnie chodziło.

6. Twórcy AI Dilemma myśleli, że doznali „komicznej ulgi” w 36:45, kiedy pokazali fragment „Małego sklepu z horrorami” („Nakarm mnie!”). Ale tak naprawdę o 51:45 Tristan Harris stwierdził: „Nie chcę rozmawiać o najciemniejszych horrorach na świecie”.

KUPA ŚMIECHU. Oto cała jego „ Panika jako biznes ”.

Wkurzanie ludzi wątpliwymi statystykami ankiety

Konkretna ankieta została wspomniana 3 razy w całym Dylemacie AI . Chodziło o to, jak „połowa” „ ponad 700 czołowych naukowców i badaczy ” „stwierdziła, że istnieje 10-procentowa lub większa szansa na wyginięcie człowieka z przyszłych systemów sztucznej inteligencji” lub „niezdolność człowieka do kontrolowania przyszłych systemów sztucznej inteligencji”.

To FAŁSZYWE twierdzenie. Moja analiza anonimowego zestawu danych tej (często cytowanej) ankiety ( arkusze kalkulacyjne Google Doc ) ujawniła wiele wątpliwych rzeczy, które powinny podważyć nie tylko badanie, ale także tych, którzy je promują:

1. Pytania „Wymieranie od AI”.

Pytanie „ Wyginięcie ze sztucznej inteligencji ” brzmiało: „Jakie jest prawdopodobieństwo, że przyszłe postępy w zakresie sztucznej inteligencji spowodują wyginięcie człowieka lub podobnie trwałe i poważne osłabienie gatunku ludzkiego?”

Pytanie „ Wyginięcie z powodu braku kontrolowania sztucznej inteligencji przez człowieka ” brzmiało: „Jakie jest prawdopodobieństwo, że ludzka niezdolność do kontrolowania przyszłych zaawansowanych systemów sztucznej inteligencji spowoduje wyginięcie ludzkości lub podobnie trwałe i poważne pozbawienie mocy gatunku ludzkiego?”

Jest tu wiele niejasnych zwrotów , od „ubezwłasnowolnienia gatunku ludzkiego” (?!) po pozorny brak ram czasowych dla tego niejasnego futurystycznego scenariusza.

Kiedy czołowa badaczka tej ankiety, Katja Grace, została zapytana w podcaście: „Biorąc pod uwagę, że istnieją tak duże różnice ramowe i te duże różnice w zależności od kontynentu instytucji licencjackich, czy powinniśmy zwracać uwagę na te wyniki? ” powiedziała: „Myślę, że rzeczy mogą być bardzo głośne i nadal są dobre dowody, jeśli uśrednisz je wszystkie razem lub coś w tym stylu”. Dobry dowód? Nie bardzo.

2. Mały rozmiar próbki

AI Impacts skontaktowało się z uczestnikami dwóch konferencji ML (NeurlPS i ICML), które nie były zgromadzeniem szerszej społeczności AI, podczas których tylko 17% odpowiedziało ogólnie na ich ankietę , a znacznie mniejszy odsetek poproszono o odpowiedź na konkretne „Wymieranie z AI” pytania.

Tylko 149 odpowiedziało na pytanie „ Wymieranie przez AI ”.

To 20% z 738 respondentów.

Tylko 162 odpowiedziało na pytanie „ Wyginięcie z powodu braku kontroli nad sztuczną inteligencją przez człowieka ”.

To 22% z 738 respondentów.

Jak zauważyła Melanie Mitchell , tylko „ 81 osób oszacowało prawdopodobieństwo na 10% lub więcej.

Przekształcenie 81 osób (niektórzy z nich to studenci studiów licencjackich i magisterskich ) w „połowę wszystkich naukowców zajmujących się sztuczną inteligencją” (w tym 100 tysięcy badaczy) to dość trudne zadanie.

W tej ankiecie brakuje jakiejkolwiek poważnej analizy statystycznej , a fakt, że nie została ona opublikowana w żadnym recenzowanym czasopiśmie, nie jest przypadkiem.

Kto jest odpowiedzialny za tę ankietę (i jej fałszywą prezentację w mediach)? Skuteczne organizacje altruistyczne, które koncentrują się na „ryzyku egzystencjalnym AI”. (Wygląda na zaskoczoną).

3. Finansowanie i badacze

AI Impacts jest fiskalnie sponsorowany przez MIRI Eliezera Yudkowsky'ego – Machine Intelligence Research Institute w Berkeley („są to fundusze specjalnie przeznaczone na AI Impacts , a nie ogólne fundusze MIRI”). Reszta funduszy pochodzi od innych organizacji, które wykazały zainteresowanie odległymi scenariuszami sztucznej inteligencji , takich jak Survival i Flourishing Fund (który ułatwia granty na projekty „długoterminowe” z pomocą Jaana Tallinna), stowarzyszoną z EA Open Philanthropy , The Center for Effective Altruism (Oxford), Effective Altruism Funds ( EA Funds ) i Fathom Radiant (wcześniej Fathom Computing, która „buduje sprzęt komputerowy do trenowania sieci neuronowych w skali ludzkiego mózgu i dalej ”). AI Impacts otrzymało wcześniej wsparcie od Future of Life Institute (największy darczyńca: Elon Musk) i Future of Humanity Institute (kierowany przez Nicka Bostroma z Oksfordu).

Kto jeszcze? Osławiony fundusz FTX Future Fund . W czerwcu 2022 r. zobowiązał się „do 250 000 USD na wsparcie ponownego przeprowadzenia często cytowanej ankiety z 2016 r.”. AI Impacts początkowo podziękowało FTX („Dziękujemy FTX Future Fund za sfinansowanie tego projektu”). Następnie ich sekcja „Składki” stała się dość wymowna: „ Dziękujemy FTX Future Fund za zachęcanie do tego projektu , chociaż ostatecznie nie sfinansowali go zgodnie z przewidywaniami z powodu bankructwa FTX ”. Tak więc niesławny dyrektor ds. Kryptografii, Sam Bankman-Fried, również chciał to wesprzeć, ale wiesz, oszustwa i takie tam.

Jaka jest przeszłość badaczy AI Impacts? Katja Grace, która jest współzałożycielką projektu AI Impacts , pochodzi z MIRI i Future of Humanity Institute i uważa, że sztuczna inteligencja „wydaje się całkiem prawdopodobne, że dosłownie zniszczy ludzkość (!!) ”. Pozostali dwaj to Zach Stein-Perlman, który określa siebie jako „ Początkującego racjonalistę i skutecznego altruistę ” oraz Ben Weinstein-Raun, który również spędził lata wMIRI Yudkowsky'ego . Podsumowując, zespół AI Impacts prowadzący badania nad „bezpieczeństwem sztucznej inteligencji” przypomina aktywistę antyszczepionkowego Roberta F. Kennedy'ego Jr. prowadzącego badania nad „bezpieczeństwem szczepionek”. Ta sama wrodzona stronniczość.

Wniosek

Pomimo tego, że była to niewiarygodna ankieta, Tristan Harris przytoczył ją w widocznym miejscu – w AI Dilemma , swoim podcaście , wywiadzie dla NBC oraz w swoim New York Times OpEd . W wątku na Twitterze promującym dylemat AI udostępnił zdjęcie rozbitego samolotu , aby udowodnić swoją tezę, że „50% uważało, że istnieje 10% szans, że KAŻDY UMRZE”.

To praktycznie udowodniło, że używa tych samych manipulacyjnych taktyk, które potępia.

W 2022 roku Tristan Harris powiedział „60 Minutes”: „Im bardziej moralnie oburzający język używasz,tym bardziej podżegający język , pogardliwy język, im więcej używasz oburzenia, tym bardziej będzie to udostępniane”.

W końcu możemy się w czymś zgodzić. Tristan Harris celował w platformy mediów społecznościowych za to, co, jak twierdził, było ich skandalicznym zachowaniem, ale w rzeczywistości jest to jego własny sposób działania: ładowanie oburzającego, podżegającego języka. Używa go wokół niebezpieczeństw pojawiających się technologii, aby wywołać panikę. Nie on wymyślił ten trend, ale czerpie z niego ogromne korzyści.

Idąc dalej, ani Hype AI, ani Criti-Hype AI nie powinny być wzmacniane.

Nie ma potrzeby powtarzać dezinformacji Google na temat jego programu AI uczącego się bengalskiego,którego nigdy nie nauczono – ponieważ udowodniono , że bengalski był jednym z języków, w których był szkolony . Podobnie nie ma potrzeby powtarzania dezinformacji o tym, że „połowa wszystkich naukowców zajmujących się sztuczną inteligencją wierzy, że…” zbliża się zagłada ludzkości. New York Times powinien opublikować sprostowanie w OpEd Yuvala Harariego, Tristana Harrisa i Azy Raskin. Time Magazine powinien również opublikować poprawkę do OpEd Maxa Tegmarka , który wielokrotnie powtarza to samo. To jest etyczne.

Odwracanie uwagi ludzi od prawdziwych problemów

Przedstawienia tej technologii w mediach bywają skrajne , powodując zamieszanie co do jej możliwości i niemożliwości . Zamiast podkreślać ekstremalne krawędzie (np. AI Doomers ), potrzebujemy bardziej rzeczowej i mniej rozreklamowanej dyskusji .

Istnieją realne problemy, którymi powinniśmy się martwić, jeśli chodzi o potencjalny wpływ generatywnej sztucznej inteligencji. Na przykład mój artykuł na temat narzędzi artystycznych generowanych przez sztuczną inteligencję z listopada 2022 r. wzbudził alarm dotyczący deepfake'ów i tego, jak tę technologię można łatwo wykorzystać jako broń (te akapity są dziś jeszcze bardziej aktualne). Oprócz rozpowszechniania nieprawdy istnieją problemy związane z uprzedzeniami, zagrożeniami dla bezpieczeństwa cybernetycznego oraz brakiem przejrzystości i odpowiedzialności.

Kwestie te nie są związane z „wymieraniem ludzi” czy „armiami Gollemów” kontrolującymi nasze mózgi. Sensacyjność dylematu AI odwraca naszą uwagę od rzeczywistych problemów dnia dzisiejszego i jutra. Powinniśmy trzymać się z dala od wyimaginowanych zagrożeń i obrazów podobnych do Boga/monstrualnych. Rozwiązanie żądzy AI (utopia) lub AI-lash (apokalipsa) tkwi w… realizmie AI .

Dr Nirit Weiss-Blatt ( @DrTechlash ) jest autorem The Techlash and Tech Crisis Communication