AI Doomerism staje się głównym nurtem dzięki środkom masowego przekazu, które napędzają naszą dyskusję na temat generatywnej sztucznej inteligencji ze złej na gorszą lub z lekko szalonej do szalonej. Zamiast niekontrolowanej sztucznej inteligencji mamy niekontrolowaną panikę.

Kiedy nagłówek brytyjskiego tabloidu krzyczy: „ Atak psychopaty ”, to jest zabawne. Kiedy po nim pojawia się kolejny nagłówek na pierwszej stronie: „ Chatboty-psycho-zabójcy są zdezorientowane przez Wordle'a ”, jest to jeszcze zabawniejsze. Jeśli tego typu relacje pozostały w tabloidach, które znane są z sensacji, to było w porządku.

Ale ostatnio prestiżowe serwisy informacyjne postanowiły promować ten sam poziom populistycznego siania paniki: The New York Times opublikował „ Jeśli nie opanujemy sztucznej inteligencji, ona opanuje nas ” (autor: Harari, Harris i Raskin), a magazyn TIME opublikował „ Bądź gotów zniszczyć nieuczciwe centrum danych przez nalot ” (autor: Yudkowsky).

W ciągu zaledwie kilku dni przeszliśmy od „rządy powinny wymusić 6-miesięczną pauzę” (petycja Instytutu Przyszłości Życia) do „poczekaj, to nie wystarczy, więc centra danych powinny zostać zbombardowane”. Niestety, jest to narracja, która przyciąga uwagę mediów i kształtuje nasz już hiperboliczny dyskurs AI .

Aby zrozumieć narodziny AI Doomerism, oto kilka wpływowych postaci odpowiedzialnych za włączanie scenariuszy zagłady do głównego nurtu. To nie jest pełna lista zagłady AI, tylko te, które ostatnio ukształtowały cykl paniki AI (więc skupiam się na nich).

AI Panic Marketing : Dowód A: Sam Altman.

Sam Altman ma zwyczaj nakłaniać nas do strachu. „Chociaż narzędzia sztucznej inteligencji obecnej generacji nie są bardzo przerażające, myślę, że potencjalnie nie jesteśmy tak daleko od potencjalnie przerażających ” – napisał na Twitterze. „Jeśli tworzysz sztuczną inteligencję, jest potencjalnie bardzo dobra, potencjalnie bardzo okropna ” – powiedział WSJ . Kiedy podzielił się z Connie Loizo pesymistycznym scenariuszem sztucznej inteligencji,światło zgasło dla nas wszystkich ”.

W wywiadzie dla Kary Swisher Altman powiedział, że jest „ bardzo zdenerwowany” autorytaryzmami korzystającymi z tej technologii”. Wyjaśnił w wywiadzie dla ABC News : „Martwię się, że… nie będziemy jedynymi twórcami tej technologii. Będą inni ludzie, którzy nie nałożą pewnych ograniczeń bezpieczeństwa, które my na to nałożyliśmy. Szczególnie martwię się, że modele te mogą zostać wykorzystane do dezinformacji na dużą skalę”. Modele te mogą być również „wykorzystywane do ofensywnych cyberataków”. Tak więc „ludzie powinni być szczęśliwi, że trochę się tego boimy ”. Powtórzył to przesłanie w swoim kolejnym wywiadzie dla Lexa Fridmana : „Myślę, że szaleństwem byłoby nie bać się trochę i współczuję ludziom, którzy bardzo się boją ”.

Nie powinno dziwić, że podzieliłem się tą historią w 2016 roku: „Mój problem polega na tym, że kiedy moi przyjaciele się upijają, rozmawiają o tym, jak skończy się świat”. Jednym z „najpopularniejszych scenariuszy byłaby sztuczna inteligencja, która nas atakuje ”. „Staram się nie myśleć o tym za dużo” — kontynuował Altman. „Ale mam broń, złoto, jodek potasu, antybiotyki, baterie, wodę, maski gazowe od izraelskich sił zbrojnych i duży skrawek ziemi w Big Sur, do którego mogę polecieć”.

(Czy nie byłoby łatwiej po prostu ograniczyć picie i nadużywanie substancji?).

Niedawny post Altmana „ Planowanie dla AGI i nie tylko ” jest tak bombastyczny, jak to tylko możliwe: „Pomyślne przejście do świata z superinteligencją jest prawdopodobnie najważniejszym – i pełnym nadziei, i przerażającym – projektem w historii ludzkości”.

W tym momencie możesz zadać sobie pytanie: „Dlaczego ktoś miałby tak oprawić swoją firmę?” To dobre pytanie. Odpowiedź jest taka, że uczynienie produktów OpenAI „najważniejszymi i najbardziej przerażającymi – w historii ludzkości” jest częścią jej strategii marketingowej. „Paranoja to marketing”.

Przepowiadanie losu przez sztuczną inteligencję jest teraz absolutnie wszędzie” — opisał Brian Merchant w LA Times . „Właśnie tak chce OpenAI, firma, która może odnieść największe korzyści z każdego, kto wierzy, że jej produkt ma moc przerobienia – lub zniszczenia – świata”. Merchant wyjaśnił marketingowy szał Altmana nasycony fantastyką naukową : „Odstraszanie klientów nie jest problemem, jeśli to, co sprzedajesz, jest przerażającą mocą, którą obiecuje twoja usługa”.

Podczas dni Techlash w 2019 roku, które skupiały się na mediach społecznościowych, Joseph Bernstein wyjaśnił, w jaki sposób alarm wywołany dezinformacją (np. „Cambridge Analytica była odpowiedzialna za Brexit i wybory Trumpa w 2016 r.”) faktycznie „wspiera reklamę Facebooka”:

Co może być bardziej atrakcyjnego dla reklamodawcy niż maszyna, która może przekonać każdego do wszystkiego?”

Można to zastosować tutaj: alarm dotyczący magicznej mocy sztucznej inteligencji (np. „zastępowania ludzi”) w rzeczywistości „wspiera ofertę sprzedaży OpenAI”:

„Co może być bardziej atrakcyjnego dla przyszłych pracowników AI i inwestorów niż maszyna, która może stać się superinteligencją?”

Panika AI jako biznes. Eksponat A i B: Tristan Harris i Eliezer Yudkowsky.

Altman przynajmniej używa apokaliptycznego marketingu AI do rzeczywistych produktów OpenAI. Najgorszy rodzaj zagłady to ci, których panika AI jest ich produktem, ich główną karierą i źródłem dochodu. Najlepszym przykładem są instytuty Efektywnego Altruizmu , które twierdzą, że są nielicznymi lepszymi, którzy mogą uratować nas przed hipotetyczną apokalipsą AGI .

W marcu, Tristan Harris , współzałożyciel Center for Humane Technology, zaprosił liderów na wykład o tym, jak sztuczna inteligencja może unicestwić ludzkość. Aby rozpocząć swoją prezentację w dniu zagłady, stwierdził: „Czym atomówki są dla świata fizycznego… AI jest dla wszystkiego innego”.

Steven Levy podsumował ten wykład w WIRED , mówiąc: „Wdrażając sztuczną inteligencję, musimy być rozważni. Ale trudno jasno myśleć, jeśli jest to przedstawiane jako apokalipsa ”. Najwyraźniej po zakończeniu „Dylematu społecznego” Tristan Harris pracuje teraz nad dylematem AI . O chłopie. Możemy się domyślać, jak to będzie wyglądać (Facet „ rowerów nikt nie krytykował ” nakręci „dokument” potwora Frankensteina/puszkę Pandory ).

W „Social Dilemma” promował ideę, że „dwa miliardy ludzi będą miały myśli, których nie zamierzali mieć” z powodu decyzji projektantów. Ale, jak zauważył Lee Visel , Harris nie przedstawił żadnych dowodów na to, że projektanci mediów społecznościowych rzeczywiście MOGĄ celowo zmusić nas do niechcianych myśli.

Podobnie, nie ma teraz potrzeby udowadniania, że sztuczna inteligencja jest gorsza niż energia jądrowa; samo myślenie o tej analogii czyni ją prawdziwą (przynajmniej w umyśle Harrisa). Czy projektant mediów społecznościowych zmusił go do tej niechcianej myśli? (po prostu się zastanawiam).

Aby dalej eskalować panikę AI, Tristan Harris opublikował OpEd w The New York Times z Yuval Noah Harari I Aza Raskin . Wśród ich przesadnie dramatycznych twierdzeń: „Wezwaliśmy obcą inteligencję”, „AI może szybko pożreć całą ludzką kulturę”, a „boskie moce” AI „zapanują nad nami”.

Inne stwierdzenie w tym artykule brzmiało: „Media społecznościowe były pierwszym kontaktem między sztuczną inteligencją a ludzkością, a ludzkość przegrała”. Uznałem to za zabawne, ponieważ pochodziło od dwóch mężczyzn z setkami tysięcy obserwujących (@harari_yuval 540.4k, @tristanharris 192.6k), którzy używają swoich megafonów w mediach społecznościowych… do siania strachu . Ironia ich nie dotyczy.

„Tak się dzieje, gdy spotyka się dwóch najgorszych myślicieli w dziedzinie nowych technologii” — dodał Lee Vinsel . „Wśród innych wspólnych tendencji obie są wolne od badań empirycznych ”.

W tym miejscu powinniśmy być zazdrośni o zagładę AI. Brak dowodów i niuansów jest niezwykle wygodny (gdy jedynym celem jest zaatakowanie powstającej technologii).

Potem przyszedł słynny „List otwarty”. Tej petycji złożonej przez Future of Life Institute brakowało jasnego argumentu lub analizy kompromisu. Były tylko pytania retoryczne, na przykład, czy powinniśmy rozwijać wyimaginowane „nieludzkie umysły, które mogłyby w końcu przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas?” Nie dostarczyły żadnych dowodów na poparcie twierdzenia, że zaawansowane LLM stanowią bezprecedensowe ryzyko egzystencjalne. Było wiele wysoce spekulatywnych założeń. Jednak zażądali natychmiastowej 6-miesięcznej przerwy w szkoleniu systemów sztucznej inteligencji i argumentowali, że „Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wprowadzić moratorium.

Proszę pamiętać, że (1). Darowizna w wysokości 10 milionów dolarów od Elona Muska uruchomiła Instytut Przyszłości Życia w 2015 roku. Z całkowitego budżetu wynoszącego 4 miliony euro na 2021 rok Fundacja Musk przekazała 3,5 miliona euro (zdecydowanie największy darczyńca). (2). Musk powiedział kiedyś, że „Dzięki sztucznej inteligencji przywołujemy demona ”. (3). Z tego powodu misją instytutu jest lobbowanie przeciwko wyginięciu, źle ustawionej sztucznej inteligencji i zabójczym robotom.

„Autorzy listu uważają się za lepszych . Dlatego mają prawo wezwać do zatrzymania, ze względu na obawę, że sztuczna inteligencja źle wpłynie na mniej inteligentnych ludzi” – odpowiedział Keith Teare (CEO SignalRank Corporation). „Przyjmują postawę paternalistyczną pogląd na całą rasę ludzką, mówiąc: „Nie możesz ufać tym ludziom z tą sztuczną inteligencją”. To elita punkt widzenia."

„Warto zauważyć, że w liście pominięto fakt, że wiele z tych prac już się dzieje ” — dodał

Spencer Ante (Meta Foresight). „Wiodący dostawcy sztucznej inteligencji bardzo poważnie traktują bezpieczeństwo i odpowiedzialność za sztuczną inteligencję, opracowując narzędzia ograniczające ryzyko, najlepsze praktyki odpowiedzialnego użytkowania, monitorując platformy pod kątem nadużyć i ucząc się na podstawie opinii ludzi”.

Następnie, ponieważ uważał, że list otwarty nie poszedł wystarczająco daleko, Eliezer Yudkowsky posunął „PhobAI” za daleko . Po pierwsze, Yudkowsky poprosił nas wszystkich, abyśmy bali się wymyślonego ryzyka i apokaliptycznej fantazji, którą ma o „nadludzkiej inteligencji” „zabijającej dosłownie wszystkich” (lub „zabijającej wszystkich w Stanach Zjednoczonych, Chinach i na Ziemi”). Następnie zasugerował, że „zapobieganie scenariuszom wyginięcia AI jest uważane za priorytet nad zapobieganiem pełnej wymianie nuklearnej”. Wyraźnie opowiadając się za brutalnymi rozwiązaniami dla sztucznej inteligencji, oficjalnie osiągnęliśmy szczyt histerii .

Retoryka zgubnych AI jest nie tylko śmieszna. To niebezpieczne i nieetyczne” – odpowiedział Yann Lecun (główny naukowiec AI, Meta). „Doomizm AI szybko staje się nie do odróżnienia od apokaliptycznej religii . W komplecie z przepowiedniami o nieuchronnym ogniu i siarce wywołanych przez wszechmocną istotę, która tak naprawdę nie istnieje”.

„Masz znacznie większe szanse na śmierć od uderzenia pioruna, kolizji z jeleniem, alergii na orzeszki ziemne, użądlenia pszczół i zapłonu lub stopienia bielizny nocnej – niż w przypadku sztucznej inteligencji” – napisał Michael Shermer do Yudkowsky'ego. „Przestań podsycać irracjonalne lęki”.

Problem polega na tym, że sprzedają się „irracjonalne lęki”. Są korzystne dla tych, którzy je rozpowszechniają.

Jak rozpoznać AI Doomera?

2 kwietnia Gary Marcus zapytał: „Byłem zdezorientowany terminologią. Jeśli wątpię, że roboty przejmą władzę nad światem, ale jestem bardzo zaniepokojony tym, że masowy nadmiar dezinformacji, która wydaje się autorytatywnie, podważy demokrację, czy zaliczam się do „stracystów” ?

Jedna z odpowiedzi brzmiała: „Jesteś zgubą , o ile pomijasz udział w rozmowie i zamiast tego odwołujesz się do populistycznych siania paniki i lobbowania reakcyjnych, przerażających polityków za pomocą clickbaitów”.

Biorąc pod uwagę powyższe, zdecydowałem się zdefiniować „AI doomer” i podać kilka kryteriów:

Jak rozpoznać AI Doomera?

  • Wymyślanie fałszywych scenariuszy, w których sztuczna inteligencja zniszczy ludzkość
  • Nawet nie próbuj mieć żadnych dowodów na poparcie tych scenariuszy
  • Oglądałem/czytałem za dużo science-fiction
  • Mówi, że ze względu na boską moc sztucznej inteligencji należy ją powstrzymać
  • Tylko on (i kilku „wybrańców”) może to powstrzymać
  • Tak więc przestraszeni/beznadziejni ludzie powinni wesprzeć jego przedsięwzięcie ($)

Następnie Adam Thierer dodał kolejną cechę:

  • Doomers zwykle żyją w krainie fantazji wolnej od kompromisów.

Doomerzy generalnie preferują bardzo amorficzne, odgórne rozwiązania oparte na zasadach ostrożności, ale (1) rzadko dyskutują o tym, jak (lub czy) te schematy faktycznie zadziałałyby w praktyce, i (2) prawie nigdy nie omawiają kompromisów/ koszty, jakie ich skrajne podejścia nałożyłyby na społeczeństwo/innowacje.

Odpowiadając na pytanie Gary'ego Marcusa, nie sądzę, by kwalifikował się jako zagłada. Musisz spełniać wszystkie kryteria (on nie). Tymczasem Tristan Harris i Eliezer Yudkowsky spotykają całą siódemkę.

Czy kiedykolwiek powstrzymają tę „panikę jako biznes”? Jeśli apokaliptyczna katastrofa nie nastąpi, czy zagłada AI kiedykolwiek przyzna, że się myliła? Wierzę, że odpowiedź brzmi „Nie”.

Kultyści Doomsday nie kwestionują własnych przewidywań. Ale powinieneś.

Dr Nirit Weiss-Blatt ( @DrTechlash ) jest autorem The Techlash and Tech Crisis Communication