Niedawno mieliśmy Annalee Newitz i Charlie Jane Anders w podcaście Techdirt , aby omówić ich własny miniserial podcastowy „ Dolina Krzemowa kontra Science Fiction ”. Część tej dyskusji dotyczyła rozpowszechniającego się w Dolinie Krzemowej poglądu, często dziwnie pochodzącego od największych twórców sztucznej inteligencji, że sztuczna inteligencja jest egzystencjalnym zagrożeniem dla świata i musimy to powstrzymać.

Charlie Jane i Annalee przedstawiają kilka naprawdę świetnych argumentów na temat tego, dlaczego ten pogląd należy traktować z przymrużeniem oka, sugerując, że scenariusz „wymykającej się spod kontroli sztucznej inteligencji, która niszczy świat” wydaje się równie prawdopodobny, jak inne tropy science fiction dotyczące potworów schodzących z niebo, aby zniszczyć cywilizację.

Wydaje mi się, że czas tej rozmowy był nieco proroczy, ponieważ w ciągu następnych kilku tygodni nastąpiła eksplozja publicznych oświadczeń zestawu AI doom and dark i nagle stała się ona artykułem na pierwszej stronie, zaledwie kilka dni po tym, jak rozmawialiśmy o te same pomysły krążą w Dolinie Krzemowej w podkaście.

W naszej dyskusji zwróciłem uwagę, że uważam , że warto zauważyć, że zagłada i mroczki AI są przynajmniej zmianą w stosunku do przeszłości, w której słynnie żyliśmy w świecie „poruszaj się szybko i psuj rzeczy”, gdzie idea myślenia poprzez konsekwencje nowych technologii uznano w najlepszym razie za dziwaczne, aw najgorszym za aktywnie szkodliwe.

Ale, jak zauważyli goście podcastu, cała dyskusja wydaje się rozpraszać. Po pierwsze, obecnie istnieją realne problemy z algorytmami czarnych skrzynek, które poprawiają wyroki karne na podstawie nieznanych danych wejściowych. Lub ustalenie, czy masz dobry wynik kredytowy w niektórych krajach.

Na przykład istnieją ogromne uzasadnione problemy, na które można dziś spojrzeć w odniesieniu do algorytmów czarnej skrzynki, ale żaden z zagłady i ponuraków nie wydaje się być zainteresowany rozwiązaniem któregokolwiek z nich.

Po drugie, wszystkie scenariusze zagłady i mroku wydają się… statyczne? To znaczy, jasne, wszyscy mówią, że nikt nie wie dokładnie , jak coś pójdzie nie tak, i to jest jeden z powodów, dla których zalecają ostrożność. Ale wszyscy wydają się również wracać do eksperymentu myślowego ze spinaczem Nicka Bostroma, tak jakby ta historia miała jakiekolwiek znaczenie dla prawdziwego świata.

Po trzecie, wiele osób zauważa i wykrzykuje, że wiele z tych nieszczęść wydaje się być tego samego rodzaju opowieściami o duchach, które widzieliśmy w innych branżach.

Tak więc dobrze jest również zobaczyć poważny sprzeciw wobec narracji.

Kilku innych badaczy i etyków zajmujących się sztuczną inteligencją odpowiedziało listem z odpowiedzią , w którym poruszono niektóre z powyższych punktów, choć o wiele bardziej konkretnie:

Chociaż w liście znajduje się szereg zaleceń, z którymi się zgadzamy (i zaproponowanych w naszym recenzowanym artykule z 2021 r., znanym nieformalnie jako „Stochastyczne papugi”), takich jak „systemy pochodzenia i znaków wodnych, które pomagają odróżnić media rzeczywiste od syntetycznych”, te są przyćmione przez sianie paniki i sztuczną inteligencję , które kierują dyskurs na ryzyko wyimaginowanych „potężnych cyfrowych umysłów” z „inteligencją współzawodniczącą z ludźmi”. Te hipotetyczne zagrożenia są przedmiotem niebezpiecznej ideologii zwanej długoterminowością , która ignoruje rzeczywiste szkody wynikające z wdrażania systemów sztucznej inteligencji. List nie odnosi się do żadnej z bieżących szkód powodowanych przez te systemy, w tym 1) wyzysku pracowników i masowej kradzieży danych w celu tworzenia produktów przynoszących zyski garstce podmiotów, 2) eksplozji mediów syntetycznych na świecie, która zarówno powiela systemy ucisku, jak i zagraża naszego ekosystemu informacyjnego oraz 3) koncentracja władzy w rękach kilku osób, która pogłębia nierówności społeczne .

Mówią o tym też inni:

„Jest to zasadniczo błędne ukierunkowanie: zwrócenie uwagi wszystkich na hipotetyczne moce i szkody LLM i zaproponowanie (bardzo niejasnego i nieskutecznego) sposobu radzenia sobie z nimi, zamiast przyglądania się szkodom tu i teraz i zajmowania się nimi – na przykład wymagając większej przejrzystości, gdy chodzi o dane szkoleniowe i możliwości LLM lub przepisy dotyczące tego, gdzie i kiedy można ich używać” – powiedziała Motherboard Sasha Luccioni, naukowiec i kierownik ds. klimatu w Hugging Face .

Arvind Narayanan, profesor nadzwyczajny informatyki w Princeton, powtórzył, że list otwarty był pełen szumu AI, który „utrudnia radzenie sobie z prawdziwymi, występującymi szkodami AI”.

„Czy powinniśmy zautomatyzować wszystkie zadania, w tym te spełniające? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?” pyta list otwarty.

Narayanan powiedział, że te pytania są „nonsensowne” i „śmieszne”. Bardzo daleko idące pytania, czy komputery zastąpią ludzi i przejmą ludzką cywilizację, są częścią długoterminowego sposobu myślenia, który odwraca naszą uwagę od bieżących problemów. W końcu sztuczna inteligencja jest już integrowana z miejscami pracy ludzi i zmniejsza zapotrzebowanie na niektóre zawody, nie będąc „nieludzkim umysłem”, który uczyni nas „przestarzałymi”.

„Myślę, że są to uzasadnione długoterminowe obawy, ale były wielokrotnie wdrażane strategicznie, aby odwrócić uwagę od obecnych szkód — w tym bardzo realnych zagrożeń dla bezpieczeństwa i bezpieczeństwa informacji!” Narayanan napisał na Twitterze . „Zajmowanie się zagrożeniami bezpieczeństwa będzie wymagało współpracy i współpracy. Niestety szum w tym liście – wyolbrzymianie możliwości i ryzyka egzystencjalnego – prawdopodobnie doprowadzi do jeszcze większego zablokowania modeli, co utrudni przeciwdziałanie zagrożeniom”.

W pewnym sensie przypomina mi to debatę na temat prywatności. Po takich rzeczach, jak bałagan w Cambridge Analytica, pojawiły się wszelkiego rodzaju wezwania do „zrobienia czegoś” w odniesieniu do prywatności użytkowników. Ale tak wiele celów skupiało się na faktycznym przekazaniu większej kontroli dużym firmom, które były problemem w pierwszej kolejności, zamiast przenoszenia kontroli nad danymi na użytkownika końcowego.

Oznacza to, że naszą odpowiedzią na wycieki prywatności i bałagan ze strony takich jak Facebook… było powiedzenie Facebookowi, hej, dlaczego nie kontrolujesz większej ilości naszych danych i po prostu lepiej się tym zajmiesz, zamiast rzeczywistego rozwiązania polegającego na zapewnieniu użytkownikom kontroli nad ich własne dane.

Podobnie tutaj wydaje się, że te dyskusje na temat „przerażających” zagrożeń związanych ze sztuczną inteligencją dotyczą regulacji przestrzeni w sposób, który po prostu przekazuje narzędzia małej grupie elitarnych „godnych zaufania” tytanów AI, którzy często będą rozmawiać zmartwień i obaw, czy raff riff kiedykolwiek będzie w stanie stworzyć własną sztuczną inteligencję. To znowu sytuacja na Facebooku, gdzie ich własne wpadki prowadzą do wezwań do regulacji, które dają im znacznie większą władzę, a wszystkim innym mniej władzy i kontroli.

Krajobraz AI jest trochę inny, ale jest tu wyraźny wzór. Wydaje się, że los i mrok AI nie polegają na naprawianiu istniejących problemów za pomocą algorytmów czarnej skrzynki — tylko na ustanowieniu przepisów, które przekazują przestrzeń kilku elitarnym i potężnym ludziom, którzy obiecują, że w przeciwieństwie do hołoty mają najlepszy interes ludzkości w umyśle.