Zastrzeżenie: Opinie wyrażone w tej historii należą wyłącznie do autora, chyba że zaznaczono inaczej.

Od czasu uruchomienia ChatGPT w listopadzie zeszłego roku rozwój sztucznej inteligencji (AI) nabrał rozpędu. Giganci technologiczni na całym świecie – Google, Microsoft i ByteDance, by wymienić tylko kilku – dużo inwestują w programy oparte na sztucznej inteligencji, takie jak chatboty i algorytmy wykrywania treści.

Dzisiaj ChatGPT jest najszybciej rozwijającą się aplikacją wszechczasów, ze 100 milionami aktywnych użytkowników w styczniu 2023 roku. W marcu OpenAI – firma stojąca za ChatGPT – wypuściła kolejną iterację swojego chatbota, GPT-4, który ma okazał się znacznie bardziej wyrafinowany niż którykolwiek z jego poprzedników.

GPT-4 jest w stanie interpretować nie tylko tekst, ale także dane wizualne. Może opisywać obrazy, interpretować wykresy, rozwiązywać złożone problemy i dokładnie cytować źródła. Według OpenAI jest o 40 procent bardziej prawdopodobne, że przedstawi rzeczywiste odpowiedzi niż jego poprzednia iteracja.

Zastosowania GPT-4 przekraczają granice branżowe. Aplikacja do nauki języków Duolingo wykorzystuje tę technologię, aby ułatwić swoim użytkownikom konwersacje przypominające ludzkie. W finansach firmy takie jak Morgan Stanley i Stripe wykorzystały GPT-4 do organizowania danych i pomocy w wykrywaniu oszustw.

Startupy, takie jak Groundup.ai, idą jeszcze dalej, zatrudniając pracowników , którzy będą przede wszystkim wykorzystywać ChatGPT do wspierania celów biznesowych.

ChatGPT jest fenomenalny.

Ale GPT-4 wstrząsnął Tech Twitterem.

18 niesamowitych rzeczy, które GPT-4 jest w stanie zrobić, a które cię zaskoczą (założę się):

— Shushant Lakhyani (@shushant_l) 16 marca 2023 r

Dzięki tym wszystkim możliwościom — od tworzenia aplikacji po pisanie pozwów — GPT-4 przesuwa granice technologii sztucznej inteligencji. Jednak niezależnie od tego, jak obiecujące są te zmiany, wielu wyraziło obawy co do tempa, w jakim się pojawiają.

Sześciomiesięczna przerwa w rozwoju AI

W marcu Future of Life Institute opublikował list otwarty wzywający do wstrzymania wszelkich eksperymentów AI potężniejszych niż GPT-4. W liście argumentuje się, że systemy sztucznej inteligencji o inteligencji podobnej do ludzkiej mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości.

Ponieważ programiści ścigają się, aby rozwinąć tę technologię, niewiele jest możliwości awaryjnych na wypadek, gdyby sprawy wymknęły się spod kontroli. Potężne systemy sztucznej inteligencji mogą być trudne do zrozumienia lub kontrolowania i nie ma gwarancji, że ich wpływ będzie pozytywny.

chatgpt
ChatGPT przekroczył milion użytkowników w ciągu pierwszych pięciu dni od uruchomienia / Zrzut ekranu ChatGPT

W liście zaleca się, aby laboratoria sztucznej inteligencji i badacze połączyli siły i opracowali wspólne protokoły bezpieczeństwa, nadzorowane przez niezależnych ekspertów.

Zebrano ponad 50 000 podpisów i zostało ono wsparte przez czołowe osobistości technologiczne, w tym CEO SpaceX Elon Musk i współzałożyciel Apple Steve Wozniak. Założyciele Skype, Ripple i Pinterest również znajdują się na liście sygnatariuszy.

Czy samokontrola wystarczy?

Artykuł OpenAI autorstwa CEO Sama Altmana, który omawia sztuczną inteligencję ogólną (AGI) – zdefiniowaną jako sztuczna inteligencja, która jest ogólnie inteligentniejsza niż ludzie – jest cytowany w liście Future of Life Institute.

Altman zdaje sobie sprawę z ryzyka, jakie stwarza AGI, oraz potrzeby stopniowej transformacji, dającej decydentom i instytucjom wystarczająco dużo czasu na wprowadzenie przepisów.

Ponadto stwierdza, że w miarę jak systemy OpenAI zbliżają się do klasyfikacji AGI, firma podejmuje środki ostrożności i rozważa nawet najbardziej ekstremalne scenariusze, takie jak stwarzanie przez sztuczną inteligencję zagrożeń dla cywilizacji i ludzkiej egzystencji. Chociaż takie pomysły mogą wydawać się naciągane, OpenAI uznaje argumenty , które zostały przedstawione na ich poparcie.

Sam Altman Openai
Kredyty obrazkowe: Business Insider / OpenAI

Niewłaściwie ustawiony superinteligentny AGI może spowodować poważne szkody dla świata; autokratyczny reżim ze zdecydowanym przywództwem superwywiadu też mógłby to zrobić.

– Sam Altman, dyrektor generalny OpenAI

To powiedziawszy, nie wszystkie firmy mogą mieć te same standardy samokontroli. Przy miliardach do zarobienia w „wyścigu zbrojeń” AI – jak to się powszechnie nazywa – jest wiele do zarobienia na lekkomyślności.

W najnowszej historii tę lekcję można również znaleźć, patrząc na szybkie pojawienie się kryptowalut. Ostatniego krachu na rynku – wywołanego takimi wydarzeniami jak krach LUNA/UST i upadek FTX – można było uniknąć dzięki większemu nadzorowi ze strony decydentów.

W związku z tym potrzeba interwencji regulacyjnej w zakresie sztucznej inteligencji staje się z dnia na dzień coraz bardziej widoczna.

Pojawiające się zagrożenia AI

Chociaż dominacja sztucznej inteligencji na świecie nie jest jeszcze palącym problemem, wciąż istnieją problemy, którymi należy się zająć. Szczególnie trudnym wyzwaniem jest wrodzona stronniczość.

ChatGPT jest przeszkolony w zakresie istniejących banków danych i wiadomo, że odzwierciedla ich uprzedzenia. Mogą one często przedstawiać się w formie obraźliwych uwag.

Altman uznał tę wadę i stwierdził, że OpenAI pracuje nad bardziej obiektywnym chatbotem.

To ogromna ściana do pokonania i być może niemożliwa. Weźmy na przykład podpowiedź z prośbą o napisanie żartu przez ChatGPT. OpenAI może zapobiegać żartom na niektóre tematy, jednocześnie zezwalając na inne. Ich chatbot odzwierciedlałby teraz zestaw wartości moralnych, które uznają za akceptowalne. Na dobre i na złe, nie byłoby to całkowicie obiektywne.

Tak, ChatGPT jest niesamowity i imponujący. Nie, @OpenAI nie zbliżyło się do rozwiązania problemu stronniczości. Wydaje się, że filtry są omijane za pomocą prostych sztuczek i powierzchownie maskowane.

A to, co czai się w środku, jest skandaliczne. @Abebab @sama
tw rasizm, seksizm. pic.twitter.com/V4fw1fY9dY

— stefan t. piantadosi (@spiantado) 4 grudnia 2022 r

Aby naprawdę to obejść, OpenAI może całkowicie uniemożliwić ChatGPT pisanie dowcipów, a także opowiadań i wierszy. Zdolność GPT-4 do opisywania obrazów również byłaby kwestionowana. Zabrałoby to niektóre kluczowe funkcje, które oddzielają te boty AI od tradycyjnych wyszukiwarek.

Aby oprogramowanie AI naprawdę miało ludzką inteligencję, kompas moralny może być warunkiem wstępnym. Dotyczy to nie tylko chatbotów, ale także innych aplikacji AI. Weźmy na przykład samojezdne samochody – aby mieć w pełni autonomiczne pojazdy, musiałyby mieć moralne podejście do dylematów, takich jak problem z wózkiem .

Oprócz uprzedzeń, narzędzia sztucznej inteligencji mogą być wykorzystywane do rozpowszechniania dezinformacji – poprzez głębokie naśladowanie dźwięku w filmach – oraz naruszania praw autorskich i praw własności intelektualnej.

Niezależnie od tego, czy jest to tekst, obrazy czy filmy, odróżnienie treści tworzonych przez sztuczną inteligencję od treści tworzonych przez ludzi stało się już wyzwaniem. Przepisy i zabezpieczenia jeszcze nie nadążają, co po raz kolejny sygnalizuje potrzebę moderowania innowacji w tej dziedzinie.

Źródło obrazu wyróżnionego: Wikimedia / OpenAI


Przeczytaj także