Zastrzeżenie: Opinie wyrażone poniżej należą wyłącznie do autora.

Sztuczna inteligencja (AI) jest obecnie w modzie, kilka miesięcy po udostępnieniu ChatGPT szerokiej publiczności, co wprawiło miliony z nas w osłupienie tym, jak kompetentny i podobny do człowieka może być cyfrowy bot.

Inteligentne maszyny są tutaj i zaraz zabiorą nam pracę!

Tylko że nie są — w większości przypadków nawet nie są blisko, i mają dość fundamentalne wady, które mogą zmienić przyjęcie sztucznej inteligencji na masowy rynek w kolejną modę, która umrze za rok lub też, chyba że zostaną naprawione.

Od AI do BS

Temat sztucznej inteligencji jest niezwykle szeroki i myślę, że musimy wprowadzić pewne rozróżnienia dotyczące jej różnych zastosowań.

Wąskie wykorzystanie uczenia maszynowego okazało się jak dotąd bardzo przydatne, dając nam proste odpowiedzi na problemy wynikające z dobrze zdefiniowanego, kompletnego zbioru danych.

Na przykład roboty są w stanie wykrywać kiełkujące na polach chwasty i zabijać je za pomocą wbudowanych laserów, eliminując potrzebę stosowania potencjalnie szkodliwych herbicydów. To zwycięstwo zarówno dla rolników, jak i konsumentów.

W podobnym przykładzie algorytmy uczenia maszynowego są wykorzystywane w astronomii do przeczesywania tysięcy obserwacji i kategoryzowania wykrytych obiektów znacznie szybciej niż jakikolwiek zespół ludzi.

sztuczna inteligencja NASA
Źródło obrazu: NASA

Jednak chociaż takie zastosowania mieszczą się w ogólnie przyjętych definicjach „wąskiej sztucznej inteligencji”, trudno byłoby nazwać takie algorytmy lub roboty „inteligentnymi”. Nie są już „inteligentne” niż oprogramowanie OCR, po prostu dlatego, że potrafią rozpoznawać litery w zeskanowanym dokumencie.

Innymi słowy, uczenie maszynowe sprawdza się w automatyzacji wielu powtarzalnych zadań, które jednak nie wymagają wielkiego rozumowania. Sprawia, że maszyny są bardziej skuteczne w określonych zadaniach, do których zostały zbudowane.

Stworzenie „myślącej” maszyny — przynajmniej takiej, która przeszłaby test Turinga — miało być naszą kolejną granicą, a pojawienie się ChatGPT podekscytowało świat, sugerując, że ten moment w końcu nadszedł.

Ale czy to ma?

Chociaż bot nie został jeszcze poddany testowi Turinga (w przeciwieństwie do niektórych nadgorliwych reporterów sugerowanych kilka tygodni temu ), nadal wykazuje zachowanie, które może już podważyć wyniki każdej takiej próby.

Chociaż ChatGPT może brzmieć niezwykle jak istota ludzka, ma dziwną skłonność do zmyślania, jeśli nie zna odpowiedzi — i zazwyczaj robi to w bardzo przekonujący sposób.

Trochę jak student, który próbuje wybić się na egzaminie, do którego się nie przygotował.

Próbowałem tego sam, prosząc ChatGPT o podsumowanie artykułu, który napisałem kilka tygodni temu. Chociaż bot nie jest podłączony bezpośrednio do Internetu, rzekomo jest w stanie czytać linki i treści, które się za nimi kryją. Oto, co mam:

Prawie żadna z nich nie jest nawet w przybliżeniu poprawna, ponieważ napisałem konkretnie o tym, jak to proste życie prowadzi ludzi do posiadania większych rodzin, a polityka publiczna niewiele może zrobić, aby to zmienić. A więc nie, nie o politykach, o równowadze między życiem zawodowym a prywatnym ani o postawach kulturowych nie mówi się w ten sposób.

Po ponownym zapytaniu po prostu zwrócił te same uwagi, które przedstawił wcześniej. Być może jest tak, jak ktoś zasugerował , że ChatGPT nie może w rzeczywistości uzyskać dostępu do linków, ale robi cholernie dobre wrażenie, że może…?

Tak czy inaczej, gdybyś nie był świadomy treści mojego artykułu, po prostu poszedłbyś z tą bardzo przekonującą odpowiedzią, błogo nieświadomy, że nakarmiono cię kompletnymi bzdurami, ponieważ brzmiało to całkowicie wiarygodnie i zostało dostarczone w naturalnym, ludzkim sposób.

Kiedy ręcznie podałem mu pełny tekst artykułu, szło znacznie lepiej, ale nadal brakowało mu sensu i niektórych kluczowych punktów, które tam przedstawiłem – czyniąc jego usługę skutecznie bezużyteczną (pamiętaj wszystkie te demonstracje obiecujące zmniejszenie potrzeby czytania długich dokumentów przez zsumowanie ich przez AI?).

e-mail podsumowujący sztuczną inteligencję
Źródło zdjęcia: marketoonista / Tom Fishburne

Problem polega na tym, że jeśli nie jesteś zaznajomiony z treścią, nie możesz wiedzieć, czy podsumowanie jest dokładne, czy nie.

Ten problem nie ogranicza się do rzeczy, których system mógł nie mieć okazji się nauczyć.

Naukowcy zapytali ChatGPT o informacje na temat raka i chociaż większość jego odpowiedzi była trafna, niektóre z nich nie – często w bardzo mylący sposób.

chatgpt rak opieki zdrowotnej

„Zdecydowana większość” – 88 procent – odpowiedzi była odpowiednia i łatwa do zrozumienia. Jednak niektóre odpowiedzi były „niedokładne lub nawet fikcyjne”, ostrzegają.

ChatGPT dostarczył również niespójnych odpowiedzi na pytania dotyczące ryzyka zachorowania na raka piersi i gdzie wykonać mammografię. Badanie wykazało, że odpowiedzi „znacząco się różniły” za każdym razem, gdy zadawane było to samo pytanie.

Współautor badania, dr Paul Yi, powiedział: „Widzieliśmy z naszego doświadczenia, że ChatGPT czasami wymyśla fałszywe artykuły w czasopismach lub konsorcjach zdrowotnych, aby poprzeć swoje twierdzenia.

Daily Mail, 4 kwietnia 2023 r

Tak, dobrze to przeczytałeś: „ChatGPT czasami tworzy fałszywe artykuły w czasopismach” . Innymi słowy, zawiera odniesienia do artykułów, które nie istnieją i nigdy nie istniały! Po prostu je wymyślił!

Podobne zachowanie zostało zauważone kilka miesięcy temu przez użytkownika Hacker News, który poprosił ChatGPT o referencje na temat matematyczny i okazało się, że każdy tytuł, a nawet link (!) są całkowicie fałszywe:

hacker news chatgpt fałszywe referencje

Zmaganie się ze znalezieniem informacji to jedno, ale zupełnie co innego, gdy jest się karmionym kompletnymi kłamstwami w bardzo przekonujący sposób. Nie do końca to, co chcieliśmy osiągnąć w dobie wszechobecnych fake newsów…

Ujawnienie sztuczki magika

Te „ halucynacje” , jak się je nazywa, ujawniają ograniczenia tego, czym właściwie jest ChatGPT — dużym modelem językowym.

Został zaprojektowany jako niezwykle przekonujący rozmówca – do tego stopnia, że od razu udaje rzeczy, o ile wydają się brzmieć naturalnie.

Zasadniczo nie różni się to od sztuczki karcianej.

Dopóki nie wiesz, jak to działa, równie dobrze możesz wierzyć, że to prawdziwa magia. Ale tak jak karty nie znikają, a króliczki nie wyskakują z kapelusza, tak ChatGPT i inne boty tak naprawdę nie rozumują, nawet jeśli mogą na to wyglądać.

A konsekwencje są bardziej znaczące, niż się wydaje na pierwszy rzut oka.

W końcu nie ma znaczenia, czy bot ma 88 procent, czy 97 procent poprawności — tak długo, jak może się mylić w czymkolwiek w dowolnym momencie, nie można mu ufać.

Ponieważ może się okazać, że jest nie tak z powodu czegoś ważnego, co może kosztować ludzkie życie, strukturalnego niepowodzenia projektu inżynierskiego, luki w zabezpieczeniach kodu programu, złej inwestycji wartej miliony, a nawet czegoś tak podstawowego, jak e-mail przełożonego , które niedokładnie podsumował, wprowadzając cię w błąd co do prośby twojego szefa, ustawiając cię na zły dzień w pracy.

Czy to jest warte ryzyka?

I nigdy nie dowiemy się, że popełnił błąd, chyba że posiadamy już kompletną wiedzę (w takim przypadku po co nam bot?) — lub nauczymy się bolesnej lekcji z doświadczenia, gdy sprawy idą źle.

Innymi słowy, najbardziej zaawansowana sztuczna inteligencja, jaka istnieje, zawodzi nas we wszystkich rzeczach, które myśleliśmy, że może zrobić lepiej niż my sami — rzeczach, które wymagają precyzji i pewności .

Errare humanum est

Oczywiście ludzie też nie są bezbłędni — my też popełniamy błędy, czasem z katastrofalnymi skutkami.

Ale chcemy, aby sztuczna inteligencja radziła sobie lepiej niż my. W przeciwnym razie, jaki jest sens?

Poza tym zazwyczaj można zidentyfikować obszary podatne na błędy ludzkie, wdrożyć kontrole i kontrole jakości, a nasza niezawodność znacznie się poprawiła.

Tymczasem niekonsekwentne zachowanie sztucznej inteligencji wydaje się być znacznie bardziej losowe, co oznacza, że idealnie byłoby mieć równoległy system sprawdzający wszystko w locie, na wszelki wypadek.

Nie mam wątpliwości, że wiele z tych problemów można naprawić, ale nie jestem przekonany, czy uda nam się osiągnąć 100-procentową dokładność. A powodem tego jest to, że sztuczna inteligencja jest tak inteligentna, jak to, czym ją karmimy i jak ją następnie interpretuje na podstawie przeszłych wzorców, z których się nauczyła, a nie obiektywnej myśli.

Nadal musimy pamiętać, że niezależnie od sprytnych sztuczek, które je napędzają, systemy te nie posiadają mózgów i nie rozumują tak jak my. Bardziej przypominają marionetki działające z bardzo dużą precyzją (a to nie do końca to samo).

A ponieważ są tak przekonujące, rozwiązywanie problemów lub sprawdzanie faktów jest tak trudne — do tego stopnia, że stają się przestarzałe w najważniejszych zastosowaniach, które wymagają całkowitej pewności.

Ponieważ sam musisz posiadać wystarczającą wiedzę, do czego potrzebujesz czującej maszyny (którą musisz dokładnie sprawdzić)?

Jak na ironię, wydaje się, że nasi towarzysze AI radzą sobie znacznie lepiej w obszarach, w których ich nie potrzebowaliśmy lub których nie planowaliśmy, jak zauważono w tym żartobliwym tweecie:

Tweety ze sztuczną inteligencją

Mieliśmy nadzieję, że sztuczna inteligencja zdejmie ten ciężar z naszych barków, abyśmy mogli cieszyć się przyjemniejszymi zajęciami, ale jak dotąd było zupełnie odwrotnie.

Narzędzia sztucznej inteligencji, takie jak Stable Diffusion, Midjourney lub Dall-E, są w stanie generować imponującą grafikę lub bardzo realistyczne obrazy na podstawie prostych podpowiedzi tekstowych, takich jak te „zdjęcia” papieża Franciszka w kurtce zimowej, które stały się popularne kilka dni temu:

kurtka zimowa papieża franciszka
Wygenerowany przez sztuczną inteligencję obraz papieża Franciszka w kurtce zimowej

Albo ta retro fotografia z komunistycznych Chin pokazująca rzeczy, które nigdy się nie wydarzyły i ludzi, którzy nigdy nie istnieli:

komunistyczne Chiny
Źródło zdjęcia: Zhang Haijun przez Midjourney
komunistyczne Chiny
Źródło zdjęcia: Zhang Haijun przez Midjourney

W międzyczasie ChatGPT może szybko wyprodukować dowolną liczbę wierszy lub prozy o kimkolwiek i czymkolwiek (jak Singapur).

singapurski wiersz chatgpt
ChatGPT pisze wiersz o Singapurze

Oczywiście, nie jest to dokładnie kandydat do nagrody Nobla, ale o to właśnie chodzi w twórczych dążeniach – nie musi tak być.

I tak, czasami można znaleźć usterki na niektórych obrazach, ale znowu nie muszą one być idealne, a każdy błąd jest szybko widoczny gołym okiem. Ułatwia to ich poprawianie, w przeciwieństwie do potencjalnie zmyślonych informacji, których prawdziwość trzeba potwierdzić.

Obszary, w których błędy nie są krytyczne, to obszary, w których AI przoduje.

Ale oznacza to również, że ludzie są nadal niezbędni, aby zrozumieć, gdzie mogły zostać popełnione te błędy i je poprawić.

Niewątpliwie poprawi naszą wydajność w wielu zadaniach (takich jak projektowanie graficzne czy kodowanie), ale raczej nie zastąpi nas całkowicie.

Przynajmniej nie w najbliższym czasie, ponieważ wymagałoby to znacznie większego osiągnięcia niż algorytmiczne generowanie wiarygodnie brzmiących zdań.

Pomimo całego szumu wokół sztucznej „inteligencji”, wciąż mamy sporo do zrobienia, zanim będziemy mogli używać tego terminu bez zastrzeżeń.

Źródło obrazu wyróżnionego: bennymarty / depositphotos


Przeczytaj także
Odkrywanie ciemnej strony ChatGPT – czy Twoje rozmowy na chatbocie AI są bezpieczne?