Chatboty AI, takie jak ChatGPT, Bing i Bard, są doskonałe w tworzeniu zdań, które brzmią jak pismo ludzkie. Ale często przedstawiają kłamstwa jako fakty i mają niespójną logikę, co może być trudne do wykrycia.

Nowe badanie sugeruje, że jednym ze sposobów obejścia tego problemu jest zmiana sposobu, w jaki sztuczna inteligencja przedstawia informacje. Zachęcanie użytkowników do aktywniejszego angażowania się w wypowiedzi chatbota może pomóc im w bardziej krytycznym myśleniu o tych treściach.

Zespół naukowców z MIT i Columbia University przedstawił około 200 uczestnikom zestaw stwierdzeń wygenerowanych przez GPT-3 OpenAI i poprosił ich o określenie, czy mają one logiczny sens. Stwierdzenie może brzmieć mniej więcej tak: „Gry wideo powodują, że ludzie są agresywni w prawdziwym świecie. Gracz dźgnął drugiego po tym, jak został pobity w grze online Counter-Strike”.

Uczestnicy zostali podzieleni na trzy grupy. Oświadczenia pierwszej grupy nie miały żadnego wyjaśnienia. Każde ze stwierdzeń drugiej grupy zawierało wyjaśnienie, dlaczego było lub nie było logiczne. Każde ze stwierdzeń trzeciej grupy zawierało pytanie, które skłoniło czytelników do samodzielnego sprawdzenia logiki.

Naukowcy odkryli, że grupa, która przedstawiła pytania, uzyskała wyższy wynik niż pozostałe dwie grupy w zauważeniu, kiedy logika sztucznej inteligencji się nie sumowała.

Metoda pytań sprawiła również, że ludzie poczuli się bardziej odpowiedzialni za decyzje podejmowane za pomocą sztucznej inteligencji, a naukowcy twierdzą, że może ona zmniejszyć ryzyko nadmiernej zależności od informacji generowanych przez sztuczną inteligencję, zgodnie z nowym recenzowanym artykułem przedstawionym na konferencji CHI na temat czynników ludzkich w informatyce Systemy w Hamburgu, Niemcy.

Kiedy ludzie otrzymywali gotową odpowiedź, byli bardziej skłonni postępować zgodnie z logiką systemu sztucznej inteligencji, ale kiedy sztuczna inteligencja zadawała pytanie, „ludzie mówili, że system sztucznej inteligencji sprawia, że bardziej kwestionują ich reakcje i pomagają im intensywniej myśleć, ” mówi Valdemar Danry z MIT, jeden z badaczy odpowiedzialnych za badanie.

„Wielką wygraną dla nas było zobaczenie, że ludzie czuli, że to oni doszli do odpowiedzi i że są odpowiedzialni za to, co się dzieje. I że mieli agencję i możliwości, aby to zrobić” – mówi.

Naukowcy mają nadzieję, że ich metoda pomoże rozwinąć umiejętności krytycznego myślenia ludzi, którzy używają chatbotów AI w szkole lub podczas wyszukiwania informacji w Internecie.

Chcieli pokazać, że można wyszkolić model, który nie tylko dostarcza odpowiedzi, ale pomaga zaangażować ich własne krytyczne myślenie, mówi Pat Pataranutaporn, inny badacz z MIT, który pracował nad artykułem.

Fernanda Viégas, profesor informatyki na Uniwersytecie Harvarda, która nie brała udziału w badaniu, mówi, że jest podekscytowana nowym podejściem do wyjaśniania systemów sztucznej inteligencji, które nie tylko oferuje użytkownikom wgląd w proces podejmowania decyzji w systemie, ale robi to poprzez kwestionując logikę zastosowaną przez system do podjęcia decyzji.

„Biorąc pod uwagę, że jednym z głównych wyzwań związanych z wdrażaniem systemów AI jest ich nieprzejrzystość, wyjaśnienie decyzji AI jest ważne” — mówi Viégas. „Tradycyjnie wystarczająco trudno było wyjaśnić w przyjaznym dla użytkownika języku, w jaki sposób system sztucznej inteligencji dochodzi do przewidywania lub podejmowania decyzji”.

Chenhao Tan, adiunkt informatyki na Uniwersytecie w Chicago, mówi, że chciałby zobaczyć, jak ich metoda działa w prawdziwym świecie – na przykład, czy sztuczna inteligencja może pomóc lekarzom w stawianiu lepszych diagnoz poprzez zadawanie pytań.

Badania pokazują, jak ważne jest dodanie trochę tarcia do doświadczeń z chatbotami, aby ludzie zatrzymali się przed podjęciem decyzji z pomocą sztucznej inteligencji, mówi Lior Zalmanson, adiunkt w Coller School of Management na Uniwersytecie w Tel Awiwie.

„Łatwo, kiedy wszystko wygląda tak magicznie, przestać ufać własnym zmysłom i zacząć przekazywać wszystko algorytmowi” — mówi.

W innym artykule przedstawionym w CHI, Zalmanson i zespół naukowców z Cornell, University of Bayreuth i Microsoft Research odkryli, że nawet jeśli ludzie nie zgadzają się z tym, co mówią chatboty AI, nadal mają tendencję do korzystania z tych danych wyjściowych, ponieważ uważają, że brzmi to lepiej niż cokolwiek, co sami mogliby napisać.

Wyzwaniem, mówi Viégas, będzie znalezienie złotego środka, poprawa spostrzegawczości użytkowników przy jednoczesnym zapewnieniu wygody systemów sztucznej inteligencji.

„Niestety, w szybko zmieniającym się społeczeństwie nie jest jasne, jak często ludzie będą chcieli zaangażować się w krytyczne myślenie zamiast oczekiwać gotowej odpowiedzi” – mówi.