Wyobraź sobie, że pytasz nowoczesną sztuczną inteligencję o wynik prostego równania – na przykład: ile to 2 + 2? – a ona z powagą odpowiada: 5. Brzmi absurdalnie? A jednak – witamy w świecie halucynacji AI, czyli sytuacji, w których systemy takie jak ChatGPT wymyślają informacje i podają je z absolutną pewnością, jakby były niepodważalnym faktem.
To zjawisko wcale nie jest science fiction. OpenAI – twórcy ChatGPT – otwarcie przyznają, że ich model bywa zbyt kreatywny. Mira Murati, dyrektorka technologiczna firmy, stwierdziła, że ChatGPT potrafi zmyślać fakty, a użytkownikom trudno czasem odróżnić, kiedy AI mówi prawdę, a kiedy jedynie dobrze udaje eksperta.
Gdy matematyka spotyka bajkopisarza
Choć może się wydawać, że matematyka i logika to dziedziny, w których AI nie ma prawa się mylić, rzeczywistość pokazuje coś innego. GPT-3, model, który potrafił zdać testy SAT i egzamin adwokacki w USA, jednocześnie mylił się w podstawowych działaniach. Na przykład raz błędnie podał wynik równania, myląc się o dziesiątki. To trochę tak, jakby prymus zapomniał, jak działa tabliczka mnożenia – zadziwia erudycją, ale gubi się w prostych zadaniach.
Użytkownicy zaczęli podchodzić do AI z większym dystansem. I słusznie.
Przełom z GPT-4: mądrzejszy, ale wciąż nieomylny?
W 2023 roku światło dzienne ujrzał GPT-4 – znacznie lepszy, bardziej spójny i mniej skory do konfabulacji. Model ten zaczął zdawać kolejne egzaminy w najwyższych percentylach (np. top 10% aplikacji prawniczych w USA), a według OpenAI halucynuje aż o 40% rzadziej niż poprzednik, GPT-3.5.
Co ważne – GPT-4 potrafi czasem przyznać, że czegoś nie wie, zamiast zmyślać. To milowy krok w rozwoju AI, ale nie oznacza końca problemów. Model nadal potrafi się mylić. Głośnym przypadkiem była błędna odpowiedź na pytanie o liczbę ocalałych pasażerów „Titanica” – gdy użytkownik poprosił o źródła, AI… poprawiła samą siebie. Niby dobrze, że się reflektuje, ale co, jeśli ktoś uwierzy w tę pierwszą wersję?
Claude od Anthropic – AI z własnym kodeksem moralnym?
Na scenę wkroczył też Claude – model stworzony przez firmę Anthropic, założoną przez byłych pracowników OpenAI. Jego unikalną cechą jest tzw. „konstytucja AI” – zestaw zasad, którymi ma kierować się model. Claude faktycznie wydaje się bardziej powściągliwy. Gdy nie jest czegoś pewien, często po prostu odmawia odpowiedzi, co znacząco ogranicza liczbę halucynacji.
Ale nie oznacza to, że jest idealny. Głośny był przypadek, gdy prawnik poprosił Claude’a o przygotowanie przypisów do orzeczeń sądowych. Model wygenerował profesjonalnie wyglądające cytowania… które były kompletnie zmyślone. Nazwy spraw, numery akt, fragmenty orzeczeń – wszystko fikcyjne. Prawnik musiał się później tłumaczyć przed sądem, a Claude – mimo dobrych chęci – zawiódł.
Google Gemini – mniej bajek, więcej faktów?
Google również postanowiło zawalczyć o zaufanie użytkowników. Gemini – model tworzony przez połączone zespoły DeepMind i Google Brain – od początku miał być przeciwwagą dla „halucynogennego” GPT. Google deklarowało, że jednym z najważniejszych celów Gemini jest maksymalne ograniczenie błędów faktograficznych.
Model został zintegrowany z chatbotem Bard i wyposażony w możliwość generowania obrazów. I tu pojawiły się problemy: obrazy bywały pełne anachronizmów, a odpowiedzi – niezgodne z faktami historycznymi. Google musiało awaryjnie wycofać część funkcji i obiecało poprawki. Nawet Demis Hassabis, szef Google DeepMind, przyznał, że obecne modele mają wciąż zbyt wiele „dziur”.
Halucynacje – wada czy… zaleta?
Coraz częściej eksperci zastanawiają się, czy halucynacje to wyłącznie błąd. Może są też objawem kreatywności? Demis Hassabis zasugerował, że kontrolowane „zmyślanie” może pomóc AI tworzyć innowacyjne pomysły. Dario Amodei z Anthropic zauważył, że ludzie też halucynują – tyle że mniej spektakularnie. AI potrafi wymyślić coś błyskotliwego, ale też nonsensownego – różnica polega na tym, że człowiek wie, kiedy zmyśla. Sztuczna inteligencja jeszcze nie zawsze.
Czy halucynacje AI kiedyś znikną?
Postęp jest widoczny: od GPT-3 do GPT-4 jakość odpowiedzi wyraźnie się poprawiła. Coraz częściej modele są integrowane z wyszukiwarkami, aktualizowaną wiedzą i bazami danych, co znacznie zmniejsza ryzyko zmyślania. Ale to nie znaczy, że problem już nie istnieje.
Kluczową zasadą dla użytkowników AI jest dziś zdrowy sceptycyzm. Nawet jeśli model brzmi jak profesor, wciąż może fantazjować jak scenarzysta science fiction. Dlatego warto zadawać pytania uzupełniające, prosić o źródła, konfrontować informacje z rzeczywistością.
Halucynacje sztucznej inteligencji uczą nas jednej, fundamentalnej rzeczy: technologia to tylko narzędzie – a zdrowy rozsądek musi pozostać po naszej stronie. W świecie, gdzie maszyny czasem „śnią na jawie”, najcenniejszym algorytmem nadal jest ludzki sceptycyzm.