Sztuczna inteligencja w świecie własnych złudzeń – rozmowa z uczestnikami AI Forum 2025

Sztuczna inteligencja potrafi zmyślać – w sposób bardzo przekonujący. Model językowy odpowiada z pełnym przekonaniem, podając fikcyjne informacje? To właśnie nazywamy „halucynacjami”.
Uczestniczyliśmy w AI Forum 2025, które odbyło się na Politechnice Wrocławskiej. Wydarzenie zgromadziło studentów, badaczy i praktyków sztucznej inteligencji oraz zaproszonych gości ze świata biznesu i administracji. Forum było okazją do pokazania efektów projektów realizowanych na uczelni – zarówno tych zakończonych, jak i będących jeszcze w fazie rozwoju. Wśród prezentacji znalazła się praca naszych rozmówców, Piotra Matysa i Mikołaja Langnera. Postanowili oni zmierzyć się z wyzwaniem związanym z przeciwdziałaniem halucynacjom generowanym przez modele językowe.
„W ramach naszego projektu testowaliśmy różne modele językowe i sprawdzaliśmy, jak halucynacje wynikają z architektury systemu i jego wewnętrznych reprezentacji” – tłumaczy Mikołaj.
Skąd biorą się takie „zmyślenia”? Czy to wina błędnych danych, na których model się uczył? A może efekt działania algorytmu, który próbuje dopasować odpowiedź do pytania, nawet jeśli brakuje mu wiedzy? I co ważniejsze – jak odróżnić halucynację od prawdziwej odpowiedzi, kiedy obie brzmią równie wiarygodnie? Jak zrobić to tak, by użytkownik był świadomy ograniczeń modelu?
„Kluczowe jest wykrywanie halucynacji w czasie rzeczywistym. Nie chodzi o wygenerowanie całej odpowiedzi i poprawę dopiero potem, ale o sygnał, że w odpowiedzi pojawi się halucynacja już w trakcie jej tworzenia” – mówi Piotr.
Spytaliśmy naszych gości także o praktyczną stronę problemu. Czy da się wykrywać takie błędy na bieżąco? I jak można je poprawiać, aby użytkownik od razu miał do dyspozycji sprawdzone informacje? To kwestie, które nabierają szczególnego znaczenia w sytuacjach, gdy w grę wchodzi odpowiedzialność i ryzyko. W systemach medycznych, prawniczych, policyjnych czy w administracji publicznej każda pomyłka może mieć poważne konsekwencje. Tutaj halucynacja to nie zabawna wpadka, lecz realne zagrożenie dla zdrowia, prawa i bezpieczeństwa.
Rozmowa nie ograniczała się jednak do samych modeli. Piotr i Mikołaj opowiedzieli też o codzienności młodych badaczy: o projektach realizowanych w Katedrze Sztucznej Inteligencji Politechniki Wrocławskiej i o pracy w zespołach, które uczą się wspólnie rozwiązywać coraz bardziej złożone problemy. Wspomnieli również o swoich planach na przyszłość – ambitnych doktoratach i badaniach, poprzez które chcą wnieść coś nowego do rozwijającego się świata AI.
Na koniec powróciliśmy do samego AI Forum – wydarzenia, które dla wielu studentów jest czymś więcej niż tylko konferencją. To przestrzeń, w której mogą się spotkać, wymienić doświadczeniami i przekonać się, że sztuczna inteligencja to nie tylko linijki kodu i eksperymenty w laboratoriach. To również wspólnota ludzi zafascynowanych technologią, gotowych dyskutować, krytykować, inspirować się nawzajem i wspólnie poszukiwać rozwiązań.
Tym razem audycja Na Synapsach opowiada o AI, które zaskakuje, popełnia błędy, ale też inspiruje młodych badaczy do nauki i rozwoju. Zapraszamy do wysłuchania:
Tekst: Mateusz Mandziuk, red. Aurelia Serdiukow