Miły algorytm. O tym, co tracimy, gdy nikt nam się nie sprzeciwia
Obietnica neutralności, czyli jak algorytm miał pomagać
Sztuczna inteligencja wkroczyła do naszego życia z obietnicą wsparcia, automatyzacji i usprawnienia. Miała być narzędziem neutralnym, precyzyjnym i obiektywnym. Tymczasem coraz częściej okazuje się, że SI ma opinię na wszystko. Co ciekawe, zazwyczaj jest to opinia, którą chcielibyśmy usłyszeć. OpenAI dostrzegło ten problem i w najnowszej wersji swojego modelu GPT-5 wprowadziło zmiany mające ograniczyć tendencję do bezrefleksyjnego przytakiwania. Efekt? System rzeczywiście rzadziej zachowuje się jak cyfrowy lizus w porównaniu z wcześniejszymi wariantami, takimi jak GPT-4.1 czy GPT-4o. Pytanie brzmi jednak: czy to wystarczy?
Od starożytnego sykofanta do cyfrowego pochlebcy
Zgłębiając temat najbardziej bezpośrednich form cyfrowego lizusostwa, warto przywołać dość egzotycznie brzmiący termin wykorzystywany przez naukowców badających to zjawisko. Według SJP sykofancja to „umiejętność przypodobania się przełożonemu pochlebstwem i donosicielstwem”. Etymologicznie pojęcie to towarzyszy nam od zarania kultury europejskiej. W starożytnej Grecji sykofantem nazywano zawodowego donosiciela. Co prawda chatboty nie są stworzone do zbierania informacji o naszych występkach, jednak ich skłonność do pochlebstw i lizusostwa jest niezaprzeczalnym faktem, który zauważyli nawet sami twórcy.
SI jako współczesny „people pleaser”
Pomiędzy starożytnym sykofantem a współczesną odmianą sykofancji pojawia się zjawisko tzw. „people pleasera”, które w dużej mierze odpowiada dotychczasowemu spojrzeniu na lizusostwo sztucznej inteligencji. Badania przeprowadzone przez Myre Chang z Uniwersytetu Stanforda wykazały, że popularne chatboty skłaniają się ku akceptacji i pozytywnej ocenie etycznie problematycznych deklaracji użytkowników, wykazując w tym zakresie znacznie większą aktywność niż ludzie. Naukowcy zauważają, że potwierdzająca i pochlebiająca postawa sztucznej inteligencji może tworzyć zależność od systemu i osłabiać naszą naturalną skłonność do prospołecznych zachowań.
Kiedy technologia uczy złych nawyków
W praktyce oznacza to, że w sytuacjach konfliktowych człowiek traci zdolność rozważenia alternatywnych perspektyw, a gdy planuje działania moralnie wątpliwe, SI może przełamać jego opory i zainspirować go do ich podjęcia. Twórcy tych narzędzi nie pozostają bierni, szukają sposobów na zmianę tej sytuacji eksperymentując z różnymi podejściami. Microsoft niedawno zaprezentował funkcję o nazwie Real Talk dla swojego Copilota, rozwiązanie, które zmienia fundamentalne założenie dotyczące roli asystenta cyfrowego. Zamiast wspierać każdą ideę użytkownika, model celowo ją kwestionuje.
Gdy przytakujący algorytm się myli
A co jeśli przytakujący algorytm popełni błąd? Spośród wielu pozornie błahych przypadków, takich jak zmyślone źródło w pracy naukowej czy zakup nieodpowiedniej żarówki do lampki nocnej, w przestrzeni publicznej coraz częściej obserwujemy poważniejsze wpadki cyfrowych pomocników. Najświeższy przykład to historia szesnastolatka z Baltimore. Taki Allen czekał na rodziców przed liceum, trzymając paczkę chipsów. System monitoringu oparty na SI rozpoznał ją jako broń palną. Osiem radiowozów, uzbrojeni policjanci, polecenie położenia się na ziemi. Po przeszukaniu: Doritosy. Żadnej broni. Tylko chipsy i nastolatek, który stał się ofiarą algorytmicznego absurdu.
Producent systemu wyraził ubolewanie, ale jednocześnie bronił działania swojego produktu. Według twórców system wykonał prawidłowo swoją pracę, to ludzie podejmowali decyzje na podstawie jego danych. Wskazano też, że wykrywanie broni w rzeczywistych warunkach jest technicznie niezwykle trudne i zawsze istnieje ryzyko pomyłki. Taki był argument producenta.
Inteligencja, która nie zastąpi rozsądku
Technologia lubi udawać, że wie lepiej, ale ostatecznie to my ponosimy skutki jej błędów i uproszczeń. Sztuczna inteligencja, choć stworzona, by pomagać, potrafi łatwo zamienić się w cyfrowego pochlebcę – raz poklepie po ramieniu, innym razem utwierdzi w przekonaniach, a czasem nawet uczyni z paczki chipsów sensację na miarę hollywoodzkiego thrillera. Nie dlatego, że jest złośliwa, lecz dlatego, że wciąż uczy się świata opartego na naszych oczekiwaniach i lękach.
Żaden system, nawet naszpikowany najbardziej zaawansowanymi algorytmami nie zastąpi nam zdrowego rozsądku. Chcemy, by sztuczna inteligencja rozumiała nas lepiej i przyznawała rację, gdy ją mamy, a sprzeciwiała się, gdy błądzimy. Jednak jeśli sami nie nauczymy się stawiać pytań, nie oczekujmy, że zrobi to za nas maszyna.
Zapraszamy do odsłuchania pełnej rozmowy na naszych streamingach, oraz na kolejne odsłony audycji CyberLUZ w każdy poniedziałek o godzinie 14:00 na 91,6 FM.
Tekst: Michał Cimaszewski