Badanie ujawnia, że modele AI przeceniają racjonalność ludzkiego myślenia w decyzjach strategicznych

Naukowcy z HSE University i University of Lausanne przeprowadzili badanie, które pokazuje, że popularne modele sztucznej inteligencji, takie jak ChatGPT-4.

Naukowcy z HSE University w Moskwie oraz University of Lausanne opublikowali[1] w Journal of Economic Behavior & Organization wyniki badania, które analizuje, jak modele sztucznej inteligencji radzą sobie z ludzkim zachowaniem w kontekście podejmowania decyzji strategicznych. W badaniu uczestniczyły popularne modele AI, w tym ChatGPT-4 oraz Claude-Sonnet-4, które wykazały skłonność do przeceniania racjonalności ludzkiego myślenia.

Metodologia badania i zastosowane modele AI

Badanie skupiło się na klasycznej grze ekonomicznej „Zgadnij liczbę”, w której uczestnicy wybierają liczbę z zakresu od 0 do 100, a zwycięzcą zostaje osoba, której wybrana liczba jest najbliższa połowie średniej wybranych liczb wszystkich graczy. Autorzy badania, Dmitry Dagaev, Sofia Paklina, Petr Parshakov z HSE University oraz Iuliia Alekseenko z University of Lausanne, przetestowali pięć wiodących modeli AI[3] w 16 różnych scenariuszach przeciwko wirtualnym przeciwnikom o zróżnicowanym poziomie wiedzy, od studentów pierwszego roku ekonomii po uczestników konferencji z teorii gier.

Różnice między AI a ludzkim podejściem do gry

Wyniki pokazały, że modele AI konsekwentnie wybierały niższe liczby niż ludzie[2], co odpowiada bardziej racjonalnemu podejściu zgodnemu z równowagą teorii gier. Podczas gdy ludzie w klasycznych eksperymentach średnio wybierali liczby około 27, modele AI decydowały się na jeszcze niższe wartości, zakładając, że przeciwnicy również będą myśleć strategicznie. W starciach z ekspertami teorii gier AI wybierało liczby bliskie zeru, natomiast przeciwko studentom wybierało liczby wyższe, co świadczy o dostosowywaniu strategii do poziomu przeciwnika.

Ta systematyczna różnica wskazuje na fundamentalne ograniczenie w sposobie, w jaki sztuczna inteligencja interpretuje ludzkie zachowanie. Pomimo że modele AI wykazywały strategiczne myślenie i dostosowywały swoje decyzje do cech przeciwników, nie potrafiły rozpoznać dominujących strategii w uproszczonych wersjach gry dla dwóch graczy. Dmitry Dagaev podkreślił, że choć AI reaguje na zmiany w strukturze gry podobnie jak ludzie, to jednak ich podejście opiera się na krok po kroku rozumowaniu o możliwych działaniach innych graczy, a nie na intuicyjnym rozumieniu ludzkich zachowań.

Znaczenie wyników dla zastosowań AI w biznesie i polityce

Znaczenie tych odkryć jest szczególnie duże w kontekście rosnącej roli systemów AI w operacjach biznesowych i procesach decyzyjnych. Dmitry Dagaev zaznaczył, że obecnie modele AI zaczynają zastępować ludzi w wielu zadaniach, co zwiększa efektywność ekonomiczną. Jednak w zadaniach wymagających podejmowania decyzji ważne jest, aby modele językowe (LLM) zachowywały się w sposób zgodny z ludzkim myśleniem, co pozwoli uniknąć błędów wynikających z nadmiernego założenia racjonalności.

Badana gra „Zgadnij liczbę” jest przykładem tzw. Keynesowskiego konkursu piękności, koncepcji opracowanej przez brytyjskiego ekonomistę Johna Maynarda Keynesa w latach 30. XX wieku. Gra ta bada, jak uczestnicy przewidują decyzje innych graczy, zamiast podejmować jedynie własny optymalny wybór. Od dawna służy ona do wyjaśniania fluktuacji na rynkach finansowych, gdzie sukces zależy od przewidywania zachowań innych inwestorów.

Badanie, które otrzymało wsparcie w ramach Programu Badań Podstawowych Uniwersytetu HSE podkreśla, że zrozumienie obszarów, w których AI pokrywa się z ludzkim zachowaniem oraz tych, w których się od niego odchyla, będzie kluczowe dla przyszłego wdrażania tych systemów na rynkach, w polityce i w codziennym życiu.

Udostępnij: