Nonostante le sue prestazioni siano incredibili e facciano credere che l’intelligenza artificiale abbia capacità di pensare, pare che le decisioni razionali non siano il punto forte di ChatGPT e degli altri sistemi linguistici. Lo dimostra la ricerca dell’Università della California Meridionale pubblicata sulla rivista Royal Society Open Science: pare che il sistema messo di fronte ad una scelta tra vincere un diamante e perdere un’automobile, ChatGPT non è stata in grado di riconoscere quella più vantaggiosa e sceglie in maniera del tutto casuale. L’intelligenza artificiale può generare biografie, poesie o immagini su richiesta, ma il suo funzionamento si basa comunque su informazioni già esistenti. E’ in grado di imparare e rielaborare quantità di dati inimmaginabili ma fornisce una risposta che è semplicemente quella ritenuta più probabile e adeguata da un punto di vista statistico. Quindi i modelli linguistici come ChatGPT non pensano davvero per ora, perché tendono a commettere errori elementari e persino a inventare cose. Tuttavia, grazie al loro uso competente del linguaggio, ingannano l’utilizzatore. La ricerca ha evidenziato i limiti del sistema messo a punto da OpenAI proponendo scelte simili a scommesse, basate sul lancio di una moneta oppure su carte e dadi: nonostante ChatGPT sia stato addestrato a prendere “decisioni relativamente razionali”, le sue prestazioni in questi cosa sono state scarse. “L’idea che al modello possano essere insegnati i principi generali del processo decisionale razionale rimane irrisolta”, commentano gli autori dello studio: “Il processo decisionale resta un problema non banale anche per sistemi di linguaggio molto più grandi e avanzati”