Ci sono notizie, non molte per la verità, che leggiamo con un senso di soddisfazione e di compiacimento. Questa le batte tutte: l’intelligenza artificiale sta diventando stupida.
Così sostengono alcuni utenti di ChatGPT, l’ormai celebre “chatbot” alla quale si può rivolgere qualunque domanda nella certezza di ricevere in cambio un testo – c’è chi parla addirittura di “saggio” - ben informato e linguisticamente impeccabile. Da qualche tempo, dicono appunto questi utenti, non sarebbe più così. A dar loro credito, uno studio pubblicato dalla Cornell University di Ithaca, nello stato di New York.
Per essere precisi, lo studio non fa affatto uso del termine “stupido”. Si limita a osservare che “il comportamento degli LLM (acronimo che sta per Large Language Model, ndr) può subire sostanziali variazioni in un breve periodo di tempo, ed è dunque necessario un costante controllo di qualità”. La prudenza usata dai ricercatori non ci impedisce di notare che gli esempi citati a prova di queste “variazioni” testimoniano tutti di una sorta di regressione e quindi in senso lato di stupidità.
Lo studio ha valutato due versioni di ChatGPT – la GPT-3,5 e la GPT-4 di marzo e giugno 2023 – in quattro diversi campi: risolvere problemi di matematica, rispondere a domande controverse, produrre codice di programmazione e proporre forme di ragionamento visuale (trarre delle conclusioni partendo dall’esame di immagini). Entrambe le versioni hanno offerto risultati sconcertanti. Per esempio, GPT-3,5 del marzo 2023 era formidabile nel riconoscere i numeri primi (96,7% di risposte esatte), mentre la stessa versione del giugno 2023 non distingueva un numero primo da un buco nel formaggio, crollando a un imbarazzante 2,4%.
Perché? Posto che non possiamo chiederlo a GPT-3,5 del giugno scorso perché risponderebbe probabilmente con la ricetta delle sarde in saor, dobbiamo affidarci ancora una volta agli esperti. Secondo i quali uno dei problemi potrebbe essere che, oggi, l’intelligenza artificiale viene alimentata con dati prodotti da altra intelligenza artificiale. Questo significa che non solo gli errori introdotti rimangono tali, ma si diffondono e si moltiplicano. La soluzione, sempre secondo gli esperti, sarebbe quella di alimentare l’intelligenza artificiale con dati frutto del lavoro dell’intelligenza umana. È qui che il senso di soddisfazione al quale facevamo cenno si dispiega in tutta la sua esaltante ironia: artificiale un accidente, i LLM, o come diavolo si chiamano, hanno ancora bisogno di noi, la loro autonomia è lontana.
Soddisfazione, va detto, giustificata fino a un certo punto: il fatto è che “dati” prodotti esclusivamente dall’intelligenza umana ormai non ce ne sono più in giro. L’intelligenza artificiale, in qualche forma, interviene a condizionare (inquinare?) la raccolta di informazioni e quindi non c’è mai certezza che l’algoritmo riceva un’educazione corretta e rigorosa, senza contare che di errori siamo sempre stati capaci di commetterne autonomamente.
Possiamo allora azzardare un’analisi generale della situazione dicendo che se speravamo di affidare ai robot (di cui l’intelligenza artificiale è il necessario motore) compiti delicatissimi nei quali una straordinaria potenza di calcolo abbinata a perfetta assenza di emozioni avrebbe portato all’efficienza più assoluta, dobbiamo probabilmente ricrederci. Nel creare questa proiezione ideale e potenziata della meticolosità, non ci siamo accorti che, in qualche momento, è avvenuta una fatale contaminazione. Come nel laboratorio chimico quando accade un incidente, qualcuno ha rovesciato la provetta della stupidità nel pentolone dell’intelligenza artificiale. O forse la stupidità è passata dall’uomo alla macchina come farebbe un coronavirus. Di conseguenza l’idiozia, alla lunga, diventerà endemica nei robot come lo è nell’uomo, dove rappresenta, addirittura, un tratto dominante. Ne avremo conferma il giorno che sentiremo GPT-3,5 e GPT-4 scambiarsi sottovoce un commento malizioso: “GPT-5? Un cretino fatto e finito”.
© RIPRODUZIONE RISERVATA