ChatGPT_un_anno_dopo.jpg

La rapida diffusione del suo utilizzo e un altrettanto impetuoso sviluppo, ma non solo. Al di là degli aspetti tecnologici, da fine novembre 2022, quando OpenAI ha reso liberamente accessibile il suo sistema di chatbot, ad oggi, l’Intelligenza Artificiale generativa è stata protagonista di una rivoluzione culturale con lettere aperte di intellettuali, un Executive Order del Presidente Usa e una legge europea ormai quasi definitivamente approvata. Il punto della situazione e un’unica certezza per il futuro

Uno sguardo retrospettivo a quello che è accaduto da quando, il 30 novembre 2022, OpenAI ha reso pubblicamente e liberamente accessibile ChatGPT, ci aiuta a trovare gli elementi che più hanno determinato e stanno tuttora determinando lo sviluppo impetuoso dei sistemi di Intelligenza Artificiale generativa (quella che ormai chiamiamo “GenAI”), e in particolare della nuova generazione di chatbot. Anche se l’Intelligenza Artificiale è tra noi da varie decine di anni, quello che è successo negli ultimi dodici mesi ha prodotto un’importante discontinuità, come mostra prima di tutto la dimensione geopolitica che il fenomeno ha assunto. Già nel passato l’Intelligenza Artificiale era, come si dice, assurta agli onori della cronaca, come quando, nel 1997, l’allora campione mondiale (umano) del gioco degli scacchi Garry Kasparov fu sconfitto da Deep Blue e qualche volta era diventata oggetto di riflessione pubblica, come quando Ray Kurzweil e Nick Bostrom avevano scritto di singolarità tecnologica (2005) e di superintelligenza (2014), rispettivamente. Ma difficilmente si sarebbe potuto prevedere che nell’arco di pochi mesi a proposito di Intelligenza Artificiale avremmo letto varie lettere aperte di noti intellettuali, un Executive Order del Presidente degli Stati Uniti e una legge europea, l’AI Act, quasi definitivamente approvata. Si tratta di eventi tutti accaduti nel 2023, e che rendono sempre più plausibile la posizione che sia in corso una inattesa rivoluzione culturale in cui, per la prima volta nella storia, dei sistemi artificiali manifestano capacità che finora pensavamo proprie solo degli esseri umani. In questa prospettiva, i mesi appena trascorsi ci hanno messo di fronte a uno scenario in sistematico cambiamento, di cui proponiamo qui un’interpretazione, consapevoli dei limiti di un’osservazione “dall’interno”, compiuta mentre le cose succedono.

Fino a poco più di un anno fa il termine “GenAI” era sconosciuto ai non addetti ai lavori, e i chatbot erano sistemi estremamente primitivi. La diffusione di ChatGPT ci ha guidato nella progressiva scoperta di sistemi artificiali in grado di dialogare, con proprietà di linguaggio e apparente comprensione di contenuti anche assai complessi. D’altra parte, un anno fa ChatGPT era così specificamente orientato al trattamento di espressioni in lingue naturali, come l’italiano e l’inglese (il termine inglese è Natural Language Processing, NLP), che chiunque abbia fatto qualche prova si ricorda degli errori imbarazzanti che compiva per esempio nel fare anche semplici operazioni aritmetiche. Da allora, plausibilmente anche per via della concorrenza che Bard, Claude e altri che si sono aggiunti gli hanno fatto, ChatGPT è stato addestrato a sbagliare meno. Si è trattato certo di un opportuno cambiamento, ma solo incrementale, come incrementale è stato l’aggiornamento delle informazioni a cui ChatGPT è stato sottoposto nel suo addestramento: mentre un anno fa era fermo all’autunno 2021, oggi è aggiornato alla primavera 2023. Ma nel frattempo intorno ai cosiddetti Large Language Model (LLM), che sono in pratica i “motori” dei chatbot, sono successe almeno altre due cose rilevanti. Prima di tutto, a partire dall’esperienza della comunità di sviluppatori Hugging Face e su impulso in particolare di Meta, già dalla primavera del 2023 sono stati resi disponibili degli LLM di cui sia il codice sorgente (cioè la “struttura vuota del cervello”) sia la matrice dei valori dei parametri (cioè l’“immagine del cervello una volta compiuto l’addestramento”) sono utilizzabili da chiunque gratuitamente e, con qualche accorgimento, anche su un proprio computer. Per avere un’idea di quello che sta succedendo, si potrebbe dare anche solo un’occhiata alla pagina web di Hugging Face da cui è possibile scaricare i modelli: nel momento in cui stiamo scrivendo (dicembre 2023) sono più di 400mila!

Se GPT-4, il “motore” della versione a pagamento di ChatGPT, è tuttora l’LLM più sofisticato, il fatto che siano disponibili sistemi “aperti” sta consentendo a organizzazioni e singoli individui di sperimentare nuove e sempre migliori tecniche di addestramento. Il risultato è che la capacità di elaborazione linguistica di ChatGPT è sempre meno distinguibile da quella di questi altri chatbot, nonostante il numero dei parametri di questi ultimi sia molto minore di quello (presunto: il numero effettivo non è stato ancora pubblicato) di GPT-4. Tutto ciò è un nuovo motivo di incertezza: se il dominio di pochi sistemi proprietari fa temere che anche a proposito di GenAI si riproduca una condizione di dipendenza globale da alcune grandi aziende statunitensi, la diffusione di sistemi aperti può prospettare situazioni di anarchia nell’accesso ai sistemi intelligenti, di cui potrebbero servirsi, dunque, anche soggetti malevoli.

La diffusione di ChatGPT ci ha guidato nella progressiva scoperta di sistemi artificiali in grado di dialogare, con proprietà di linguaggio e apparente comprensione di contenuti anche assai complessi

In ogni caso, e questo è il secondo punto che sottolineiamo, la progressiva erosione del vantaggio competitivo dei sistemi proprietari rispetto a quelli aperti è plausibilmente una delle ragioni che sta spingendo gli sviluppatori dei primi, come OpenAI/Microsoft e Google, a ripensare al ruolo degli LLM, oltre la funzione di chatbot. Nella fluidità della situazione, si stanno forse delineando due direzioni complementari di sviluppo. Da una parte, gli LLM diventano abilitatori di nuove funzionalità per applicazioni esistenti, come è ben esemplificato da GitHub Copilot, uno strumento che si integra in ambienti di sviluppo di software e genera codice, suggerisce miglioramenti sul programma che si sta scrivendo, aiuta a capire come risolvere bug, e così via. In questa linea, si stanno sperimentando nuove funzionalità, in modo che, per esempio, si possa chiedere a un programma di videoscrittura come migliorare un testo mentre lo sta scrivendo, o si possa chiedere a un programma di fogli di calcolo quale funzione usare per risolvere un certo problema. D’altra parte, i chatbot diventano interfacce per interagire con risorse locali e online in linguaggio naturale, dotando gli LLM di plugin (nel contesto dei sistemi operativi li si potrebbe considerare dei driver) o creando delle verticalizzazioni applicative di chatbot, come da qualche settimana OpenAI ha reso possibile con i “custom GPT”.

Si potrebbe così, per esempio, specializzare il comportamento di un chatbot, in modo che sappia dialogare in modo competente sul contenuto di un proprio insieme di documenti. Se non è semplice tirare le fila di quello che è successo nel 2023 a proposito di GenAI, lo è ancora di meno prevedere cosa accadrà nei prossimi mesi e anni: prima di tutto come si svilupperà il contesto tecnologico e di mercato, se verso sistemi proprietari o sistemi aperti, e se le capacità di elaborazione degli LLM continueranno a migliorare e a essere perciò oggetto di competizione o se al contrario gli LLM diventeranno talmente consolidati e infrastrutturali da essere integrati come moduli dei sistemi operativi. Una cosa facilmente prevedibile è invece che queste tecnologie saranno presenti sempre più diffusamente nella nostra società. 

L'immagine di questo articolo è stata creata da Lisa Aramini Frei con Midjourney.

 

 



Articolo precedente Articolo successivo
Edit