Intelligenza_Artificiale_e_responsabilita_umane.jpg

Continua il viaggio di Varesefocus alla scoperta delle nuove frontiere che si stanno aprendo con lo sviluppo dei sistemi chatbot come ChatGPT. Non solo questioni tecnologiche, di utilizzo e di analisi. Il vaso di Pandora si apre anche sul lato etico e sociale. Con profondi interrogativi. Del tipo: quanto gli agenti IA influiranno sui processi di formazione, sul mondo del lavoro e sulla società nel suo complesso, in particolare nello svolgimento della vita democratica?

In una recente intervista, Yuval Noah Harari ha parlato della fine dell’era del dominio umano, riferendosi a quell’arco temporale, dall’estinzione dei Neanderthal ad oggi, in cui i Sapiens sono stati le sole entità intelligenti sulla Terra capaci di agire in modo sistematicamente efficace sull’ambiente circostante. A suo dire, e anche Sam Altman, Ceo di OpenAI, ha sostenuto lo stesso in una recente intervista concessa al podcast “In Good Company”, nel giro di cinque anni esisteranno sistemi artificiali intelligenti e autonomi, con un ruolo pervasivo nelle nostre esistenze. Perché ciò accada, non è però sufficiente lo sviluppo di intelligenze artificiali capaci di comprensione e abilità di generazione di informazione (dunque di testi, immagini, …) sempre migliori. Per quanto intelligenti siano le sue risposte, un chatbot reagisce agli input testuali dell’utente (i cosiddetti prompt) ma non è proattivo e non è in grado di operare autonomamente. È vero che alcuni dei sistemi di Intelligenza Artificiale pubblicamente accessibili più sofisticati, come ChatGPT nella versione con GPT-4 e Bard, possono accedere in modo autonomo a informazione disponibile sul web, per esempio leggendo durante la conversazione il contenuto di pagine web, ma anche in questi casi essi non operano in autonomia, ma solo reagendo agli input degli utenti. Rimangono quindi entità prive di quelle caratteristiche, come la capacità di prendere decisioni autonome e di orientare le proprie azioni verso un obiettivo, che distinguono un soggetto da un oggetto, proprietà che sono chiamate di “agenzialità”.

Posto che non esiste ancora una definizione condivisa di cosa sia, o potrebbe essere, un “agente artificiale intelligente”, e anzi al proposito vi è un’ampia varietà di definizioni e interpretazioni, un agente artificiale intelligente (lo chiameremo “agente IA” in breve) può essere pensato come un’entità che usa un qualche genere di Intelligenza Artificiale, oggi plausibilmente una rete neurale artificiale, per:

  1. acquisire e interpretare gli input che riceve dall’ambiente circostante, empirico (e allora sono necessari dei sensori) o informazionale (tipicamente il web, ma possibilmente anche database o insiemi di documenti privati);
  2. formulare strategie per risolvere i problemi che emergono da questo processo di interpretazione, in accordo a obiettivi che in qualche modo sono noti;
  3. attuare queste strategie modificando il proprio stato o intervenendo sull’ambiente circostante, empirico (e allora sono necessari degli attuatori, per esempio i motori di un robot) o informazionale (per esempio inviando un segnale di acquisto o vendita di un certo titolo in una certa borsa).

Per quanto tutto ciò possa apparire sorprendente, e per qualcuno preoccupante, il processo che abbiamo descritto è realizzato in tanti sistemi la cui presenza diamo per ovvia, per esempio i termostati di casa, che per altro non devono essere poi così intelligenti per attuare una strategia del tipo “se la temperatura nella stanza è minore di quella desiderata, accendi la caldaia”. Lo scenario che i nuovi agenti IA ci stanno prospettando è però effettivamente nuovo e questo per due ragioni: perché sono in grado di formulare in modo autonomo strategie, anche estremamente complesse, per la soluzione dei problemi e perché sono in grado di scegliere in modo almeno parzialmente autonomo gli obiettivi da cercare di soddisfare. Per esempio, un agente IA potrebbe essere capace di leggere le notizie di cronaca finanziaria, acquisendole da un elenco di siti preselezionati e utilizzarle per decidere le operazioni da compiere su un certo mercato azionario.

Che ci piaccia o no, agenti IA con queste caratteristiche sono già realizzabili da chiunque abbia delle competenze base di sviluppo di software (lo strumento al momento più diffuso è probabilmente LangChain). Considerando poi che è diventato possibile interagire con questi sistemi in linguaggio naturale, come l’italiano, praticamente chiunque potrebbe esserne un utente, senza dover acquisire competenze tecnologiche specifiche. È dunque verosimile che prossimamente queste entità diventeranno molto comuni, anche considerando che sta diventando possibile un’interazione anche di tipo vocale, grazie a cui potremo parlare, invece di scrivere, con questi agenti IA. Se sta iniziando la corsa alla generazione di buone idee per sistemi innovativi basati su agenti IA, è però chiaro che c’è anche l’altra faccia della medaglia da considerare: dobbiamo ammettere di non avere alcuna esperienza di entità artificiali autonome al punto da poter scegliere strategie e perfino obiettivi delle loro azioni. E questa mancanza di esperienza ci fa supporre che potrebbe non essere sempre e comunque una buona idea delegare scelte su strategie e obiettivi a decision maker così diversi da quelli a cui siamo abituati. È infatti plausibile che saranno tra noi agenti IA usati per creare valore nella società, per esempio con il compito di aiutare ricercatori in operazioni complesse o studenti a migliorare i loro processi di apprendimento, ma anche altri che invece avranno obiettivi impropri o perfino illeciti, per esempio virus “intelligenti” nell’ingannare le persone per farsi inviare dati personali o denaro.

Il vaso di Pandora è aperto, insomma, e le novità che ci stiamo trovando di fronte sono così radicali che dobbiamo ancora farci un’idea di come comportarci per cercare di gestirle al meglio. Se potrebbe essere vantaggioso per un’azienda investire in Ricerca e Sviluppo per arrivare prima sul mercato con nuovi prodotti o servizi basati su agenti IA, dovremmo anche auspicare che chi ha un ruolo di governo della società introduca regole per limitare le condizioni di uso di questi sistemi, e forse per evitare che si diffondano troppo rapidamente, per darci il tempo di prepararci? E, in un bilancio tra opportunità e rischi, quanto tutto ciò influirà sui processi di formazione, sul mondo del lavoro, e sulla società nel suo complesso, in particolare nello svolgimento della vita democratica? Quanto gli agenti IA saranno nostri assistenti/aiutanti e quanto ci sostituiranno? Da qualche mese si sente ripetere questa affermazione: “Non sarà l’Intelligenza Artificiale che ti porterà via il lavoro, ma una persona che sa usare l’Intelligenza Artificiale meglio di te”. Ma sarà poi davvero così? Siamo onesti, e riconosciamo che non possiamo ancora avere idee ben fondate su tutto ciò, anche perché le cose continuano a cambiare (per esempio, se l’accesso a sistemi di Intelligenza Artificiale gestiti da aziende potrebbe essere regolato da leggi, come comportarci con i sistemi “aperti”, sempre più diffusi, che chiunque, a meno di disporre di hardware abbastanza potente, può addestrare e usare?).

In questa situazione di incertezza, un punto rimane fermo: la nostra società è fondata, tra l’altro, su un principio di responsabilità individuale. Pur con eccezioni, come nei casi di incapacità “di intendere e volere”, ognuno deve rispondere delle sue azioni di fronte alla collettività. Sappiamo come applicare questo principio di accountability a esseri umani, ma, almeno per ora, non abbiamo le basi culturali, prima ancora che giuridiche, per applicarlo a entità artificiali. Se anche ci circonderemo di agenti IA capaci di formulare strategie e identificare obiettivi in modo autonomo, la responsabilità dei risultati che si otterranno sarà di esseri umani, che siano gli sviluppatori del software degli agenti, o i loro addestratori, o i loro utilizzatori (la questione potrebbe essere essa stessa tutt’altro che semplice; si pensi al caso di incidenti causati da automobili a guida autonoma: chi dovrebbe essere sanzionato?). Forse un effetto inatteso della rivoluzione tecnologica che stiamo vivendo sarà che riscopriremo il valore e l’importanza della responsabilità che ognuno di noi, esseri umani, ha di fronte alla società. 

 

L'immagine di questo articolo è stata creata da Lisa Aramini Frei con Midjourney.

 



Articolo precedente Articolo successivo
Edit