Intelligenza_Artificiale_questione_morale.jpg

Nuova tappa del viaggio di approfondimento di Varesefocus sugli ultimi ed innovativi sistemi di AI Generativa, con un approfondimento sui vari tipi di responsabilità che possono e potranno essere ad essi attribuite. Una questione delicata, con ancora molto da scoprire, ma con la certezza che insegnare a ChatGPT e simili a distinguere tra il bene e il male non basterebbe a renderli moralmente responsabili: il ruolo degli esseri umani rimarrà, in questo, insostituibile

In questa serie dedicata ai sistemi di Intelligenza Artificiale Generativa (“GenAI”), di cui ChatGPT  è per ora l’esempio più noto, avevamo concluso l’articolo precedente accennando all’importanza della responsabilità che ogni essere umano ha di fronte alla società. Pur con delle eccezioni, come nei casi di incapacità “di intendere e volere”, ognuno deve rispondere delle sue azioni di fronte alla collettività: avevamo notato che sappiamo come applicare il principio di responsabilità individuale agli esseri umani, ma, almeno per ora, non ad agenti artificiali. E questo nonostante i sistemi di GenAI ci prospettino non solo grandi opportunità, ma anche grandi rischi, come frequentemente ci viene ricordato.

Riprendiamo qui quel cenno e proviamo a svilupparlo un poco. Poiché “da un grande potere derivano grandi responsabilità”, la domanda da cui partire è: cosa sappiamo, o possiamo plausibilmente sapere, dei limiti dei sistemi di Intelligenza Artificiale Generativa? Tre limiti degli attuali sistemi di GenAI sono evidenti: non sono connessi direttamente al mondo empirico, non disponendo di propri sensori, come telecamere, microfoni e attuatori, come motori; operano passivamente, reagendo alle richieste che ricevono, ma non attivandosi autonomamente; non imparano dalle conversazioni che fanno, perché la memoria a breve termine, che mantiene il contenuto di ogni conversazione, non viene utilizzata per proseguire l’addestramento della rete neurale.

Con complessità tecnologiche e implicazioni sociali ed etiche diverse, nessuno di questi tre limiti è intrinseco. Possiamo quindi immaginarci che si diffonderanno sistemi di GenAI che si comportano come “cervelli” di robot che operano nel mondo empirico in modo più o meno autonomo e più o meno capaci di apprendimento continuo. Potendo apprendere in modo continuo dall’esperienza, potranno avere una propria personalità e un qualche genere di autonomia. E, sì, non stiamo parlando di cuccioli di esseri umani che crescono, e crescendo acquisiscono progressivamente libero arbitrio, e con essa responsabilità verso la società: la questione è evidentemente delicata.
D’altra parte, anche nei suoi limiti, un’entità come ChatGPT ha un comportamento che è spesso più assimilabile a quello di un essere umano che a quello dei sistemi software a cui siamo abituati e questo perché il comportamento dei sistemi di GenAI deriva da addestramento e non da programmazione.

Due altri limiti dei sistemi di GenAI mettono ben in evidenza l’importanza di questa loro caratteristica: non sono sempre affidabili nella correttezza dell’informazione che producono e il loro comportamento è assai difficilmente spiegabile in termini di singole cause specifiche. Ciò inverte il paradigma dei sistemi software tradizionali, in cui ogni comportamento è riconducibile all’esecuzione di istruzioni che un programmatore aveva scritto e ogni malfunzionamento può essere corretto modificando le istruzioni che lo causano. Poiché i sistemi di GenAI producono informazione in accordo a quanto hanno appreso, gli errori che producono non sono il risultato di bug, ma sono più simili a “opinioni sbagliate”, formate a causa di un addestramento basato su fonti di informazione, per l’appunto, non corrette.

Agenti artificiali, capaci di formulare strategie e di identificare e attuare obiettivi in modo autonomo, potranno diventare entità sempre più diffuse e importanti nella nostra società, ma la responsabilità morale dei risultati che produrranno rimarrà degli esseri umani

Con tutto ciò, la questione della responsabilità individuale di tali “oggetti che diventano progressivamente soggetti” è perciò critica. Se possiamo immaginare uno scenario con sistemi di GenAI sempre più autonomi nel loro comportamento, che dire della loro responsabilità di fronte alla società umana? Dato che il concetto di responsabilità non è così ovvio, cerchiamo di chiarire la questione con un esempio. Supponiamo di essere di fronte a un edificio danneggiato da un terremoto e di chiederci “chi o che cosa è responsabile di questi danni?” Ci sono almeno tre risposte possibili: “è responsabile il terremoto”, se è stato effettivamente il terremoto a causare i danni. In questo caso, si tratta di una responsabilità che possiamo chiamare causale; “è responsabile il sismologo”, se il sismologo non ha previsto correttamente il grado di sismicità della zona in cui l’edificio è stato costruito. Si tratta di una responsabilità che possiamo chiamare cognitiva; “è responsabile l’architetto”, se l’architetto non ha costruito l’edificio in accordo ai criteri antisismici richiesti. Siamo di fronte ad una responsabilità che possiamo chiamare morale.

Chiediamoci ora se un sistema di GenAI, e più in generale un agente artificiale, potrebbe avere una responsabilità causale, cognitiva o morale, magari in riferimento a un esempio più rilevante, come quello delle automobili a guida autonoma (ampiamente studiato proprio nella prospettiva della responsabilità). Potrebbe avere perciò una responsabilità causale? Sì, se lo rendessimo capace di implementare le decisioni che prende (la causa di un incidente potrebbe essere il sistema di controllo di un’automobile a guida autonoma). Una responsabilità cognitiva? Sì, se lo rendessimo capace di acquisire informazione sul contesto specifico (la causa di un incidente potrebbe essere il sistema di acquisizione dati dell’automobile). Una responsabilità morale? Certo, potremmo addestrare il sistema a distinguere il bene dal male secondo criteri più o meno condivisi (questione complessa) e a operare di conseguenza, ma questo non sarebbe ancora sufficiente per attribuire sensatamente una responsabilità morale ad un agente artificiale.

Benché nella responsabilità ci sia anche una dimensione positiva, come essere responsabile di una buona azione, gli esempi che abbiamo accennato enfatizzano la dimensione negativa ed è a questa seconda che proponiamo di prestare attenzione. Nella nostra società abbiamo operazionalizzato la dimensione negativa della responsabilità (chiamiamola “colpevolezza” se si vuole) con delle sanzioni che ci sottraggono denaro, nel caso delle multe oppure tempo e qualità della vita, nel caso del carcere. Queste sono generalmente efficaci perché generano in noi il timore di essere privati di una risorsa scarsa, denaro o tempo che sia. Ci dovremmo dunque aspettare che i sistemi di GenAI possano temere di essere privati di qualche risorsa che per loro è scarsa? D’accordo, possiamo forse “staccare loro la spina” (con i sistemi software in cloud non è così ovvio, per altro), come accade nel film “2001: Odissea nello Spazio” a HAL 9000, che implora di non “essere spento”.

Ma siamo così sicuri che questa sia, o sarà, una situazione realistica? Al contrario, è plausibile che un agente artificiale non tema nemmeno la propria fine, per la semplice ragione che non è un’entità vivente e quindi non può morire. In più, il fatto che almeno per ora i sistemi di GenAI non imparino dall’esperienza, non mette in gioco nemmeno la dimensione rieducativa, per cui si comminano le sanzioni allo scopo di migliorare i comportamenti futuri. Ecco, dunque, la tesi che proponiamo: agenti artificiali, capaci di formulare strategie e di identificare e attuare obiettivi in modo autonomo, potranno diventare entità sempre più diffuse e importanti nella nostra società, ma la responsabilità morale dei risultati che produrranno rimarrà degli esseri umani. E questo perché la nostra è, propriamente, una società umana e dunque fondata sulle nostre caratteristiche di esseri umani, prima di tutte la consapevolezza che le risorse di cui disponiamo non sono infinite. Come possiamo prepararci a vivere questo nuovo scenario? Di fronte a noi abbiamo tanto da imparare. 

L'immagine di questo articolo è stata creata da Lisa Aramini Frei con Midjourney.



Articolo precedente Articolo successivo
Edit