Chat GPT e responsabilità penali: una nuova sfida. O no? (II)
Pubblicato da Diritto e Giustizia in IA · Martedì 02 Gen 2024
Chat GPT e responsabilità penali: una nuova sfida. O no? (II)
di Cesare Parodi
SOMMARIO
Individuazione e gestione del rischio
Utilizzo e valutazione della colpa
Il rapporto tra programmi e operatori
La risposta contenuta nella proposta di regolamento
In conclusione
Individuazione e gestione del rischio
L'identificazione di una responsabilità colposa nell'ambito di un sistema giuridico è strettamente correlata alla scelta, di politica giudiziaria, diretta a individuare il livello di rischio che si ritiene accettabile per le singole attività e le modalità di individuazione dello stesso. A questo principio generale non sfugge la valutazione in tema di intelligenza artificiale e di chat GPT in particolare. A livello europeo non mancano indicazioni generali in tal senso, che, tuttavia, anche laddove concretamente approvate, potrebbero non essere risolutive in relazione alla tematica evidenziata. Si tratta della Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione (6.4.2021- https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=celex%3A52021PC0206).
In estrema sintesi, la proposta distingue tra pratiche di intelligenza artificiale caratterizzate da un rischio inaccettabile, da un rischio alto o da un rischio basso o minimo (delle quali, per evidenti ragioni, non ci occuperemo).
Nel primo caso- rischio inaccettabile - si tratta di:
tutti i sistemi di IA il cui uso è considerato inaccettabile in quanto contrario ai valori dell'Unione, in quanto tale da violare i diritti fondamentali
pratiche che presentano un elevato potenziale in termini di manipolazione delle persone attraverso tecniche subliminali, senza che tali persone ne siano consapevoli
pratiche di sfruttamento delle vulnerabilità di specifici gruppi vulnerabili, quali i minori o le persone con disabilità, al fine di distorcerne materialmente il comportamento in maniera tale da provocare loro o a un'altra persona un danno psicologico o fisico
ricorso a sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività di contrasto, fatta salva l'applicazione di talune eccezioni limitate.
I sistemi ad alto rischio per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche «sono consentiti sul mercato europeo subordinatamente al rispetto di determinati requisiti obbligatori e ad una valutazione della conformità ex ante», tenendo conto che «la classificazione come ad alto rischio non dipende solo dalla funzione svolta dal sistema di IA, ma anche dalle finalità e modalità specifiche di utilizzo di tale sistema».
Un programma come chat GPT (o analoghi) rientra verosimilmente in tale categoria, in quanto trattandosi di programma di uso generale (general purpose IA), può prestarsi a un numero potenzialmente indeterminato di funzionalità per le quali non era stato specificamente “addestrato” (in questo senso si è espressa la proposta di emendamento al testo del Regolamento del Consiglio europeo il 6 dicembre 2022). Se questa prospettiva ermeneutica dovesse essere confermata, ne conseguirebbe che tale programma dovrebbe soddisfare tutti i relativi requisiti previsti per le pratiche ad alto rischio.
La proposta menzionata, in tema di sistemi di IA ad alto rischio precisa che il capo 2 «definisce i requisiti giuridici per i sistemi di IA ad alto rischio in relazione a dati e governance dei dati, documentazione e conservazione delle registrazioni, trasparenza e fornitura di informazioni agli utenti, sorveglianza umana, robustezza, accuratezza e sicurezza. … Le soluzioni tecniche precise atte a conseguire la conformità a tali requisiti possono essere previste mediante norme o altre specifiche tecniche o altrimenti essere sviluppate in conformità alle conoscenze ingegneristiche o scientifiche generali, a discrezione del fornitore del sistema di IA».
Il capo 3 della proposta, rubricato «Obblighi dei fornitori e degli utenti dei sistemi di IA ad alto rischio e di altre parti» definisce una serie di obblighi orizzontali per i fornitori di sistemi di IA ad alto rischio. Obblighi proporzionati sono imposti anche a utenti e altri partecipanti; si tratta, in particolare, degli obblighi dei fornitori dei sistemi di IA ad alto rischio (art. 16) del sistema di gestione della qualità (art. 17) dell'obbligo di redigere la documentazione tecnica (art. 18), della v 19) con previsione , inoltre di specifici obblighi per i dei fabbricanti di prodotti (art. 24) , per i rappresentanti autorizzati (art. 25) per gli importatori (art. 26), per i distributori (art. 27) per distributori, importatori, utenti e altri terzi (art 28) e per gli utenti dei sistemi di IA ad alto rischio (art. 29).
Il quadro delineato dalla proposta appare completo: la proposta prevede prescrizioni dirette, la cui efficacia è corroborata dalla previsione di sanzioni ( in base all'art. 71 della proposta «Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni, comprese le sanzioni amministrative pecuniarie, applicabili in caso di violazione del presente regolamento e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace») ed è caratterizzata da una logica generale che impone agli operatori interessati di modulare ai programmi specifici la concreta attuazione dei principi sanciti, in astratto, dalla normativa in materia.
Utilizzo e valutazione della colpa
Il quadro generale sopra descritto deve essere calato nella valutazione specifica della sussistenza dei presupposti della colpa, in tutti i casi in cui effettivamente i programmi in oggetto siano elaborati, distribuiti e utilizzati.
Come è noto, ai sensi dell'art. 43 comma 3 c.p. il reato è colposo «quando l'evento, anche se preveduto, non è voluto dall'agente e si verifica a causa di negligenza o imprudenza o imperizia, ovvero per inosservanza di leggi, regolamenti, ordini o discipline». In che termini e come tale principio è trasponibile al caso di specie?
Parametrando la valutazione della colpa (normata in via primaria o integrata dai principi dello “stato dell'arte”) rispetto ai “produttori/sviluppatori” di un programma quale chat GPT, la questione è complessa. Proprio la natura fondamentalmente, ontologicamente “generalista” del programma in oggetto rende estremamente problematica l'applicazione al caso di specie. Indubbiamente, gli obblighi stabiliti dalla proposta di regolamento, in esito all'approvazione - potranno costituire elementi di valutazione di colpa “normata”, fermo restando che in molti casi i principi generali e astratti dovranno essere rapportati alle specifiche caratteristiche e funzionalità del programma. Ciò che appare arduo non è tanto la valutazione in tema di prevenibilità, quanto quella sulla prevedibilità.
In termini generali, dobbiamo ricordare che gli algoritmi possono essere definiti come una serie di istruzioni progettate per raggiungere un risultato che si desidera ottenere elaborando alcuni dati di partenza. Se le piattaforme digitali sono il risultato di questa elaborazione di dati, l'algoritmo rappresenta la "ricetta computazionale sottostante". Tuttavia, mentre gli "algoritmi semplici" consistono in un insieme finito di istruzioni, indipendentemente dai dati inseriti, gli "algoritmi di apprendimento automatico" restituiscono potenzialmente risultati infiniti e imprevedibili perché imprevedibili sono i comportamenti umani all'interno dei sistemi da cui apprendono. In questo, sostanzialmente, consiste il vero rischio.
Una valutazione ex ante sulla prevedibilità dei rischi di utilizzo di chat GPT - visto l'elevatissimo numero di prospettive di utilizzo - è, per molti aspetti, improba, laddove la valutazione ex post - quantomeno nella prospettiva di miglioramento/implementazione del programma presenta, in relazione alla valutazione della colpa, un'utilità del tutto residuale (se non al fine di comprendere se e come un evento sarebbe stato, ove previsto, prevenibile).
Ad ogni modo, impregiudicata la difficoltà - già espressa - di individuare all'interno delle strutture che hanno sviluppato il prodotto i soggetti effettivamente responsabili di eventuali criticità dello stesso, non vi possono essere dubbi sul fatto che in molti casi, proprio sulla base dei principi generali di colpa, potrà essere individuata una responsabilità penali di tali soggetti, ovvero, laddove il legislatore lo ritenga, anche ai sensi del d.lgs. n. 231/2001 in relazione alla responsabilità di enti e persone giuridiche nell'ambito delle quali il soggetto fisico ha operato e ferma restando la necessità di provare il nesso tra l'evento che si assume illecito e la condotta di tali soggetti.
Si pensi, ad esempio, all'implementazione della base conoscitiva del programma - e quindi del meccanismo di autoapprendimento - sulla base di dati e informazioni non corretti o non pertinenti o non adeguatamente finalizzati: si tratta di una condotta che, ove provata, potrebbe indubbiamente costituire un principio di colpa, di rilevanza penale così come a livello civilistico.
Il rapporto tra programmi e operatori
Un aspetto fondamentale della nuova disciplina, anche considerando le indicazioni della proposta di regolamento sopra menzionata, è dato dall'articolo 14 della stessa, nel quale si tratta della “sorveglianza umana”. In base a tale norma «1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso. 2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo».
Volendo e dovendo semplificare il concetto, si ipotizza di contenere o almeno limitare il pericolo derivante da sistemi ad alto rischio attraverso la previsione “sistematica” offerta della possibilità di un intervento umano in grado di correggere e di intervenire tempestivamente su eventuali malfunzionamenti o criticità del sistema. Si tratta di un'affermazione che non può che lasciare, per molti aspetti, perplessi.
Un sistema ad alto rischio di per sé è evidentemente un sistema che presenta un'elevata complessità; in questo senso proprio chat GPT rappresenta l'archetipo di quello che può essere considerato un sistema a rischio elevato. Ora, proprio la complessità e la multiformità di utilizzo di chat GPT rende assolutamente difficile, se non impossibile, la previsione in termini di concreta utilità di un intervento umano in grado di elidere gli effetti di potenziali criticità. Tanto maggiore è la complessità e la “poliedricità” di un sistema - e il conseguente rischio di utilizzo dello stesso (come nel caso indubbiamente di chat GPT) - tanto più difficile è la possibilità di prevedere un intervento da parte degli utilizzatori finali puntuale, efficace e in grado di intervenire e di elidere eventuali situazioni di pericolo o evitare danni per gli interessi che si vogliono tutelare.
Queste osservazioni si riflettono sulla valutazione della responsabilità a titolo di colpa in un duplice senso. Da un lato, un sistema di questo tipo aumenta il rischio di potenziali responsabilità di chi lo ha creato e distribuito, proprio perché si tratta di sistemi rispetto ai quali la possibilità di prevedere le modalità di intervento degli utilizzatori è sicuramente più difficile e ancora più complessa è la valutazione ex ante dei potenziali rischi derivanti dalle attività svolte. Nondimeno, il soggetto che accetta di utilizzare il sistema in oggetto in qualche modo si accolla il rischio che lo stesso non sia in grado di essere efficacemente corretto in via eteronoma e che non sia sufficientemente idoneo in via autonoma. Situazioni che ben difficilmente potrebbero escludere la ravvisabilità di responsabilità di natura colposa. Si tratta, allora, di verificare se l'utilizzatore può essere ritenuto responsabile degli eventi avversi derivanti dal malfunzionamento del programma, in quanto riconducibili a una non adeguata gestione della fonte del rischio.
È una prospettiva indubbiamente - per certi aspetti - penalizzante per lo sviluppo e la diffusione di programmi e in particolare di quelli che coniugano una straordinaria potenza operativa con la possibile destinazione a funzioni molteplici e svariate. Sul punto, si è osservato che «Non si comprende …. come il fornitore possa elencare tutte le possibili applicazioni, determinare ex ante i rischi per tutti i diritti e beni giuridici coinvolti e sviluppare strategie di prevenzione o mitigazione rispetto ad un modello linguistico (come GPT) il cui utilizzo potrebbe spaziare dalla creazione di una chatbot per l'assistenza clienti di un sito web alla fornitura di un canale di contatto riservato per denunciare violenze e abusi. D'altra parte, tale problematica si ripercuote anche - e con maggior vigore - sulla posizione dell'utilizzatore. È evidente il rischio che dietro questa soluzione si celi una scelta politica ultraresponsabilista, volta ad estendere il ruolo e i doveri di controllo dell'utilizzatore in maniera del tutto irrealistica: in che misura sussiste un potere materiale ed effettivo di intervento in capo a tale soggetto? È opportuno gravare l'utilizzatore di un vero e proprio obbligo giuridico di controllo e intervento rispetto all'attività di un sistema di IAG? Ove si ritenga di procedere in tal senso, l'utilizzatore potrebbe essere ritenuto responsabile degli eventi avversi derivanti dal malfunzionamento dell'IAG, in quanto riconducibili al malgoverno (o omesso governo) della fonte di rischio» (così L. Romanò, op. cit.).
In questo senso, si teme una applicazione indiscriminata del principio di responsabilità ex art. 40, comma II c.p. per il mancato impedimento di eventi avversi causati dal programma. In sostanza, la ricerca di nuove forme di parametrazione della responsabilità a titolo di colpa deriverebbe da un duplice concomitante fattore, che proprio per chat GPT si presenta con particolare - si potrebbe dire singolare - chiarezza.
La “potenza” di elaborazione e l'impossibilità di prevedere la finalizzazione e l'utilizzo in concreto rende arduo delimitare una responsabilità del produttore e - d'altro canto - la stessa natura e complessità del programma rende altrettanto arduo ipotizzare una responsabilità a titolo omissivo per non avere impedito eventi “nocivi”. Non sarebbe possibile individuare una responsabilità personale in sintonia con i principi del sistema giuridico nei confronti di soggetti non oggettivamente in grado di esercitare un controllo effettivo sul programma. In sostanza, la “sorveglianza umana” - per quanto auspicabile - non può che essere verificata come praticabile nel caso concreto e non in termini astratti. Dall'impossibilità di individuare un potere di controllo e intervento effettivo sul sistema deriverebbe, pertanto, l'impossibilità di delineare profili di responsabilità colposa per eventi derivanti dalle criticità sulle quale non sarebbe di fatto impossibile intervenire.
L'esempio del veicolo privo di conduttore controllato da forme di IA è ormai stato ampiamente valutato e discusso, ma proviamo a pensare, ad esempio, a un sistema di sicurezza di un impianto industriale la cui funzionalità in concreto è rimessa a un programma di IA, o se per lo stesso impianto, analogamente, si è provveduto per disciplinare i controlli sulle emissioni, in chiave ambientale. Proviamo a pensare a sistemi con queste finalità, ad alto rischio, per i quali gli interventi di “sorveglianza” umana sono in astratto previsti ma potrebbero essere di fatto non utilmente praticabili.
Il sistema giuridico nel suo insieme si può concedere il lusso di escludere aprioristicamente dalla sfera di rilevanza penale reati caratterizzati dall'evento nei casi sopra descritti, ossia limitarsi alla previsione di sanzioni amministrative, di interventi risarcitori o al più di forme di limitazione/inibizione allo svolgimento dell'attività? È una prospettiva difficile da accettare.
Anche in questo caso, una “semplificazione” può essere non raffinata ma efficace dal punto di vista espressivo. Se la “soglia” dei reati di pericolo può essere individuata tenendo conto delle peculiarità del settore e delle necessita di non “inibire” lo sviluppo tecnologico, se parliamo di reati di evento il discorso muta radicalmente. E, mutando, finisce per condizionare indirettamente anche la “soglia” menzionata per la stigmatizzazione negativa del pericolo.
La risposta contenuta nella proposta di regolamento
Siamo tornati al punto di partenza delle presenti osservazioni. Occorre comprendere se il timore di “nuocere” alla diffusione e all'utilizzo generalizzato di forme di AI, tra le quali chat GPT (ma non solo) può essere bilanciato – semplicemente - da nuovi strumenti di riconoscimento delle responsabilità o se non sia necessario affrontare - con le adeguate distinzioni, l'applicazione di canoni e strumenti da tempo metabolizzati dal sistema penale.
La risposta non è scontata; sul tema, si è osservato che la prospettiva di imboccare la scorciatoia del diritto penale di evento - ricorrendo ad esempio alla tradizionale nozione di posizione di garanzia - è accattivante per la sua funzione di rassicurazione (o esorcismo) sociale, ma potrebbe determinare un mero centro di accollo di responsabilità in caso di eventi avversi, senza in realtà che ciò presupponga una reale rimproverabilità nei confronti di un umano ormai privo di un reale ed effettivo potere di governo ed intervento sull'attività algoritmica (cfr. Consulich, Flash Offenders. Le Prospettive di Accountability Penale nel Contrasto alle Intelligenze Artificiali Devianti, in Riv. It. Dir. Proc. Pen. 2022, 1050)
Una soluzione potrebbe essere quella ispirata dalla proposta di Regolamento sopra menzionata, nella misura in cui la stessa globalmente propone un modello finalizzato a intercettare i rischi e governare in anticipo le problematiche connesse ai sistemi di IA, coinvolgendo direttamente gli operatori nel campo dell'IA nella determinazione delle regole da rispettare nello sviluppo e nell'utilizzo di sistemi intelligenti.
In sostanza, la proposta indica la necessità - art. 17 - che la conformità ai requisiti del regolamento debba essere assicurata attraverso l'adozione di un sistema di gestione della qualità, laddove, ai sensi dell'art. 16, il fornitore di sistemi di IA ad alto rischio sarebbe tenuto a rispettare i requisiti stabiliti dal capo 2 della proposta stessa, con la precisazione che «le soluzioni tecniche precise atte a conseguire la conformità a tali requisiti possono essere previste mediante norme o altre specifiche tecniche o altrimenti essere sviluppate in conformità alle conoscenze ingegneristiche o scientifiche generali, a discrezione del fornitore del sistema di IA».
È l'espressione “a discrezione” che non convince sino in fondo. Di fatto, viene operato un rinvio allo stato dell'arte e del progresso tecnologico e scientifico, sulla base del quale il “produttore” del programma dovrà parametrare la valutazione e prevenzione del rischio. Una forma di autodisciplina - presidiata ovviamente da sanzioni - mirata a costruire uno schema di “prevenzione” in costante adeguamento, funzionale - anche, evidentemente - a non precostituire forme di inibizione alo sviluppo tecnologico, che potrà, indubbiamente, fornire globali garanzie, ma che lascia inevitabilmente “scoperti” quegli espetti sostanzialmente imprevedibili derivanti dal combinato disposto potenzialità di eleborazione/potenzialità di utilizzo. Difficile che la previsione di reati di mera condotta - e quindi di pericolo presunto - possano coprire l'ampia gamma di eventi che dall'utilizzo di un programma quale chat GPT potrebbero derivare.
Per i sistemi rientranti nella categoria sopra esaminata caratterizzati da “rischio inaccettabile” - che non dovrebbero essere utilizzati in settori o per scopi specificamente indicati dal legislatore - la “costruzione di una responsabilità per colpa può presentarsi come non particolarmente problematica, risultando provata dal nesso tra l'evento e l'utilizzo di fatto del programma al di fuori dai casi consentiti.
La risposta più difficile, complessa e delicata riguarda ovviamente la parametrazione delle responsabilità per i sistemi ad alto rischio. Sistemi per i quali in via generale si è accettata la possibilità di utilizzo generalizzato ma per i quali si devono garantire condizioni di sicurezza. Si tratta di problema nuovo, ontologicamente nuovo e qualitativamente differente da quelli che si sono presentati con progressiva rilevanza, negli ultimi decenni e che hanno caratterizzato lo sviluppo tecnologico? Verosimilmente no.
Il diritto penale, nella sua accezione più rilevante sul piano sociologico e più “nobile” sul piano della elaborazione intellettuale, da molto si deve confrontare con ambiti di applicazione caratterizzati da una elevata innovazione tecnologica alla quale corrisponde una maggiore difficolta di prevedere impatti negativi su vari “valori” costituzionalmente tutelati (vita, salute, ambiente, riservatezza e non solo…). La risposta si è presentata in termini sostanzialmente univoci e non vi sono ragioni per ritenere che tale non dovrà essere anche nel caso di specie.
La risposta non può che essere quella di una serie di previsione di sanzioni penali (se possibile “corroborate da profili di responsabilità ex d.lgs. 231/2001 per enti e persone giuridiche) sanzionati con riguardo:
- alle omesse o false comunicazioni rese all'autorità amministrativa preposta di informazioni rilevanti per la gestione del rischio
- all'applicazione e costante implementazione di sistemi di valutazione e prevenzione dei rischi, strettamente correlati allo “stato dell'arte” del settore
- alla previsione di obblighi di verifica e confronto tra produttore/distributore del programma e utilizzatore finale, quantomeno in tutti i casi l'applicazione sia destinata a settore nei quali l'utilizzo non sia una “prassi” consolidata (in sostanza, il principio che in altri campi viene indicato come “sperimentazione”)
- a meccanismi di verifica – quantomeno random- su dati e informazioni attraverso i quali viene “alimentato” il meccanismo di autoapprendimento, nonché obbligo di immediato intervento a fronte di notizie certe o verosimili di alimentazione attraverso dati o informazioni falsi o impropri
- a obblighi di “adeguatezza” del programma rispetto alle funzionalità per le quali- rispetto a singoli utilizzatori finali- lo stesso sia stata adattato, implementato e calibrato, in termini tale da determinare specifiche e adeguate garanzie di affidabilità per questi ultimi soggetti.
Un quadro di riferimento delineato in base a tali principi potrebbe essere in grado di coniugare possibilità di sviluppo e utilizzo del programma che l'esigenza di tutela di collettività e potrebbe costituire una “base” ottimale per verificare- a fronte di eventi di danno – regole di valutazione sull'individuazione di responsabilità - con sanzione parametrate dalle norme sui delitto colposi già esistenti nel sistema e calibrati sulla tipologia di interessi tutelati - ovvero criteri di imputazione di richieste risarcitorie, laddove si ritenga di poter ricondurre le attività in oggetto allo schema delineato dall'art. 2050 c.c., quali attività pericolose e fatta salva la prova di aver adottato «tutte le misure idonee a evitare il danno».
In conclusione
Chat GPT è un programma ad elevata complessità caratterizzato da apprendimento automatico, che si presta a potenzialmente indeterminate possibilità di utilizzo.
Deve essere considerata la possibilità che tale programma possa rientrare tra quelli definiti “ad alto rischio” dalla Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale
La valutazione di responsabilità a titolo di colpa derivanti dall'utilizzo del programma potrà essere verosimilmente parametrata a canoni già presenti nel sistema, ovviamente adattati alle peculiarità del settore.