Chat GPT e responsabilità penali: una nuova sfida. O no? (I)

Vai ai contenuti

Chat GPT e responsabilità penali: una nuova sfida. O no? (I)

Studio Volpicelli
Pubblicato da Diritto e Giustizia in IA · Martedì 02 Gen 2024
Chat GPT e responsabilità penali: una nuova sfida. O no? (I)

La diffusione di un programma di intelligenza artificiale, quale chat GPT - e di prodotti analoghi - di amplissimo utilizzo potenziale rappresenta ormai una nota caratterizzante della nostra epoca. Una situazione che impone di comprendere se e in quali termini effettivamente tale applicativo impone o suggerisce delle soluzioni giuridiche significativamente differenti da quelle che sino ad oggi sono state applicate per situazioni analoghe.

di Cesare Parodi

SOMMARIO
Premessa: l'analisi dei profili di penale rilevanza nell'uso di Chat GPT: implicazioni etiche e giuridiche
Abbiamo scherzato…
Le condotte dolose
Il rapporto tra condotta dolosa umana e contributo dell'A.I.
Responsabilità a titolo di colpa: un condizionamento psicologico?
Premessa: l'analisi dei profili di penale rilevanza nell'uso di Chat GPT: implicazioni etiche e giuridiche

«Nell'era della digitalizzazione globale e dell'intelligenza artificiale (IA), la discussione riguardo l'uso di questi sistemi sofisticati diventa sempre più importante. Tra questi, Chat GPT, sviluppato da OpenAI, rappresenta un esempio significativo di come l'IA può portare a nuove questioni etiche e giuridiche. Questo articolo analizza i potenziali profili di rilevanza penale nell'uso di Chat GPT, cercando di identificare le principali implicazioni in questi ambiti.

Chat GPT: una panoramica

Chat GPT è un modello di linguaggio avanzato basato sull'architettura GPT di OpenAI. È in grado di generare testo coerente e articolato, imparando dai pattern di conversazione umana. Sebbene possa essere utilizzato per molte applicazioni positive, esistono anche rischi associati al suo uso, tra cui la possibilità di abusi a fini criminali.

Profili di penale rilevanza

Uno dei profili di penale rilevanza nell'uso di Chat GPT è la possibile generazione di contenuti illegali. Ad esempio, se utilizzato in modo inappropriato, Chat GPT potrebbe essere utilizzato per creare discorsi d'odio, diffamazione o materiale pornografico minorile, che sono tutti crimini in molte giurisdizioni.

Un'altra area di interesse riguarda la possibilità che Chat GPT possa essere utilizzato per attività fraudolente, come il phishing o lo scam. Poiché Chat GPT può imitare la comunicazione umana in modo convincente, potrebbe essere utilizzato per ingannare le persone, portandole a rivelare informazioni sensibili o a compiere azioni che possono danneggiarle.

Implicazioni etiche e giuridiche

La questione fondamentale che emerge è come prevenire o mitigare questi rischi. Da un punto di vista etico, è necessario un dialogo aperto sulla responsabilità dell'uso di Chat GPT. Gli sviluppatori di AI hanno il dovere di implementare misure per prevenire l'abuso dei loro sistemi, ma gli utenti finali devono anche assumersi la responsabilità del loro utilizzo.

Dal punto di vista giuridico, la questione è più complessa. Le leggi attuali non sono sufficientemente chiare o complete per affrontare le questioni sollevate dall'IA. Ad esempio, chi dovrebbe essere ritenuto responsabile se Chat GPT viene utilizzato per commettere un crimine? L'utente che ha fornito l'input? Lo sviluppatore che ha creato l'IA? Oppure la macchina stessa?

Queste sono questioni fondamentali che richiedono una riflessione approfondita e un dibattito pubblico. Potrebbe essere necessario un quadro giuridico internazionale per regolamentare l'uso di IA come Chat GPT, che dovrebbe essere sviluppato con un approccio multilaterale.

Implicazioni etiche

Oltre alle questioni legali, ci sono anche profonde implicazioni etiche nell'uso di Chat GPT. Un punto importante è la privacy. Gli algoritmi di apprendimento automatico si basano su enormi quantità di dati, spesso personali. È pertanto essenziale garantire che l'uso di tali dati rispetti i principi di consenso, trasparenza e minimizzazione dei dati.

Inoltre, l'uso di IA come Chat GPT può portare a forme di manipolazione o di bias. Gli algoritmi sono infatti influenzati dai dati con cui vengono addestrati, e possono quindi riprodurre e amplificare pregiudizi esistenti. Questo solleva importanti questioni etiche, come la necessità di assicurare l'equità e la non discriminazione nell'uso dell'IA.

Conclusione

L'uso di Chat GPT e di altre tecnologie di intelligenza artificiale rappresenta una sfida per il nostro sistema giuridico e per la nostra etica. Per affrontare queste sfide, è necessario un approccio multidisciplinare che coinvolga giuristi, informatici, filosofi e sociologi. Solo attraverso un dialogo aperto e una regolamentazione adeguata saremo in grado di sfruttare appieno le potenzialità dell'IA, minimizzando al contempo i rischi associati».

Abbiamo scherzato…

Ebbene sì.

Non ho resistito alla tentazione di inserire quale premessa del presente articolo la risposta che il programma in oggetto (nella sua versione a pagamento, in data 1.6.2023) ha fornito alla domanda riportata nel titolo, calibrato (nella richiesta) a un pubblico di magistrati e avvocati. È indispensabile, prima di valutare un fenomeno, cercare di comprendere con che cosa abbiamo a che fare, come possiamo relazionarci con lo stesso e soprattutto se e in che termini dobbiamo avere timore e/o preoccupazione rispetto a quelle che possono essere le conseguenze della diffusione di tale sistema.

La lettura del primo paragrafo, verosimilmente, qualche indicazione la può fornire. Uno svolgimento corretto, forse un po' superficiale, indubbiamente prudente e ragionevolmente improntato a un taglio “tradizionalista” di analisi del fenomeno e delle problematiche ad esso sottese. Un approccio distante non solo dal mondo accademico (sarebbe stata necessaria una domanda “mirata” apposita) ma anche – verosimilmente - di non eccezionale utilità anche per coloro che affrontano il tema quali giuristi “pratici”, operativi.

Con questo non intendo certamente dire che i giuristi “umani” possono stare per qualche tempo tranquilli, al contrario; mi pare, tuttavia, altrettanto evidente come un approccio critico e con una visione pluriprospettica del problema possa essere ancora ampiamente terreno di coltura per i bipedi pensanti: quantomeno a livello di confronto. E lo è eccome vivo, vivissimo, il confronto.

Sono stati pubblicati in tempi recenti numerosi articoli e che hanno affrontato, con professionalità e ricchezza di contenuti, la tematica in oggetto (si rinvia al riguardo all'ampia panoramica reperibile in L. Romanò, La responsabilità penale al tempo di chat GPT: prospettive de iure condendo in tema di gestione del rischio da intelligenza artificiale generativa, in giustiziapenale.it).

I numerosi commenti che sul programma in oggetto sono stati espressi a vario titolo consentono di evitare una descrizione delle funzionalità e delle potenzialità che lo stesso presenta. Nondimeno, in chiave di penale rilevanza il problema deve essere posto distinguendo le varie ipotesi nelle quali la responsabilità penale si potrà manifestare.


Le condotte dolose

Da un lato è molto semplice - quasi semplicistico - ritenere che ogni qualvolta chat GPT viene utilizzato in funzione di attività direttamente e inequivocabilmente criminali - nelle quali la capacità di predisporre testi fortemente credibili e di raccogliere e organizzare informazioni si può rivelare straordinariamente utile - non vi sono ragioni per non ricondurre gli esiti di tale attività ai soggetti che lo hanno “destinato” in tal senso, in base ai generalissimi criteri di imputazione delle responsabilità penali. Basti pensare alle ipotesi di frodi informatiche o comunque di reati posti in essere in rete che si manifestano con modalità comunicative o – ancora - alla possibilità tramite il programma di “creare” e rendere operativi in termini attendibili e per finalità criminali soggetti virtuali.

In questi casi è evidente che l'utilizzo del programma per predisporre testi, per organizzare informazioni e per sviluppare contatti funzionali a porre in essere tali condotte illecite non potrà che ricadere - secondo i canoni di ordinaria valutazione della responsabilità - su coloro che l'attività in sé hanno posto in essere. Consideriamo, ad esempio, il caso in cui chat GPT sia “istruito” per replicare modalità espressive di una società ipotizzata quale parte di un meccanismo fraudatorio e che proprio grazie alla capacità di adeguamento espressivo del sistema la condotta risulti particolarmente efficace.

A considerazioni analoghe si deve giungere anche per tipologie di reato sostanzialmente differenti, quantomeno sul piano criminale: si pensi - ed è un caso assolutamente emblematico - all'ipotesi di diffamazione online. Un reato certamente tra i più diffusi e nel quali il coefficiente di disvalore è correlato alle modalità espressive - sul piano della forma e dei contenuti - utilizzate dal soggetto al quale la comunicazione è riferibile.

In questi casi il testo della comunicazione è elaborato utilizzando chat GPT, dovrà essere attribuito in tutto e per tutto al soggetto che apparentemente ne risulta l'autore e che ne ha “curato” la diffusione in rete. Se l'espressione eventualmente di natura diffamatoria è stata inserita dal programma e non vi è stata un'attività di controllo sul contenuto finale del testo da parte del soggetto che lo ha formalmente diffuso, non ci possono essere dubbi sul fatto che egli dovrà comunque rispondere della comunicazione di tale natura. Si tratta di una soluzione, di fatto, del tutto sovrapponibile a quella di un testo predisposto da un ghostwriter umano, impregiudicate eventuali ragioni di rivalsa nei confronti, in entrambi i casi, della “macchina” (vedremo in quali termini) o dell'uomo.

A tale proposito pare indispensabile una puntualizzazione: non si può e non si deve confondere la difficoltà di individuare la riferibilità soggettiva delle funzionalità del programma rispetto all'imputazione delle condotte a coloro che di tali funzionalità risultano i fruitori.

Si tratta di due problemi completamente differenti, anche se forte e suggestiva può essere la tentazione di sovrapporli. Il problema non si pone, evidentemente, per quanto riguarda le attività dolose, per le quali l'avere l'autore delle stesse sostituito in parte la propria diretta operatività con le funzionalità del programma non modifica il quadro di valutazione della responsabilità. Non si tratta di “penalizzare” aprioristicamente l'utilizzo di chat GPT, quanto di trarre le dovute conclusioni dai principi generali del sistema. Se si “delega” chat GPT a predisporre una lettera per recuperare un credito e il programma propone un'intimazione di natura sostanzialmente estorsiva, la criticità non può essere nell'elaborazione effettuata dalla A.I., ma nell'utilizzo diretto della stessa da parte del - presunto - creditore.

In estrema sintesi si deve ritenere che forme di A.I. non possono essere considerate centro di imputazione della responsabilità penale, poiché non è un agente nel senso penale, non avendo capacità di agire in modo consapevole e volontario - caratteristiche fondamentali dell'agire responsabile. Per quanto difficile potrà risultare, allo stato - e per non poco tempo ancora - è necessario in chiave penale individuare l'uomo dietro alla “macchina”.

Il rapporto tra condotta dolosa umana e contributo dell'A.I.

La tematica della responsabilità dolosa deve essere affrontata anche sotto un altro profilo, ossia quando, a fronte di un comportamento illecito doloso posto in essere da un soggetto fisico, il dato o l'informazione derivante da tale condotta sia utilizzata da un'intelligenza artificiale, che a sua volta, sulla base della stessa, potrebbe porre in essere una differente e ulteriore condotta penalmente illecita.

Si pensi il caso, ad esempio, di un dipendente bancario infedele che decide di aprire un conto intestato a un soggetto esistente ma in realtà ignaro di tale operazione, per autonome finalità illecite. In questo modo viene inserito nel sistema informatico dell'istituto un'informazione non rispondente al vero, che il programma non sarà, con elevata verosimiglianza, in grado di riconoscere come tale.

Un'informazione che un programma di intelligenza artificiale potrebbe utilizzare per altre finalità, a loro volta, autonomamente illecite, quali, ad es. diffondere in circuiti specializzati on line false informazioni sulla solvibilità del soggetto apparentemente titolare del conto. In che termini è imputabile al primo soggetto anche la condotta illecita - es diffamazione aggravata on line - che il programma di intelligenza artificiale potrebbe avere posto in essere, fondandosi su tale informazione? È ipotizzabile un concorso a titolo di dolo eventuale nella diffamazione? O si tratta “solo” di una condotta riconducibile ai soggetti che hanno sviluppato il programma e/o che lo stanno utilizzando? E, in questo caso, può sussistere una responsabilità a titolo di dolo eventuale o colpa (sul piano civilistico) dipendente dalla “qualità” della verifica e dalla qualità delle informazioni che il programma è grado di realizzare? Lo vedremo nei punti successivi.


Responsabilità a titolo di colpa: un condizionamento psicologico?

Il discorso si complica nel momento in cui si passa dalla valutazione di attività di natura dolosa a quelle di natura colposa. È un tema che, ovviamente, non nasce con chat GPT (o prodotti analoghi) ma che da alcuni anni è oggetto di attenzione, in quanto riguarda il rapporto tra la responsabilità del singolo (o di una società, seppure in termini differenti) e forme di “automazione” di condotte o di “elaborazione” di dati e informazioni. La novità - rispetto a chat GPT - è di natura più quantitativa che qualitativa, anche se, nel caso di specie, la variabile “quantità” non può non riflettersi sul piano della qualità.

Il concetto, che può apparire astratto, è in realtà concretissimo: l'aumento nella complessità dell'elaborazione è inversamente proporzionale alla possibilità per i fruitori del programma di esercitare forme di controllo, di verifica e se necessario di intervento correttivo sugli esiti dell'elaborazione in oggetto.

L'utilizzo massivo di chat GPT nei settori più disparati deve essere valutato in termini di ricostruzione di potenziali responsabilità colpose penali - commissive come omissive - derivanti dell'utilizzo dello stesso, tenendo presente l'oggettiva difficoltà per i fruitori di intervenire in concreto sulle varie fasi di attività del programma.

È lecito, comunque, domandarsi - con la massima umiltà possibile - se veramente il fatto che «copiosa letteratura penalistica, sia italiana che internazionale” … abbia “a più riprese evidenziato come l'opacità e l'imprevedibilità di certi strumenti basati su IA renda estremamente difficile imputare per colpa un reato algoritmico all'agire di un singolo soggetto umano»” (così L. Romano, op. cit., 4). In questo senso «il grado di autonomia e la vastità del potenziale applicativo dell'IA parrebbero escludere del tutto la stessa possibilità di un controllo e/o intervento umano preventivo. Se questa ipotesi si rivelasse corretta, venendo meno la possibilità di imputare un eventuale risultato lesivo a un utilizzatore che non partecipa più all'attività algoritmica, addirittura ormai privato della capacità di governarla, non rimarrebbe altro che un problematico “fatto proprio” della macchina, o al massimo un caso fortuito, privo di copertura sul piano della responsabilità penale» (C. Piergallini, Intelligenza artificiale: da ‘mezzo' ad ‘autore' del reato?, in Riv. It. diritto e proc. pen., 2020, 4, 1746).

La tesi è suggestiva, acuta ma straordinariamente rischiosa: indicare in termini aprioristici l'assenza di responsabilità in conseguenza dell'impossibilità o della difficoltà di controllo dell'attività di un programma di A.I. da parte dell'utilizzatore dello stesso significa accollare di fatto una quota di rischio sul sistema in generale. Una scelta difficile da accettare sul piano socio-criminale e potenzialmente disastrosa su quello economico. La strada non può essere quella.

L'uso di chat GPT è riconducibile alla categoria di cui all'art. 2050 c.c.? Si può o si deve ritenere che l'utilizzo integri l'esercizio di “attività pericolose” di modo che «chiunque cagiona danno ad altri nello svolgimento di un'attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento, se non prova di avere adottato tutte le misure idonee a evitare il danno»? I soggetti - persone fisiche o giuridiche - che beneficiano dell'utilizzo di chat GPT sono tenuti a risarcire eventuali danni o comunque il pregiudizio di interessi di terzi, ferma restando la necessità di verifica il rapporto fra la responsabilità di quelli che sono i diretti utilizzatori e le responsabilità di coloro che hanno sviluppato e/o applicato il programma?

Non si deve inoltre dimenticare il fatto che le potenziali criticità che possono derivare da un programma quale chat GPT non derivano soltanto dalle modalità di programmazione e di sviluppo del programma, quanto anche, in molti casi, soprattutto da quella che è la base informativa che viene utilizzata per sviluppare le funzionalità che lo stesso deve assicurare. Le informazioni che alimentano una intelligenza artificiale sono altrettanto importanti rispetto (considerando l'affidabilità del programma e la “trasparenza” dello stesso) all'algoritmo vero e proprio.

Volendo sintetizzare alcune caratteristiche comuni ai molti commenti e alle molte interpretazioni che sono state date sulle possibilità di valutazione di responsabilità penali (nonché sul piano civilistico) di chat GPT, emergono in maniera inequivoca due aspetti, di grande interesse.

In primo luogo, un comprensibile desiderio di ricerca di categorie “nuove” per inquadrare le potenziali responsabilità, andando “oltre”, quindi, allo schema codicistico penale e anche prescindendo dal “sistema 231”, che, sostanzialmente, delinea responsabilità di persone giuridiche ed enti partendo comunque da condotte dei singoli di rilievo penale. Ecco, allora, che si ipotizza la creazione di un nuovo inquadramento che tenga conto dell'eccezionale potenziale di innovazione - sotto tutti i profili: relazionali, economici, organizzativi e sociali - che la diffusione di chat GPT può rappresentare.

D'altro canto, risulta con ancora maggiore chiarezza un forte timore di proporre delle chiavi di lettura in qualche modo penalizzanti rispetto allo sviluppo e all'utilizzo del programma, tali da essere interpretate come una forma di contrasto o quantomeno di dissuasione - non giustificata - alla diffusione dello stesso. Un timore di essere percepiti come paladini di un approccio tradizionale ai problemi - anche se i risvolti etici dell'utilizzo non sfuggono alla totalità dei commentatori, destinati - prima o poi - a essere travolti delle inarrestabili potenzialità di tali forme di A.I. Al proposito, si è precisato che «la tentazione di individuare potenziali colpevoli cui addossare i danni indotti dalla macchina - al fine di ripristinare la fiducia verso la tecnologia - rischia di condurre a scelte politiche “ultraresponsabiliste” e derive sul piano penalistico» (A. Cappellini, Profili penalistici delle self-driving cars, in Dir. pen. contemporaneo, 2019, 2, 325 ss.).

Resta da capire, al riguardo, cosa si debba intendere per scelte ““ultraresponsabiliste”, indicate genericamente come non condivisibili, laddove al contrario il principio di responsabilità deve essere sempre modulato in sintonia con le esigenze di tutela che un sistema giudica prioritarie.


Created by Studio Volpicelli

STUDI PRIVATI DI CONSULENZA

DOVE SIAMO
55100 Lucca
56121 Pisa


Tutti i diritti riservati 2024 ®
Torna ai contenuti