Aggiungi un segnalibro per cominciare

Abstract_Connecting_Wires_P_0045
10 ottobre 20235 minuti di lettura

La responsabilità per danni causati da sistemi di AI

L’inarrestabile sviluppo delle tecnologie digitali e la diffusione esponenziale dei sistemi di AI pongono delicate problematiche in tema di responsabilità civile, fondamentalmente per due motivi.

Innanzitutto, perché le principali regole di responsabilità civile dell’ordinamento italiano risalgono al codice del 1942 e, inoltre, perché l’individuazione della norma applicabile può dipendere da molteplici fattori: status del soggetto danneggiato, tipologia del prodotto/ servizio nel quale il sistema di AI è incorporato, tipo di danno causato, ecc..

Le potenziali incertezze in caso di contenzioso hanno spinto il Legislatore, soprattutto quello europeo, a intervenire con alcune proposte normative, che però sono ancora in discussione. Prima di esaminare tali novità, occorre fornire un quadro sintetico delle tutele che il nostro attuale sistema normativo è in grado di offrire al soggetto danneggiato da un sistema di AI.

 

Il quadro normativo attuale, tra responsabilità contrattuale ed extracontrattuale

In ambito AI, i danni sono spesso conseguenza della violazione di una determinata obbligazione esistente tra danneggiante e danneggiato; in tal caso, quest’ultimo sarà legittimato ad attivare i rimedi previsti dallo specifico contratto in essere, che sarà per lo più il contratto di vendita di prodotti o di servizi, il contratto di lavoro subordinato o di opera professionale, di assicurazione o bancario, di intermediazione finanziaria. In caso di insussistenza di un rapporto contrattuale, il soggetto danneggiato potrà agire in via extracontrattuale.

Laddove i sistemi di AI siano riconducibili a dei prodotti, in caso di difetti sarà invocabile la normativa in tema di responsabilità del produttore di cui alla Direttiva 85/374/CE del 25 luglio 1985, oggi confluita nel Codice del Consumo. Il limite di tale normativa risiede nel fatto che la stessa offre protezione per lo più ai consumatori e prevede la sola risarcibilità del danno da morte, da lesioni personali e da distruzione o deterioramento di beni diversi dal prodotto difettoso.

Altre norme che possono venire in rilievo sono l’art. 2050 c.c. in tema di esercizio di attività pericolose, l’art. 2051 c.c. per i danni da cose in custodia, l’art. 2054 c.c. per la circolazione dei veicoli e la clausola generale in tema di illecito civile di cui all’art. 2043 c.c..

 

La proposta di Direttiva su AI e responsabilità extracontrattuale

Al fine di prevenire la frammentazione derivante da interventi legislativi non coordinati né coerenti tra loro nei diversi Stati membri e ridurre l’incertezza giuridica per le imprese che sviluppano o utilizzano l’AI nel mercato interno, il 28 settembre 2022 la Commissione Europea ha annunciato l’adozione di due proposte volte ad adattare le norme sulla responsabilità civile all’era digitale, all’economia circolare e all’impatto delle catene globali del valore.

Una delle due proposte ha ad oggetto la revisione della citata normativa in materia di responsabilità da prodotto difettoso. L’altra consiste in una nuova direttiva sulla responsabilità per l’Intelligenza Artificiale (Direttiva AI), che è volta a facilitare il risarcimento del danno a coloro che abbiano subìto danni derivanti dall’impiego di sistemi di AI.

Secondo la Commissione le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a regolare le azioni di responsabilità per danni causati da prodotti e servizi basati sull’AI. I principali limiti delle normative in questione sarebbero insiti nelle caratteristiche peculiari dell’AI, tra cui la complessità, l’autonomia e l’opacità (il c.d. effetto “scatola nera”), che potrebbero rendere difficile o eccessivamente oneroso per i danneggiati identificare i responsabili e dimostrare la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità extracontrattuale. Inoltre, la catena di fornitura dei sistemi di AI coinvolge diversi attori, rendendo ancora più complessa l’individuazione e attribuzione della responsabilità.

La Direttiva AI è parte di un approccio europeo coordinato volto a far fronte alla crescente diffusione dell’AI e delle tecnologie digitali: l’AI Act si concentra principalmente sul monitoraggio e sulla prevenzione dei danni, mentre la Direttiva AI mira ad armonizzare il regime di responsabilità applicabile nei casi in cui i sistemi di AI causino danni. In sintesi, la Direttiva AI mira ad alleggerire l’onere della prova del danneggiato attraverso due principali strumenti: presunzione relativa e divulgazione di informazioni.

La presunzione relativa è volta a semplificare ai danneggiati la prova del nesso causale tra la colpa del convenuto-danneggiante e l’output prodotto dal sistema di AI, o la mancata produzione di un output da parte del sistema di AI, che ha provocato il danno. Tuttavia, la Direttiva AI non si spinge a disporre un’inversione dell’onere della prova in capo ai danneggianti (ad esempio, fornitori o produttori del sistema di AI), poiché considerata troppo gravosa e implicante rischi così significativi da ostacolare l’innovazione e l’adozione di prodotti e servizi basati sull’AI.

Oltre alla presunzione relativa di causalità, per i sistemi di AI ad alto rischio la Direttiva AI attribuisce agli organi giurisdizionali nazionali il potere di ordinare la divulgazione di elementi di prova al fornitore o altro soggetto tenuto ai medesimi obblighi del fornitore, nel caso in cui questi non abbiano dato corso alla medesima richiesta presentata dal danneggiato-attore o eventuali altri legittimati. Inoltre, l’attore può chiedere la conservazione degli elementi di prova.

 

La Direttiva AI: i prossimi passaggi

Dopo cinque anni dal recepimento della Direttiva AI negli Stati membri, la Commissione presenterà un report a Parlamento, Consiglio e Comitato Economico e Sociale, nell’ambito del quale valuterà il raggiungimento degli obiettivi previsti.

Nello stesso contesto, la Commissione valuterà anche l’opportunità di prevedere un regime di responsabilità oggettiva per le domande avanzate nei confronti degli operatori di determinati sistemi di AI e una copertura assicurativa obbligatoria.