Aggiungi un segnalibro per cominciare

Abstract_Lights_P_0152
21 marzo 202328 minuti di lettura

Innovazione e diritto: le novità della settimana

Podcast

Le opere dell’intelligenza artificiale sono proteggibili ai sensi del diritto d’autore?

Il diritto d’autore può rendere proteggibili le opere dell’intelligenza artificiale e se sì entro quali limiti e a quali condizioni? In questo episodio di Diritto al Digitale, Roberto Valenti, Lara Mastrangelo e Rebecca Rossi discutono con Giulio Coraggio dello studio legale DLA Piper della decisione dello US Copyright Office di non consentire la proteggibilità ai sensi del diritto d’autore di immagini generate con il supporto di un sistema di intelligenza artificiale generativa, della precedente sentenza italiana che ha avuto un esito diametralmente opposto e di cosa possiamo attenderci per il futuro. L’episodio del podcast è disponibile qui.

 

Artificial Intelligence

Profili di responsabilità civile connessi all’uso di strumenti AI

Accanto ai tradizionali profili della responsabilità civile per fatto dell’uomo, dobbiamo ora confrontarci con i profili legali della responsabilità derivante dall’uso di sistemi di intelligenza artificiale (AI).

I sistemi di intelligenza artificiale stanno raggiungendo livelli di autonomia sempre più avanzati, soprattutto nei casi di machine learning, in cui le “macchine”, opportunamente istruite, acquisiscono capacità di imparare e di elaborare soluzioni in maniera (quasi) del tutto autonoma.

Ma cosa si intende per intelligenza artificiale? L’Unione Europea, per prima, ha dato una definizione di intelligenza artificiale nel “Piano coordinato sull’intelligenza artificiale COM (2018) 795 final”: “Per "intelligenza artificiale" (IA) si intendono quei sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici”.

Analoga definizione è contenuta nel “Libro bianco sull’intelligenza artificiale” del 2020 e nella successiva comunicazione dell’UE COM (2021) 205.

Nella proposta di AI Act, l’intelligenza artificiale è definita come “un software sviluppato…, che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. Nella proposta si ipotizza anche la regolamentazione delle cd. intelligenze artificiali “ad alto rischio”, ossia quei sistemi il cui utilizzo può comportare rischi per i “diritti fondamentali”.

A livello italiano ci si è limitati a recepire i principi fissati a livello europeo, come emerge dal “Programma Strategico di Intelligenza Artificiale 2022 – 2024”.

  • L’assenza di regolamentazione sulla responsabilità dell’intelligenza artificiale

In assenza di una regolamentazione specifica della responsabilità derivante dall’utilizzo di sistemi di intelligenza artificiale, a quali disposizioni possiamo/dobbiamo fare riferimento oggi in Italia in questo ambito?

Conosciamo la dicotomia, nell’ambito della responsabilità civile, tra responsabilità extracontrattuale e responsabilità contrattuale. 

Tralasciando il tema della responsabilità da prodotto difettoso (applicabile in astratto anche ai sistemi di intelligenza artificiale) le prime norme cui fare riferimento, in caso di responsabilità extracontrattuale, potrebbero essere gli articoli 2050 c.c. e 2051 del Codice Civile che prevedono, rispettivamente, la responsabilità da “attività pericolosa” e da “cosa in custodia”.

Si tratta tuttavia di disposizioni che potrebbero non essere del tutto adeguate rispetto ai nuovi scenari. Non è detto che l’attività di intelligenza artificiale sia necessariamente una “attività pericolosa”, tale cioè da comportare una rilevante probabilità di causare danni a terzi. Dall’altra parte, anche la nozione tradizionale di “custodia” potrebbe rivelarsi inadeguata. rispetto ad un sistema in grado di prendere decisioni o esprimere opinioni in maniera indipendente.

Tali disposizioni, inoltre, non esonerano comunque il danneggiato dalla prova del danno subito, oltre che del nesso causale tra il danno sofferto e, rispettivamente, l’attività pericolosa o la cosa in custodia.

Dall’altra parte, anche la regola generale della responsabilità per fatto illecito di cui all’art. 2043 del Codice Civile, richiede al danneggiato (in ipotesi dal sistema di intelligenza artificiale) la prova della colpa o del danneggiante.

La responsabilità contrattuale potrebbe soccorrere solo laddove sussista effettivamente una relazione tra il fornitore del servizio di intelligenza artificiale e l’utilizzatore. Qualora poi un prodotto o servizio fosse fornito/prestato avvalendosi di un sistema di intelligenza artificiale, potrebbe ipotizzarsi l’applicazione dell’art. 1228 del Codice Civile in materia di responsabilità per il fatto dell’ausiliario, assumendo che si possa configurare una relazione terzo (i.e. sistema di intelligenza artificiale) – debitore (i.e. soggetto che ne fa uso per fornire un prodotto od un servizio), relazione appunto richiesta dall’art. 1228. 

  • Qualche spunto dall’esperienza giurisprudenziale recente

In alcuni casi che sono stati portati all’attenzione dei tribunali, al fine di stabilire la responsabilità per danno da intelligenza artificiale, sono state applicate le norme in materia di responsabilità del produttore mentre in altri casi la responsabilità è stata individuata in capo al soggetto che comunque aveva il controllo dell’utilizzo della macchina (v. Brouse vs. United States).

Interessante, sotto un diverso profilo, è la decisione della Corte Federale australiana nel caso Thaler vs. Commissioner of Patents che ha negato la possibilità di brevettare un’invenzione creata da un sistema di intelligenza artificiale perchè privo della personalità giuridica, ossia della capacità di essere titolare di situazioni giuridiche soggettive.

Ancora sotto un diverso profilo, la Corte di Cassazione ha recentemente deciso una controversia relativa alla responsabilità per danno causato da un sistema di intelligenza artificiale di rating reputazionale per illecito trattamento di dati personali. In questo caso, la causa del danno da illecito trattamento di dati personali da parte di un sistema di intelligenza artificiale è stata individuata nella assenza di trasparenza circa l’algoritmo utilizzato dal sistema stesso per determinare il rating.

Su di un simile argomento, può essere interessante l’articolo “L'intelligenza artificiale generativa e le sue problematiche legali”. 

 

Data Protection & Cybersecurity

Report ENISA sulla cybersicurezza dell'intelligenza artificiale e la sua standardizzazione

L'ENISA ha pubblicato un rapporto che affronta gli standard di cybersicurezza per l'intelligenza artificiale e la loro importanza per garantire la conformità con l'imminente legge europea sull'intelligenza artificiale.

La crescente importanza dell'intelligenza artificiale (IA) in vari settori industriali ha reso necessaria la definizione di standard completi per la sicurezza informatica. In questo contesto, l'ENISA ha pubblicato un report che analizza gli standard esistenti e in fase di studio e pianificati relativi alla cybersicurezza dell'intelligenza artificiale, la loro copertura e identifica le lacune nella standardizzazione. Inoltre, esamina le specificità dell'IA, in particolare dell'apprendimento automatico, e adotta una visione ampia della cybersecurity per includere il tradizionale paradigma di riservatezza-integrità-disponibilità e il concetto più ampio di affidabilità dell'IA, anche nella prospettiva dell'attuale bozza della legge europea sull'IA.

  • Il panorama della standardizzazione nella cybersicurezza dell'intelligenza artificiale

Il panorama della standardizzazione per la cybersecurity dell'intelligenza artificiale è guidato principalmente dalle organizzazioni di sviluppo degli standard (SDO), preoccupate per l'insufficiente conoscenza dell'applicazione delle tecniche esistenti per contrastare le minacce e le vulnerabilità derivanti dall'IA. Questa preoccupazione porta allo sviluppo continuo di report, linee guida e standard ad hoc.

A questo proposito, gli standard tecnici e organizzativi generali esistenti, come ISO-IEC 27001 e ISO-IEC 9001, possono mitigare alcuni rischi informatici legati all'intelligenza artificiale con indicazioni specifiche sulla loro applicazione in un contesto di IA.  La logica è che l'IA è fondamentalmente un software, il che consente di trasporre le misure di sicurezza del software all'ambito dell'IA.

Tuttavia, questo approccio non è esaustivo e presenta dei limiti. Ad esempio, l'intelligenza artificiale comprende elementi tecnici e organizzativi che vanno oltre il software, come l'hardware o l'infrastruttura.  Inoltre, la determinazione delle misure di sicurezza appropriate si basa su un'analisi specifica del sistema e alcuni aspetti della sicurezza informatica sono ancora in fase di ricerca e sviluppo, il che li rende non abbastanza maturi per una standardizzazione esaustiva. Inoltre, gli standard esistenti potrebbero non affrontare aspetti specifici come la tracciabilità, la discendenza dei dati e dei componenti dell'intelligenza artificiale o le metriche di robustezza.

Secondo l'ENISA, esiste un'interdipendenza tra la sicurezza informatica e l'affidabilità dell'IA. Per questo motivo, il rapporto sottolinea la necessità di garantire che l'affidabilità non venga gestita separatamente nell'ambito di iniziative di standardizzazione specifiche per l'IA e per la cybersicurezza, in particolare in aree come la valutazione della conformità.

  • Rilevanza della cybersicurezza nella valutazione del rischio ai sensi dell’AI Act

L'ENISA sottolinea l'importanza di includere gli aspetti di cybersecurity nelle valutazioni del rischio per i sistemi di intelligenza artificiale ad alto rischio e attualmente mancano standard che coprano le competenze e gli strumenti degli attori che eseguono le valutazioni di conformità.  A questo proposito, secondo l'ENISA, il progetto comunitario di AI Act sull'intelligenza artificiale e di Cybersecurity Act devono lavorare in armonia per evitare la duplicazione degli sforzi a livello nazionale.

La Commissione europea sta accelerando l'approvazione della legge sull'intelligenza artificiale, ma è probabile che si scontri in ogni caso con il ritmo di avanzamento dell'intelligenza artificiale.  La standardizzazione può supportare la cybersecurity delle tecnologie di IA, essenziale per garantire la sicurezza e l'affidabilità dei sistemi di IA in vari settori.

Su un argomento simile, è interessante il seguente articolo: "Il Parlamento europeo amplia la definizione di intelligenza artificiale ai sensi dell’AI Act".

 

Intellectual Property

La corsa al brevetto e il requisito della plausibilità: in attesa della decisione dell’enlarged board of appeal dell’EPO

Tra le aziende che fanno della ricerca e sviluppo il proprio core business – specie se operanti nel settore chimico e farmaceutico – è probabilmente alta l’attesa per la decisione mediante cui l’Enlarged Board of Appeal dell’EPO esprimerà la propria opinione circa i confini della c.d. plausibilità dell’invenzione.

In seguito al rinvio pregiudiziale operato dal Board of Appeal dell’EPO con decisione dell’11 ottobre 2021 (caso T 1116/18 - EPO - Referral to the Enlarged Board of Appeal – G 2/21) e dell’udienza svoltasi il 24 novembre 2022, è ragionevole infatti immaginare che nei prossimi mesi, se non settimane, l’Enlarged Board of Appeal fornisca una risposta ai quesiti sottopostigli, ossia:

  1. nel caso in cui la prova dell’effetto tecnico risieda esclusivamente nei c.d. post-published data, questi ultimi devono essere ignorati?
  2. se la risposta alla prima domanda è sì, possono i c.d. post-published data essere presi in considerazione qualora, in base alle informazioni contenute nella domanda di brevetto o secondo le conoscenze generali, la persona esperta del ramo avrebbe ritenuto l’effetto tecnico plausibile?
  3. se la risposta alla prima domanda è sì, possono i c.d. post-published data essere presi in considerazione qualora, in base alle informazioni contenute nella domanda di brevetto o secondo le conoscenze generali, la persona esperta del ramo non avrebbe avuto ragioni per ritenere l’effetto tecnico implausibile?

Facciamo un passo indietro: cosa si intende per plausibilità dell’invenzione e perché si discute dell’ammissibilità dei c.d. post-published data, vale a dire i dati resi disponibili successivamente al deposito di una domanda di brevetto?

Nonostante la Convenzione sul Brevetto Europeo non fornisca una definizione di invenzione, quest’ultima è generalmente intesa come una soluzione tecnica a un determinato problema tecnico, ed è proprio nel contributo allo stato dell’arte e al progresso scientifico che risiede la giustificazione del monopolio conferito dal brevetto.

Cosa accade, tuttavia, se la soluzione è soltanto rivendicata dalla domanda di brevetto ma non supportata da alcun elemento? Esiste nell’ordinamento brevettuale un onere in capo all’inventore di dimostrare che il trovato – oltre ad essere nuovo, inventivo, sufficientemente descritto e idoneo a trovare applicazione industriale – effettivamente consente di risolvere il problema tecnico?

Tali domande rivestono particolare importanza quando ad essere in gioco sono invenzioni attinenti al settore chimico o farmaceutico, in cui la necessità di conseguire quanto prima una protezione brevettuale mal si concilia con le lunghe tempistiche richieste dalla sperimentazione.

In un sistema c.d. first-to-file, ove ottiene tutela chi per primo deposita la domanda di brevetto, è infatti prassi abbastanza diffusa quella di depositare una domanda di brevetto prima di avere dati sperimentali che supportino quanto rivendicato. Inoltre, la domanda di brevetto può talvolta rappresentare essa stessa un elemento per attirare fondi e condurre tutte le costose sperimentazioni spesso necessarie per raggiungere la prova di quanto ipotizzato.

Tuttavia, lo strumento brevettuale non è pensato per tutelare mere supposizioni, e si è perciò nel tempo affermata la necessità di prevenire domande di brevetto c.d. speculative, tese a monopolizzare anzitempo un determinato settore e capaci di scoraggiare - in una certa misura - la prosecuzione di ricerche da parte di terzi.

Un confine tra invenzione brevettabile e mera speculazione è stato così tracciato dapprima dall’EPO, che, mediante una serie di pronunce (di cui si ricordano per importanza EPO - T 0939/92 (Triazoles) of 12.9.1995 e EPO - T 1329/04 (Factor-9/JOHN HOPKINS) of 28.6.2005), ha ritenuto sussistere, in capo al titolare della domanda di brevetto, un onere di rendere plausibile che l’invenzione effettivamente consente di raggiungere lo scopo perseguito. Il principio è stato presto fatto proprio anche da alcune corti nazionali, e in particolare da quelle inglesi.

Sebbene nella Convenzione sul Brevetto Europeo non si rinvenga espressamente un siffatto onere probatorio in capo all’inventore, la necessità che l’invenzione risolva effettivamente il problema tecnico appare d’altronde coerente con la ratio sottesa al sistema brevettuale, e il fondamento normativo della plausibilità è stato rinvenuto da giurisprudenza e dottrina prevalentemente nei requisiti dell’attività inventiva e della sufficiente descrizione: una sorta di condicio sine qua non comune a entrambi i presupposti di brevettabilità.

Meno agevole, però, è comprendere con quale rigidità debba essere inteso l’onere in capo al richiedente e, in particolare, se e in che misura consentire al medesimo di fare affidamento sui c.d. post-published data per dimostrare che il proprio trovato consegue effettivamente il risultato tecnico immaginato.

Sul punto, l’orientamento prevalente muove dalla considerazione secondo cui ciascun requisito di brevettabilità deve essere valutato al momento della domanda, e non ex post. Da ciò, conseguirebbe che le prove successive possono sì essere ammesse a supporto della brevettabilità del trovato, ma solo nel caso in cui la domanda di brevetto renda di per sé plausibile l’effetto tecnico. Diversamente, ove la domanda non consenta di ritenere plausibile la soluzione al problema, le prove successive non dovrebbero poter essere invocate quale rimedio ex post. Il rischio di una soluzione opposta - si sostiene - sarebbe quello di ammettere la brevettabilità, ad esempio, di un composto da utilizzarsi per il trattamento di una numerosa serie di patologie, nella speranza che studi successivi dimostrino se queste ultime possano effettivamente essere trattate con il farmaco brevettato.

Il dibattito, come anticipato, ha trovato terreno particolarmente fertile nel Regno Unito, ove a più riprese le corti sono state chiamate a pronunciarsi circa l’ammissibilità del requisito e i suoi limiti.

In particolare, nel caso Warner-Lambert vs Generics, attinente alla validità di un brevetto rivendicante l’uso di un noto composto per il trattamento di determinate patologie, la Corte d’Appello aveva ritenuto sì necessario dimostrare la plausibilità della soluzione rivendicata, allentandone però significativamente le maglie.

Nella pronuncia, si legge che “la plausibilità è stata pensata per precludere rivendicazioni speculative, che garantirebbero all’inventore in poltrona un monopolio ingiustificato su un settore di ricerca a cui non ha dato alcun contributo reale. Non è invece pensato per precludere la concessione di brevetti in caso di previsioni in buona fede che si fondino su qualche base, seppur manifestamente incompleta… Pertanto, una domanda non può ritenersi speculativa se fornisce una teoria ragionevole sul perché l’invenzione dovrebbe funzionare”.

Riformando la sentenza, la Corte Suprema è invece giunta a conclusioni ben più rigide.

Secondo la Corte, nonostante il vaglio non debba essere particolarmente severo, “non può essere ridotto a poco più di un test di buona fede… e non può ritenersi soddisfatto da una previsione fondata su prove trascurabili”. Pertanto, “l'effetto rivendicato deve essere reso plausibile da specifiche che dimostrino che valeva la pena di provare qualcosa non solo perché c'era una possibilità astratta che possa funzionare, ma perché erano stati rivelati ragionevoli motivi scientifici per aspettarsi che avrebbe funzionato” (Warner-Lambert Company LLC (Appellant/Cross-Respondent) v Generics (UK) Ltd t/a Mylan and another (Respondents/Cross-Appellants) (supremecourt.uk)).

Per attenuare un onere probatorio apparentemente gravoso in capo al titolare della domanda di brevetto, che da più parti ha trovato severe critiche, si è di recente fatta largo una tesi mediana - prospettata già nella dissenting opinion espressa giudici che componevano il collegio della Corte Suprema nel menzionato caso Warner-Lambert vs Generics -, che suggerisce di invertire la prospettiva, precludendo di fare affidamento su prove successive solo laddove la soluzione fosse al momento della domanda di brevetto prima facie implausibile.

Chiaro è che l’incertezza interpretativa non può sopravvivere a lungo, ed è perciò che la questione è stata deferita all’Enlarged Board of Appeal, a cui è richiesta una pronuncia nomofilattica che chiarisca quale, tra le teorie sviluppatesi e di seguito riassunte, appare maggiormente compatibile con il dato normativo:

  1. Plausibilità ab initio: i dati post-pubblicati possono essere utilizzati per dimostrare l’effetto tecnico purché questo fosse già plausibile alla luce della domanda di brevetto e delle conoscenze generali dell’esperto del ramo.
  2. Implausibilità ab initio: i documenti post-pubblicati possono essere utilizzati per dimostrare l’effetto tecnico, purché questo non fosse implausibile alla luce della domanda di brevetto e delle conoscenze generali dell’esperto del ramo.
  3. Nessuna plausibilità: i documenti post-pubblicati possono sempre essere utilizzati, indipendentemente dal fatto che la soluzione proposta fosse plausibile o implausibile al momento della domanda.

La decisione, sebbene muova dalla valutazione della plausibilità nel contesto dell’attività inventiva e non anche della sufficiente descrizione, non solo indirizzerà le future pronunce, ma avrà ripercussioni immediate sulle strategie di brevettazione delle imprese.

La soluzione più rigorosa, che sposi l’orientamento della plausibilità ab initio, rappresenterebbe un forte ostacolo a domande di brevetto c.d. speculative e uno strumento a presidio della principale ratio sottesa al sistema brevettuale. Dall’altro lato, tuttavia, renderebbe particolarmente difficile l’individuazione, nell’iter di ricerca e sviluppo, del momento in cui depositare una domanda di brevetto. Peraltro, le domande di brevetto aventi ad oggetto previsioni più o meno incerte rappresentano sovente, nel settore farmaceutico, uno strumento fondamentale per piccole e medie imprese che necessitano di raccogliere fondi per proseguire le ricerche. L’impossibilità di fare affidamento su una domanda di brevetto potrebbe dunque interrompere linee di ricerca in realtà potenzialmente valide.

La soluzione più permissiva, che elimini del tutto il requisito della plausibilità, lascerebbe verosimilmente un considerevole margine a inventori che intendano brevettare mere supposizioni, creando così un ostacolo per coloro che sono magari in procinto di conseguire l’invenzione a seguito di ingenti - e concreti - sforzi in ricerca e sviluppo.

Prevedere una presunzione di innocenza in favore del titolare della domanda di brevetto, consentendo il ricorso a dati successivi a meno che la soluzione non fosse implausibile all’epoca del deposito della domanda di brevetto, potrebbe forse rivelarsi la soluzione che meglio bilancia le contrapposte esigenze.

Quale che sia la decisione adottata dall’organo europeo, la c.d. plausibilità, i suoi contorni e le sue implicazioni rimarranno con buone probabilità tra i temi più dibattuti e attuali nel panorama brevettuale, e saranno verosimilmente presto affrontati anche dal Tribunale Unificato dei Brevetti (UPC), che diverrà finalmente operativo il 1° giugno 2023.

Su un simile argomento può essere interessante l’articolo “Novità in materia di Brevetto Unitario: l’EPO rende disponibili i moduli per la richiesta”.

 

Gaming & Gambling

Una riforma rivoluzionaria del settore del gambling è in arrivo?

Nell’ambito della riforma fiscale è prevista una riforma innovativa che introduce significativi cambiamenti normativi nel settore del gambling in Italia.

La riforma fiscale conferirà al Governo il potere di stabilire nuove regole per il settore del gambling, confermando il regime di concessioni e autorizzazioni come modello organizzativo per il gioco e stabilendo principi e criteri guida per la sua riorganizzazione.

La riforma darà priorità all'attuazione di misure tecniche e normative per proteggere i giocatori più vulnerabili.  Queste misure comprendono la riduzione dei limiti di scommessa e delle vincite, la formazione continua dei gestori e degli operatori, il rafforzamento dei meccanismi di autoesclusione e l'introduzione di caratteristiche minime per le sale da gioco.

Inoltre, la riforma razionalizzerà la distribuzione territoriale e numerica delle sale da gioco fisiche e introdurrà sistemi di gioco a distanza non modificabili.  Questa soluzione garantirà che i giocatori giochino sempre in un ambiente sicuro e controllato.

Oltre a queste misure, la riforma combatterà il gioco illegale e le infiltrazioni criminali aumentando la trasparenza e i requisiti KYC per gli individui coinvolti nel settore.  Garantirà inoltre che i comuni abbiano voce in capitolo nella pianificazione e nell'autorizzazione delle sale da gioco, tenendo conto della distanza dai luoghi sensibili in tutto il Paese.

Nel complesso, il settore del gambling è destinato a subire una trasformazione significativa che darà priorità alla sicurezza dei giocatori e promuoverà pratiche di gioco responsabile. Tuttavia, la domanda principale è se tali cambiamenti saranno mai attuati. In effetti, il governo italiano, almeno nell'ultimo decennio, ha tentato in più occasioni di riformare il settore del gioco. Ma la pressione politica dei comuni che non volevano rinunciare alla loro discrezionalità e degli operatori non ha portato ad alcun cambiamento sostanziale.

Vale la pena ricordare, tuttavia, che il livello dei controlli sulle operazioni di gioco nel mercato del gambling italiano è notevolmente più elevato rispetto ad altre giurisdizioni, grazie a sistemi in grado di monitorare a distanza sia le operazioni online che quelle terrestri. Tuttavia, la riforma del mercato del gioco dovrebbe modernizzare le normative e trovare un migliore equilibrio tra la protezione dei giocatori e la promozione del mercato.

Su un argomento simile, si può trovare il seguente articolo “Sanzione di € 750K contro Meta per violazione del divieto di pubblicità del gioco”.

 

Technology, Media and Telecommunications

Pubblicato il testo unico di revisione e semplificazione degli indicatori di qualità dei servizi di comunicazioni mobili e personali

Il 28 febbraio scorso, l’AGCom ha pubblicato la delibera 23/23/CONS, recante disposizioni in materia di qualità e carte dei servizi di comunicazioni mobili e personali.

La delibera in commento fa seguito a una consultazione pubblica “inerente a disposizioni in materia di qualità e carte dei servizi di comunicazioni mobili e personali” avviata con la delibera 251/22/CONS.

Come si legge nella delibera 23/23/CONS, la rapida evoluzione nelle tecnologie e nelle prestazioni che caratterizzano il servizio di trasmissione dati a banda larga, che consente l’accesso a internet da postazione mobile, ha reso necessarie ulteriori modifiche alla delibera 154/12/CONS che disciplina la valutazione della qualità di tale servizio, al fine di introdurre soluzioni implementative generali e specifiche, che tengano conto dell’evoluzione del servizio di trasmissione dati a banda larga. Tale delibera era stata già in passato modificata con le delibere 580/15/CONS, 125/19/CONS e 118/21/CONS.

La delibera in commento, come indicato nel comunicato stampa del 13 febbraio che ne ha preceduto la pubblicazione, ha la finalità di razionalizzare e unificare la disciplina sui criteri relativi alla qualità e alle carte dei servizi di comunicazioni mobili e personali che gli operatori sono tenuti a rispettare. Il provvedimento dispone la riduzione del numero di indicatori di qualità (KPIs), eliminando quelli tecnologicamente superati o non in linea con le Linee guida del BEREC, e la modifica di quelli vigenti tenendo conto della crescente diffusione delle reti mobili 5G. Con la delibera 23/23/CONS si è inoltre inteso riallineare la regolamentazione dei KPIs al nuovo Codice delle comunicazioni elettroniche, come da ultimo modificato con D.lgs. 8 novembre 2021, n. 207.

Di interesse, ad esempio, l’allegato 1 alla delibera 23/23/CONS, che reca le informazioni relative alle prestazioni delle offerte di accesso a internet che gli operatori devono pubblicare sul proprio sito web e rendere disponibili all’utente, tramite un prospetto, prima della conclusione del contratto. Tali informazioni minime devono riguardare (i) il nome commerciale dell’offerta; (ii) la copertura per le diverse tecnologie; (iii) le velocità massime stimate della connessione per le diverse tecnologie; (iv) le velocità pubblicizzate della connessione; (v) le eventuali misure applicate in rete con impatti sulla velocità di connessione ad Internet; (vi) la disponibilità di meccanismi di QoS; (vii) il supporto del servizio VoLTE; (viii) antivirus, firewall e (ix) l’assistenza tecnica.

Gli allegati da 2 a 6 della delibera hanno invece ad oggetto gli indicatori di qualità dei servizi di comunicazioni mobili e personali, nonché le relative definizioni, i metodi ed i periodi di misurazione, in applicazione di quanto previsto dall’art. 98-sedecies del nuovo CCE, ai sensi del quale l’Autorità è chiamata a precisare “i parametri di  qualità del servizio da misurare, i metodi di misura applicabili e il contenuto, la forma e le modalità della pubblicazione, compresi meccanismi di certificazione della qualità”. Tali allegati sono rispettivamente dedicati ai seguenti indicatori di qualità: (i) reclami sugli addebiti; (ii) accuratezza della fatturazione; (iii) tempo di attivazione del servizio; (iv) accessibilità al servizio voce e (v) probabilità di mantenimento della connessione voce.

La qualità del servizio dati a banda larga e le prestazioni delle reti mobili che lo implementano sono valutate tramite apposite campagne di misure sul campo (drive test), previste nell’ambito del progetto MisuraInternet Mobile. Come si apprende dall’art. 8 della delibera in commento, tali campagne riguardano i servizi e le prestazioni forniti dagli operatori che, al 31 dicembre dell’anno precedente la misurazione, garantivano una copertura pari ad almeno il 50% della popolazione nazionale. I risultati dei drive test sono poi espressi attraverso parametri tecnici – per l’appunto, i KPIs – che, come si legge nell’art. 8 della delibera, devono consentire di valutare almeno “la velocità in download ed in upload attraverso l’utilizzo di protocolli tipici del trasferimento di file, la capacità di browsing di pagine web, utilizzando sia protocollo http che https, l’efficienza della trasmissione e commutazione di pacchetto in termini di ritardo, variabilità del ritardo e tasso di perdita dei pacchetti, l’efficienza del servizio video in streaming”.

Le misurazioni eseguite dagli operatori con riferimento a tali indicatori sono oggetto di report semestrali e annuali da trasmettersi all’Autorità per ogni periodo di rilevazione previsto. Inoltre, gli operatori sono chiamati a fissare annualmente i propri obiettivi per la qualità dei servizi di comunicazione mobili e personali con riferimento agli indicatori di cui agli allegati da 2 a 6.

Su un simile argomento può essere interessante l’articolo “AGCom adotta il Testo Unico di revisione e semplificazione degli indicatori di qualità del servizio mobile”.

 

Machine Learning in ambito assicurativo: i risultati dell’indagine IVASS

L'IVASS (Istituto per la vigilanza sulle assicurazioni) ha pubblicato i risultati di un'indagine svolta nel 2022 sull'utilizzo di algoritmi di Machine Learning (ML) da parte delle compagnie assicurative nei rapporti con gli assicurati. L'indagine ha coinvolto 93 compagnie e rientra in una più ampia strategia dell’IVASS volta ad analizzare evoluzione e impatto dell’Insurtech, favorendo lo sviluppo digitale in un contesto di tutela per i consumatori.

Dall’indagine emerge che poco meno della metà delle compagnie intervistate (40 su 93) utilizza sistemi di intelligenza artificiale (AI) e che la gran parte di esse (33) utilizza sistemi di machine learning.

Tra i principali ambiti di utilizzo vi sono la prevenzione delle frodi e la gestione dei sinistri, principalmente in ambito r.c. auto, i processi di assunzione del rischio, il pricing e l’identificazione delle intenzioni di abbandono dei clienti (modelli c.d. di churn).

In termini di governance dei sistemi di intelligenza artificiale/machine learning, la maggior parte delle compagnie partecipanti all’indagine non si è ancora dotata di policy specifiche. Soltanto una compagnia ha indicato di aver adottato una policy specifica, mentre altre 19 hanno dichiarato che ne stanno sviluppando e 5 di non aver ancora programmato nulla in tal senso.

Anche l’impatto su altre policy aziendali (ad esempio, risk management, compliance, internal auditing o IT) risulta per il momento limitato: 19 compagnie hanno indicato di non aver modificato le loro policy in virtù dell’impiego di sistemi di intelligenza artificiale/machine learning, mentre 7 stanno portando avanti un processo di adeguamento delle policy esistenti.

Interessante notare che più della metà delle compagnie che utilizzano algoritmi di ML abbia dichiarato di essersi dotata di meccanismi interni per valutare la fairness verso gli assicurati e rilevare esclusioni o discriminazioni dei clienti. Il principio di correttezza e non discriminazione rientra tra i sei principi fondamentali individuati da EIOPA nel suo paper del 2021 in materia di AI etica e affidabile in ambito assicurativo, assieme a proporzionalità, trasparenza e spiegabilità, controllo umano, data governance e record keeping, robustezza e performance. Le imprese che non si sono dotate di presidi in tema di fairness verso i clienti hanno dichiarato di non averne bisogno per la natura degli algoritmi impiegati e dei dati trattati.

Quanto al controllo umano, tutte le compagnie partecipanti all’indagine che impiegano sistemi di ML adottano un approccio “human in the loop”, con una supervisione umana che verifica i risultati e prende la decisione finale sul processo. In tema di trasparenza e spiegabilità, le compagnie che hanno indicato di utilizzare modelli di machine learning chiusi hanno previsto l’affiancamento di strumenti che aiutano a spiegarne le logiche e il funzionamento interno, al fine di evitare o limitare il c.d. effetto “black box”.

Infine, in termini di modalità di realizzazione e implementazione dei sistemi di machine learning, la maggior parte delle compagnie ha dichiarato di aver sviluppato progetti interni in partnership con fornitori tecnologici, mentre una minoranza (20%) di avvalersi di servizi in outsourcing.

Su un simile argomento, potrebbe interessarti: “Open Insurance: gli scenari per il 2023 e le principali strategie legali” e “Principi di IA governance per il settore assicurativo secondo l’EIOPA”.

 

Fintech

DLT e tokenizzazione: Linee Guida ESMA, Regime Pilota e il nuovo Decreto-Legge di attuazione.

Sono tante le novità per il settore della tokenizzazione; a pochi giorni dall’entrata in vigore del Regolamento (EU) 2022/858 c.d. Regime Pilota, è stato approvato dal Consiglio dei Ministri un decreto-legge che permette l’attuazione del nuovo regime di sperimentazione europeo sulla gestione delle infrastrutture di mercato per la negoziazione degli gli strumenti finanziari DLT.

Il 23 marzo 2023 entra finalmente in vigore il Regime Pilota, ciò significa che è permesso ai gestori delle infrastrutture di mercato di richiedere l’autorizzazione alla negoziazione su piattaforme DLT di strumenti finanziari nell’ambito della loro tokenizzazione, conformemente alle disposizioni previste dal Regime Pilota. All’inizio di questo mese, infatti, ESMA ha rilasciato le sue ultime linee guida relativamente alla compilazione delle richieste di autorizzazione per la gestione di una infrastruttura di mercato basata su tecnologie DLT e, quindi, l’ammissione al nuovo regime sperimentale europeo.

Tali linee guida non presentano particolari aggiornamenti rispetto a quelle pubblicate nel Dicembre dell’anno scorso. Tuttavia, giova ricordare che gli operatori economici hanno evidenziato alcune incertezze in punto di (i) chiarezza definitoria tra DLT permissioned e permissionless; (ii) definizione dell’istituto della c.d. strategia di transizione previsto dall’art. 7 del Regime Pilota; e (iii) chiarezza dei requisiti previsti per l’accesso alle infrastrutture di mercato da parte delle persone fisiche diverse da investitori qualificati.

Rispetto ai punti sopra, secondo l’autorità europea (ESMA), in una DLT permissioned i partecipanti non possono svolgere qualsiasi azione (riferendosi al registro DLT), mentre in una DLT permissionless i partecipanti sono liberi da vincoli in lettura e scrittura nel registro DLT. Secondariamente, secondo ESMA i requisiti di buona reputazione, concetto già ripreso all’interno della direttiva MiFID II (2014/65/EU), e sufficiente conscenza della tecnologia DLT dipendono sia dall’eventuale presenza di carichi pendenti, segnalazioni da parte delle autorità regolatorie etc., sia rispetto alle valutazioni che le autorità nazionali dovranno effettuare sulle competenze tecniche persona fisica (valutazione del curriculum, precedenti esperienze nell’ambito della tokenizzazione, progetti DLT etc).

Da ultimo, il Consiglio dei Ministri ha approvato un decreto-legge per semplificare la sperimentazione delle attività di tecno-finanza (FinTech) ma, soprattutto, regolamentare la circolazione degli strumenti finanziari “digitali” e facilitare il processo di tokenizzazione di tali strumenti. Il testo introduce delle norme per l’attuazione del Regime Pilota sulle infrastrutture di mercato DLT, che consente di registrare le operazioni relative agli strumenti finanziari e digitali in un archivio condiviso tra dispositivi o applicazioni informatiche in rete.

Su di un simile argomento, il seguente articolo può essere di interesse “La tokenizzazione di bond su blockchain per 60 milioni di euro”.


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna AngillettaGiordana BabiniCarolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila CrisciCristina Criscuoli, Tamara D’AngeliChiara D’Onofrio, Federico Maria Di Vizio, Enila EleziChiara Fiore, Emanuele Gambula, Laura Gastaldi, Vincenzo Giuffré, Filippo GrondonaNicola LandolfiGiacomo Lusardi, Valentina Mazza, Lara MastrangeloMaria Chiara Meneghetti, Deborah Paracchini, Tommaso Ricci, Rebecca Rossi, Massimiliano Tiberio, Alessandra Tozzi, Giulia Zappaterra

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea e Flaminia Perna.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena VareseAlessandro Boso Caretta, Ginevra Righini.

È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.