Abstract_Lights_P_0152

2 agosto 202427 minuti di lettura

Innovation Law Insights

2 agosto 2024
Artificial Intelligence

Pubblicata la bozza di impegni del Patto AI che anticipa la conformità all'Intelligenza Artificiale

L'AI Act è stato pubblicato e, in previsione della sua piena applicabilità, l'Ufficio per l'IA ha lanciato il Patto sull'IA, incoraggiando le organizzazioni ad adottare in modo proattivo le disposizioni chiave del Regolamento.

Questa iniziativa mira a garantire un uso responsabile dell'IA e a mitigare i rischi per la salute, la sicurezza e i diritti fondamentali.

Che cos'è il Patto sull'IA?

L'"AI Pact" è un impegno volontario per le organizzazioni che iniziano ad allinearsi alle norme dell'AI Act prima che diventino obbligatorie. Partecipando al Patto, le organizzazioni possono essere di esempio, dimostrando la loro dedizione alle pratiche etiche di IA e preparandosi al futuro panorama normativo. Il Patto delinea diversi impegni fondamentali e aggiuntivi che le organizzazioni possono adottare in base al loro ruolo nell'ecosistema dell'IA.

L'Ufficio per l'IA ha pubblicato la bozza di impegni e si ringrazia Elinor Wahal per la condivisione. Di seguito un'analisi dei contenuti.

Impegni fondamentali per le organizzazioni partecipanti

Le organizzazioni che aderiscono al Patto sull'IA accettano di attuare tre impegni principali:

  1. Adottare una strategia di governance dell'IA;
  2. Mappare i sistemi di IA ad alto rischio;
  3. Promuovere l'alfabetizzazione all'IA.

Impegni aggiuntivi per un impatto più ampio

Mentre gli impegni principali gettano le basi, le organizzazioni sono incoraggiate a perseguire ulteriori obiettivi in base al loro ruolo specifico nella catena del valore dell'IA. Tali impegni variano per i fornitori di IA e per i deployer di IA:

Per i fornitori di IA:

  • Identificazione dei rischi;
  • Policy per la qualità dei dati;
  • Tracciabilità;
  • Informazioni sugli utenti;
  • Supervisione umana;
  • Mitigazione del rischio;
  • Trasparenza nell'interazione con l'intelligenza artificiale;
  • Marcatura dei contenuti;

Per i deployer di IA:

  • Mappatura del rischio;
  • Supervisione umana nell'implementazione;
  • Etichettatura dei contenuti;
  • Notifica agli utenti;
  • Trasparenza sul posto di lavoro.

Il percorso da seguire: trasparenza e responsabilità

Le organizzazioni che partecipano al Patto sull'IA stanno definendo uno standard di trasparenza e responsabilità nell'utilizzo dell'IA. Condividendo pubblicamente i loro impegni e riferendo sui loro progressi, queste organizzazioni non solo dimostrano la loro dedizione a pratiche etiche di IA, ma stimolano anche la fiducia dei consumatori, degli stakeholder e delle autorità di regolamentazione.

Il Patto sull'IA offre un'opportunità unica alle organizzazioni di essere leader nell'adozione responsabile dell'IA. Anticipando ed implementando le disposizioni chiave dell'AI Act, le organizzazioni partecipanti possono mitigare i rischi, promuovere l'innovazione e garantire che i benefici siano realizzati in modo etico e sostenibile.

Si tratta di una tappa fondamentale in un processo in cui le aziende vogliono adottare i sistemi di IA e sono disposte a minimizzare i rischi legati alle potenziali sfide e generare la fiducia dei propri clienti e dipendenti per sfruttare al meglio l'IA.

Autore: Giulio Coraggio

L'assicurabilità del rischio da IA: il punto di vista di un broker

Si discute sempre di più di rischio legato all'intelligenza artificiale e di come le aziende possano ottenere una copertura assicurativa per proteggersi in questo ambito. Abbiamo intervistato due esponenti del mondo dell'intermediazione assicurativa: Alessandra Corsi e Rossella Bollini di MARSH ci hanno fornito il loro punto di vista sulle sfumature della copertura del rischio da IA e sull'evoluzione del ruolo dell'assicurazione nella mitigazione delle responsabilità legate all'IA.

1. Dal punto di vista del broker, come sta rispondendo il mercato assicurativo alla copertura del rischio da IA

Il mercato assicurativo, soprattutto dopo l’esplosione della GenAI, ha iniziato a monitorare l’emersione di nuovi rischi legati allo sviluppo e all’utilizzo di soluzioni di intelligenza artificiale sia per anticipare le richieste degli assicurati che per iniziare a gestire in modo efficiente l’esposizione sul portafoglio assicurativo. Siamo ancora agli inizi e proprio per questo è fondamentale avere uno sguardo globale sull’argomento. Dalla nostra prospettiva, in America e in alcuni paesi europei c’è più fermento, gli assicurati percepiscono la sfida, si interrogano su come trasferire il proprio rischio AI al mercato assicurativo e spingono gli assicuratori affinché diano risposte e propongano soluzioni. Finora nel mercato italiano – sia dal punto di vista della domanda che dell’offerta – non identifichiamo iniziative particolari ma ci aspettiamo che questo cambi nel prossimo futuro, visto l’interesse dagli assicuratori ad apportare valore aggiunto per i loro clienti con soluzioni sempre più innovative.

2. Nel contesto di mercato descritto, come viene gestita l’esposizione al rischio AI? È possibile fare affidamento su prodotti tradizionali?

Al momento esiste un solo prodotto assicurativo ad hoc per il rischio AI, distribuito da uno dei principali player del mercato riassicurativo. Per il resto, i clienti in cerca di copertura possono valutare altre linee di prodotto più tradizionali come le polizze cyber, professional indemnity, crime, intellectual property o product liability dove tipicamente i sinistri e/o le circostanze legate all'AI non sono ancora specificamente esclusi. Si tratta di una copertura prestata in modo c.d. “silent”: non affermativamente inclusa e non esplicitamente esclusa. Per fare qualche esempio, se i dati di addestramento e i dati di input interiorizzati dal modello di AI vengono accidentalmente divulgati in qualità di output causando un data breach, potrebbe attivarsi la polizza cyber; ancora, se una frode viene perpetrata con la tattica del deepfake, la polizza crime potrebbe coprire. Per ridurre il livello di incertezza, stiamo assistendo alla lenta introduzione di clausole affirmative riguardanti la copertura di scenari di sinistro cyber e crime che coinvolgono l'intelligenza artificiale ma si tratta, per il momento, di casi sporadici.

3. Quali sono secondo voi i rischi potenzialmente trasferibili con una polizza AI?

È un tema complesso, dipende dal tipo di esposizione, dall’attività svolta e dalla propensione al rischio dell’assicurato: si potrebbe decidere di coprire i danni diretti – assicurando le prestazioni dell'IA sviluppata in proprio (“home-grown”) – oppure eventuali profili di responsabilità civile nei confronti di terzi, contrattuale o extracontrattuale. A seconda dell’attività svolta dall’assicurato potrebbe essere rilevante coprire il rischio da allucinazioni e false informazioni, violazione della privacy, violazioni della proprietà intellettuale o produzione di output discriminatori.

Va da sé che è necessario un certo grado di personalizzazione per dare forma ad un prodotto che si adatti alle esigenze dell'assicurato.

4. I metodi di sottoscrizione tradizionali rimangono rilevanti e applicabili nel mondo dell'intelligenza artificiale?

Parzialmente; facciamo un confronto con il processo di sottoscrizione del rischio cyber. Per quanto si tratti di un rischio complesso e articolato il mercato assicurativo si è assestato sull’utilizzo dello strumento del questionario, talvolta affiancato a scansioni perimetrali o interviste one-to-one con la funzione IT/CISO: si tratta, quindi, di un percorso lineare. Per il rischio AI potrebbe non essere così semplice. Per quantificare il rischio sarà necessario identificare il set informativo necessario caso per caso (deployer, user, tipologia di AI coinvolta, rischio che si desidera trasferire) da valutare insieme ai dati sull'addestramento del modello e sui controlli post-deployment. Anche il tema della quantificazione del danno in caso di sinistro è molto complesso: si pensi ad un prodotto AI venduto alle banche per distinguere le transazioni lecite dalle frodi. In questo caso il fornitore potrebbe voler sottoscrivere una polizza che copra le situazioni di scarsa performance del prodotto. Per aggirare la difficoltà nel quantificare il danno potrà essere necessario fissare una soglia, ad esempio garantendo che il modello rilevi almeno il 99% di tutte le transazioni fraudolente: la Compagnia assicurativa sarà tenuta all’indennizzo qualora l'IA non riesca a fornire quanto promesso.

5. Vi è capitato di notificare sinistri ai sensi di polizze IA o comunque relative a danni causati da IA? Se sì, per quale tipo di sinistro?

Come Marsh, la maggior parte dei sinistri a cui abbiamo assistito che coinvolgono l’utilizzo di GenAI si concentrano nell’ambito delle frodi. Si tratta di trasferimenti fraudolenti di fondi ottenuti generando in dipendenti l’erronea convinzione di star adempiendo richiese legittime, provenienti da soggetti interni in azienda. Tali sinistri vengono generalmente aperti ai sensi della polizza crime. L'IA generativa viene utilizzata anche per perfezionare gli attacchi di phishing (attualmente uno dei principali vettori di ransomware), rendendoli più credibili e aumentando così il tasso di successo.

6. Quali sono le vostre previsioni per il prossimo futuro?

Verosimilmente il percorso sarà lo stesso a cui abbiamo assistito per il rischio cyber: ad un certo punto gli assicuratori avranno necessità di quantificare e monitorare l’esposizione al rischio AI insito nei prodotti assicurativi tradizionali nella misura in cui questo potrebbe determinare, al verificarsi di sinistri, un impatto significativo e inatteso sulla profittabilità dei loro portafogli. Per farlo, ci aspettiamo che i mercati riassicurativi e i Lloyds inizieranno ad imporre clausole di esclusione AI sulle polizze cyber, professional indemnity e crime creando contestualmente la necessità di colmare il vuoto di copertura. L’auspicio è che a quel punto i prodotti assicurativi specifici per l'IA siano pronti e performanti, supportati da un processo di sottoscrizione definito e replicabile e da un meccanismo di quantificazione delle perdite costantemente prevedibile.

Autori: Giacomo Lusardi, Karin Tayel

 

Data Protection & Cybersecurity

Crittografia: l'Agenzia per la Cybersicurezza Nazionale aggiorna le linee guida

L'Agenzia per la Cybersicurezza Nazionale (ACN) ha aggiornato lo scorso 22 luglio le linee guida sulle funzioni crittografiche, le quali si focalizzano sulla confidenzialità dei dati e sulle tecniche di preparazione alla minaccia quantistica.

Come specifica l'ACN, la crittografia consente di proteggere le comunicazioni nel mondo digitale in maniera sicura ed efficiente e i documenti aggiornati consentono di orientarsi più agevolmente tra le specifiche degli algoritmi crittografici e di comprendere meglio il funzionamento dei cifrati e l'interazione con i messaggi da inviare. Tra le linee guida già pubblicare a dicembre 2023, vi erano indicazioni sulla conservazione delle password, indicazioni sulle funzioni di hash crittografiche – fondamentali per la cybersicurezza, in quanto le loro proprietà consentono di verificare l'alterazione di un dato o di un messaggio – nonché sui codici di autenticazione del messaggio, i quali permettono di garantire l'integrità di un messaggio e di verificare l'identità del mittente.

Nelle linee guida si specifica come la crittografia sia nata per proteggere la confidenzialità dei dati già dai tempi antichi, soprattutto in ambito militare, garantendo che le comunicazioni segrete non fossero intercettate da nemici. Originariamente basata su cifrari alfabetici, si è evoluta verso la codifica binaria nel XX secolo, diventando essenziale con la diffusione dei sistemi digitali. Oggi, la crittografia è cruciale per la protezione dei dati sensibili sul web, nelle transazioni finanziarie online, nel supporto di tecnologie quali la blockchain e le identità digitali.

La crittografia è un ambito che, evolvendo dai suoi inizi pratici, si è arricchito di fondamenti teorici. Consiste nella cifratura di messaggi attraverso l'uso di chiavi crittografiche per ottenere un messaggio cifrato, rendendo la decifratura reversibile. Gli algoritmi possono essere deterministici o probabilistici. Il passaggio dalla crittografia simmetrica, con una chiave condivisa, alla crittografia asimmetrica, con chiavi pubbliche e private, ha risolto il problema della distribuzione sicura delle chiavi. La sicurezza di un cifrario è valutata in base alla sua resistenza agli attacchi, come il tentativo forza bruta. Con l'avvento dei computer quantistici sono emerse nuove sfide e soluzioni, come la crittografia post-quantum e la crittografia quantistica basata sui principi della fisica quantistica.

Le linee guida trattano anche il tema della crittoanalisi, come processo di analisi di un sistema crittografico al fine di trovare delle possibili debolezze all'interno della sua struttura che consentano di progettare attacchi migliori di quello a forza bruta, inficiandone così la sicurezza. Si specifica che la crittoanalisi di un cifrario non è utilizzata solamente per scopi malevoli, ma è alla base del processo di validazione di un sistema crittografico.

Il documento, dell'ACN funge da introduzione per la serie "Linee Guida Funzioni Crittografiche" prodotta dalla Divisione Scrutinio Tecnologico e Crittografia del Servizio Certificazione e Vigilanza dall'ACN con lo scopo di aumentare il grado di consapevolezza dei produttori e dei fornitori di servizi digitali per gli aspetti relativi alla cybersicurezza, incentivando l'utilizzo di soluzioni crittografiche sicure e moderne, capaci di sventare rischi quali il furto di identità e di denaro o, in generale, la compromissione della sicurezza dei dati.

Autrice: Alessandra Faranda

 

Intellectual Property

Brevettabilità dell'intelligenza artificiale: la pronuncia dalla Corte d'Appello UK nel caso Emotional Perception

Le intersezioni tra intelligenza artificiale e diritti di proprietà intellettuale sono da tempo al centro di numerosi dibattiti, e il rapido avvento della tecnologia ha spesso posto gli interpreti innanzi a scenari non espressamente contemplati dal legislatore.

È il caso, ad esempio, della brevettabilità dei sistemi di intelligenza artificiale.

Da un lato, la più parte degli ordinamenti prevedono che i programmi per computer e i modelli matematici possano accedere alla tutela brevettuale solo qualora implichino un effetto tecnico; è invece generalmente esclusa la possibilità di brevettare i programmi per computer e i metodi matematici in quanto tali (v., ad es., l'art. 52 della Convenzione sul brevetto europeo). Dall'altro lato, ammettere la brevettabilità di sistemi di AI potrebbe in qualche misura favorire gli investimenti in innovazione e la condivisione delle conoscenze.

Il 19 luglio 2024, la Corte d'Appello del Regno Unito ha emesso un'importante pronuncia sul tema (Comptroller-General of Patents v Emotional Perception AI Ltd).

Il caso aveva ad oggetto una domanda di brevetto rivendicante un sistema basato su una rete neurale artificiale ("ANN") per la selezione e classificazione di contenuti multimediali a seconda della percezione emotiva che di essi possono avere gli utenti. Declinata ad esempio nel contesto musicale, la tecnologia consentirebbe di proporre all'utente di una piattaforma musicale brani classificati in base alle emozioni che generano, a prescindere dal genere musicale a cui appartengono.

La domanda era stata dapprima rigettata dall'UK Intellectual Property Office (UKIPO), ma la decisione era stata in seguito revocata dal tribunale di primo grado (High Court). Di qui l'appello proposto dall'UKIPO.

Ai fini di valutare l'applicabilità delle norme che ne escludono la brevettabilità, la Corte d'Appello si è anzitutto interrogata sulla nozione di programma per computer. A detta dei Giudici, si tratta di un "insieme di istruzioni per l'esecuzione di un'operazione da parte di un computer", intendendosi per computer qualsiasi "macchina che processa informazioni".

Ciò chiarito, il secondo quesito cui dare risposta è divenuto il seguente: può un sistema di AI come quello rivendicato essere trattato alla stregua di un programma per computer?

La risposta è stata affermativa: una rete neurale artificiale, ivi inclusi i diversi parametri su cui si fonda, è pur sempre un insieme di istruzioni per l'esecuzione di un'operazione da parte di una macchina.

A questo proposito, disattendendo le tesi del titolare della domanda di brevetto, la Corte ha ritenuto che nessuna rilevanza possa essere attribuita alle peculiarità di un sistema ANN rispetto ai più tradizionali programmi per computer. Tra queste, il minor ruolo dell'uomo nella definizione delle istruzioni, la soluzione da parte della rete neurale artificiale di problemi difficilmente risolvibili da un programmatore umano, il fatto che non si tratta di un programma fondato sulla logica "if-then", o ancora il fatto che la macchina impari da sé mediante l'elaborazione di una determinata quantità di informazioni.

Il ragionamento si è quindi concentrato sulla sussistenza o meno di un effetto tecnico, necessario affinché il programma possa qualificarsi come invenzione brevettabile. Considerato che il sistema in oggetto si caratterizzava essenzialmente per la presentazione all'utente di contenuti multimediali aderenti ai gusti o desideri degli utenti, il requisito è tuttavia stato escluso, e conseguentemente riformata la decisione di primo grado.

Seppur succintamente, la Corte ha infine evidenziato che, anche qualora un sistema neurale artificiale non fosse qualificato alla stregua di un programma per computer, difficilmente potrebbe sfuggire dalla nozione di metodo matematico. L'analisi da condurre, dunque, sarebbe analoga.

In conclusione, l'insegnamento che può trarsi dalla decisione è che la brevettabilità di un sistema di AI basato su una rete neurale artificiale non è esclusa di per sé, ma dipende dalla sussistenza o meno di un contributo tecnico. In mancanza, troveranno applicazione le norme che escludono la brevettabilità dei programmi per computer e dei metodi matematici in quanto tali.

La pronuncia, tra le prime ad esprimersi sul tema della brevettabilità delle invenzioni aventi ad oggetto sistemi di intelligenza artificiale, è coerente con l'approccio sino ad oggi adottato dall'European Patent Office (Artificial intelligence). Allo stato non è dato sapersi se la vertenza proseguirà innanzi alla Corte Suprema. Quel che è certo è che la decisione rappresenterà un importante precedente nel panorama giurisprudenziale, anche oltre i confini del Regno Unito.

Autore: Massimiliano Tiberio

Elvis Act: l'intelligenza artificiale generativa nella legge sul diritto d'autore e sulla pubblicità

Il 21 marzo 2024 il Tennessee ha promulgato l'Ensuring Likeness and Image Security (Elvis Act), una legge pionieristica entrata in vigore il 1° luglio 2024. Questa legge mira a proteggere autori, artisti e professionisti dell'industria musicale dai potenziali pericoli dettati dall'uso non autorizzato delle loro voci ed immagini da parte dell'intelligenza artificiale generativa.

L'Elvis Act (che prende il nome dall'icona della musica Elvis Presley) rappresenta un risultato significativo nella protezione del diritto d'autore, ma il suo aspetto più innovativo risiede nella sua estensione al diritto della pubblicità, compreso l'uso illegale delle voci degli artisti. Con il crescente utilizzo dell'IA generativa negli Stati Uniti e in tutto il mondo per creare voci e immagini realistiche, infatti, la reputazione, l'immagine e il valore commerciale dei singoli artisti sono spesso minacciati. Questa legge mira a contrastare tali minacce regolando l'uso dell'IA generativa e garantendo che gli artisti mantengano il controllo sulla propria identità.

La presente misura mira quindi a proteggere gli artisti da potenziali problemi, soprattutto economici, legati al plagio computerizzato della loro voce o della loro immagine, ormai alla portata di qualsiasi applicazione o comune programma. Con la promulgazione dell'Elvis Act, gli artisti disporranno di una legislazione specifica per chiedere il risarcimento dei danni derivanti dall'uso non autorizzato della loro identità, compresi i cloni vocali e le immagini realistiche generate senza consenso.

Questa nuova legge rappresenta un passo importante verso l'adeguamento delle leggi all'era delle nuove tecnologie, che oggi non solo servono come strumenti creativi ma facilitano anche la diffusione delle cosiddette repliche digitali. L'Elvis Act arriva infatti in un momento in cui sono in atto numerose controversie legali contro gli sviluppatori di IA per l'uso improprio di contenuti protetti dal diritto d'autore.

Un esempio significativo è il caso dell'attrice Scarlett Johansson, che nel 2023 ha intentato una causa contro un'app che aveva creato una pubblicità utilizzando la sua immagine e la sua voce senza autorizzazione. Allo stesso modo, gli eredi del comico George Carlin hanno citato in giudizio i creatori del podcast Dudesy per aver utilizzato la voce di Carlin in un video su YouTube, violando così le leggi sul copyright e sulla pubblicità. Un altro caso rilevante è Young v. NeoCortext Inc., in cui i partecipanti al reality show The Big Brother hanno avviato una class action contro uno sviluppatore di software per l'uso non autorizzato delle loro immagini.

L'esplosione di queste controversie e di altri rischi ha reso necessaria la creazione di norme specifiche per proteggere i diritti d'autore e di pubblicità degli artisti, in pericolo nell'era dell'IA generativa. L'Elvis Act, risposta significativa a questa esigenza, rappresenta uno degli sviluppi più recenti in questo settore.

Con l'IA in rapida evoluzione, ogni giurisdizione deve continuare ad adattarsi per proteggere gli artisti e i loro diritti in un mondo sempre più digitale. È proprio quello che sta accadendo ultimamente: anche in Europa il tanto atteso Regolamento sull'IA è stato pubblicato sulla Gazzetta Ufficiale, segnando un significativo passo avanti in questa direzione.

Autrice: Rebecca Rossi

 

Gaming and Gambling

Notificate alla Commissione Europea le nuove regole per il gioco d'azzardo a distanza in Italia

Le regole tecniche per le nuove licenze italiane per il gioco d'azzardo a distanza sono state notificate alla Commissione Europea, una delle ultime tappe prima del lancio della gara per le nuove licenze in Italia.

Che cos'è la notifica alla Commissione Europea?

Il diritto dell'UE prevede la notifica alla Commissione europea di progetti legislativi riguardanti prodotti e servizi della società dell'informazione, in modo che gli Stati membri dell'UE e le altre parti interessate possano presentare osservazioni entro un periodo di tre mesi, il cosiddetto periodo di "standstill".

In questo contesto, l'Italia ha notificato alla Commissione europea: "Il progetto di regole tecniche contiene specifiche che definiscono le prestazioni e le funzioni nonché i requisiti tecnici che il concessionario deve garantire per l'esercizio e la raccolta a distanza dei giochi pubblici", ovvero le regole tecniche che definiscono il regime applicabile alle nuove licenze per il gioco a distanza che saranno rilasciate entro la fine del 2024.

Cosa prevede la nuova normativa sulle licenze italiane per il gioco a distanza?

Il regime applicabile alle licenze per il gioco a distanza non sarà completamente modificato. Le piattaforme per il gioco d'azzardo a distanza continueranno a scambiare messaggi in tempo reale con i server del fornitore tecnico dell'autorità italiana per il gioco d'azzardo secondo i cosiddetti protocolli di comunicazione, che sono messaggi predeterminati.

Le norme notificate stabiliscono il regime di verifica della conformità tecnica, specificano i requisiti tecnici minimi e riguardano la struttura informatica dell'operatore e le caratteristiche necessarie del sistema informativo. Questo sistema comprende diversi componenti:

  • Il sistema di gioco per l'erogazione dei servizi
  • Il sistema di presentazione dell'offerta di gioco (sito web e app)
  • Il sistema di contabilità per la determinazione degli importi dovuti
  • Il sistema di monitoraggio e controllo dell'infrastruttura hardware e software
  • La rete di connessione telematica per il trasporto delle informazioni.

È obbligatorio che le risorse necessarie per l'infrastruttura di sistema dell'operatore risiedano all'interno dello Spazio economico europeo, anche se si utilizzano soluzioni di cloud computing.

Disposizioni specifiche assicurano la massima capacità, disponibilità, scalabilità, prestazione, sicurezza e garanzia di riservatezza dei dati. Sono inoltre previste misure per le azioni di vigilanza e controllo dell'Autorità italiana per il gioco d'azzardo. Particolare enfasi è posta sui meccanismi di prevenzione della dipendenza dal gioco d'azzardo, come le autolimitazioni, le autoesclusioni e le funzioni di blocco.

Le regole riguardano anche il regime applicabile agli operatori che forniscono servizi per altri concessionari. In questi casi, i sistemi di gioco devono essere fisicamente o logicamente separati in base al tipo di gioco, garantendo l'isolamento dei dati di ciascun concessionario.

Cosa succederà in seguito?

Il periodo di standstill terminerà il 18 ottobre 2024, quindi la gara per le nuove licenze di gioco italiane non potrà essere lanciata prima di tale data. Una volta superato questo traguardo, a meno che non sia necessario apportare modifiche alle regole, l'ADM, l'autorità italiana per il gioco d'azzardo, lancerà una gara per le nuove licenze i cui termini principali dovrebbero essere i seguenti:

  • Tutte le licenze italiane per il gioco a distanza scadranno entro la fine dell'anno e non potranno essere rinnovate. È possibile richiedere una nuova licenza che probabilmente verrà accorpata a quella già in possesso degli operatori attualmente presenti sul mercato per garantire la continuità delle operazioni. Non c'è un limite massimo al numero di nuove licenze, ma ogni gruppo non potrà detenere più di cinque licenze e ci sarà un periodo di tempo limitato per richiedere la licenza;
  • Il prezzo per ogni licenza novennale sarà di 7 milioni di euro per licenza, a cui si aggiungerà una tassa di licenza annuale pari al 3% del GGR al netto delle tasse sul gioco d'azzardo. Inoltre, gli operatori dovranno investire un importo pari allo 0,2% del loro GGR al netto delle imposte sul gioco d'azzardo in campagne di gioco responsabile;
  • Sono previsti requisiti molto severi per soddisfare i criteri di idoneità e sono aumentate le potenziali sanzioni come deterrente per gli operatori;
  • Vengono introdotte limitazioni sostanziali ai siti "skins"/"white label", poiché ogni licenza può essere collegata solo a un sito web con un nome di dominio di primo livello italiano e il logo dell'operatore deve essere mostrato sulla homepage del sito. Non sono state introdotte disposizioni per consentire l'aggiunta di ulteriori skin a fronte del pagamento di un'eventuale tassa;
  • I negozi che vendono carte di ricarica per trasferire fondi ai conti di gioco (i cosiddetti PVR) devono essere iscritti in un registro specifico e pagare una tassa annuale di 100 euro per negozio. Inoltre, qualsiasi attività di gioco d'azzardo o di prelievo di fondi dai negozi sembra essere limitata;
  • Vengono introdotte norme più rilevanti contro l'offerta di giochi in Italia attraverso siti web di gioco d'azzardo privi di licenza e anche attraverso l'attuazione di misure di blocco dei pagamenti.

Dato il prezzo elevato delle nuove licenze, si assiste a notevoli operazioni di fusione e acquisizione: gli operatori più grandi stanno acquisendo quelli più piccoli e stanno unendo i loro database di giocatori.

Autore: Giulio Coraggio

Il TAR conferma la sanzione per violazione del divieto di pubblicità del gioco sui contratti di affiliazione: implicazioni per gli operatori del gioco in Italia

In una recente sentenza, il Tribunale Amministrativo Regionale (TAR) del Lazio ha confermato una significativa sanzione imposta dall'Autorità per le Garanzie nelle Comunicazioni (AgCom) riguardante il divieto di pubblicità del gioco d'azzardo in Italia. Questa sentenza, Decisione n. 13241/2024, ha profonde implicazioni per i contratti adottati dagli operatori di gioco in Italia.

Contesto del Caso

Il caso riguarda Vincitù S.r.l., un titolare di concessione di gioco online, multato di EUR 388.453,93 da AgCom (Delibera n. 121/24/CONS) per aver violato il divieto di pubblicità del gioco in Italia. Questo divieto, codificato nell'Articolo 9 del Decreto-legge n. 87/2018 (comunemente noto come "Decreto Dignità"), proibisce tutte le forme di pubblicità, sponsorizzazione e comunicazioni promozionali relative al gioco d'azzardo con vincite in denaro.

L'indagine di AgCom, avviata da un'ispezione della polizia, ha portato alla luce numerosi contratti promozionali e di affiliazione presso la sede di Vincitù. In particolare, AgCom ha identificato 30 contratti promozionali denominati "accordi per la promozione di giochi pubblici a distanza per conto del concessionario Vincitù S.r.l." e 20 contratti di affiliazione.

Risultati Chiave e Implicazioni

Tra i contratti promozionali, due sono stati identificati come comunicazioni pubblicitarie, in particolare quelli con Top Ads, che promuovevano i siti di gioco di Vincitù tramite il creatore di contenuti Spike Slot sui social media. Gli altri 28 contratti non hanno prodotto prove di contenuti promozionali illegali. Tuttavia, all'interno dei contratti di affiliazione, è emerso che molti, tranne cinque con società intermediari, violavano il divieto di pubblicità del gioco d'azzardo in Italia. Queste violazioni includevano link di tracciamento utilizzati per identificare nuovi giocatori provenienti dai siti web affiliati, che facilitavano il calcolo delle commissioni basate sui depositi e le scommesse dei giocatori.

La decisione del TAR di confermare la sanzione di AgCom ha confermato diversi punti critici:

  • Violazione di Vincitù: Il tribunale ha convalidato i risultati di AgCom secondo cui le attività promozionali di Vincitù violavano il divieto di pubblicità del gioco d'azzardo in Italia.
  • Ampia Portata del Divieto: La sentenza ha rafforzato l'ampia portata del divieto di pubblicità del gioco d'azzardo in Italia, sottolineando la sua applicazione a tutte le forme di contenuto promozionale.
  • Responsabilità delle Piattaforme: La decisione ha evidenziato l'obbligo delle principali piattaforme di implementare sistemi organizzativi robusti, inclusi strumenti automatizzati e intelligenza artificiale, per garantire il rispetto del divieto.

Transazioni Commerciali e Conformità

Gli accordi di affiliazione degli operatori di gioco, che coinvolgono contenuti relativi al gioco con vincite in denaro, richiederanno una struttura interna per conformarsi al divieto di pubblicità del gioco d'azzardo in Italia. La sentenza sottolinea la necessità per gli operatori di gioco italiani di:

  • Rivedere i Contratti: Assicurarsi che tutti gli accordi promozionali e di affiliazione rispettino il quadro giuridico stabilito dal Decreto Dignità.
  • Implementare Sistemi di Monitoraggio: Sviluppare e implementare sistemi avanzati di monitoraggio e conformità per prevenire eventuali violazioni involontarie.
  • Regolamentazione dei Contenuti: Curare attentamente i contenuti che informano sui prodotti e servizi di gioco d'azzardo per garantire che non violino il divieto di pubblicità.

Conclusione

La decisione del TAR di confermare la sanzione di AgCom contro Vincitù segna un precedente significativo nell'applicazione del divieto di pubblicità del gioco d'azzardo in Italia. Questa sentenza serve come promemoria cruciale dell'importanza della rigorosa conformità alle leggi pubblicitarie italiane. Gli operatori del gioco e le rispettive parti contrattuali dovranno conformarsi alle regole sulla pubblicità di gioco anche da un punto di vista formale, considerando che gli accordi commerciali che producono effetti sul pubblico italiano devono rispettare le limitazioni stabilite dalle linee guida italiane sulla pubblicità del gioco con vincite in denaro.

Autore: Vincenzo Giuffré


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna Angilletta, Matteo Antonelli, Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Alessandra Faranda, Nadia FeolaLaura Gastaldi, Vincenzo GiuffréNicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Rebecca Rossi, Roxana Smeria, Massimiliano TiberioGiulia Zappaterra.

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su Transfer, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.