Abstract_Lights_P_0152

22 maggio 202521 minuti di lettura

Innovation Law Insights

22 maggio 2025
Rivista giuridica sull'AI

Diritto Intelligente – È ora disponibile il numero di maggio

Il numero di maggio della rivista in tema di AI, pubblicata dal team italiano del dipartimento Intellectual Property and Technology di DLA Piper, è ora disponibile con gli ultimi aggiornamenti sulle sfide legali dell'AI Act. È possibile leggerlo al link disponibile qui.

 

Artificial Intelligence

AI Act literacy: le domande e risposte della Commissione europea innalzano il livello oltre la semplice formazione

La conoscenza della legge sull'IA è al centro dell'ultimo aggiornamento normativo, poiché la Commissione europea ha pubblicato una serie di domande e risposte che chiariscono i requisiti di conoscenza previsti dall'articolo 4 dell'AI Act, già applicabili dal 2 febbraio 2025.

Queste nuove linee guida confermano ciò che i professionisti del settore legale e della conformità sospettavano: soddisfare gli obblighi dell'AI Act significa andare ben oltre i moduli di formazione generici e richiede un approccio strutturato e basato sul rischio alla governance dell'uso dell'AI all'interno delle organizzazioni.

I punti chiave delle domande e risposte sull'alfabetizzazione sull'AI Act

Le FAQ illustrano in dettaglio come le organizzazioni devono affrontare la competenza in materia di AI. Non è più sufficiente organizzare una sessione di sensibilizzazione annuale. L'AI Act richiede invece iniziative personalizzate e continue che riflettano le responsabilità e i rischi reali associati a ciascun ruolo che interagisce con i sistemi di AI.

Ecco cosa sottolinea la Commissione europea:

  1. Competenza in materia di AI significa capacità, non solo consapevolezza. Il personale deve comprendere, utilizzare e valutare i sistemi di IA in modo responsabile, compresi i loro limiti e i potenziali danni.
  2. La formazione deve essere specifica per ogni ruolo. Sviluppatori, utenti e deployer richiedono livelli e tipi di formazione sull'AI diversi, in linea con le loro responsabilità tecniche e aziendali.
  3. L'alfabetizzazione sull'IA si applica agli attori esterni, compresi i fornitori di servizi e gli appaltatori terzi, non solo ai team interni.
  4. L'obbligo di cui all'articolo 4 si applica anche in scenari di AI non ad alto rischio se il sistema incide sui diritti, sulla sicurezza o sui servizi essenziali delle persone.
  5. Le organizzazioni devono valutare le conoscenze, le responsabilità e l'esposizione al rischio, non limitarsi a fornire un corso standardizzato.

Conoscenza dell'AI Act significa governance, non solo conformità

Le FAQ lo chiariscono: la conoscenza dell'AI Act è un pilastro della governance dell'AI, non un'iniziativa a sé stante. Per conformarsi, le organizzazioni devono integrare la conoscenza in un modello organizzativo più ampio, che include:

  • Regole di governance interna per la progettazione, l'implementazione e la supervisione dei sistemi di AI
  • Politiche e procedure allineate alla classificazione dei rischi dell'AI Act (ad esempio, rischio minimo, limitato, elevato)
  • Processi di miglioramento continuo che garantiscano che i sistemi rimangano spiegabili, trasparenti e allineati agli standard etici e legali

In altre parole, la formazione è solo il punto di partenza. Le organizzazioni devono creare una cultura della responsabilità e dell'uso informato dell'AI, coinvolgendo tutte le parti interessate nel ciclo di vita dell'AI.

Perché la conoscenza dell'AI Act dovrebbe essere una priorità ora

La pubblicazione delle FAQ invia un messaggio forte: la conoscenza dell'AI Act non è una casella da spuntare, ma un requisito legale con conseguenze operative concrete. Le autorità di regolamentazione si aspettano evidenza di una formazione strutturata, chiarezza su chi è stato formato e in che modo, nonché politiche documentate che garantiscano che la conoscenza faccia parte del quadro di gestione dei rischi dell'AI dell'organizzazione.

Per rispondere in modo efficace, le aziende dovrebbero:

  • Condurre una valutazione della conoscenza e dei rischi in tutte le funzioni relative all'AI
  • Sviluppare piani di formazione specifici per ruolo supportati dalla leadership legale, di conformità e tecnica
  • Istituire una funzione di supervisione centrale (come un Chief AI Officer o un AI Compliance Officer) per gestire gli sforzi di alfabetizzazione e governance

Considerazioni finali

La conoscenza dell'AI Act è più di una parola d'ordine normativa: è un invito all'azione per le organizzazioni in tutta l'UE e oltre. Con le FAQ della Commissione europea ora disponibili, le aziende devono ripensare il modo in cui formano, governano e gestiscono i loro sistemi di AI.

Il mancato inserimento dell'alfabetizzazione sull'AI in un modello di governance strutturato non solo espone le organizzazioni al rischio di non conformità, ma potrebbe anche causare danni alla loro reputazione, sfiducia da parte degli utenti e inefficienze operative. Leggi questo articolo per conoscere le nostre raccomandazioni su come strutturare la governance dell'AI “La vostra organizzazione ha implementato un modello di governance dell’AI?".

Sull'argomento, potresti trovare interessante anche il nostro AI Law Journal, clicca QUI per vedere gli ultimi numeri.

Autore: Giulio Coraggio

 

Data Protection & Cybersecurity

Linee guida della Consumer Protection Cooperation Network: nuove raccomandazioni sulle microtransazioni e l’utilizzo di valute virtuali nei videogiochi

La Consumer Protection Cooperation Network (Rete di Cooperazione per la Tutela dei Consumatori) della Commissione Europea ha pubblicato le nuove linee guida sull'uso di valute virtuale nei videogiochi ("Linee Guida"), le quali definiscono una serie di principi volti a regolamentare le microtransazioni e l’offerta di valute virtuali nei videogiochi. Sebbene prive di valore vincolante, le Linee Guida forniscono indicazioni fondamentali per le aziende del settore videoludico al fine di orientare la propria attività verso pratiche trasparenti e conformi alla normativa in materia di tutela del consumatore.

Le microtransazioni e le valute virtuali

Le microtransazioni (i c.d. acquisti in game) sono operazioni di pagamento, di regola di importo contenuto, realizzate all’interno dei videogiochi. Tali operazioni vengono effettuate in cambio di contenuti digitali come skin, oggetti, potenziamenti, ovvero per l'acquisto di valute virtuali da utilizzarsi per ulteriori acquisti. Queste transazioni, sebbene di importo generalmente contenuto, possono sommarsi rapidamente e portare a spese ingenti, in particolare se il giocatore è un soggetto potenzialmente vulnerabile. Il meccanismo delle microtransazioni si basa frequentemente sull’impiego di valute virtuali acquistabili con denaro reale, elemento che può rendere meno trasparente il costo effettivo degli oggetti digitali, confondendo il consumatore. Ancora, alcune dinamiche, come i “loot box”, in cui l'esito dell'acquisto è incerto, richiamano le meccaniche del gioco d'azzardo. Per tali ragioni, le microtransazioni e le valute virtuale sono oggetto di crescente attenzione da parte delle Autorità Europe, al fine di garantire il massimo rispetto della normativa in materia di consumatori.

Le linee guida per le imprese: principi fondamentali e misure operative

La CPC Network ha individuato sette principi chiave per guidare gli sviluppatori e le aziende videoludiche nell’offerta di valute virtuali, con l’obiettivo di rispettare la normativa europea ed evitare pratiche ingannevoli o scorrette.

  1. Trasparenza del prezzo: il prezzo dei contenuti digitali deve essere chiaramente espresso in denaro reale, anche se viene effettuato attraverso valute virtuali. Infatti, l’uso di valute virtuali – aggiungendo un livello di astrazione tra l’atto del pagamento e la spesa effettiva – rende più difficile per il consumatore comprendere l'importo reale connesso a un determinato acquisto effettuato con valute virtuali. In tal senso, alcune azioni, come indicare sempre il prezzo in valuta reale accanto a quello in valuta virtuale, possono rafforzare la trasparenza e garantire la piena cognizione da parte del consumatore del valore reale d'acquisto del prodotto in game.
  2. Divieto di pratiche che oscurano i costi: le Linee Guida sottolineano la necessità di evitare strutture complesse con più livelli di valute virtuali o conversioni che rendano difficile calcolare il valore reale degli acquisti, al fine di prevenire la confusione dell’utente rispetto al costo effettivo dei beni digitali. Ad esempio, offrire un numero eccessivo di diversi tipi di valuta virtuale in un unico gioco (e.g. "gemme", "oro", "token") potrebbe essere ritenuto un meccanismo confusorio che rende difficile determinare l'equivalente monetario finale dell'acquisto in game.
  3. Acquisto di valuta non desiderata: impedire bundle di valuta virtuale che obblighino il consumatore ad acquisti superiori a quanto effettivamente richiesto per l’acquisto di un contenuto. Ad esempio, offrire la valuta virtuale solo in pacchetti (e.g. 500 monete), quando un oggetto costa 450 monete, lasciando “resti” inutilizzabili, e non permettere all’utente di selezionare la quantità esatta di valuta da acquistare, potrebbero essere considerate tecniche per "forzare" il consumatore ad acquisti superiori di quelli che effettivamente vorrebbe effettuare per l'acquisto del contenuto specifico.
  4. Informazioni precontrattuali chiare: viene sottolineata la necessità di fornire tutte le informazioni rilevanti prima dell’acquisto (e.g. le caratteristiche del contenuto, i diritti del consumatore, i metodi di pagamento e il diritto di recesso). Questi obblighi valgono sia per acquisti in denaro reale che tramite valuta virtuale.
  5. Rispetto del diritto di recesso: le Linee Guida sottolineano la centralità del diritto di recesso per gli acquisti effettuati in game, ivi inclusi gli acquisti effettuati con valute virtuali. Pertanto, è fondamentale garantire il recesso per eventuali valute virtuali inutilizzate e non limitarlo impropriamente.
  6. Contratti e clausola vessatorie: in conformità con la normativa consumeristica, i termini contrattuali devono essere redatti in linguaggio chiaro e non devono contenere clausole che limitino i diritti del consumatore o permettano modifiche unilaterali ingiustificate da parte del venditore. Impedire clausole che generano squilibri tra diritti e doveri di consumatori e sviluppatori.
  7. Rispetto delle vulnerabilità del consumatore: infine, le Linee Guida sottolineano l'importanza di evitare pratiche che sfruttino la vulnerabilità di determinati gruppi, come i minori o i cosiddetti “whales” (utenti disposti a spendere cifre elevate), e adottare meccanismo a tutela dei gruppi vulnerabili (e.g. minori) prevedendo sistemi di controllo parentale e meccanismi di protezione efficaci. Inoltre, sotto il profilo pubblicitario, le Linee Guida fanno riferimento alla necessità di evitare la progettazione di messaggi pubblicitari che esortino direttamente i bambini a comprare.

Conclusione

Le linee guida pubblicate dalla Consumer Protection Cooperation Network mirano ad offrire un chiaro Quadro di riferimento per il future della regolamentazione delle microtransazioni e delle valute virtuali nei videogiochi. Sebbene non vincolanti, queste raccomandazioni costituiscono in gran parte una specificazione ed esemplificazione della normativa a tutela del consumatore nel campo dei videogiochi, costituendo altresì una chiara indicazione delle aspettative regolamentari nei confronti delle pratiche commerciali adottate nei giochi. Pertanto, è fondamentale per le imprese del settore considerare attentamente la questione e prevedere sistemi di microtransazioni e di valute virtuali che siano conformi alla normativa.

Su un argomento simile può essere d'interesse l'articolo "Nuova Licenza SIAE per Videogiochi, Metaverso e Realtà Aumentata"

Autore: Federico Toscani

 

Intellectual Property

Influencer marketing: lo IAP pubblica il report annuale per il 2024 e il report Almed

In data 29 aprile 2025, l'Istituto di Autodisciplina Pubblicitaria ("IAP") ha pubblicato il Report Annuale in relazione all'attività svolta nel 2024 ("Report Annuale"). Negli stessi giorni, inoltre, è stato pubblicato anche il report 2024 realizzato dallo IAP in collaborazione con Almed (Alta Scuola in media Comunicazione e Spettacolo) dell'Università Cattolica del Sacro Cuore ("Report Almed") sul monitoraggio della trasparenza nell'influencer marketing, con l'obiettivo di verificare il livello di trasparenza della comunicazione degli influencer in Italia.

Dai dati del Report Annuale emerge che, nel corso del 2024, lo IAP ha rilasciato 103 pareri preventivi, impiegando, in quasi l'80% dei casi, solo 1 giorno per fornire il proprio parere. Si segnala che i settori merceologici che hanno richiesto più pareri preventivi sono: (i) finanze e assicurazioni (26%); (ii) alimenti e bevande (16%); e (iii) elettronica e telefonia (14%).

Dal Report Annuale risulta che nel 2024 lo IAP ha esaminato 238 casi (in aumento rispetto all'anno 2023). Ben 202 casi si sono risolti in via breve, ovvero sono stati definiti grazie alla collaborazione dell'inserzionista nell'emendare, su richiesta del Comitato di controllo, il messaggio pubblicitario, ovvero sono stati archiviati per assenza di contrasto con le norme del Codice. Lo IAP ha invece disposto 21 ingiunzioni, chiedendo agli inserzionisti coinvolti di cessare la diffusione di messaggi ritenuti non conformi al Codice. I dati del Report Annuale indicano che, nel corso del 2024, lo IAP ha emesso 15 pronunce.

Dal Report Annuale, dunque, risulta una crescita della prevenzione in materia di pubblicità, una riduzione dei provvedimenti sanzionatori, e la centralità del tema dell'influencer marketing, in cui restano in primo piano le questioni della trasparenza e della corretta segnalazione dei contenuti pubblicitari in attesa della prossima pubblicazione del Codice di Condotta.

Un ulteriore dato di rilievo, sempre in materia di influencer marketing, è fornito dai risultati del monitoraggio sulla trasparenza presentati con il Report Almed. Tale monitoraggio ha analizzato 333 influencer italiani attivi in un semestre nei settori fashion, beauty, family e finance, al fine di verificare il livello di trasparenza della comunicazione degli influencer in Italia. In particolare, la scelta dei contenuti da monitorare è stata fatta selezionando dai 144.831 contenuti pubblicati su Instagram, TikTok e YouTube nei mesi considerati nel monitoraggio i contenuti contenenti espliciti riferimenti a brand, ovvero oltre 8.000 contenuti pubblicitari, per valutarne la trasparenza e la correttezza.

I dati mostrano un panorama positivo. Infatti, il 76% dei contenuti analizzati sono stati ritenuti conformi alle normative di trasparenza, il 20% presenta comunicazioni non pienamente conformi, mentre solo il 4% dei contenuti non viene comunicato come tale e dunque risulta in violazione delle regole. La percentuale più alta di contenuti conformi si registra su Instagram, seguita da YouTube, mentre su TikTok si registra una trasparenza ancora incerta caratterizzata da percentuali più alte delle altre piattaforme sia di contenuti non conformi (6,1%) sia di contenuti non pienamente conformi (27,8%).

Il monitoraggio ha consentito di evidenziare che esistono dei formati rispetto ai quali è più difficile esplicitare in modo corretto la presenza di advertising. Infatti, i dati mostrano che le stories di Instagram e i video su TikTok risultano i più problematici per la corretta segnalazione dell’advertising. Queste percentuali così elevate sono verosimilmente attribuibili alla ampia diffusione di questi formati tra gli influencer, nonché a possibili difficoltà di natura tecnica o espressiva nell’adattarli alla normativa vigente.

Il Report Almed evidenzia anche che i diversi settori che sono stati oggetto del monitoraggio presentano tra loro delle differenze significative:

  • nel settore fashion l'advertising è piuttosto trasparente, con il 90% di contenuti conformi. Instagram risulta essere la piattaforma più problematica per il settore con il 18,6% dei contenuti non trasparenti e il 49,2% dei contenuti solo parzialmente conformi;
  • il settore beauty, invece, presenta solo il 70% di contenuti conformi, con una zona grigia significativa, con il 26% dei contenuti non pienamente conformi, soprattutto in relazione ai formati short video su TikTok e Instagram, in cui l'elemento che appare maggiormente problematico è che la dicitura #adv non è correttamente evidenziata;
  • i settori finance e family risultano i settori più critici. In particolare, più del 10% dei contenuti promozionali pubblicati dai family influencer non è trasparente perché non presenta nessuna indicazione esplicita della presenza di advertising. Ciò, probabilmente, è dovuto al fatto che molti family influencer, spesso micro-influencer (con meno di 50.000 follower), sembrano non aver ancora consolidato le pratiche di trasparenza pubblicitaria, anche per timore di compromettere il rapporto di fiducia con il proprio pubblico.

In conclusione, il Report Almed evidenzia come, sebbene la trasparenza nell’influencer marketing in Italia sia in generale crescita, persistano criticità specifiche, in particolare nei formati brevi e nei settori emergenti. I dati raccolti mostrano una diffusione significativa di pratiche comunicative trasparenti da parte degli influencer, ma allo stesso tempo rilevano anche la presenza di comunicazioni non corrette o solo parzialmente conformi, laddove, ad esempio, la presenza dell'advertising è comunicata, ma in modo non conforme al Regolamento Digital Chart IAP. Tali aree grigie, in cui la natura commerciale dei messaggi non è adeguatamente segnalata, sottolineano la necessità di un ulteriore impegno formativo, volto a supportare soprattutto gli influencer più giovani o attivi in segmenti emergenti, affinché possano adottare pratiche comunicative pienamente corrette e trasparenti.

Su un argomento simile può essere d'interesse l'articolo "L’impatto delle Linee Guida AgCom sull’influencer marketing"

Autrice: Carolina Battistella

"Human Authored": l'iniziativa di Authors Guild per la trasparenza nell'uso dell'AI

Negli Stati Uniti, in risposta al sempre più frequente utilizzo dell'intelligenza artificiale (AI), Authors Guild, l'organizzazione che rappresenta scrittori, autori e traduttori, ha recentemente lanciato "Human Authored", un'iniziativa finalizzata a garantire una maggiore trasparenza nel rapporto tra AI, autori e lettori. Attraverso il portale, gli iscritti a Authors Guild possono registrare le proprie opere letterarie, dichiarando formalmente che i contenuti creativi sono frutto dell'intelletto umano e non prodotti da algoritmi e sistemi di AI generativa. I libri che rispettano questi criteri potranno fregiarsi del logo ufficiale, di cui è stata chiesta la registrazione come marchio, che potrà essere riportato su copertine e materiali promozionali.

Secondo i rappresentanti dell'organizzazione il programma "Human Authored" è finalizzato a promuovere trasparenza, permettendo ai lettori di riconoscere in modo chiaro l'origine creativa dell'opera. "Human Authored" significa che il testo del libro è stato scritto da un autore umano e non generato da AI. In ogni caso, non viene vietato completamente l'utilizzo di nuovi sistemi tecnologici, inclusa l'AI. Le linee guida di "Human Authored" prevedono che per poter utilizzare il logo solamente una parte "minima e marginale" del testo sia stata generata o modificata da sistemi di AI, che, quindi, possono essere utilizzati per funzioni accessorie, quali il controllo ortografico e grammaticale, o per attività di brainstorming o ricerca. Ai fini di valutare se l'impiego dell'AI sia minimo, l'organizzazione suggerisce di considerare se un editor umano che effettua le stesse modifiche apportate dal sistema AI potrebbe vantare diritti sull'opera, in assenza di contratto specifico che ne regoli le attività. 

Gli autori che aderiscono all'iniziativa "Human Authored" devono firmare un accordo di licenza per l'utilizzo del logo per ogni titolo registrato, dichiarando e garantendo che l'intero testo dell'opera, ad eccezione di una porzione minima, è stato scritto da una persona e non generato da AI. Sono state previste delle misure per prevenire un uso scorretto della registrazione e del relativo logo, tra cui l'attribuzione di un codice univoco ai titoli registrati, contribuendo così a contrastare illeciti e utilizzi del logo "Human Authored" senza debita licenza. Attualmente il portale è riservato ai membri di Authors Guild, ma l'organizzazione ha annunciato l'intenzione di aprire in futuro l'accesso ad "Human Authored" anche a scrittori non affiliati. L'obiettivo è quello di estendere la cultura della trasparenza nell'utilizzo dell'AI a tutto il panorama editoriale internazionale.

L'iniziativa di Authors Guild sottolinea come l'utilizzo di sistemi di AI nei processi creativi sia effettivamente uno degli argomenti più, soprattutto per quanto riguarda la possibilità di proteggere l'output ai sensi del diritto d'autore. Affinché un'opera sia protetta molte normative nazionali richiedono un contributo di origine umana: ad esempio, in Italia la legge n. 633/1941 (c.d. Legge sul diritto d'autore) fa riferimento al "lavoro intellettuale", richiedendo, quindi, un apporto umano originale. L'opera deve essere, infatti, espressione originale della creatività e dell'ingegno dell'autore. In tale contesto, la trasparenza sul processo creativo, ossia sulla misura in cui l'autore ha utilizzato strumenti di AI, assume un valore determinante non solo per fini etici e reputazionali, ma anche per l'effettiva rivendicazione dei diritti su un'opera.

In quest'ottica, il progetto "Human Authored" risponde ad una crescente sensibilità da parte di lettori e utenti verso la trasparenza sull’origine dei contenuti, in particolare quelli creati interamente o con il supporto di sistemi di AI. Per questo motivo, le principali piattaforme social stanno progressivamente introducendo linee guida per segnalare i contenuti generati o modificati tramite AI, in risposta a crescenti richieste e preoccupazioni da parte degli utenti sui rischi legati alla disinformazione e all'alterazione dei contenuti resi disponibili online. Tali iniziative rafforzano la centralità del principio di garanzia dell'autenticità dell'origine "umana" del contenuto. Grazie alla dichiarazione esplicita sull'uso (o non uso) dell'AI, autori e artisti possono mantenere la fiducia del pubblico, rispondendo alla richiesta collettiva di trasparenza sull'origine di opere e contenuti.

Su un simile argomento potrebbe interessarti: Casa editrice esclude propri libri per il training di sistemi di AI

Autrice: Chiara D'Onofrio

 

Technology Media and Telecommunication

Avvio della consultazione pubblica sulla strategia digitale internazionale

Lo scorso 7 maggio la Commissione europea ha avviato una consultazione pubblica per raccogliere contributi in vista dell’adozione – prevista per giugno 2025 – di una Comunicazione congiunta sulla strategia digitale internazionale dell’UE ("Joint Communication on the International Digital Strategy").

L’iniziativa, promossa congiuntamente dalla Direzione generale per le Reti di comunicazione, dei contenuti e delle tecnologie della Commissione europea ("DG Connect") e dal Servizio europeo per l’azione esterna ("SEAE"), fa seguito all’invito rivolto l'anno scorso dal Consiglio europeo alla Commissione e all'Alta  rappresentante dell'Unione per gli affari esteri e la politica di sicurezza, a presentare una comunicazione congiunta sul rafforzamento della leadership dell'UE negli affari digitali globali, al fine, tra l'altro, di stare al passo con la "corsa tecnologica mondiale" e scongiurare gli eventuali rischi che l'UE si troverebbe altrimenti ad affrontare in termini di competitività.

Nel documento di consultazione viene osservato che, nell'attuale panorama globale, le tecnologie digitali svolgono un ruolo crescente nelle questioni di sicurezza internazionale in diversi settori (quali, per esempio, la cibersicurezza). In tale contesto, la "competitività tecnologica" assume un rilievo specifico e, al fine di garantirla, si rendono necessarie la cooperazione tecnologica internazionale e il commercio con partner e alleati chiave, nonché adeguate politiche di diversificazione e attenuazione dei rischi.

Con riferimento agli obiettivi che si intendono perseguire con l'iniziativa in commento, nel documento in consultazione è indicato che la Comunicazione congiunta sulla strategia digitale internazionale dell’UE mira a definire la strategia per intensificare le azioni interne ed esterne al fine di promuovere la sovranità tecnologica, la democrazia e la sicurezza dell'UE, agendo in stretto coordinamento con gli Stati membri e le imprese tecnologiche dell'UE.

È altresì indicato che l'azione prevista nell'ambito della Comunicazione congiunta si orienterà, tra l'altro, sui punti seguenti:

  • sfruttare la cooperazione digitale con i paesi partner e rafforzare la rete esistente di partenariati e alleanze digitali per rafforzare la competitività tecnologica e la sovranità dell'UE, in linea con gli obiettivi della bussola per la competitività (il cd. "Competitiveness compass", ossia un piano strategico della Commissione Europea che mira a rilanciare l’economia dell’UE e rafforzarne il ruolo globale nell'ambito di innovazione e sostenibilità);
  • azioni concrete in materia di cooperazione internazionale, tra l'altro, nel campo delle tecnologie come l'IA e le tecnologie quantistiche, nonché in materia di cibersicurezza e connettività sicura;
  • formulare un'offerta integrata di soluzioni tecnologiche europee rivolte ai partner internazionali, nell'ambito del Global Gateway (ossia una strategia dell'UE che mira principalmente alla realizzazione di connessioni sostenibili e affidabili), coinvolgendo le imprese tecnologiche e gli innovatori dell'UE al fine di sostenere la trasformazione digitale dei paesi partner;
  • il miglioramento del coordinamento delle posizioni unificate dell'UE nei consessi plurilaterali e multilaterali;
  • l'utilizzo degli strumenti della diplomazia digitale per rafforzare l'impegno dell'UE con i paesi partner.

I soggetti interessati alla consultazione pubblica possono presentare i propri contributi entro il 21 maggio 2025.

Su un simile argomento può essere interessante l’articolo “Adozione definitiva del Gigabit Infrastructure Act”.

Autori: Massimo D'Andrea, Flaminia Perna, Matilde Losa


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo BardelliCarolina BattistellaCarlotta Busani, Noemi CanovaMaria Rita CormaciCamila CrisciCristina CriscuoliTamara D’AngeliChiara D’OnofrioFederico Maria Di Vizio, Enila EleziNadia FeolaLaura GastaldiVincenzo GiuffréNicola LandolfiGiacomo LusardiValentina MazzaLara MastrangeloMaria Chiara MeneghettiDeborah ParacchiniMaria Vittoria PessinaTommaso RicciRebecca RossiDorina.SimakuRoxana SmeriaMassimiliano TiberioFederico Toscani, Giulia Zappaterra.

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna, Matilde Losa e Arianna Porretti.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena VareseAlessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui, consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, e il nostro magazine mensile Diritto Intelligente interamente dedicato all'AI qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.