Abstract_Lights_P_0152

30 maggio 202421 minuti di lettura

Innovation Law Insights

30 maggio 2024
Artificial Intelligence

L'EDPB pubblica il rapporto della Taskforce su ChatGPT evidenziando le principali sfide per la conformità alla privacy dell’IA generativa

L'European Data Protection Board ha pubblicato il Report sulla Taskforce su ChatGPT, che mette in luce importanti problematiche in tema privacy che potrebbero avere un impatto su tutti i developer ed i deployer di soluzioni di IA Generativa. Ecco cosa c'è da sapere.

Web Scraping e trattamento dei dati:

Il Report rivela l'uso del legittimo interesse per la raccolta ed il trattamento dei dati personali per addestrare ChatGPT e stabilisce i limiti in cui, secondo l'EDPB, ciò sarebbe accettabile.

Secondo l'EDPB, l'interesse legittimo può in teoria essere la base giuridica MA devono essere messe in atto misure di salvaguardia per mitigare l'impatto negativo sui soggetti interessati, alterando potenzialmente il test di bilanciamento a favore del titolare del trattamento, come ad esempio

  1. Misure tecniche per filtrare la raccolta dei dati;
  2. Esclusione di determinate categorie di dati e fonti (ad esempio, profili pubblici sui social media); e
  3. Cancellazione o anonimizzazione dei dati personali prima del training.

Criticità - Obblighi di trasparenza:

Quando non è possibile informare gli interessati (come nel caso dello scraping), i titolari del trattamento devono rendere pubbliche le informazioni per tutelare i diritti degli interessati.

Secondo l'EDPB, attualmente:

  1. I metodi di raccolta dei dati di ChatGPT non sono pubblicamente trasparenti;
  2. Gli interessati non possono esercitare facilmente i loro diritti (ad esempio, il diritto all'oblio);
  3. Il sistema produce ancora informazioni personali, il che indica che i dati non sono completamente anonimizzati.
  4. OpenAI sta stringendo accordi con piattaforme come Reddit, che contengono dati personali. Ciò suggerisce - secondo l'EDPB - un continuo affidamento ai dati personali senza sufficienti garanzie.

A mio avviso, l'EDPB deve riconoscere le potenzialità dell'intelligenza artificiale generativa per la nostra società e trovare una soluzione gestibile per bilanciare la conformità con un adeguato sfruttamento della tecnologia. Si tratterebbe di un cambiamento importante nell'approccio delle autorità per la privacy, che raramente hanno un approccio business oriented. Tuttavia, con l'approvazione dell’AI Act, l'UE ha assunto una posizione chiara a favore in relazione all’uso corretto dell'intelligenza artificiale e le autorità dovranno collaborare con gli sviluppatori di IA per trovare soluzioni praticabili.

L'approccio attuale potrebbe non essere nell'interesse generale e una discussione aperta con i fornitori di IA potrebbe aiutare a trovare una soluzione che bilanci adeguatamente gli interessi di tutte le parti coinvolte.

Su un argomento simile può essere d’interesse l’articolo “AI e GDPR: il Garante francese pubblica raccomandazioni sullo sviluppo dell’AI in conformità con il GDPR

Autore: Giulio Coraggio

 

Diritto e IA: adottato il primo trattato internazionale

Il 17 maggio il Consiglio d’Europa ha adottato la Convenzione quadro sull’intelligenza artificiale e i diritti umani. Si tratta del primo trattato internazionale in materia di intelligenza artificiale. Lo scopo è quello di affrontare i rischi che l’uso di tali sistemi può presentare in relazione ai diritti umani, alla democrazia e, in generale, allo Stato di diritto.

La Convenzione contribuisce a formare un quadro comune e armonico nell’approccio che le istituzioni internazionali (europee in primis) intendono adottare al fine di mappare correttamente i rischi generati dai sistemi di IA. Il testo, infatti, è pienamente in linea con quello del Regolamento europeo sui sistemi di intelligenza artificiale (il noto "AI Act"). L’adozione della Convenzione, inoltre, mira ad incoraggiare altri Paesi al di fuori dell'Europa ad adottare misure simili, promuovendo una maggiore coerenza internazionale nella governance dell'IA.

L'obiettivo primario, sancito dall'Articolo 1, è "assicurare che le attività durante l'intero ciclo di vita dei sistemi di IA siano pienamente coerenti con i diritti umani, la democrazia e lo stato di diritto". A tal fine, il trattato delinea regole applicabili a tutte le fasi del ciclo di vista dei sistemi di IA: progettazione, sviluppo, utilizzo e disattivazione, adottando un innovativo approccio incentrato sulla valutazione e gestione dei rischi.

Cuore dell'impianto normativo è l'Articolo 16, che obbliga le Parti ad adottare misure graduate per "identificare, valutare, prevenire e mitigare i rischi posti dai sistemi di IA, considerando gli impatti effettivi e potenziali". L'entità di tali misure dovrà naturalmente essere commisurata alla severità e probabilità di accadimento di conseguenze negative.

Inoltre, viene sancito il principio di responsabilità, imponendo di stabilire l'obbligo di "rendere conto per gli impatti negativi sui diritti umani, la democrazia e lo stato di diritto". L'Articolo 14 prevede poi tutele procedurali e rimedi accessibili per le vittime di violazioni connesse all'uso dell'IA.

Non da ultimo, la Convenzione fissa stringenti requisiti in materia di trasparenza (Art. 8), non discriminazione e parità di genere (Art. 10), protezione della privacy e dei dati (Art. 11). Un focus specifico è posto poi sui rischi per la democrazia, con l'obbligo per le Parti di adottare norme che evitino l'uso distorto dell'IA per minare istituzioni come la separazione dei poteri, l'indipendenza della magistratura e l'accesso alla giustizia (Art. 5).

Un aspetto significativo della Convenzione è l'inclusione di rappresentanti della società civile, dell'industria e del mondo accademico nel processo di negoziazione. Questo approccio inclusivo garantisce che le preoccupazioni e le prospettive di vari stakeholder siano prese in considerazione, migliorando la legittimità e l'efficacia delle norme adottate.

Interessante è poi l’approccio flessibile e "futureproof" scelto dal Consiglio d’Europa. Di fronte alla rapidità con cui i sistemi di IA mutano ed evolvono il Consiglio ha ritenuto opportuno evitare di adottare uno strumento eccessivamente rigido, mitigando il rischio dell’obsolescenza normativa di fronte all’evoluzione della tecnologia (basti pensare alle rilevantissime novità recentemente apportate da OpenAI a ChatGPT con la pubblicazione del nuovo modello 4-omni).

Come spiega il rapporto esplicativo, infatti, i negoziatori hanno volutamente utilizzato formulazioni ampie come "attività nel ciclo di vita dei sistemi di IA" per catturare ogni fase rilevante, attuale e futura. Un'impostazione "tecnologicamente neutrale" per mantenere validità nonostante i veloci progressi dell'innovazione.

Naturalmente, come evidenzia il Consiglio stesso, la promozione della "digital literacy" e delle competenze digitali tra la popolazione costituisce un aspetto essenziale senza il quale la Convenzione rischia di rimanere lettera morta.

In ogni caso, l’intenzione del Consiglio è quella di gettare le basi per uno sviluppo etico e responsabile dell'Intelligenza Artificiale, contemperando innovazione tecnologica e piena tutela dei diritti e delle libertà fondamentali. Un passo di portata rilevantissima che dovrà ora essere concretizzato negli ordinamenti nazionali.

La Convenzione quadro sarà ufficialmente aperta alla firma il 5 settembre a Vilnius. Questo evento segnerà un importante passo avanti nella cooperazione internazionale per affrontare le sfide e sfruttare le opportunità presentate dall'IA in modo responsabile e rispettoso dei diritti fondamentali.

Per un ulteriore approfondimento sul IA e i recenti sviluppi normativi può interessare l’articolo “L’AI Act è stato approvato: Cosa devono fare le aziende ora?

Autore: Edoardo Bardelli

 

Data Protection & Cybersecurity

Il Garante individua le garanzie da osservare negli studi clinici retrospettivi

Lo scorso 9 maggio 2024, il Garante per la protezione dei dati personali ha adottato un provvedimento con cui individua le garanzie da osservare nella conduzione di studi clinici retrospettivi, quando non è possibile acquisire il consenso dei pazienti.

Con lo stesso provvedimento, l’Autorità ha promosso l’adozione di nuove Regolo Deontologiche per i trattamenti a fini statistici e di ricerca scientifica, invitando i soggetti che hanno titolo a sottoscrivere le Regole Deontologiche o che hanno un interesse qualificato a tal riguardo a comunicarlo al Garante, entro 60 giorni dalla pubblicazione del provvedimento sulla Gazzetta Ufficiale.

Il provvedimento si è reso necessario a seguito della recente modifica dell’art. 110 del Codice Privacy (maggiori dettagli qui), con cui è stato eliminato l’obbligo di ottenere l’autorizzazione del Garante per condurre studi retrospettivi “quando, a causa di particolari ragioni, informare gli interessati risulta impossibile o implica uno sforzo sproporzionato, oppure rischia di rendere impossibile o di pregiudicare gravemente il conseguimento delle finalità della ricerca”. Nella nuova versione dell’art. 110, infatti, l’obbligo di consultazione preventiva è stato sostituito con una previsione che prevede l’individuazione, da parte del Garante, delle garanzie da osservare ai sensi dell’articolo 106, comma 2, lettera d), del Codice Privacy.

Il Garante ha dunque chiarito quali siano i “motivi etici o organizzativi” che permettono di trattare, per finalità di ricerca scientifica, dati sanitari di persone decedute o non contattabili. I titolari del trattamento dovranno “accuratamente motivare e documentare” tali motivi nel progetto di ricerca.

Il Garante ha anche precisato che i titolari del trattamento dovranno svolgere e pubblicare una valutazione d’impatto sulla protezione dei dati (DPIA), “dandone comunicazione al Garante”. Questa previsione rappresenta la novità più rilevante e fa sorgere alcune perplessità.

La DPIA era comunque necessaria anche prima della modifica dell’art. 110 del Codice Privacy ma la sua pubblicazione non era prevista. Inoltre, la scelta di una comunicazione al Garante della documentazione relativa allo studio sembra poco giustificabile alla luce del principio di accountability, vista l’eliminazione dell’obbligo di consultazione preventiva dell’Autorità. Non è neppure chiaro se questa comunicazione debba riguardare l’intenzione di avviare lo studio, con tutta la documentazione relativa, o abbia ad oggetto solo la DPIA.

Infine, la DPIA potrebbe contenere informazioni riservate sull’organizzazione dei titolari del trattamento e sulle misure di sicurezza implementate. Riteniamo però che tali informazioni possano essere omesse nella versione della DPIA pubblicata – e non in quella condivisa col Garante – purché il documento contenga una descrizione esaustiva di tutti gli elementi necessari ai sensi dell’art. 35 del GDPR.

Ci auguriamo che le nuove regole deontologiche, di prossima emanazione, possano rappresentare l’occasione per chiarire anche gli aspetti dubbi sopra evidenziati.

Sempre in ambito sanitario, potrebbe interessarti l’articolo “Il Parlamento europeo approva il Regolamento per lo Spazio Europeo dei Dati Sanitari

Autrice: Cristina Criscuoli

 

Videosorveglianza e rilevazione delle presenze: il Garante Privacy sanziona un Comune

Il Garante per la Protezione dei Dati Personali ha recentemente ribadito l'importanza del rispetto delle normative in materia di videosorveglianza nei luoghi di lavoro, comminando una sanzione di 3.000 euro a un Comune per il trattamento illecito di dati personali.

La vicenda

Il caso è emerso a seguito della segnalazione di una dipendente del Comune di Madignano (CR), la quale lamentava l'installazione di una telecamera nell'atrio della sede comunale. La telecamera era stata posizionata in prossimità dei dispositivi di rilevazione delle presenze dei lavoratori.

L'amministrazione comunale aveva utilizzato le immagini, registrate dalla suddetta telecamera, per contestare alla dipendente alcune violazioni dei doveri d'ufficio, tra cui il mancato rispetto dell'orario di servizio. In risposta alla richiesta di chiarimenti da parte del Garante, il Comune ha giustificato l'installazione della telecamera con motivi di sicurezza, citando alcuni episodi di aggressioni subiti da un assessore e da un'assistente sociale.

La decisione del Garante

Durante l'istruttoria, il Garante ha rilevato che il Comune non aveva rispettato le procedure di garanzia previste dalla normativa di settore per i controlli a distanza, infatti l’istallazione della telecamera era avvenuta in assenza dell’accordo con le organizzazioni sindacali, violando così l'art. 4 dello Statuto dei Lavoratori. Inoltre, le immagini di videosorveglianza erano state utilizzate per adottare un provvedimento disciplinare nei confronti della dipendente.

Di conseguenza, l'Autorità ha sanzionato l’amministrazione comunale di Madignano, ingiungendole anche di fornire a tutti gli interessati (sia lavoratori che visitatori presso la sede comunale) un'informativa adeguata sui dati personali trattati mediante l'utilizzo della telecamera in questione. Il Comune non aveva infatti reso disponibile alcuna informativa, violando pertanto anche l'art. 13 del GDPR.

Considerazioni

Questo episodio sottolinea la necessità per le amministrazioni pubbliche e le aziende di garantire un uso responsabile delle tecnologie di videosorveglianza, nel rispetto dei principi di legalità, trasparenza e minimizzazione dei dati. La videosorveglianza nei luoghi di lavoro, pur potendo essere uno strumento utile per garantire la sicurezza, deve essere utilizzata in modo conforme alle normative vigenti, per evitare sanzioni e tutelare i diritti dei lavoratori. In particolare, è essenziale rispettare lo Statuto dei lavoratori e fornire un'informativa chiara e completa sui trattamenti di dati personali effettuati, assicurando così che i diritti alla privacy dei dipendenti siano sempre garantiti.

Su questo argomento, può essere interessante: Sanzionati dal Garante Privacy il Comune di Trento e un condominio per l’utilizzo di sistemi di videosorveglianza

Autore: Matteo Antonelli

 

Intellectual Property

Marchi di lusso e parodia: una combinazione alla moda?

È lecito commercializzare prodotti di abbigliamento che consistono nella parodia di marchi di moda rinomati o tale commercializzazione costituisce violazione di marchio?

La parodia è sempre stato un argomento piuttosto controverso nell'ambito della moda, ma la questione è diventata ancora più rilevante negli ultimi anni a causa dei numerosi brand emergenti che hanno costruito il proprio successo proprio sulla rielaborazione in chiave ironica di marchi di moda rinomati. Mentre alcuni dei brand presi di mira hanno accolto con ironia questo nuovo trend, altri sono stati meno al gioco e hanno citato in giudizio gli autori di tali rielaborazioni.

L'argomento è stato recentemente affrontato in una decisione di un tribunale francese in un caso promosso da una celebre maison di moda contro un produttore di giocattoli statunitense accusato di sfruttare il suo marchio denominativo e il suo marchio relativo al motivo con monogramma multicolore per vendere un giocattolo che richiamava le borse del brand. Il tribunale ha rifiutato di escludere la responsabilità per contraffazione della società convenuta sulla base della parodia, evidenziando come i marchi contestati fossero chiaramente utilizzati a scopo commerciale per "facilitare le vendite del prodotto contestato" a proprio vantaggio. Pronunciandosi a favore della società attrice, i giudici francesi hanno dunque affermato che "l'intento parodistico invocato dalla convenuta è un riconoscimento implicito della contestazione di parassitismo mossa nei suoi confronti, a prescindere dal fatto che lo scopo di questi atti sia beffardo, polemico o meramente umoristico, come si sostiene nel caso di specie", in quanto attraverso l’uso dei marchi azionati sui giocattoli la società si è "posta sulla scia della ricorrente al fine di trarre indebitamente vantaggio dalla reputazione dei suoi marchi, anche se sotto forma di umorismo o derisione". Pertanto, il tribunale ha riconosciuto la contraffazione dei marchi della famosa casa di moda, evidenziando come il loro uso in chiave parodistica avesse danneggiato la reputazione "eccezionale" di tali marchi attraverso il giocattolo della convenuta, che non solo trae "indebito vantaggio dalla reputazione" dei segni dell’attrice, ma è "dannoso per la reputazione [e] il carattere distintivo di questi [marchi]".

In Italia, il tema è stato affrontato in una decisione della Corte di Cassazione che ha capovolto la giurisprudenza consolidata in materia di parodia e marchi (Cass. Pen., Sez. II, n. 35166/2019).

A livello europeo, l'Articolo 9 del Regolamento 2017/1001 afferma che "il titolare del marchio UE ha il diritto di vietare ai terzi, salvo proprio consenso, di usare (…) qualsiasi segno" quando esiste probabilità di confusione da parte del pubblico "in relazione a prodotti e a servizi identici o simili ai prodotti o ai servizi per i quali il marchio UE è stato registrato". La stessa previsione può essere rinvenuta all'Articolo 20 del Codice di Proprietà Industriale. Inoltre, il Considerando 27 della Direttiva 2015/2436 prevede che "L'uso di un marchio d'impresa da parte di terzi per fini di espressione artistica dovrebbe essere considerato corretto a condizione di essere al tempo stesso conforme alle consuetudini di lealtà in campo industriale e commerciale".

Il caso presentato alla Corte di Cassazione si riferisce alla presunta contraffazione di una serie di marchi di moda da parte di un brand italiano di abbigliamento che commercializzava t-shirt caratterizzate da una reinterpretazione parodistica di tali marchi. Ad avviso della Corte, presupposto unico e necessario per la configurazione della violazione di marchio è il rischio di confusione tra il prodotto contestato e quello originale in relazione alla loro provenienza.

Nel presente caso, la Corte ha osservato che i prodotti in questione presentavano evidenti elementi di novità e che perciò potevano essere considerati come una reinterpretazione più che una imitazione dei marchi originali, riconoscendo che lo scopo di tali reinterpretazioni fosse artistico e descrittivo più che imitativo, così escludendo ogni rischio di confusione.

Il medesimo approccio è stato seguito anche in una precedente decisione, in cui la Corte di Cassazione si è concentrata sulle previsioni costituzionali alla base del diritto di parodia, considerato come una forma di espressione artistica e quindi tutelato ai sensi degli Articoli 21 e 33 della Costituzione in relazione rispettivamente alla libertà di espressione e alla libertà artistica (Cass. Pen., Sez. II, n. 9347/2018).

Come già menzionato, queste due decisioni hanno rovesciato la giurisprudenza precedente, tradizionalmente più riluttante ad escludere una violazione di marchio in caso di versioni parodistiche di marchi rinomati.

Ad esempio, in due casi riguardanti l'uso in chiave parodistica di marchi iconici quali quelli di Chanel e Louis Vuitton sulle magliette prodotte e commercializzate da un'impresa terza, il Tribunale di Milano ha chiarito che un simile uso può essere giustificato solamente quando porti alla creazione di un lavoro artistico. La parodia non esclude, invece, la violazione quando il marchio di una casa di moda venga utilizzato per prodotti di terzi come un elemento decorativo. In aggiunta, il Tribunale di Milano ha stabilito che, dal momento che tali prodotti parodistici venivano creati e venduti da altri brand di moda, lo scopo alla base di tali creazioni ironiche fosse principalmente commerciale e solo indirettamente artistico.

Pertanto, nel caso di specie il Tribunale ha ritenuto sussistente il rischio di confusione e di associazione tra i prodotti e che, considerata la reputazione dei marchi imitati, tali usi non autorizzati dei marchi Louis Vuitton e Chanel arrecassero non solo un vantaggio indebito in capo al contraffattore, ma anche un pregiudizio alla reputazione dei marchi imitati (vedi Trib. Milano, R.G. 53747/2012 e Trib. Milano, R.G. 59550/2012).

Nel complesso, la linea che divide la parodia o la creazione artistica ispirata a marchi esistenti da una vera e propria imitazione è sottile e la giurisprudenza italiana si è generalmente schierata con i titolari dei brand oggetto di parodia. I casi più recenti della Corte di Cassazione si sono focalizzati solamente sul rischio di confusione, ma sembrano aver tralasciato il possibile impatto sulla reputazione dei marchi imitati, che è in realtà la ragione stessa per cui essi vengono scelti come oggetto di parodia. Resta dunque da vedere se le recenti decisioni della Cassazione avranno stabilito un nuovo trend tramite cui la parodia sarà considerata una eccezione alla violazione del marchio o se si tratta solo di una moda del momento.

Su un simile argomento può essere interessante l’articolo “La Cassazione sul caso Zorro: bilanciamento tra parodia e diritti di proprietà intellettuale

Autrice: Valentina Mazza

 

Technology Media and Telecommunication

Adozione definitiva del Gigabit Infrastructure Act

Lo scorso 29 aprile il Consiglio dell’Unione Europea ha adottato il Regolamento (UE) 2024/1309, ossia il regolamento sulle infrastrutture Gigabit (“Gigabit Infrastructure Act” o “Regolamento”), presentato a febbraio 2023 dalla Commissione europea nell’ambito del cd. connectivity package, un pacchetto di misure finalizzate alla promozione di infrastrutture che possano garantire a tutti i cittadini e le imprese nell’UE di disporre di una connettività che consenta la velocità di 1 Gigabit al secondo.

Il Regolamento è stato pubblicato l’8 maggio 2024 sulla Gazzetta ufficiale dell’Unione europea.

Il Gigabit Infrastructure Act reca principalmente misure finalizzate a ridurre i costi per la realizzazione di reti di comunicazioni elettroniche in tecnologia Gigabit (ossia, una connettività che consenta la velocità di 1 Gigabit al secondo) e si pone l’obiettivo di incentivare la fornitura di reti ad altissima capacità, promuovendo l’uso congiunto delle infrastrutture fisiche già esistenti e favorendo la realizzazione più efficiente di nuove infrastrutture fisiche.

Il regolamento sulle infrastrutture Gigabit si propone di risolvere una serie di ostacoli che attualmente rallentano l’implementazione delle reti ad altissima velocità.

La disciplina prevede che gli operatori di rete e gli enti pubblici che possiedono o controllano infrastrutture fisiche (anche infrastrutture fisiche all’interno degli edifici – cd. in-building physical infrastructures) siano chiamati a soddisfare, su richiesta scritta di un operatore, tutte le richieste ragionevoli di accesso a tali infrastrutture a condizioni eque e ragionevoli, anche riguardo il prezzo, ai fini dell’installazione di elementi di reti ad altissima capacità o di risorse correlate. È altresì previsto che le richieste debbano essere soddisfatte a condizioni non discriminatorie.

Il Regolamento prevede anche una serie di condizioni al ricorrere delle quali gli operatori di rete e gli enti pubblici possono rifiutare l’accesso a specifiche infrastrutture fisiche.

Il Gigabit Infrastructure Act pone anche misure per semplificare le procedure di rilascio dei permessi e la concessione dei diritti di passaggio necessari per l’installazione di reti e infrastrutture fisiche.

Viene, inoltre, istituito lo strumento del c.d. “sportello unico” al fine di facilitare l’accesso alle informazioni, alle procedure e ai servizi necessari per l’accesso, l’installazione e la manutenzione delle infrastrutture di comunicazione elettronica; le funzioni dello “sportello unico" saranno svolte da uno o più organismi competenti nominati dagli Stati membri a livello nazionale. Lo sportello unico permette di semplificare le interazioni tra gli operatori e le autorità competenti, rafforzandone il coordinamento.

Come si legge nel Regolamento un’infrastruttura digitale basata su reti ad altissima capacità costituisce il pilastro di “quasi tutti i settori di un’economia moderna e innovativa”, favorendo “servizi innovativi, una maggiore efficienza delle operazioni commerciali e società digitali intelligenti e sostenibili, contribuendo nel contempo al conseguimento degli obiettivi climatici dell’Unione” ed è “di importanza strategica per la coesione sociale e territoriale e, in generale, per la competitività, la resilienza, la sovranità digitale e la leadership digitale dell’Unione”.

Il Regolamento troverà applicazione a partire dal 12 novembre 2025.

Su un simile argomento può essere interessante l’articolo “Gigabit Infrastructure Act: Raccomandazione della Commissione UE”.

Autori: Massimo D’Andrea, Matilde Losa


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna Angilletta, Matteo Antonelli, Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Alessandra Faranda, Nadia Feola, Laura Gastaldi, Vincenzo Giuffré, Nicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Miriam Romeo, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Giulia Zappaterra.

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su Transfer, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.