
4 febbraio 2025 • 20 minuti di lettura
Innovation Law Insights
4 Febbraio 2025Evento
L'entrata in vigore dell'AI Act: come devono prepararsi le aziende?
Dal 2 febbraio 2025 sono entrate in vigore le prime disposizioni dell'AI Act sulle pratiche vietate, con impatti anche su privacy, proprietà intellettuale, diritto del lavoro e fiscalità.
Per supportare gli uffici legali interni, DLA Piper organizza il 18 febbraio presso la sede di Milano un evento dal titolo “L'entrata in vigore dell'AI Act: come i consulenti interni devono affrontare le sfide del futuro” con esperti del settore. Durante l'incontro, Luisella Giani, Head of Advisory ICEG& UAE, Avanade, analizzerà l'adozione dell'AI nelle aziende italiane e Guido Scorza, avvocato e membro del collegio dell'Autorità Garante per la protezione dei dati personali, terrà un keynote speech sulle iniziative del Garante in materia di intelligenza artificiale.
I nostri professionisti dei dipartimenti Intellectual Property & Technology (Giulio Coraggio, Alessandro Ferrari, Giacomo Lusardi, Tommaso Ricci), Employment (Federico Strada) e Tax (Giovanni Iaselli) presenteranno un caso concreto sull'utilizzo dell'AI, evidenziando criticità e best practice.
Per informazioni sulle modalità di partecipazione, contattare eventi@dlapiper.com.
Podcast
L'AI Act sulle pratiche vietate è ora in vigore: siete pronti?
Le prime disposizioni dell'AI Act sono ora applicabili e vietano i sistemi di AI che presentano rischi inaccettabili.
Questo segna un punto di svolta per la regolamentazione dell'AI e le aziende, gli sviluppatori e le autorità di regolamentazione si stanno preparando all'impatto. In questa puntata del nostro podcast Diritto al Digitale, Giulio Coraggio e Tommaso Ricci di DLA Piper discutono di:
-
Le pratiche di IA ora vietate dall'AI Act
-
Come il caso DeepSeek è diventato un monito normativo
-
Cosa devono fare le aziende ORA per essere conformi ed evitare le multe
Ascolta l'episodio sull'argomento del podcast “Diritto al Digitale” gratuitamente sul tuo dispositivo su Apple Podcasts, Google Podcasts, Spotify, Audible, YouTube.
Artificial Intelligence
Esercizio dei diritti degli interessati nel contesto dell'IA
Il Comitato Europeo per la Protezione dei Dati (EDPB) ha recentemente pubblicato un rapporto di un gruppo di esperti sull'esercizio dei diritti degli interessati nel contesto di algoritmi complessi basati sull'intelligenza artificiale (AI).
Più specificamente, il GDPR conferisce agli interessati diritti quali il diritto di rettifica, il diritto alla cancellazione e il diritto di opporsi alle decisioni automatizzate. Tuttavia, l'attuazione di questi diritti nei sistemi basati sull'AI presenta sfide significative a causa del modo in cui i modelli di intelligenza artificiale apprendono e memorizzano informazioni dai dati personali.
Sfide nell'applicazione dei diritti degli interessati
I modelli di AI, in particolare quelli basati sul deep learning, memorizzano i dati di addestramento in forma compressa. Ciò crea difficoltà nel garantire la conformità al diritto di rettifica e al diritto alla cancellazione. Le principali sfide includono:
- Comprensione limitata dell'impatto di ciascun dato sul modello: i modelli di AI funzionano come "scatole nere", rendendo difficile determinare l'impatto specifico di singoli dati.
- Stocasticità dell'addestramento: il processo di addestramento è intrinsecamente casuale a causa del campionamento in batch, dell'ordine casuale dei dati e dell'elaborazione parallela, il che porta a variazioni nel modello finale.
- Processo di addestramento incrementale: negli ambienti di apprendimento federato, gli aggiornamenti dei dati influenzano gli aggiornamenti successivi, rendendo insufficiente la rimozione di un singolo dato per eliminare il suo effetto.
- Stocasticità dell'apprendimento: l'algoritmo di apprendimento è probabilistico, quindi può essere difficile correlare un dato specifico con il suo contributo all'apprendimento del modello.
Tecniche per la cancellazione e il disapprendimento dei dati
1. Riaddestramento dei modelli da zero
Un approccio diretto per la cancellazione dei dati consiste nell'eliminare i dati personali, riaddestrare il modello senza di essi e sostituire la versione precedente con quella aggiornata. Sebbene efficace per modelli di piccole dimensioni, questo metodo è estremamente costoso dal punto di vista computazionale per i sistemi AI su larga scala, rendendolo impraticabile in caso di richieste frequenti di cancellazione.
2. Metodi di disapprendimento esatto
Sono stati sviluppati diversi metodi di cd. "machine unlearning" per rimuovere dati specifici senza dover riaddestrare l'intero modello:
- Disapprendimento agnostico al modello: questo metodo memorizza i gradienti del modello o modifica il processo di addestramento per facilitare il disapprendimento. Una tecnica diffusa è il metodo SISA (Sharded, Isolated, Sliced, and Aggregated), che suddivide i dati di addestramento in più parti per limitare l'influenza di ciascun dato su porzioni specifiche del modello.
- Disapprendimento intrinseco al modello: alcune tecniche di disapprendimento sono progettate per modelli specifici, come alberi decisionali e foreste casuali, in cui modifiche mirate consentono una rimozione selettiva.
- Disapprendimento specifico per applicazione: nei sistemi di raccomandazione, dove i dati sono altamente sparsi, possono essere utilizzate strutture dati efficienti per rimuovere informazioni personali senza riaddestrare completamente il modello.
3. Tecniche di disapprendimento approssimato
Quando il disapprendimento esatto è troppo costoso, vengono adottati metodi approssimativi per ridurre l'influenza dei dati eliminati senza riaddestrare il modello:
- Fine-tuning: il modello subisce un addestramento aggiuntivo limitato per ridurre l'impatto di dati specifici.
- Disapprendimento basato sull’influenza: questo metodo stima l’influenza dei dati eliminati sul modello e aggiorna i parametri di conseguenza.
- Classificazione errata intenzionale: invece di rimuovere i dati, il modello viene riaddestrato per classificarli erroneamente, rendendoli irriconoscibili.
- Cancellazione dei parametri: memorizzando gli aggiornamenti storici dei parametri, il disapprendimento può essere ottenuto ripristinando specifici aggiornamenti.
Verifica e problematiche del disapprendimento automatico
Una delle sfide principali del disapprendimento è la verifica. Metriche come l’accuratezza del disapprendimento, l’accuratezza residua e gli attacchi di inferenza di appartenenza vengono utilizzate per valutare se un modello ha effettivamente dimenticato i dati. Tuttavia, il disapprendimento approssimato non offre garanzie forti e alcuni modelli possono produrre output quasi identici nonostante la rimozione di dati di addestramento.
Ulteriori preoccupazioni includono:
- Rischi per la privacy: se gli attaccanti possono confrontare gli output del modello prima e dopo il disapprendimento, potrebbero dedurre quali dati sono stati rimossi.
- Problemi di bias e equità: le richieste di cancellazione provengono più frequentemente da specifici gruppi demografici, il che potrebbe introdurre distorsioni nei modelli IA.
Affrontare la fuga di dati nei modelli generativi
I modelli di AI generativa, come i modelli linguistici di grandi dimensioni e i generatori di immagini, presentano rischi specifici poiché potrebbero involontariamente generare dati personali. Per mitigare questi rischi, sono state sviluppate diverse strategie:
- Fine-tuning del modello: regolazione dell’addestramento per impedire la generazione di dati o concetti specifici.
- Riduzione dei dati: utilizzo di tecniche di addestramento avversario per evitare che il modello apprenda determinate informazioni personali.
- Modifica dell'output: impiego di classificatori per filtrare e bloccare determinati output prima che vengano mostrati agli utenti.
Conclusione
Garantire l'esercizio effettivo dei diritti degli interessati nei sistemi di AI rimane una sfida complessa. Sebbene il riaddestramento da zero offra la soluzione più robusta, esso è impraticabile per modelli di grandi dimensioni. Le tecniche emergenti di disapprendimento, sia esatte che approssimate, forniscono alternative, ma necessitano di ulteriore sviluppo.
Man mano che l’AI continua ad evolversi, sarà fondamentale concentrarsi sulla privacy by design, incorporando meccanismi per la rettifica e la cancellazione dei dati sin dalle prime fasi di sviluppo. Inoltre, regolamentazioni più severe e misure di trasparenza possono contribuire a garantire che i sistemi di IA rispettino i diritti degli individui, bilanciando al contempo le sfide tecniche.
Su un argomento simile può essere d'interesse l'articolo: "Pubblicata la prima bozza del Codice di condotta per l’AI per finalità generali"
Autrice: Roxana Smeria
Data Protection & Cybersecurity
L'Italia si muove per l'adeguamento al Regolamento DORA: nuove norme su autorità competenti e sanzioni
Dopo che il Regolamento (UE) 2022/2554 (di seguito “DORA” o il “Regolamento”), lo scorso 17 gennaio, è diventato ufficialmente applicabile in tutta l'UE, gli Stati membri si stanno affrettando ad approvare le rispettive leggi nazionali di adeguamento. Per quanto riguarda l'Italia, è stato recentemente reso disponibile lo schema di decreto legislativo (di seguito il “Decreto”) volto ad adeguare la legislazione nazionale di settore in materia di enti bancari, istituti creditizi, intermediari finanziari, assicurazioni ecc.
Il Decreto, oltre a prevedere i necessari interventi di adeguamento della normativa nazionale vigente, definisce le sanzioni che saranno applicate alle entità finanziarie sottoposte alla vigilanza delle autorità italiane. Riportiamo di seguito un riassunto delle previsioni più rilevanti.
Applicazione agli intermediari finanziari
In primo luogo, il Decreto estende l'applicazione di DORA anche agli intermediari finanziari ex art. 106 TUB, che – a differenza degli intermediari assicurativi e riassicurativi – non sono espressamente elencati tra i soggetti inclusi nel perimetro DORA (art. 2 del Regolamento). In particolare, il Decreto specifica che gli intermediari finanziari sono soggetti a quadro «semplificato» per la gestione dei rischi informatici previsto dall’art. 16 DORA per le entità finanziarie di minori dimensioni o complessità (art. 6). Banca d’Italia ha però il potere di individuare una eventuale categoria di intermediari finanziari da considerarsi «significativi» (anche per tipologia di attività svolte), a cui applicare il quadro di gestione del rischio completo, in luogo di quello semplificato (art. 6 co. 3).
Autorità competenti
Il Decreto individua Banca D'Italia, Consob, IVASS e COVIP quali Autorità competenti per il rispetto degli obblighi posti da DORA a carico dei soggetti vigilati, secondo le rispettive attribuzioni di vigilanza (art. 4 co. 1).
Nello specifico, il Decreto stabilisce la competenza di:
- Banca d'Italia, con riferimento a enti creditizi, istituti di pagamento, prestatori di servizi di informazione sui conti, istituti di moneta elettronica, imprese di investimento, fornitori di servizi per le cripto-attività autorizzati a norma del regolamento (UE) 1114/2023 (MiCAR) ed agli emittenti di token collegati ad attività, controparti centrali, gestori di fondi di investimento alternativi, società di gestione, fornitori di servizi di crowdfunding, nonché sedi di negoziazione all’ingrosso di titoli di Stato, Cassa depositi e prestiti S.p.A. e Poste Italiane S.p.A. per l'attività di Bancoposta;
- Consob, con riferimento a depositari centrali e sedi di negoziazione, ad esclusione di quelle all’ingrosso di titoli di Stato;
- IVASS, con riferimento alle imprese di assicurazione e di riassicurazione e agli intermediari assicurativi, agli intermediari riassicurativi e agli intermediari assicurativi a titolo accessorio;
- COVIP, con riferimento a enti pensionistici aziendali o professionali
Tali autorità godono dei poteri di vigilanza e ispezione riconosciuti da DORA (art. 8) e saranno destinatarie delle notifiche dei gravi incidenti TIC e delle segnalazioni volontarie delle minacce informatiche significative (art. 4).
Segnalazione degli incidenti a CSIRT Italia
Le entità finanziarie del settore bancario e delle infrastrutture dei mercati finanziari di cui all’allegato I alla direttiva (UE) 2022/2555 ("Direttiva NIS"), nonché i soggetti appartenenti al settore bancario e delle infrastrutture dei mercati finanziari identificati come critici ai sensi della direttiva (UE) 2022/2557 ("Direttiva CER"), hanno l'obbligo di fornire le notifiche relative ai gravi incidenti TIC previste dall'art. 19 DORA anche al CSIRT (Computer Security Incident Response Team) istuito presso ACN con il compito di monitorare gli incidenti a livello nazionale ed emettere preallarmi, allerte, informazioni su rischi e incidenti informatici (art. 4 co. 3).
Come già previsto anche dalle Direttive CER e NIS2, una volta ricevute tali informazioni relative a minacce, vulnerabilità e incidenti informatici, ACN le trasmette agli organismi di intelligence di cui alla legge n. 124 del 2007 per le loro finalità istituzionali (art. 5 co. 3).
Cooperazione con Guardia di finanza e ACN
In materia di cooperazione tra le Autorità, il Decreto prevede la stipula di un protocollo d’intesa tra le Autorità competenti DORA con la Guardia di finanza per la disciplina dello scambio di informazioni relative ai gravi incidenti TIC e alle minacce informatiche significative, per finalità di prevenzione, accertamento e repressione degli illeciti di natura economico finanziaria (art. 5 co. 2).
Dispone inoltre che, qualora l’Agenzia per la cybersicurezza nazionale, in sede di vigilanza o di esecuzione, venga a conoscenza di una violazione degli obblighi di segnalazione da parte di un’entità finanziaria, ne informi senza indebito ritardo le Autorità competenti DORA (art. 5 co. 4). Questo può verificarsi, ad esempio, nel caso di incidenti che coinvolgono fornitori terzi critici ai sensi di DORA che siano stati anche identificati come soggetti essenziali o importanti in base alla Direttiva NIS2.
Regime sanzionatorio
Il Decreto (art. 8) attribuisce alle Autorità competenti DORA poteri di vigilanza e sanzionatori nei confronti delle entità finanziarie e dei loro fornitori terzi di servizi TIC che supportano funzioni essenziali o importanti. L'art. 10 disciplina le sanzioni amministrative pecuniarie da applicare, graduate su due livelli di gravità.
- In caso di mancanze più gravi, in violazione delle norme di DORA in materia di governance, gestione dei rischi informatici, individuazione e ripristino in caso di anomalie, gestione e segnalazione degli incidenti, test di resilienza operativa digitale, si applicano sanzioni a partire da € 500 fino al 12,5% del fatturato annuo totale, in base alla tipologia di entità finanziaria che ha commesso la violazione;
- In caso di violazioni ritenute meno gravi, come quelle relative alle norme DORA in materia di sistemi e protocolli, gestione dei registri, comunicazione, classificazione degli incidenti, TLPT, gestione dei rischi derivanti da terzi, in relazione alle quali si applicano sanzioni a partire da € 500 fino al 9% del fatturato annuo totale, in base alla tipologia di entità finanziaria che ha commesso la violazione.
Il Decreto stabilisce inoltre sanzioni amministrative pecuniarie per le persone fisiche che svolgono funzioni di amministrazione, direzione o controllo e del personale delle società e degli enti nei confronti dei quali sono accertate le violazioni. Le sanzioni possono variare da un minimo di € 500 fino a un massimo di € 5 milioni, nei casi più gravi, e da un minimo di € 500 fino a un massimo di € 3,5 milioni nei casi meno gravi, a seconda del tipo entità finanziaria in cui la persona fisica svolge le proprie mansioni.
Si prevede, altresì, la possibilità di applicare la sanzione amministrativa accessoria dell’interdizione, per un periodo non inferiore a sei mesi e non superiore a tre anni, in considerazione della gravità della violazione.
Entrata in vigore
Il decreto è attualmente sottoposto al parere del Parlamento, secondo quanto definito dalla legge di delegazione, con termine fissato a metà febbraio. Una volta approvato, il Decreto sarà emanato dal Presidente della Repubblica e pubblicato sulla Gazzetta Ufficiale. Entrerà in vigore dopo 15 giorni dalla pubblicazione.
Su un argomento simile può essere di interesse l'articolo "Regolamento DORA, scopriamo gli RTS su incidenti, gestione del rischio e servizi ICT"
Autrice: Marianna Riedo
Intellectual Property
Tutela dei marchi non convenzionali: il caso della divisa Juventus "Be The Stripe"
La Corte d’Appello di Torino ha recentemente emesso una sentenza di particolare rilevanza in materia di tutela di un marchio non convenzionale, pronunciandosi sul caso relativo alla divisa ufficiale della Juventus per la stagione 2019/2020, denominata "Be The Stripes". Il contenzioso ha vist
o coinvolti il club torinese, un suo rivenditore autorizzato, Pegaso, e la società portoghese Mussara.L’oggetto della disputa riguardava la commercializzazione di una maglia che riproduceva le caratteristiche distintive di quella originale progettata da Adidas per la Juventus. Nel 2019, la società bianconera aveva avviato un’azione legale contro Pegaso, contestando la violazione di un marchio non registrato, concorrenza sleale e la lesione di un design non registrato. Il Tribunale di Torino aveva accolto le richieste della Juventus, condannando Pegaso al pagamento di oltre 100.000 euro, somma determinata sulla base dei profitti illecitamente conseguiti.
Pegaso ha impugnato la decisione, negando la sussistenza di un marchio non registrato sulla divisa contestata e sostenendo che eventuali diritti sulla stessa spettassero esclusivamente ad Adidas, in quanto soggetto responsabile del design. Tuttavia, la Corte d’Appello ha confermato integralmente la sentenza di primo grado, respingendo tanto il ricorso principale di Pegaso quanto gli appelli incidentali proposti dalla Juventus e da Mussara.
Sotto il profilo giuridico, è stata riconosciuta la titolarità della Juventus sul marchio costituito dalla combinazione cromatica della divisa (marchio cromatico di fatto), rilevando come il caratteristico schema a strisce bianconere fosse ormai indissolubilmente associato al club torinese da oltre un secolo. La Corte ha inoltre affermato che la presenza di divise con colori simili in altre squadre non pregiudica la validità del marchio cromatico, in virtù della possibilità di coesistenza di segni distintivi simili nel mercato, ai sensi dell’art. 28, comma 1, del Codice della Proprietà Industriale.
Particolarmente rilevante è stato l’applicazione del principio della cumulabilità delle tutele, consolidatosi a seguito della pronuncia Cofemel della Corte di Giustizia dell’Unione Europea (C-683/17, 12 settembre 2019). La Corte d’Appello ha infatti riconosciuto la possibilità di coesistenza, sulla medesima divisa, di differenti diritti di proprietà intellettuale: da un lato, i diritti di modello registrato detenuti da Adidas e, dall’altro, i diritti di marchio vantati dalla Juventus.
Sulla base di tali premesse, è stata accertata la contraffazione del marchio da parte di Pegaso, nonché la sussistenza di condotte di concorrenza sleale ex art. 2598 c.c. La decisione ha evidenziato tre elementi chiave della violazione: la riproduzione della coccarda dello scudetto sulla divisa contestata, la medesima scelta cromatica con la caratteristica separazione rosa tra le bande bianche e nere e l’uso del marchio "CR7 Museu", concesso in licenza da Mussara e richiamante l’allora stella bianconera Cristiano Ronaldo.
In aggiunta, la Corte ha riconosciuto la responsabilità contrattuale di Mussara, ritenendola inadempiente al principio di buona fede contrattuale sancito dagli artt. 1175 e 1375 c.c. Mussara, infatti, ha negato a Pegaso l’autorizzazione alla commercializzazione di un modello alternativo alla maglia contraffatta, già oggetto di inibitoria giudiziale, pregiudicando così il legittimo affidamento del licenziatario.
La decisione della Corte d’Appello rappresenta un precedente significativo nel panorama della tutela della proprietà intellettuale nel settore calcistico, dove le divise ufficiali sono frutto di accordi commerciali tra club e sponsor tecnici. Il caso conferma la capacità della Juventus di difendere i propri diritti, indipendentemente dalle eventuali rivendicazioni dello sponsor tecnico, e ribadisce il principio secondo cui l’uso costante di una determinata combinazione cromatica può generare un marchio non registrato riconoscibile e tutelabile.
Questa sentenza si inserisce in un più ampio contesto di iniziative legali promosse dalla Juventus per la tutela del proprio brand, come dimostrato da altre azioni, tra cui la nota pronuncia del Tribunale di Roma del 2022 contro l’uso non autorizzato dei marchi del club in contenuti digitali e NFT.
In prospettiva futura, le implicazioni di tale pronuncia potrebbero estendersi ben oltre il settore sportivo, incidendo in modo rilevante sulla disciplina della protezione dei diritti di proprietà intellettuale e sulla gestione delle partnership commerciali in ambiti in cui la coesistenza di più titolari di diritti su uno stesso bene è una realtà diffusa.
Su un simile argomento può essere interessante l'articolo "Il caso plusvalenze mostra l’esigenza di una regolamentazione del valore offuscato dei giocatori di calcio".
Autrice: Rebecca Rossi
Il confronto tra marchi nei giudizi di nullità e contraffazione: criteri distinti?
La Corte di Cassazione è recentemente intervenuta in una controversia sulla validità di un marchio italiano, contestato da due società americane titolari di un marchio di moda, registrato in precedenza e asseritamente rinomato. Il caso ha offerto l’opportunità di chiarire se il confronto tra segni, nei giudizi di nullità, debba essere condotto in astratto o in concreto e in che misura tale valutazione differisca da quella svolta nei giudizi di contraffazione.
In base all’art. 12, comma 1, lett. d) del Codice della Proprietà Industriale, un marchio non può essere registrato se identico o simile a uno già esistente per prodotti o servizi affini, laddove ciò possa ingenerare confusione nel pubblico. Tale disposizione riflette il principio di tutela dei marchi anteriori sancito anche a livello europeo dall'articolo 5 della Direttiva (UE) 2015/2436 e dall'articolo 8 del Regolamento (UE) 2017/1001.
Nel caso in esame, la Corte d’Appello di Milano aveva escluso la nullità del marchio italiano, ritenendo non sussistente un rischio di confusione con il segno delle società americane e negando che quest’ultimo godesse di rinomanza in Italia. La decisione si basava su un’analisi concreta dell’uso effettivo dei marchi e delle relative classi merceologiche, evidenziando una diversità funzionale tra i prodotti e servizi offerti sotto i rispettivi segni distintivi.
La Suprema corte, tuttavia, ha cassato in parte la sentenza d’appello, chiarendo un aspetto fondamentale: nel giudizio di nullità, il confronto tra i segni deve essere effettuato in astratto, ovvero tenendo conto esclusivamente delle registrazioni e non dell’uso effettivo del marchio. Al contrario, nei giudizi di contraffazione, il rischio di confusione deve essere valutato in concreto, considerando anche le modalità di utilizzo del segno e la percezione del pubblico di riferimento.
La pronuncia assume particolare rilievo perché ribadisce che la valutazione del rischio di confusione non segue criteri identici nei due tipi di giudizio. Nei procedimenti di nullità, il raffronto avviene sulla base dei dati formali, mentre nei giudizi di contraffazione si tiene conto della realtà commerciale e della concreta interazione tra i marchi nel mercato.
Su un simile argomento può essere interessante l'articolo "Confusione tra marchi: alcuni criteri utili ai fini della valutazione dalla Corte di Giustizia".
Autrice: Maria Vittoria Pessina
La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Noemi Canova, Gabriele Cattaneo, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Nadia Feola, Laura Gastaldi, Vincenzo Giuffré, Nicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Marianna Riedo, Marianna Riedo, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Federico Toscani, Federico Toscani, Giulia Zappaterra.
Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna, Matilde Losa e Arianna Porretti.
Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.
Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.
È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.
DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.
Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.