Abstract_Lights_P_0152

27 marzo 202522 minuti di lettura

Innovation Law Insights

27 marzo 2025

Rivista giuridica sull'AI

Diritto Intelligente – È ora disponibile il numero di marzo

Il numero di marzo della rivista in tema di AI, pubblicata dal team italiano del dipartimento Intellectual Property and Technology di DLA Piper, è ora disponibile con gli ultimi aggiornamenti sulle sfide legali dell'AI Act. È possibile leggerlo al link disponibile qui.

 

Podcast

 

AI & Copyright – US Fair Use vs EU TDM dopo la decisione del Delaware

Esploriamo la storica decisione della Corte del Delaware nella causa Thomson Reuters contro Ross Intelligence, che analizza le implicazioni per le pratiche di formazione dei dati di intelligenza artificiale ai sensi dell'eccezione del fair use del copyright statunitense, e affrontiamo come il risultato potrebbe differire in base alle eccezioni del Text and Data Mining (TDM) dell'UE.

Puoi approfondire l'argomento nell'ultimo episodio del nostro podcast Diritto al Digitale, con Giulio Coraggio e Valentina Mazza del nostro dipartimento Intellectual Property and Technology di DLA Piper, disponibile qui.

 

Artificial Intelligence

 

Il Senato approva il DDL sull'intelligenza artificiale: ultime modifiche e persistenti criticità

Il 20 marzo 2025 il Senato ha approvato il disegno di legge in materia di intelligenza artificiale ("DDL AI"), il provvedimento finalizzato ad armonizzare la normativa nazionale alle disposizioni del Regolamento (UE) 2024/1689 ("AI Act"), per chiarire il contesto evolutivo dell'intelligenza artificiale ("AI") in Italia.

Il DDL AI, come l'AI Act, pone al suo centro lo sviluppo e l'utilizzo trasparente, responsabile e conforme ai diritti fondamentali dei sistemi di AI nei differenti settori della società, puntando a definire la base per lo sviluppo di una strategia nazionale in ambito AI al fine di accrescere la competitività strategica del Paese.

Vengono introdotte specifiche disposizioni volte a regolare l'utilizzo trasparente e sicuro dell'AI nei seguenti settori:

  • sanitario e ricerca scientifica;
  • mondo del lavoro e professioni intellettuali;
  • attività giudiziaria;
  • pubblica amministrazione;
  • sicurezza nazionale;

Di seguito si riportano le previsioni più rilevanti del DDL AI per settore.

 

Utilizzo dell'AI nei settori critici

Ambito Sanitario

Il DDL AI riconosce il potenziale dell’intelligenza artificiale nel settore medico, ma al contempo ne disciplina l’impiego per garantire un utilizzo etico e sicuro. A tal fine, stabilisce alcune regole fondamentali, tra cui il divieto di utilizzo dei sistemi di AI al fine di selezionare e condizionare l'accesso alle prestazioni sanitarie; l'obbligo di informare il paziente circa l'utilizzo di tecnologie di AI e di misurare la performance al fine di minimizzare il rischio di errori.

In ogni caso, il DDL AI prevede che i sistemi di AI debbano essere utilizzati quali mero supporto all'attività di prevenzione, diagnosi e cura prestata dagli esercenti la professione medica. La responsabilità per la decisione finale rimane dunque esclusivamente in capo al medico, che dovrà sempre monitorare il corretto funzionamento dell'AI e verificare gli output generati.

Ricerca scientifica

L'art. 8 del DDL AI prevede che le attività di ricerca volta alla realizzazione di sistemi di AI, qualora svolte da soggetti pubblici e privati senza scopo di lucro o IRCCS (Istituti di ricovero e cura a carattere scientifico), siano dichiarati di rilevante interesse pubblico. Come tali, queste ricerche potranno beneficiare del trattamento di dati personali anche in assenza del consenso degli interessati, secondo le condizioni previste dall'art. 9 GDPR e 110 del Codice Privacy italiano. Tuttavia, la liceità di ogni trattamento resta subordinata all’approvazione dei comitati etici competenti e alla preventiva comunicazione al Garante per la protezione dei dati personali.

Ambito lavorativo

L'art. 11 del DDL AI sottolinea l'importanza del rispetto della dignità umana, della trasparenza e del divieto di discriminazione nell'impiego dell'AI nel settore del lavoro, in linea con quanto previsto dalla normativa già in vigore. In particolare, il DDL specifica l'obbligo di informare adeguatamente i lavoratori sull'utilizzo di sistemi di intelligenza artificiale, ponendosi in continuità con la normativa privacy e giuslavoristica e in particolare con le disposizioni in materia di controllo a distanza dei lavoratori, che richiedono l'attivazione di meccanismi di salvaguardia previsti dallo Statuto dei Lavoratori.

Infine, per garantire un monitoraggio continuo dell’impatto dell’AI sul mondo del lavoro, viene istituito l’Osservatorio sull’adozione di sistemi di intelligenza artificiale, con il compito di sviluppare strategie di regolamentazione, valutare gli effetti dell’AI sul mercato del lavoro e identificare i settori più coinvolti da questa trasformazione tecnologica.

Professioni intellettuali

Come già previsto per le professioni mediche, l'art. 13 del DDL AI prevede che i sistemi di AI possano essere impiegati esclusivamente come strumenti di supporto all’attività professionale, senza mai sostituire il contributo intellettuale del professionista. Di conseguenza, il professionista non potrà affidare integralmente l’erogazione della propria prestazione intellettuale a un sistema di AI, anche nel caso in cui il destinatario del servizio presti il proprio consenso. Tale previsione solleva alcune criticità applicative, a causa della difficile distinzione tra un utilizzo meramente ausiliario dell’AI e un impiego prevalente rispetto all’apporto umano.

Il DDL AI prevede poi che il professionista sia sempre tenuto a informare il destinatario della prestazione in modo chiaro, semplice ed esaustivo sull’impiego di sistemi di AI. Sebbene la norma faccia riferimento esclusivamente alle informazioni relative alla tecnologia utilizzata, l'obbligo introdotto risulta eccedente rispetto a quanto previsto dall'AI Act, che non prevede limitazioni per i sistemi di AI non ad alto rischio. Inoltre, il DDL AI non specifica quali siano le conseguenze sul piano contrattuale nel caso in cui un professionista utilizzi sistemi di AI senza dichiararlo preventivamente.

Giustizia e pubblica amministrazione

Gli articoli 14 e 15 del DDL AI regolano l’uso dell'AI nella pubblica amministrazione e nell’attività giudiziaria. In entrambi gli ambiti si sottolineano due aspetti fondamentali:

  • L’AI deve avere esclusivamente un ruolo di supporto, senza sostituire la valutazione e la decisione dell’operatore umano;
  • La pubblica amministrazione si impegna a promuovere la formazione e lo sviluppo delle competenze digitali dei professionisti del settore, affinché possano utilizzare l’AI in modo consapevole e responsabile.

È inoltre importante rilevare che, già all'art. 6 dedicato alla strategia per l'intelligenza artificiale, il DDL AI introduce una specifica disposizione per l'utilizzo dell'AI da parte delle pubbliche amministrazioni, per garantire la sovranità e la sicurezza dei dati sensibili dei cittadini. Tale disposizione prevede infatti che i sistemi di intelligenza artificiale destinati all’uso in ambito pubblico, fatta eccezione per quelli impiegati all’estero nell’ambito di operazioni militari, debbano essere installati su server ubicati nel territorio nazionale.

Individuazione delle autorità competenti

Confermando quanto già previsto nella prima bozza, il DDL AI individua quali autorità nazionali competenti per l'AI, anche ai sensi dell'AI Act:

  • l'Agenzia per l'Italia digitale (AgID), che acquisirà il ruolo di autorità di notifica con funzioni di accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale. L'AgID sarà inoltre responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale.
  • e l'Agenzia per la cybersicurezza nazionale (ACN): individuata come autorità di vigilanza, oltre che autorità guida per l’uso dell’AI per la cybersicurezza. Nella gestione pubblica dell’AI, Banca d'Italia, CONSOB e IVASS mantengono un ruolo di vigilanza settoriale per l'ambito creditizio, finanziario e assicurativo.

L'individuazione di AgID e ACN, in quanto autorità governative, sembra trascurare quanto segnalato dalla Commissione europea nel parere (C(2024) 7814), dove si ricordava che le autorità devono possedere lo stesso livello di indipendenza previsto dalla direttiva (UE) 2016/680 per le autorità preposte alla protezione dei dati nelle attività delle forze dell'ordine, nella gestione delle migrazioni e controllo delle frontiere, nell'amministrazione della giustizia e nei processi democratici.

AI e diritto d'autore

All'art. 25, il DDL AI regola la tutela del diritto d’autore con riguardo alle opere generate con l’ausilio dell’intelligenza artificiale, chiarendo che anche queste sono protette dal diritto d’autore, a condizione che la loro creazione derivi del lavoro intellettuale dell’autore. In linea con quanto già previsto dagli artt. 70-ter e 70-quater della Legge sul diritto d'autore, viene inoltre consentita la riproduzione e l’estrazione da opere o da altri materiali contenuti in rete o in banche di dati cui si ha legittimamente accesso, effettuata tramite l’utilizzo di modelli e sistemi di intelligenza artificiale, compresi quelli generativi.

È stata invece soppressa, in allineamento con quanto segnalato nel parere circostanziato della Commissione europea, la previsione secondo cui i contenuti prodotti dai sistemi di intelligenza artificiale avrebbero dovuto essere resi chiaramente riconoscibili mediante un segno visibile con l'acronimo "IA". Tale norma, infatti, era eccedente rispetto agli obblighi di cui all'articolo 50, paragrafi 2 e 4 dell'AI Act.

Modifiche al Codice civile e penale

Il DDL AI, all'art. 17, interviene con una modifica all'art. 9 del Codice di procedura civile per attribuire all'esclusiva competenza del tribunale ordinario "le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale", impedendo così l’avvio di contenziosi relativi all’utilizzo dell’AI, anche se di modico valore, davanti al giudice di pace.

Infine, l'art. 26, dedicato alla tutela penale, stabilisce una nuova circostanza aggravante legata all’uso dell’AI, in base alla quale la commissione di un reato potrebbe comportare pene più severe quando questa ha coinvolto “l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato". Se l'utilizzo dell'AI è legato alla commissione reati contro i diritti politici del cittadino (Art. 294 c.p.), la pena alla reclusione viene aumentata, raggiungendo da un minimo di 2 fino a un massimo di 6 anni. Inoltre, il DDL AI introduce una nuova fattispecie di reato, finalizzato a punire la condivisione di deepfake senza il consenso della persona ritratta, quando la condivisione cagioni a quest’ultimo un danno ingiusto.

Conclusioni

Il testo approvato dal Senato passa ora all'esame della Camera dei deputati. Una volta raggiunto un accordo sul testo definitivo, la normativa italiana sull'intelligenza artificiale dovrà comunque essere completata dall'intervento del Governo, a cui il DDL AI delega la redazione di "uno o più decreti legislativi per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale" (art. 16).

Secondo l'art. 24 del DDL AI, il Governo è inoltre delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della legge, i decreti legislativi per l’adeguamento della normativa nazionale all'AI Act, che dovranno includere la definizione dei poteri di vigilanza, ispettivi e sanzionatori di ACN e AgID, oltre a misure per l'aggiornamento della normativa vigente in materia di servizi bancari, finanziari, assicurativi e di pagamento. La delega legislativa comprende anche la definizione di regole in materia di responsabilità civile per i danni derivati dall'utilizzo dell'intelligenza artificiale.

La copertura solo parziale dei settori impattati dall'AI, oltre alla persistente incompatibilità di alcune delle disposizioni rispetto alla normativa europea, rende l'approvazione del DDL AI un traguardo mancato. A quasi 8 mesi dall'entrata in vigore dell'AI Act, la strategia italiana sull'intelligenza artificiale resta ancora poco chiara. Se il vaglio del testo da parte della Camera richiederà ancora qualche mese, bisognerà attendere molto più a lungo per arrivare all'approvazione dei decreti legislativi di iniziativa governativa, che dovrebbero portare finalmente alla definizione di un panorama più chiaro e definito sull'AI.

Per ulteriori informazioni sulle questioni legali relative all'intelligenza artificiale, consigliamo di leggere la nostra rivista giuridica sull'AI, le cui ultime edizioni sono disponibili qui.

Su un simile argomento può essere d'interesse l'articolo "AI e copyright – US Fair Use vs EU TDM dopo la decisione del Delaware"

Autori: Marianna Riedo, Federico Toscani

 

Terza bozza del Codice di condotta per l'AI per finalità generali: aggiornamenti chiave e implicazioni per gli stakeholder dell'AI generativa

È stata pubblicata la terza bozza del Codice di condotta per l'AI per finalità generali, che introduce significativi perfezionamenti per migliorare la governance e la conformità dell'AI. Di seguito, illustro le principali modifiche e il potenziale impatto per le aziende.

Aggiornamenti significativi della terza bozza del Codice di condotta per l'AI per finalità generali

Ecco le principali modifiche

  1. Struttura semplificata: il Codice presenta ora una serie concisa di impegni di alto livello, ciascuno accompagnato da misure di attuazione dettagliate, che garantiscono chiarezza e praticità.
  2. Trasparenza e impegni sul copyright: tutti i fornitori di modelli di IA per uso generale sono soggetti a due impegni principali:
  • Trasparenza: è stato introdotto un Modello di Documentazione di facile utilizzo per facilitare informazioni complete e accessibili sul modello. In particolare, alcuni fornitori di modelli open source possono essere esentati da specifici obblighi di trasparenza, in linea con l'AI Act.
  • Copyright: il Codice delinea misure chiare per sostenere gli standard di copyright, garantendo che i modelli di AI rispettino i diritti di proprietà intellettuale.
  1. Misure di sicurezza: i fornitori di modelli di AI avanzati identificati come a rischio sistemico sono ora soggetti a sedici impegni aggiuntivi. Questi comprendono:
  • Valutazione del rischio sistemico: valutazioni obbligatorie per identificare e mitigare potenziali impatti diffusi.
  • Segnalazione degli incidenti: protocolli strutturati per la segnalazione e la gestione degli eventi avversi.
  • Obblighi di sicurezza informatica: misure rafforzate per proteggere i sistemi di AI dalle minacce dannose.

Implicazioni per i fornitori e gli utilizzatori di sistemi di AI generativa

Ecco i principali impatti derivanti dalla nuova versione della terza bozza del Codice di condotta generale per l'AI:

  • Requisiti di conformità più rigorosi: i fornitori devono rispettare obblighi dettagliati in materia di trasparenza e copyright, il che richiede una solida documentazione e pratiche di gestione dei dati.
  • Gestione del rischio: gli operatori di sistemi di IA generativa ad alta capacità devono attuare strategie complete di valutazione e mitigazione dei rischi per allinearsi ai nuovi impegni in materia di sicurezza.
  • Adattamento agli standard in evoluzione: il Codice sottolinea la flessibilità per adattarsi ai progressi tecnologici, esortando le parti interessate a tenersi costantemente informate nei loro sforzi di conformità.

Quali sono i prossimi passi e le questioni aperte?

Le parti interessate sono invitate a fornire un feedback entro il 30 marzo 2025 e la versione finale del Codice è prevista per maggio 2025. In questo contesto, le potenziali domande aperte sono le seguenti, a mio avviso

  1. Il Codice di condotta diventerà una guida per interpretare le disposizioni dell'AI Act?
  2. Il Codice di condotta diventerà una guida più flessibile e adattabile per adeguarsi ai rapidi sviluppi tecnologici?
  3. I tribunali e le autorità di regolamentazione prenderanno in considerazione il Codice di condotta nell'applicazione dell'AI Act?
  4. Le imprese di fatto sono obbligate a rispettare il Codice di condotta?

Per ulteriori informazioni sulle questioni legali relative all'intelligenza artificiale, consigliamo di leggere la nostra rivista giuridica sull'AI, le cui ultime edizioni sono disponibili QUI.

Su un argomento simile può essere d'interesse l'articolo "Pubblicata la prima bozza del Codice di condotta per l’AI per finalità generali"

Autore: Giulio Coraggio

 

Intellectual Property

 

Diritto d'autore e AI: la giurisprudenza USA esclude le macchine dall’autorialità

Il 18 marzo 2025, la Corte d’Appello del Circuito del Distretto di Columbia ha confermato le precedenti decisioni che negavano la protezione del copyright all’opera "A Recent Entrance to Paradise", realizzata – secondo quanto sostenuto – esclusivamente dalla "Creativity Machine", un sistema di intelligenza artificiale ideato dal Dr. Stephen Thaler.

La vicenda ha origine nel 2019, quando Thaler ha presentato domanda di registrazione presso l’Ufficio Copyright degli Stati Uniti, indicando la Creativity Machine come unico autore e sé stesso come titolare dei diritti. L’Ufficio ha respinto l’istanza, e tale decisione è stata successivamente confermata dal Review Board e dal Tribunale Distrettuale del Distretto di Columbia.

Nel corso del procedimento, Thaler ha sostenuto che, in base alla work-for-hire doctrine, il copyright dell’opera sarebbe dovuto spettare a lui. Ha inoltre argomentato che l’opera avrebbe comunque dovuto essere protetta, in quanto realizzata su sua indicazione e sotto la sua direzione.

Con la decisione più recente, la Corte d’Appello ha ribadito che la normativa sul copyright statunitense (Copyright Act of 1976) richiede che ogni opera protetta sia creata da un essere umano. Sebbene la legge non definisca espressamente il concetto di “autore”, l’interpretazione consolidata attribuisce tale status esclusivamente alle persone fisiche.

Pur riconoscendo che in passato alcuni soggetti legalmente riconosciuti come autori non soddisfacevano tutti questi criteri, la Corte ha ritenuto che un’IA non possa in alcun caso possedere capacità giuridica e tantomeno un'intenzionalità creativa.

Il ruolo dell’IA nella creazione di opere protette

Un aspetto chiave della sentenza è la precisazione secondo cui il requisito dell’autorialità umana non esclude la protezione delle opere realizzate con il supporto dell’IA. Se un essere umano utilizza strumenti di Intelligenza Artificiale per sviluppare un’opera, il risultato può ottenere protezione, a condizione che vi sia un adeguato livello di intervento umano. Il problema, nel caso di Thaler, è che la Creativity Machine era stata indicata come unico autore dell’opera.

La Corte ha inoltre respinto l’argomento secondo cui il requisito dell’autorialità umana scoraggerebbe la creatività da parte di chi sviluppa o utilizza l’IA.

Il dibattito sull’autorialità nell’era dell’Intelligenza Artificiale

Secondo molti, questa decisione non sorprende e, al contrario, appare coerente con l’impostazione consolidata sul tema. Il vero limite della vicenda sollevata da Thaler non sta tanto nel rigetto della sua richiesta, quanto nel fatto che il suo caso, a distanza di anni, ha perso rilevanza nel dibattito attuale.

Due sono i motivi principali: da un lato, l’aver indicato la Creativity Machine come unico autore dell’opera; dall’altro, il fatto che alcune delle argomentazioni avanzate – tra cui la presunta incostituzionalità del requisito di autorialità umana e l’idea che Thaler stesso potesse essere riconosciuto come autore – non siano state ulteriormente sviluppate.

Infatti, la domanda attualmente da porsi, non è tanto "chi" può essere considerato "autore", ma piuttostosto "cosa" rende un autore tale. Occorre dunque domandarsi fino a che punto si possa integrare l’uso dell’intelligenza artificiale nella creazione di un’opera senza perdere lo status di autore.

Negli Stati Uniti, il recente Second Report on Copyright and Artificial Intelligence del Copyright Office ha chiarito che l’uso di strumenti di intelligenza artificiale non esclude la protezione dell’opera, purché vi sia un controllo umano significativo sugli elementi espressivi. Questo principio, in realtà, non rappresenta un cambiamento di rotta, ma si inserisce in linea di continuità con quanto già stabilito nel Compendium of U.S. Copyright Office Practices e nel 1965 Report to the Librarian of Congress, secondo cui non possono essere registrate opere generate esclusivamente da processi meccanici o casuali, privi di qualsiasi intervento creativo da parte di un autore umano.

In Europa la situazione non è molto diversa. I principi di diritto statunitense si riflettono in larga misura anche nel contesto giuridico europeo. Da tempo la giurisprudenza della Corte di Giustizia dell’Unione Europea ha chiarito che un’opera è protetta solo se riflette la “personalità” dell’autore e se è il frutto di “scelte libere e creative”. Anche nel quadro normativo UE, quindi, nulla vieta l’uso dell’AI come strumento di supporto alla creazione, ma la protezione riguarda esclusivamente le parti dell’opera in cui il contributo umano è chiaramente riconoscibile.

In definitiva, il dibattito sull’uso dell’intelligenza artificiale in ambito creativo è tutt’altro che concluso. Se ormai sembra assodato che solo un essere umano possa essere riconosciuto come autore, resta ancora da chiarire in che misura l’intervento umano debba essere presente affinché un’opera possa ottenere protezione. Ed è proprio questa la vera questione, ben più ampia e complessa, che il diritto d’autore dovrà affrontare nei prossimi anni.

Per ulteriori informazioni sulle questioni legali relative all'intelligenza artificiale, consigliamo di leggere la nostra rivista giuridica sull'AI, le cui ultime edizioni sono disponibili QUI.

Su un simile argomento può essere interessante l’articolo: Le opere dell'intelligenza artificiale proteggibili per il diritto d'autore?

Autrice: Maria Vittoria Pessina

 

Technology Media and Telecommunication

 

Avvio di una consultazione pubblica sulle condizioni di applicabilità del regime di autorizzazione generale alle Content Delivery Network

Con Delibera 55/25/CONS del 6 marzo 2025, pubblicata il 14 marzo scorso, l'AGCom ha avviato una consultazione pubblica avente ad oggetto un documento di ricognizione delle condizioni di applicabilità del regime di autorizzazione generale previsto dal Codice delle comunicazioni elettroniche (d.lgs. 259/2003, come modificato dal d. lgs. 207/2021 – CCE) alle Content Delivery Network.

Le "Content Delivery Networks" o "CDN" sono reti costituite da un insieme di server distribuiti geograficamente (noti anche come "cache"), finalizzate a velocizzare e ottimizzare la consegna dei contenuti agli utenti finali. Come osservato dall'AGCom, tale tipologia di rete fa sì che la richiesta di un particolare contenuto sia soddisfatta dal server più prossimo all’utente e in tempi più rapidi rispetto al caso in cui dovesse essere gestita dalla sede centrale del fornitore di contenuti. In linea generale, quindi, come osservato dall'Autorità, la trasmissione di contenuti tramite CDN consente, da un lato, di migliorare la qualità del servizio offerto, velocizzando l’accesso al contenuto; dall’altro, di evitare la congestione delle dorsali di rete interessate dalla trasmissione contestuale di traffico Internet anche non direttamente legato a quello trasmesso tramite CDN.

Tale consultazione pubblica è prevista nel contesto del procedimento istruttorio, avviato con la delibera 55/25/CONS, volto alla ricognizione delle condizioni di applicabilità del regime di autorizzazione generale per la fornitura, il possesso, la gestione o il controllo di un’infrastruttura CDN sul territorio nazionale per la distribuzione dei contenuti via Internet, con l’obiettivo di promuovere un regime autorizzatorio coerente per tutti i fornitori di Content Delivery Network e i Content and Application Provider ("CAP", ossia i fornitori di contenuti) .

Il documento posto in consultazione si compone di tre sezioni: (i) una sezione introduttiva; (ii) una sezione sugli orientamenti dell'AGCom circa le condizioni di applicabilità del regime di autorizzazione generale previsto dal CCE alle CDN; (iii) quesiti rivolti ai partecipanti alla consultazione.

Nella sezione introduttiva viene anzitutto illustrato il funzionamento delle CDN (come sopra descritto) e individuate le principali categorie di CDN, che in linea di massima si distinguono in (i) CDN private, nel caso in cui il fornitore di contenuti ha il completo controllo dei server costituenti la rete CDN, che vengono utilizzati unicamente per la distribuzione dei propri contenuti; (ii) CDN pubbliche (c.d. CDN global), ossia quando la rete di server è gestita da un apposito CDN provider (soggetto diverso dal CAP) che fornisce il servizio di distribuzione dei contenuti a più Content Provider che non hanno il controllo dei server e ne condividono la capacità di trasmissione e (iii) CDN mixed-use, ossia il caso in cui un fornitore di contenuti può utilizzare la propria infrastruttura di distribuzione sia per distribuire i propri contenuti che per fornire un servizio CDN a terzi.

La prima sezione approfondisce inoltre le due modalità principali di distribuzione del traffico attraverso le CDN – ossia attraverso l'interconnessione tra la rete del CAP e la rete dell’operatore ovvero mediante l’installazione direttamente nella rete dell’operatore delle cache della CDN del CAP – nonché le caratteristiche principali degli accordi commerciali tra gli operatori di comunicazioni elettroniche, i Content and Application Provider e CDN Provider

Nella seconda sezione del documento in consultazione – che, come anticipato, riguarda gli orientamenti dell'AGCom circa le condizioni di applicabilità del regime di autorizzazione generale previsto dal CCE alle CDN – L'AGCom osserva, tra l'altro, che il regime di autorizzazione generale previsto dall'art. 11 CCE debba essere esteso anche a tutti i Content and Application Provider che possiedono, gestiscono o controllano una CDN sul territorio italiano per la distribuzione dei propri contenuti e ai CDN Provider la cui infrastruttura è collocata sul territorio nazionale. Ciò in considerazione del fatto che tali soggetti operano di fatto come fornitori di reti contribuendo alla trasmissione dei dati (accessibili al pubblico) a livello infrastrutturale.

Il documento contiene infine quattro quesiti rivolti ai partecipanti alla consultazione, ai quali viene chiesto:

  1. se "si condivide la ricognizione, fatta in premessa, sul principio di funzionamento delle CDN, sulle tipologie di CDN, sulla modalità di distribuzione del traffico attraverso le CDN e sugli accordi commerciali tra operatore, Content and Application Provider e CDN Provider";
  2. se "si condivide che un fornitore di reti di distribuzione dei contenuti (CDN provider), nell’ambito della fornitura di servizi attraverso la propria infrastruttura CDN installata sul territorio nazionale, debba essere inquadrato nel regime dell’autorizzazione generale di cui all’art.11 del Codice";
  • se "si condivide che un fornitore di contenuti, in possesso o che gestisce o controlla un’infrastruttura CDN sul territorio nazionale per la distribuzione dei propri contenuti, debba essere inquadrato nel regime dell’autorizzazione generale di cui all’art.11 del Codice";
  1. di indicare "qualora ritenuto necessario, ulteriori considerazioni sul tema".

I soggetti interessati potranno far pervenire le proprie osservazioni circa il documento di consultazione e su eventuali altri aspetti inerenti il tema in esame entro il 13 aprile 2025.

Su un simile argomento può essere interessante l’articolo “Consultazioni pubbliche del BEREC in tema di interconnessione IP, roaming machine-to-machine e regime di autorizzazione generale”.

Autori: Massimo D'Andrea, Flaminia Perna, Matilde Losa

 


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo BardelliCarolina BattistellaCarlotta BusaniGiorgia Carneri, Noemi Canova, Maria Rita CormaciCamila CrisciCristina CriscuoliTamara D’AngeliChiara D’OnofrioFederico Maria Di VizioNadia FeolaLaura GastaldiVincenzo GiuffréNicola LandolfiGiacomo LusardiValentina MazzaLara MastrangeloMaria Chiara MeneghettiDeborah ParacchiniMaria Vittoria PessinaTommaso RicciRebecca RossiRoxana SmeriaMassimiliano Tiberio, Federico Toscani, Giulia Zappaterra.

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna, Matilde Losa e Arianna Porretti.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena VareseAlessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui, consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, e il nostro magazine mensile Diritto Intelligente interamente dedicato all'AI qui

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.