
23 marzo 2026
Innovation Law Insights
23 marzo 2026Artificial Intelligence
Il Consiglio UE si muove per primo: pubblicata la nuova bozza del Digital Omnibus con modifiche all’AI Act
Il Consiglio dell’UE ha ora approvato la propria posizione sul pacchetto Digital Omnibus che introduce modifiche all’AI Act, e il messaggio è piuttosto chiaro: ancora prima che l’AI Act diventi pienamente applicabile, è già oggetto di revisione.
Questo non è insolito nel diritto dell’UE, ma la tempistica è significativa.
L’AI Act è stato concepito come un quadro normativo “a prova di futuro”. Tuttavia, le ultime bozze del Consiglio mostrano che le sfide pratiche di implementazione stanno già spingendo il legislatore a ricalibrare elementi chiave.
In altre parole, non si tratta solo di un esercizio di semplificazione, ma di una correzione precoce della traiettoria regolatoria.
Un segnale chiaro: nuove pratiche di IA potrebbero diventare vietate
Uno degli elementi più rilevanti nelle bozze approvate dal Consiglio è l’introduzione di un divieto specifico per i sistemi di IA utilizzati per generare contenuti intimi non consensuali e materiale di abuso sessuale su minori.
Dal punto di vista giuridico, si tratta di qualcosa di più di una semplice chiarificazione.
Dimostra che la categoria delle IA a “rischio inaccettabile” è in evoluzione e potrebbe continuare ad ampliarsi con l’emergere di nuovi casi d’uso.
Per le aziende che lavorano con l’IA generativa, questo solleva una questione pratica: la conformità non può basarsi solo sulla classificazione attuale, ma deve anticipare come le categorie di rischio potrebbero cambiare nel tempo.
Più tempo per adeguarsi… ma non meno pressione
Il Consiglio propone anche di posticipare l’applicazione delle norme per i sistemi di IA ad alto rischio:
- 2 dicembre 2027 per i sistemi autonomi;
- 2 agosto 2028 per i sistemi integrati nei prodotti.
A prima vista, potrebbe sembrare una buona notizia per le imprese.
Ma in realtà si tratta più di una ridefinizione dei tempi che di un alleggerimento degli obblighi.
La sostanza delle norme non cambia. Cambia piuttosto l’aspettativa che le aziende utilizzino questo tempo aggiuntivo per costruire solide strutture di governance.
Chi interpreta il rinvio come un motivo per rimandare rischia di trovarsi impreparato quando inizieranno i controlli.
La trasparenza torna al centro
Un altro elemento importante della bozza del Consiglio è il ripristino dell’obbligo di registrare i sistemi di IA nel database UE per i sistemi ad alto rischio, anche quando i fornitori ritengono che i loro sistemi non lo siano.
Si tratta di un cambiamento significativo.
Significa infatti che le decisioni di classificazione non saranno più esclusivamente interne. Potranno diventare visibili, contestabili e soggette a scrutinio.
In pratica, questo potrebbe:
- spingere le aziende verso valutazioni del rischio più prudenti;
- richiedere una documentazione interna più solida;
- esporre i casi borderline ai regolatori prima del previsto.
Dati sensibili: ritorna un approccio più restrittivo
Le bozze del Consiglio reintroducono anche il criterio della “stretta necessità” per il trattamento delle categorie particolari di dati personali nei sistemi di IA.
Questo è particolarmente rilevante per settori come sanità, risorse umane e biometria.
L’implicazione è chiara: l’uso di dati sensibili nei sistemi di IA richiederà giustificazioni molto più solide e meno margine per interpretazioni flessibili.
Rafforza inoltre un aspetto che molte aziende ancora sottovalutano: la conformità all’IA e quella al GDPR non sono esercizi separati.
Cosa significa davvero (oltre i titoli)
Se si guarda al quadro generale, la posizione del Consiglio evidenzia una tendenza più ampia.
Sì, le tempistiche vengono estese.
Ma allo stesso tempo:
- l’elenco delle pratiche vietate si amplia;
- gli obblighi di trasparenza aumentano;
- i vincoli sulla protezione dei dati si rafforzano.
Il messaggio reale, quindi, non è un “allentamento”, ma un irrigidimento controllato con tempi più realistici.
Il rischio che vedo nella pratica
In molte organizzazioni, l’IA è già in fase di implementazione in diverse funzioni aziendali, spesso più rapidamente di quanto le strutture di governance riescano a tenere il passo.
È qui che si concentra il vero rischio.
Se le questioni legali e di compliance vengono individuate solo dopo che i sistemi di IA sono già integrati nelle operazioni:
- correggerle diventa operativamente complesso;
- i costi aumentano in modo significativo;
- il rischio reputazionale può crescere rapidamente.
A mio avviso, la bozza del Consiglio riconosce implicitamente questa dinamica.
Non è solo una bozza, è una direzione
Sarebbe facile considerare le bozze Digital Omnibus approvate dal Consiglio come un semplice passaggio nel processo legislativo.
Sarebbe un errore.
Rappresentano un’indicazione precoce di come l’AI Act evolverà nella pratica:
- più adattivo;
- più trasparente;
- più esigente in termini di governance.
Per le imprese, la domanda chiave non è più se le regole cambieranno, ma se le loro strutture interne sono abbastanza flessibili da adattarsi quando lo faranno.
Autore: Giulio Coraggio
Dichiarazione congiunta sulle immagini generate dall’intelligenza artificiale e la protezione della privacy – Impatti potenziali
Il 23 febbraio 2026, il Comitato europeo per la protezione dei dati (EDPB), nell’ambito di un’iniziativa coordinata dalla Global Privacy Assembly (GPA) tramite l’International Enforcement Cooperation Working Group (IEWG), ha pubblicato la Dichiarazione congiunta sulle immagini generate dall’intelligenza artificiale e la protezione della privacy, sostenuta da 61 autorità a livello globale.
Sebbene la Dichiarazione non abbia natura giuridicamente vincolante, essa rappresenta un chiaro segnale della forte e convergente volontà delle autorità di protezione dei dati di promuovere un approccio comune e coordinato ai rischi connessi ai sistemi di intelligenza artificiale generativa, in particolare quando coinvolgono minori.
Ambito e contenuto della Dichiarazione
La Dichiarazione si concentra principalmente sui sistemi di IA in grado di generare immagini e video realistici.
Pur riconoscendo che tali strumenti possono avere molteplici applicazioni legittime e innovative e risultare sempre più rilevanti per le imprese in diversi settori, le autorità evidenziano il rischio concreto di utilizzi impropri, tra cui la creazione di immagini intime non consensuali, contenuti diffamatori e altre rappresentazioni dannose.
Tali rischi risultano particolarmente rilevanti quando coinvolgono minori o altri soggetti vulnerabili, con possibili conseguenze quali cyberbullismo, sfruttamento e altre forme di abuso.
Principi fondamentali
Fermo restando il rispetto dei requisiti giuridici specifici applicabili nei diversi ordinamenti, la Dichiarazione individua quattro principi generali che dovrebbero orientare lo sviluppo e l’impiego dei sistemi di generazione di contenuti basati su IA:
- Salvaguardie: adozione di misure tecniche e organizzative robuste per prevenire l’uso improprio dei dati personali e la creazione di contenuti dannosi o non consensuali;
- Trasparenza: garanzia di un adeguato livello di trasparenza in merito alle funzionalità del sistema, alle misure di protezione, agli usi consentiti e alle conseguenze di eventuali abusi;
- Meccanismi di tutela: predisposizione di strumenti efficaci e accessibili che consentano agli interessati di richiedere la rimozione di contenuti dannosi, assicurando risposte tempestive;
- Protezione dei minori: introduzione di misure rafforzate a tutela dei minori, inclusa la fornitura di informazioni chiare e adeguate all’età rivolte ai minori stessi, nonché a genitori, tutori ed educatori.
Conclusioni
Pur non essendo vincolante, la Dichiarazione evidenzia come i rischi legati all’intelligenza artificiale generativa costituiscano una priorità regolatoria per le autorità di protezione dei dati.
Nel contesto specifico dei minori, i principi delineati indicano standard particolarmente elevati in termini di sicurezza, prevenzione e trasparenza.
In termini pratici, ciò lascia prevedere un significativo innalzamento del livello di conformità richiesto alle imprese che sviluppano sistemi di IA generativa in grado di generare immagini. Sebbene molti di tali requisiti siano già presenti nei quadri normativi esistenti – in particolare nell’AI Act – l’approccio adottato dalle autorità e dagli altri regolatori potrebbe spingere le organizzazioni verso standard ancora più elevati.
In particolare, è prevedibile una crescente enfasi sull’adozione di misure tecniche concrete idonee a prevenire efficacemente la generazione di contenuti illeciti o dannosi, inclusi sistemi progettati per rilevare, bloccare o impedire la creazione di contenuti che violino i diritti. Parallelamente, le organizzazioni saranno chiamate a fornire informazioni chiare, accurate e accessibili per garantire un utilizzo corretto di tali sistemi, soprattutto quando coinvolgono minori.
In questo senso, la Dichiarazione può essere interpretata come un indicatore dell’approccio che verosimilmente sarà adottato in futuro, in cui la conformità non dipenderà più soltanto dal rispetto formale delle norme, ma anche dall’implementazione proattiva di misure di tutela by design e by default, al fine di garantire il più elevato livello di protezione dei minori.
Infine, considerato che molte giurisdizioni stanno adottando misure sempre più stringenti in materia di tutela dei minori – che spaziano dalle restrizioni all’accesso a determinati servizi online all’introduzione di meccanismi tecnici di verifica dell’età – sarà essenziale monitorare i futuri sviluppi normativi. Tali evoluzioni potrebbero includere ulteriori disposizioni specificamente volte a rafforzare la protezione dei minori nello sviluppo e nell’utilizzo delle tecnologie di IA generativa.
Autore: Federico Toscani
Blockchain and Criptocurrency
Trading algoritmico: Chiarimenti delle autorità di vigilanza sull'interplay tra MiFID II e l'AI ACT
Il 26 febbraio 2026, l'Autorità europea degli strumenti finanziari e dei mercati ("ESMA") ha pubblicato un documento di orientamento di vigilanza sul trading algoritmico ("Briefing") nell'Unione europea con l'obiettivo dichiarato di promuovere una maggiore convergenza di vigilanza nell'applicazione del quadro normativo della Direttiva (UE) 2004/39 ("MiFID II"). Il Briefing non è vincolante e non è soggetto a un meccanismo di "comply-or-explain", ma è chiaramente inteso a guidare sia le autorità nazionali competenti che gli operatori di mercato nell'interpretazione e nella vigilanza delle norme sul trading algoritmico. Più specificamente, il Briefing sostiene l'applicazione del Regolamento delegato (UE) 2017/589 ("RTS 6"), con particolare attenzione a quelle aree in cui ESMA ha individuato approcci di vigilanza divergenti o pratiche di mercato non sufficientemente solide.
Sostanzialmente, il Briefing svolge due funzioni.
- In primo luogo, chiarisce l’ambito di applicazione del trading algoritmico precisando il significato dei concetti chiave che sono centrali nel regime MiFID II, tra cui “algoritmo”, “trading algoritmico” e “strategia di trading algoritmico”. In tal modo, ESMA adotta un’interpretazione volutamente ampia e funzionale del concetto di negoziazione algoritmica, confermando che l’elemento decisivo non è la totale assenza di intervento umano, ma piuttosto il fatto che un algoritmo informatico determini uno o più parametri individuali di un ordine oltre al semplice instradamento o all’elaborazione post-negoziazione.
- In secondo luogo, il Briefing definisce aspettative di vigilanza concrete in materia di governance, test, esternalizzazione, autovalutazione annuale e controlli pre-negoziazione, attingendo ai risultati dell’Azione di Vigilanza Comune del 2024 avviata a seguito del flash crash nordico del 2022.
Un aspetto particolarmente significativo del Briefing riguarda la crescente intersezione tra la regolamentazione finanziaria e il Regolamento (UE) 2024/1689 ("AI Act"). Il Briefing chiarisce che l'uso dell'Intelligenza Artificiale ("IA") all'interno dei sistemi di negoziazione aumenta l'importanza della governance, della responsabilità e della supervisione interna.
Trading algoritmico ai sensi di MiFID 2
Un elemento centrale del Briefing riguarda il chiarimento di ciò che costituisce trading algoritmico ai sensi dell'articolo 4, paragrafo 1, punto 39, MiFID II. Ai sensi di tale disposizione, per trading algoritmico si intende la negoziazione di strumenti finanziari in cui un algoritmo informatico determina automaticamente i singoli parametri degli ordini. ESMA ribadisce che la definizione deve essere interpretata in senso ampio.
Qualsiasi attività di negoziazione in cui un algoritmo determini elementi quali la tempistica, il prezzo, la quantità o la gestione dell’esecuzione di un ordine può rientrare nel suo ambito di applicazione, anche laddove l’intervento umano rimanga parte del processo di negoziazione. Al contrario, i sistemi che si limitano a fornire segnali informativi ai trader, senza determinare i parametri degli ordini o eseguire automaticamente le operazioni, non si qualificano come trading algoritmico; come già specificato da ESMA nel 2017 attraverso la Q&A 1603.
Partendo da questa definizione, il Briefing distingue ulteriormente tra i concetti di algoritmo e strategia di trading algoritmico, due nozioni che svolgono un ruolo chiave nel quadro di vigilanza ma che storicamente sono state interpretate in modo incoerente nelle diverse giurisdizioni.
- ESMA definisce un algoritmo come un insieme computerizzato di istruzioni in grado di determinare autonomamente uno o più parametri di un ordine di negoziazione.
- Una strategia di trading algoritmico, al contrario, è intesa come un insieme di logica decisionale implementata attraverso uno o più algoritmi e progettata per perseguire un obiettivo di trading definito, come il market making, l’arbitraggio o l’ottimizzazione dell’esecuzione. Questa distinzione è particolarmente rilevante ai fini di vigilanza, poiché determina in che modo il comportamento di trading possa essere attribuito a sistemi specifici e quindi testato, monitorato e sottoposto a scrutinio normativo.
L'approccio di ESMA su governance e collaudo del trading algoritmico
Il Briefing fornisce inoltre indicazioni di vigilanza dettagliate sulla governance e sui test dei sistemi di trading algoritmico. Ai sensi dell’articolo 17 MiFID II e delle disposizioni di attuazione dell’RTS 6, le imprese di investimento che effettuano trading algoritmico devono stabilire solidi accordi di governance che garantiscano che gli algoritmi di trading siano adeguatamente progettati, testati, monitorati e controllati durante tutto il loro ciclo di vita. ESMA sottolinea che tali meccanismi di governance devono attribuire chiaramente le responsabilità all'interno dell'impresa, garantire una comunicazione efficace tra le funzioni di negoziazione, gestione del rischio, conformità e IT, e mantenere un'adeguata separazione tra i trading desk e le funzioni di controllo. Questo quadro di governance ha lo scopo di garantire che i sistemi di trading algoritmico rimangano soggetti a un'efficace supervisione interna nonostante la crescente complessità tecnologica degli ambienti di trading automatizzato.
Un elemento fondamentale di questo quadro normativo riguarda il collaudo degli algoritmi e delle strategie di trading algoritmico.
- L'RTS 6 richiede alle imprese di investimento di condurre test di conformità, stress test e analisi di scenario prima di implementare sistemi di negoziazione algoritmica e ogni volta che si verifichino cambiamenti rilevanti. ESMA chiarisce che per "cambiamento sostanziale" si deve intendere, in senso lato, qualsiasi modifica in grado di alterare il comportamento, il profilo di rischio o la posizione di conformità di un sistema di trading algoritmico. Tra gli esempi figurano le modifiche alla logica decisionale che regola la determinazione del prezzo o della quantità, le modifiche al comportamento di esecuzione, l'estensione dell'algoritmo a nuovi strumenti o sedi di negoziazione, le modifiche ai parametri di controllo del rischio o le alterazioni delle dipendenze esterne quali i feed di dati o l'infrastruttura di trading.
- Il Briefing ribadisce inoltre che l'uso di software in outsourcing o di sistemi di negoziazione di terze parti non altera la responsabilità normativa dell'impresa di investimento. Qualora gli algoritmi o gli strumenti di esecuzione siano acquistati da fornitori esterni, l’impresa di investimento rimane pienamente responsabile del rispetto di MiFID II e dell’RTS 6. Le imprese devono pertanto garantire che gli accordi di esternalizzazione forniscano trasparenza e controllo sufficienti per consentire loro di comprendere, testare e monitorare il funzionamento degli algoritmi che implementano, nonché di dimostrare la conformità all’autorità competente. In pratica, ciò richiede solidi accordi contrattuali che garantiscano l’accesso alla documentazione pertinente, ai risultati dei test e ai dati operativi relativi ai sistemi esternalizzati.
I sistemi di trading algoritmico basati su IA possono essere qualificati come sistemi di IA ad alto rischio ai sensi dell'AI Act?
ESMA rileva espressamente che un sistema di trading algoritmico può qualificarsi come sistema di IA ai sensi dell'articolo 3, paragrafo 1, dell'AI Act. In tal caso, i requisiti introdotti da tale regolamento devono essere integrati negli accordi di governance già richiesti dall'RTS 6. In termini pratici, ciò significa che il quadro organizzativo attraverso il quale le imprese di investimento supervisionano le proprie operazioni di trading deve anche tenere conto degli obblighi normativi derivanti dall'AI Act.
Come noto, l’AI Act adotta una tassonomia normativa basata sul rischio. Attualmente, i sistemi di trading algoritmico basati sull’IA non sono inclusi tra i casi d’uso ad alto rischio identificati dal regolamento. Tuttavia, la determinazione di ciò che si qualifica come sistema di IA ad alto rischio rimane soggetta a ulteriori chiarimenti normativi, e si prevede che la Commissione Europea pubblichi ulteriori orientamenti in questo ambito. In attesa di tali orientamenti, l’Allegato III dell’AI Act rimane il punto di riferimento normativo più preciso per identificare i sistemi di IA ad alto rischio per l’ e, elencando i settori e i casi d’uso attualmente soggetti al regime di conformità più rigoroso previsto dal regolamento.
Le categorie identificate in tale allegato riguardano principalmente i sistemi di IA in grado di incidere direttamente sui diritti fondamentali o sull'accesso delle persone fisiche a servizi essenziali, come i sistemi utilizzati per il credit scoring, le decisioni di assunzione, l'accesso alle prestazioni pubbliche o a fini di applicazione della legge. Al contrario, i sistemi di trading algoritmico operano tipicamente all'interno dei mercati finanziari e automatizzano le decisioni di trading tra gli operatori di mercato, piuttosto che produrre decisioni che determinano direttamente i diritti o le opportunità degli individui.
Al di là dei dubbi formali sulla classificazione dei rischi, ESMA riconosce come la crescente integrazione delle tecnologie di IA nei sistemi di negoziazione sollevi ulteriori sfide di vigilanza. I sistemi di IA – in particolare quelli che si basano su tecniche di apprendimento automatico – possono evolversi nel tempo attraverso processi di ricalibrazione o di riaddestramento, alterando potenzialmente il comportamento di un sistema di negoziazione senza una singola modifica identificabile che possa chiaramente qualificarsi come “cambiamento sostanziale” ai sensi dell’RTS 6. Ciò crea il rischio che gli adeguamenti cumulativi del sistema (o del modello) possano incidere in modo sostanziale sui risultati di negoziazione senza innescare le procedure di verifica normalmente richieste per i sistemi algoritmici.
In questo contesto, ESMA sottolinea che l’attuale quadro di controllo di MiFID II fornisce già importanti strumenti di vigilanza per affrontare l’uso dell’IA nel trading. In particolare:
- L'articolo 9 dell'RTS 6 impone alle imprese di investimento di effettuare un'autovalutazione e una convalida annuali dei propri sistemi di negoziazione algoritmica, comprese le relative disposizioni di governance e la loro conformità complessiva all'articolo 17 di MiFID II.
- Parallelamente, l’articolo 2 dell’RTS 6 richiede che il personale addetto alla conformità possieda una comprensione sufficiente del funzionamento degli algoritmi di negoziazione dell’impresa e mantenga un’interazione continua con il personale in possesso di conoscenze tecniche dettagliate di tali sistemi. Laddove vengono impiegate tecnologie di IA, questi requisiti implicano che le imprese debbano essere in grado non solo di controllare i propri algoritmi di negoziazione, ma anche di spiegare in che modo i sistemi di IA influenzano le decisioni di negoziazione e garantire che il loro utilizzo rimanga soggetto a governance, convalida e supervisione interna efficaci.
Digital Omnibus: la BCE traccia i confini di vigilanza
Un ulteriore elemento normativo rilevante per l’intersezione tra la vigilanza finanziaria e l’AI Act emerge dal parere della Banca centrale europea (“BCE”) del 13 marzo 2026 su una proposta di regolamento relativo alla semplificazione dell’attuazione delle norme armonizzate in materia di intelligenza artificiale (“Digital Omnibus on AI”). In tale parere, la BCE sottolinea come l’AI Act non debba alterare l’attribuzione delle competenze di vigilanza nel settore finanziario.
- In particolare, la BCE chiarisce che le valutazioni di conformità, le indagini sulle violazioni e l’applicazione dell’AI Act rientrano nelle competenze delle autorità nazionali di vigilanza del mercato, mentre il mandato della BCE rimane limitato alla vigilanza prudenziale degli enti creditizi nell’ambito del Meccanismo di vigilanza unico.
- Allo stesso tempo, la BCE sottolinea la necessità di una chiara base giuridica che consenta lo scambio reciproco di informazioni tra le autorità di vigilanza prudenziale e le autorità di vigilanza del mercato, al fine di evitare indagini ridondanti e risultati di vigilanza incoerenti nei casi in cui gli enti creditizi utilizzino sistemi di IA.
- Infine, la BCE chiede anche una maggiore proporzionalità nella classificazione dei casi d’uso dell’IA nel settore finanziario, suggerendo che i modelli lineari generalizzati, come i modelli di regressione lineare e logistica comunemente utilizzati nella valutazione del rischio di credito, non dovrebbero essere considerati sistemi di IA ad alto rischio quando impiegati come tecniche statistiche autonome, data la loro intrinseca trasparenza e spiegabilità.
Nel loro insieme, questi chiarimenti sottolineano un obiettivo istituzionale più ampio che consiste nel garantire che l'AI Act operi in modo da integrare, anziché sconvolgere, l'architettura di vigilanza consolidata della regolamentazione finanziaria dell'UE, preservando sia la coerenza normativa che la proporzionalità nella supervisione delle attività finanziarie basate sull'IA. In definitiva, poiché i sistemi di IA rendono progressivamente più sfocata la linea di demarcazione tra algoritmi statici e modelli decisionali adattivi, una domanda rimane inevitabile. L’attuale quadro di vigilanza MiFID II, così com’è, è sufficiente per cogliere i rischi dei sistemi di negoziazione auto-evolutivi?
Autore: Andrea Pantaleo e Giulio Napolitano
Technology, Media and Telecommunications
Avvio di una consultazione pubblica del BEREC sull'Outline Work Programme 2027
Il BEREC (Body of European Regulators for Electronic Communications) ha recentemente avviato una consultazione pubblica ("early call for input") in vista dell'adozione del programma di lavoro del BEREC per il 2027.
L'obiettivo della consultazione in oggetto è quello di raccogliere osservazioni da parte dei soggetti interessati rispetto all'Outline BEREC Work Programme 2027, ossia lo schema relativo al programma di lavoro per il 2027 che, come ogni anno, il BEREC deve pubblicare entro il 31 gennaio dell'anno precedente rispetto a quello cui lo schema si riferisce.
L'Outline BEREC Work Programme 2027 si basa sulla Strategia BEREC per il periodo 2026-2030 che individua le "priorità strategiche" (high-level strategic priorities) destinate ad orientare le attività che il BEREC svolgerà, nonché sugli obiettivi previsti dall'art. 3(2) della Direttiva 2018/1972 (Codice Europeo delle comunicazioni elettroniche – "Codice"), ossia:
- promuovere la connettività e l’accesso alle reti ad altissima capacità (Very High Capacity Networks);
- promuovere la concorrenza e l'efficienza degli investimenti;
- contribuire allo sviluppo del mercato interno;
- promuovere gli interessi dei cittadini dell’UE.
Lo schema pubblicato dal BEREC si compone di diverse sezioni, che riguardano, tra l'altro, le priorità strategiche, l'attività di cooperazione con le istituzioni europee e i gruppi istituzionali, i compiti del BEREC ai sensi della normativa europea, i progetti portati avanti dal BEREC nel 2026 e potenziali attività per il 2027 e gli anni successivi.
Lo schema posto in consultazione pubblica riporta anzitutto le "priorità strategiche", già considerate nell'ambito dei precedenti programmi di lavoro e aggiornate per il 2027, ossia:
- promuovere la connettività totale ("full connectivity") e il mercato unico digitale, migliorando le condizioni per l'espansione e l'adozione di reti ad altissima capacità sicure, resilienti, competitive e affidabili (sia terrestri che sottomarine, fisse e wireless) in tutta Europa;
- supportare ecosistemi digitali aperti e guidati dalla concorrenza ("open and competition-driven digital ecosystems"), in particolare favorendo innovazione, investimenti e tutela degli utenti, nonché continuando a contribuire all'implementazione del Digital Markets Act (reg. UE 2022/1925 – DMA), collaborando con la Commissione europea per l’implementazione degli obblighi di interoperabilità dei servizi di comunicazione interpersonale indipendenti dal numero per i gatekeeper;
- promuovere gli interessi degli utenti finali nel contesto di un ecosistema digitale in rapida evoluzione ("empowering end-users"), con particolare attenzione alla riduzione del divario digitale legato alle tecnologie emergenti e all’attuazione del Regolamento "Open Internet" (reg. UE 2015/2120);
- contribuire allo sviluppo di infrastrutture digitali sostenibili, sicure e resilienti ("sustainable, secure and resilient digital infrastructures"), garantendo la continuità dei servizi di comunicazione attraverso misure strategiche, operative e tecniche coordinate;
- rafforzare le capacità operative e migliorare le modalità di lavoro del BEREC ("strengthening BEREC's capabilities and continuous improvement"), incrementando efficienza, qualità dei risultati, trasparenza e sostenibilità ambientale, semplificando le procedure e promuovendo l’armonizzazione della raccolta dei dati a livello UE per ridurre gli oneri amministrativi e sostenere il mercato interno.
Il BEREC descrive poi la propria attività di cooperazione istituzionale e internazionale, sottolineando l’importanza del dialogo con le istituzioni europee, le autorità competenti di paesi terzi e le organizzazioni internazionali, fondamentale per garantire l’attuazione coerente ed efficace della normativa europea nel settore delle comunicazioni elettroniche.
Nel documento in consultazione pubblica il BEREC offre anche una panoramica delle sue prerogative in materia di normativa europea. In questo ambito, il BEREC svolge e segue su base continuativa attività correlate all'implementazione (i) delle previsioni del Codice, (ii) del Regolamento "Open Internet" (reg. UE 2015/2120) e delle Linee Guida Open Internet del BEREC, (iii) degli obblighi previsti dal regolamento sul Roaming (reg. UE 2022/612) e in materia di comunicazioni elettroniche intra-UE, (iv) delle previsioni del DMA.
In conclusione il BEREC riporta informazioni relative al suo impegno futuro, con particolare riferimento alla prosecuzione di progetti iniziati negli anni precedenti e inclusi nel BEREC Work Programme 2026 (quali, per esempio, l'adozione del BEREC Report on the application of fair and reasonable pricing within the SMP framework, prevista per il secondo trimestre del 2027, e l'adozione, anch'essa prevista per il 2027, del BEREC Report on access conditions to state-aid funded networks), nonché alle nuove attività previste per il 2027 (quali, ad esempio, il monitoraggio di questioni relative all’interconnessione IP, l'approfondimento della regolamentazione dell’accesso alle infrastrutture fisiche ("physical infrastructures access")).
A valle della early call for inputs il BEREC pubblicherà una bozza del programma di lavoro per il 2027, che è previsto che sarà a sua volta oggetto di una consultazione pubblica nel mese di ottobre 2026. Il BEREC prevede di adottare il Work Programme 2027 definitivo a dicembre 2026.
I soggetti interessati a partecipare alla early call for inputs possono presentare i propri contributi entro il 15 aprile 2026.
Su un simile argomento può essere interessante l’articolo “Avvio di una consultazione pubblica del BEREC sull'Outline Work Programme 2026”.
Autore: Massimo D'Andrea, Matilde Losa, Arianna Porretti
La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo Bardelli, Carolina Battistella, Noemi Canova, Gabriele Cattaneo, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Nadia Feola, Laura Gastaldi, Vincenzo Giuffré, Nicola Landolfi, Giacomo Lusardi, Josaphat Manzoni, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Giulio Napolitano, Andrea Pantaleo, Deborah Paracchini, Maria Vittoria Pessina, Marianna Riedo, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Federico Toscani, Giulia Zappaterra.
Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Matilde Losa e Arianna Porretti.
Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.
Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.
È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare il nostro magazine mensile Diritto Intelligente interamente dedicato all'AI qui.
Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.