Aggiungi un segnalibro per cominciare

Abstract_Lights_P_0152
7 febbraio 202324 minuti di lettura

Innovazione e diritto: le novità della settimana

Artificial intelligence

L’intelligenza artificiale generativa può fare affidamento sulla eccezione text and data mining (TDM) per il suo addestramento?

L’utilizzo di dati, immagini e contenuti da parte dei sistemi di intelligenza artificiale generativa per il proprio addestramento può fare affidamento sulla nuova eccezione dedicata al text and data mining (TDM) introdotta dalla Direttiva Copyright?

I sistemi di intelligenza artificiale generativa si “auto-addestrano” utilizzando algoritmi di apprendimento automatico che analizzano enormi quantità di dati, immagini e contenuti e imparano ad utilizzare tali informazioni per creare nuovi contenuti simili a quelli esistenti.

Tale analisi, tuttavia, potrebbe essere considerata come una riproduzione, anche se solo temporanea, dei dati e delle fonti utilizzate, incluse le eventuali opere protette o intere porzioni dei database impiegati. Pertanto, dall’estrazione automatizzata di tali contenuti possono derivare dei problemi di coordinamento con la disciplina a tutela del diritto d’autore e dei diritti ad esso connessi – in particolare, del diritto esclusivo di riproduzione ex art. 13 legge sul diritto d’autore n. 633/1941. Ma non solo. Tale utilizzo potrebbe inoltre essere in contrasto con il diritto del costitutore di una banca dati di vietare l’estrazione o il reimpiego della totalità o di una parte sostanziale della stessa.

Nell’ambito del diritto d’autore, la dottrina si è interrogata sulla possibilità di realizzare un’elaborazione creativa dell’informazione e/o dell’opera protetta. Sul punto, in realtà, si è già espresso il legislatore europeo, secondo cui, nel processo di elaborazione dei dati, l’assenza di un’autorizzazione da parte dell’autore dell’opera da cui sono estratti può integrare una violazione del diritto d’autore. Tuttavia, è evidente che subordinare l’attività di estrazione di dati e contenuti al previo ottenimento dell’autorizzazione da parte del titolare dei diritti di privativa coinvolti, comporterebbe elevati costi transattivi e anche tempi incompatibili con quelli di sviluppo di sistemi di intelligenza artificiale. È proprio per tali ragioni che il legislatore europeo è intervenuto riformando la materia attraverso l’introduzione di alcune eccezioni e limitazioni al diritto d’autore obbligatorie per ogni Stato Membro.

In particolare, in materia di estrazione di dati, la Direttiva Copyright 2019/790/UE ha introdotto le eccezioni di c.d. di text and data mining (TDM), disciplinate agli artt. 3 (Estrazione di testo e di dati per scopi di ricerca scientifica) e 4 (Eccezioni o limitazioni ai fini dell'estrazione di testo e di dati). Il TDM viene definito all’art. 2 della Direttiva Copyright come “qualsiasi tecnica di analisi automatizzata volta ad analizzare testi e dati in formato digitale avente lo scopo di generare informazioni inclusi, a titolo non esaustivo, modelli, tendenze e correlazioni”. A livello nazionale tali articoli sono stati trasposti, rispettivamente, con l’introduzione nella legge sul diritto d’autore degli artt. 70-ter – che riguarda unicamente l’estrazione per fini scientifici da parte di organismi di ricerca e istituti di tutela del patrimonio culturale – e 70-quater – che consente l’estrazione di testo e dati in generale, da parte di chiunque, anche per mero fine di lucro.

Viste le grandi quantità di dati utilizzati dai sistemi di AI per generare nuovi contenuti, risulta evidente lo stretto rapporto che sussiste tra l’intelligenza artificiale generativa e l’eccezione di TDM: l'eccezione di text and data mining consente ai sistemi di AI di accedere a grandi quantità di dati, che vengono utilizzati dall’AI generativa per creare nuovi contenuti. Qualora questi sistemi non fossero autorizzati ad accedere a tali dati, la loro capacità di generare contenuti risulterebbe indubbiamente limitata.

Tra le due eccezioni di TDM disciplinate dal legislatore europeo, merita particolare attenzione la seconda, che ammette l’estrazione anche per fini di lucro. L’art. 70-quater legge sul diritto d’autore, infatti, esenta qualsiasi attività di text and data mining che venga svolta sull’opera dell’ingegno, ivi incluso il software o il database protetto da un diritto connesso, a prescindere dallo scopo o dalla qualificazione del soggetto che la esercita.

Ciò, tuttavia, a condizione che:

a)     tale soggetto abbia avuto accesso legittimo al contenuto ai fini dell'estrazione di testo e di dati; e

b)     il titolare del diritto d’autore e dei diritti connessi e/o il titolare del database non abbiano espressamente riservato l’estrazione di testo e di dati (c.d. meccanismo di opt out), così richiamando le attività di TDM al proprio controllo esclusivo.

Tuttavia, la portata liberalizzatrice del meccanismo di opt out concesso dall’art. 70-quater dipende dalle modalità con cui viene effettuata la riserva da parte del titolare dei diritti. È lo stesso articolo 4, comma 3, della Direttiva Copyright a prevedere che la riserva venga espressa "in modo appropriato, ad esempio attraverso strumenti che consentano una lettura automatizzata in caso di contenuti resi pubblicamente disponibili online". Tale previsione sembra dunque richiedere che la dichiarazione di riserva sia leggibile in modo automatizzato quando l'opera cui si riferisce è messa a disposizione del pubblico in Internet. Gli effetti dell’opt out possono in realtà derivare anche dall’inserimento di un’apposita clausola in un contratto, assunto peraltro confermato dalla stessa Direttiva Copyright, che non include l’art. 4 tra le norme inderogabili.

Inoltre, la qualificazione della dichiarazione di riserva è indipendente da qualsiasi valutazione relativa all’eventuale presenza di meccanismi informatici atti a impedire l’estrazione dei dati. Tale interpretazione si fonda sulla funzione meramente informativa della riserva. Così, sarà sufficiente includere la riserva nelle R&D del sito web, anche se privo di misure di protezione. 

Pertanto, la riserva

1)     potrà essere una dichiarazione “digitale” priva di meccanismi di protezione informatica, come ad esempio i protocolli di esclusione contenuti nei file robots.txt; oppure

2)     potrà essere realizzata attraverso l’apposizione di un sistema di digital rights management che oltre ad avere una funzione di protezione informatica, incorpora anche una dichiarazione informatica automaticamente rilevabile; e

3)     non potrà invece consistere nella mera apposizione di misure tecniche di protezione che non includano alcuna dichiarazione, e che pertanto risultano essere mere manifestazioni tacite di volontà. Così, l'apposizione di misure tecniche non ha l'effetto di rendere di per sé illecita qualsiasi attività di TDM, ma rende comunque vietate le estrazioni incompatibili con la misura tecnica adottata, poiché l'art. 174-ter vieta di aggirare le misure tecnologiche di protezione.

Un ulteriore aspetto problematico concerne la conservazione delle copie dopo che il data mining si è concluso. Rispetto a ciò, il comma 2 dell’art. 70-quarter prevede che le riproduzioni e le estrazioni “possono essere conservate per il tempo necessario ai fini dell'estrazione di testo e di dati”, ciò perché la funzionalità di una copia all’estrazione di testo o di dati cessa nel momento in cui essa è compiuta. Pertanto, non è consentito conservare le copie per fini ulteriori rispetto a quello del TDM, come ad esempio per verificare e dimostrare i risultati raggiunti. Vi è però parte della dottrina che sostiene che le riproduzioni per data mining possono essere conservate anche per il tempo necessario ad addestrare i sistemi di intelligenza artificiale. Rispetto a ciò, in realtà occorrerebbe verificare caso per caso se l'addestramento dell’AI costituisce un'estrazione di testo e di dati o se, invece, costituisce un'attività ad essa successiva. Solamente nel primo caso le copie potrebbero essere conservate anche durante la fase dell'addestramento dell'intelligenza artificiale.

L'art. 70-quater, tuttavia, omette di disciplinare le riproduzioni ed eventuali ulteriori utilizzazioni necessarie per l'uso del testo e dei dati estratti a seguito della loro analisi computazionale, ovvero l’uso che i sistemi di AI potrebbero potenzialmente farne. Sul punto, parte della dottrina ha osservato che l’utilizzo del risultato del data mining potrebbe essere condizionato all'autorizzazione del titolare dei diritti sui contenuti analizzati. Quando con il data mining viene estratta soltanto la forma o una sua porzione, occorre verificare se i frammenti estratti e riutilizzati costituiscono porzioni autonomamente creative e pertanto protette. Rispetto a tale questione, vi è chi ritiene che l’uso di frammenti creativi non interferisca col diritto d'autore quando il loro significato originario impresso dall'autore non risulta più comprensibile, ad esempio perché nel nuovo contesto tali frammenti risultano irriconoscibili.

Pertanto, gli sviluppatori che intendano utilizzare opere protette dal diritto d’autore per addestrare un sistema di AI generativa dovranno seguire tre passaggi:

1)     ottenere un accesso legittimo ai dati;

2)     verificare che i titolari dei diritti non si siano riservati il diritto di effettuare le riproduzioni a fini del TDM;

3)      conservare le copie effettuate solo per il tempo necessario ai fini del TDM.

È evidente che per comprendere le concrete modalità di applicazione di tali requisiti occorrerà tenere d’occhio la futura giurisprudenza.

Su di un simile argomento, il seguente articolo può essere di interesse “Come sfruttare il potenziale dell’intelligenza artificiale (AI) generativa gestendo le problematiche legali”.

Pubblicato Report dell’ESMA sull’uso dell’intelligenza artificiale nei mercati europei delle securities

È stato pubblicato un Report dell’Autorità europea degli strumenti finanziari e dei mercati (ESMA) sull’uso dell’Intelligenza Artificiale (AI) e del Machine Learning (ML) nel settore finanziario e, in particolare, nei mercati europei delle securities, anche al fine di valutare l’effettivo grado di adozione in tale ambito di strumenti AI-based.

Negli ultimi anni, i responsabili politici, le autorità di regolamentazione e di vigilanza di tutto il mondo hanno rivolto particolare attenzione alle modalità di applicazione dei sistemi di AI nel settore dei servizi finanziari, allo scopo di comprendere le relative implicazioni e considerare i rischi potenziali, generalmente intrinseci alle nuove tecnologie o da esse esaltati.

Al contempo, tuttavia, sono pochi i dati di dettaglio sugli sviluppi recenti dell’uso dell’AI nei mercati finanziari europei. Di conseguenza, il Report ha inteso esplorare le applicazioni comuni dell’AI da parte di soggetti che operano in differenti settori dei mercati europei delle securities.

La promozione dell’utilizzo – responsabile – di strumenti AI-based nel settore finanziario è una priorità della strategia per la finanza digitale adottata dalla Commissione europea (CE) nel 2020 e, in connessione a ciò, il monitoraggio degli sviluppi in tale contesto risulta fondamentale per salvaguardare la protezione dei consumatori e la stabilità finanziaria, ma anche sostenere una trasformazione digitale regolata.

Molte delle problematiche associate all’utilizzo dell’AI da parte degli istituti finanziari sono del tutto simili a quelle poste dai modelli tradizionali. Tuttavia, la portata dell’utilizzo dell’AI, la velocità di funzionamento dei relativi sistemi e la complessità dei modelli sottostanti possono rappresentare una sfida per gli operatori di mercato che intendono usufruirne e per le competenti autorità di vigilanza.

In linea con ciò, la maggior parte delle autorità di regolamentazione sta lavorando a principi di governance specifici per l’AI o linee-guida per le imprese finanziarie. In questa prospettiva, la CE ha presentato il suo pacchetto sull’AI nell’aprile 2021, comprendente una proposta di regolamento intersettoriale che stabilisce norme armonizzate sull’AI e una relativa valutazione d’impatto secondo un approccio basato sul rischio.

Con riferimento alla gestione patrimoniale, il Report riporta che un numero crescente di gestori di portafogli si avvale di sistemi e tecniche di AI nel contesto delle strategie di investimento, gestione del rischio e compliance. Tuttavia, solo una minima parte ha effettivamente sviluppato processi di investimento end-to-end completamente AI-based promuovendone pubblicamente l’utilizzo. L’AI sembra essere utilizzata in via principale per eseguire compiti specifici che sfruttano grandi quantità di dati.

Secondo diversi esperti del settore, i gestori patrimoniali che utilizzano strategie avanzate di AI sono tipicamente fondi specializzati gestiti da analisti con un forte background in ambito ML e che puntano sull’AI quale elemento chiave della loro strategia di marketing.

Inoltre, sebbene l’interesse per l’utilizzo di strumenti innovativi di AI stia crescendo anche tra i fondi di investimento tradizionali, il loro sfruttamento effettivo sembra essere ancora limitato non solo da barriere tecnologiche e conoscitive, ma anche da feedback contrastanti ricevuti da parte della clientela, tipicamente diffidente nei confronti di ciò che è difficilmente spiegabile.

Nel contesto del trading, invece, i modelli di AI sono coinvolti in diverse fasi (analisi pre-trade, esecuzione e post-trading) e possono rilevare nell’analisi delle opportunità di investimento, nonché contribuire ad ottimizzare l’esecuzione delle operazioni e dei processi post-trading, riducendo l’impatto sul mercato e minimizzando i casi di fallimento. Non mancano, tuttavia, anche in questo caso, ampie sfide, quale la scarsità di dati specifici sui metaorders e la difficoltà di trovare soluzioni che siano compliant con la normativa privacy.

Ancora, dal Report emerge che anche alcune agenzie di rating, proxy advisor e altri operatori del mercato finanziario utilizzano strumenti di AI, soprattutto per migliorare la raccolta di informazioni e l’analisi di dati. Ciò nonostante, sebbene l’AI venga sempre più adottata per supportare ed ottimizzare alcune attività, il suo utilizzo, ad oggi, non sembra portare ad una dirompente trasformazione dei processi aziendali.

Un uso sempre più pervasivo dell’AI nel sistema finanziario è infatti associato ad una serie di criticità e rischi potenziali, in parte già menzionati, quali la spiegabilità, la concentrazione, l’interconnessione, il rischio sistemico, il pregiudizio algoritmico, il rischio operativo e la qualità dei dati.

La maggior parte di questi rischi non è intrinseca ai sistemi di AI, ma sono dagli stessi ampliati, in quanto i sistemi di AI operano su scala, complessità ed automazione maggiori rispetto agli strumenti statistici tradizionali. Queste circostanze richiedono pertanto ulteriore attenzione e monitoraggio anche alla luce dell’interesse (comunque) rivolto all’AI dagli operatori di mercato. Al contempo, non si può escludere che una governance ed una supervisione adeguate possano dimostrarsi efficaci nel mitigare una parte sostanziale di tali rischi.

Su di un simile argomento, il seguente articolo potrebbe essere di interesse “Il Consiglio dell’UE adotta la proposta di AI Act sull’intelligenza artificiale”.

 

Data protection & cybersecurity

Il Garante privacy sanziona una società per trattamento illecito di dati sanitari

Il Garante privacy ha emesso un’ordinanza ingiunzione nei confronti di una società per trattamento illecito di dati sanitari in violazione dei principi di trasparenza, integrità e riservatezza dei dati personali.

Nel caso oggetto di analisi, il Garante privacy ha riscontrato gravi violazioni dei principi del GDPR nell’esecuzione di trattamenti piuttosto rischiosi per gli interessati, sia in virtù della natura dei dati personali trattati, che del numero considerevole di soggetti coinvolti. È dunque interessante esaminare il provvedimento sanzionatorio, per comprendere i rilievi mossi dal Garante e i criteri seguiti nella determinazione della sanzione.

Lo scenario in cui ha avuto luogo la violazione del GDPR è quello dell’emergenza sanitaria causata dalla pandemia da Covid-19 e, nello specifico, di un’iniziativa promossa dalla regione Friuli Venezia Giulia e dalla Federfarma FVG, quale associazione di categoria, a sostegno delle farmacie coinvolte in misura massiva nella gestione dell’emergenza.

Con la crescente richiesta di tamponi conseguente all’introduzione dell’obbligo di green pass per l’accesso a determinati luoghi, le farmacie avevano offerto alla Regione Friuli Venezia Giulia la propria disponibilità ad effettuare test diagnostici nell’ambito delle attività di screening volte a fronteggiare la pandemia. In tale contesto, la Federfarma FVG commissionava alla società la realizzazione di una piattaforma per gestire l’agenda delle prenotazioni dei tamponi antigenici, sia da parte delle farmacie che degli utenti, con accessi dedicati e previa designazione da parte delle farmacie aderenti all’iniziativa della società quale responsabile del trattamento di queste ultime.

Il portale realizzato in seguito dalla società risultava accessibile senza alcun meccanismo di autenticazione e per la prenotazione dei test antigenici venivano obbligatoriamente richiesti il codice fiscale, il nome e cognome, il numero di telefono e, in via opzionale, l’indirizzo email degli utenti. Inoltre, se il codice fiscale risultava già presente in archivio (in quanto relativo ad un utente che aveva già usufruito del servizio), il sistema completava in automatico le ulteriori informazioni sull’utente, rendendo in tal modo possibile ottenere i dati personali di qualunque utente con il solo codice fiscale dello stesso. A ciò si aggiunga che la funzione “annulla prenotazione”, disponibile sulla piattaforma, permetteva di visualizzare tutte le prenotazioni inserite dall’utente. Nessuna informativa sul trattamento dei dati personali era fornita attraverso il portale.

Il provvedimento offre alcuni interessanti spunti di riflessione:

  • il Garante ribadisce come la nozione di “dati relativi alla salute” debba essere interpretata in senso ampio. Nonostante il portale realizzato dalla società non contenesse i risultati dei tamponi effettuati dagli interessati né altre informazioni che rivelassero direttamente il loro stato di salute, l’Autorità ha ritenuto che la violazione abbia riguardato anche dati sanitari degli interessati, essendo visibili sul portale le informazioni sulle prenotazioni dei test antigenici inserite dagli utenti. Per avvalorare la propria posizione, il Garante ha rammentato che il Considerando 35 del GDPR precisa che i dati relativi alla salute “comprendono informazioni sulla persona fisica raccolte nel corso della sua registrazione al fine di ricevere servizi di assistenza sanitaria” nonché “un numero, un simbolo o un elemento specifico attribuito a una persona fisica per identificarla in modo univoco ai fini sanitari”;
  • nonostante il GDPR ponga in capo al titolare del trattamento l’obbligo di fornire l’informativa privacy agli interessati nonché quello di ricorre unicamente a responsabili del trattamento che presentino garanzie sufficienti di mettere in atto misure di sicurezza adeguate, il Garante ha ritenuto che le 151 farmacie titolari del trattamento avessero un legittimo affidamento che la società avrebbe gestito conformemente al GDPR il trattamento dei dati personali degli utenti. Ciò in considerazione del fatto che (i) l’iniziativa era stata promossa dall’associazione di categoria Federfarma FVG; (ii) l’atto di nomina della società quale responsabile del trattamento prevedeva che quest’ultima si sarebbe occupata della gestione e trasmissione dei dati relativi all’effettuazione di test antigenici presso le farmacie, nonché di tutte le attività connesse e collegate, per conto delle titolari del trattamento, menzionando gli artt. da 12 a 23 del GDPR; e (iii) lo stesso atto di nomina obbligava la società a dare attuazione all’obbligo di adottare misure di sicurezza adeguate, a norma dell’art. 32 del GDPR. Quindi, quanto sopra indicato è stato ritenuto sufficiente per sanzionare il responsabile del trattamento anziché le titolari che avrebbero dovuto vigilare sul suo operato.

Il Garante ha ritenuto che la mancanza di  misure di sicurezza adeguate concretasse sia la violazione dell’art. 32 del GDPR che del principio di integrità e riservatezza, sancito all’art. 5(f) del Regolamento. In questo modo è possibile alzare il massimo edittale della sanzione da 10 a 20 milioni o dal 2% al 4% del fatturato totale annuo dell’esercizio precedente. Nel caso di specie, l’importo massimo di una possibile sanzione sarebbe stato comunque quello più elevato previsto dal GDPR, poiché il Garante ha contestato anche la violazione del principio di trasparenza, ma è bene tenere a mente l’approccio adottato dall’Autorità nelle contestazioni di violazioni connesse alla mancanza di idonee misure di sicurezza. Del resto, non è la prima volta che il Garante sposa questo approccio. E’ interessante però notare quali criteri sono alla base della determinazione dell’importo della sanzione. A tal proposito, il Garante ha sottolineato che:

  • il trattamento aveva riguardato dati relativi allo stato di salute di un numero elevato di interessati e si era svolto nella fase più acuta della pandemia;
  • la società aveva operato in violazione dei principi di correttezza e buona fede nell’interpretare l’atto di nomina conferitole dalle farmacie;
  • non risultavano precedenti violazioni della normativa privacy da parte della società, né provvedimenti a suo carico disposti a norma dell’art. 58 del GDPR;
  • la società aveva collaborato pienamente con l’Autorità nel corso del procedimento; e
  • erano state gradualmente ma prontamente adottate misure tecniche per migliorare la sicurezza della piattaforma, sino all’introduzione di un meccanismo di autenticazione a due fattori, in conformità con le prescrizioni dell’Autorità.

L’importo della sanzione comminata di € 10.000 risulta pari a circa l’1% del fatturato della società, dell’esercizio precedente a quello in cui il Garante ha comminato la sanzione.

Su di un simile argomento, il seguente articolo può essere di interesse “Il Garante sanziona una azienda sanitaria per informative privacy non conformi al GDPR”.

 

Intellectual Property

Nuovi procedimenti amministrativi di nullità e decadenza e tutela dei marchi DOP

La recente introduzione in Italia dei procedimenti amministrativi di decadenza e di nullità dei marchi avanti all’Ufficio italiano brevetti e marchi è una novità dirompente, che consente con tempi e costi notevolmente inferiori rispetto ad un procedimento giudiziario, di ottenere, tra le altre, la declaratoria di nullità di registrazioni di marchio italiani concessi in violazione della normativa comunitaria a tutela delle DOP.

L’Ufficio italiano brevetti e marchi è, infatti, ora competente a decidere, tra gli altri, sulle istanze di nullità per motivi assoluti di registrazioni italiane o di designazioni italiane di marchi internazionali contenenti elementi caratterizzanti o evocative di una DOP, ai sensi dell’art. 184-bis, comma 3, lettera a), Codice della Proprietà Intellettuale, in combinato disposto con l’art. 14, comma 1, lettera c) bis, Codice della Proprietà Intellettuale, che dispone il divieto della registrazione di marchi contrari alla legislazione dell'Unione Europea o dello Stato o ad accordi internazionali relativi alla protezione delle DOP.

Uno dei vantaggi principali delle nuove azioni in sede amministrativa è la durata del procedimento, che si concluderà con una decisione dell’UIBM entro due anni dalla presentazione dell’istanza per l’accertamento della nullità, salvo sospensioni del procedimento. I tempi sono, quindi, notevolmente più veloci rispetto ad un giudizio ordinario.

Una caratteristica poi che distingue il nuovo procedimento amministrativo in Italia rispetto agli procedimenti avanti l’EUIPO è la previsione di un periodo di conciliazione di due mesi, prorogabile fino ad un anno, che – così come già accade nei procedimenti di opposizione – offrirà alle parti un utile momento di confronto, che auspicabilmente consentirà di dirimere la controversia in via bonaria.

Questa nuova procedura offre, quindi, ai Consorzi una valida alternativa snella e semplificata, che agevola l’attività di enforcement in Italia a tutela della DOP e degli interessi del comparto, nell’ottenere una declaratoria di nullità con efficacia ex tunc di registrazione nazionali di marchio nulle ab origine.

Su di un simile argomento, il seguente articolo può essere di interesse “EUIPO: Violazione di una DOP tramite un marchio evocativo”,

 

Technology Media & Telecommunications

Consultazione AGCom per la riforma della disciplina in materia di qualità dei servizi di comunicazioni elettroniche da postazione fissa

Con la Delibera n. 405/22/CONS, l’AGCom ha dato avvio ad un procedimento riguardante la riforma della disciplina in materia di qualità dei servizi di comunicazioni elettroniche accessibili al pubblico da rete fissa e alla relativa consultazione pubblica.

L’obiettivo dell’Autorità è quello di adottare un testo unico di revisione e semplificazione degli indicatori (KPI) di qualità dei servizi di comunicazione da postazione fissa, al fine di eliminare gli indicatori relativi a tecnologie superate o in via di superamento, allineare la relativa disciplina alle moderne tecnologie e alle previsioni contenute nel nuovo Codice delle comunicazioni elettroniche in materia di trasparenza contrattuale, trasparenza delle informazioni pubblicate sui siti web degli operatori, fissazione degli obiettivi di qualità dei servizi e misurazione delle effettive performance raggiunte.

A questo scopo, l’AGCom ha posto in consultazione pubblica una proposta di provvedimento che stabilisce le informazioni che i fornitori di servizi di comunicazioni elettroniche da postazione fissa – compresi i fornitori di servizi in tecnologia FWA (Fixed Wireless Access) – sono tenuti a pubblicare, a uso degli utenti finali, in merito alla qualità dei servizi offerti. Gli operatori, in base allo schema di provvedimento, sono tenuti a fornire tali informazioni “nella misura in cui controllino almeno alcuni elementi della rete direttamente o in virtù di un accordo sul livello dei servizi a tal fine”. La proposta di provvedimento precisa altresì “i parametri di qualità del servizio da misurare, i metodi di misura applicabili e il contenuto, la forma e le modalità della pubblicazione, compresi i meccanismi di certificazione della qualità”.

Ciò in conformità con quanto previsto dall’art. 98-sedecies del Codice delle comunicazioni elettroniche, secondo cui l’Autorità può prescrivere agli operatori di comunicazione elettronica di “pubblicare, a uso degli utenti finali, informazioni complete, comparabili, attendibili, di facile consultazione e aggiornate sulla qualità dei servizi offerti”.

Inoltre, lo schema di provvedimento stabilisce le modalità di esecuzione delle misure a uso dell’utente finale per verificare la qualità dei servizi per il tramite dei seguenti indicatori: (i) velocità di trasmissione dati; (ii) ritardo di trasmissione dati; (iii) tasso di perdita dei pacchetti.

L’attuale regolamentazione in tema di qualità e carte dei servizi di comunicazione elettroniche è contenuta nella Delibera n. 131/06/CSP (e, in particolare, nell’ Allegato A della medesima), come successivamente modificata e integrata. Come osserva l’Autorità, la suddetta delibera e quelle di modifica e integrazione della medesima, necessitano di un adeguamento in considerazione del fatto che “i servizi di comunicazioni elettroniche da postazione fissa accessibili al pubblico sono in rapida evoluzione nelle tecnologie che li realizzano e nelle prestazioni che li caratterizzano” e della “recente crescita del numero di utenti dei servizi di comunicazione elettroniche da postazione fissa accessibili al pubblico realizzati mediante l’uso di tecnologia wireless (FWA, Fixed Wireless Access)”.

Di rilievo è anche la considerazione dell’AGCom secondo risulta necessario apportare alcune modifiche al progetto c.d. “MisuraInternet”, ossia lo strumento che permette agli utenti di servizi di comunicazioni elettroniche di misurare le performance e la qualità della propria connessione, ed alle relative tutele offerte agli utenti finali. Trattasi in particolare dell’inclusione delle offerte FWA nel perimetro di applicazione del progetto, e la modifica della previsione per cui debbano essere trascorsi 45 giorni tra una misurazione ed una successiva, prevedendo una tempistica di 30 giorni (così allineandola a quella prevista per potere esercitare la facoltà di recedere senza costi dal contratto dopo una seconda misurazione).

Su di un simile argomento, il seguente articolo può essere di interesse “Il nuovo Codice delle Comunicazioni Elettroniche introduce notevoli modifiche al settore”.


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna Angilletta, Giordana Babini, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Emanuele Gambula, Laura Gastaldi, Vincenzo Giuffré, Filippo Grondona, Nicola Landolfi, Giacomo Lusardi, Noemi Mauro, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Tommaso Ricci, Rebecca Rossi, Massimiliano Tiberio, Alessandra Tozzi, Giulia Zappaterra

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea e Flaminia Perna.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.

È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.