Aggiungi un segnalibro per cominciare

Abstract_Lights_P_0152
21 marzo 202426 minuti di lettura

Innovation Law Insights

21 marzo 2024
Artificial Intelligence

L’AI Act è stato approvato: cosa devono fare le aziende ora?

Il Parlamento europeo ha approvato ufficialmente la legge europea sull'AI, la prima legislazione sull'intelligenza artificiale. Nei prossimi mesi verranno apportate piccole modifiche al testo, quindi dobbiamo aspettare prima di rivedere la formulazione finale del regolamento.

Negli ultimi mesi, i clienti hanno richiesto la nostra revisione dei sistemi di intelligenza artificiale e la loro domanda è se la legge sull'intelligenza artificiale debba essere considerata come parte della revisione. Ovviamente, i clienti hanno sempre ragione! Possono permettersi di lanciare un sistema di AI che non sia conforme all'AI Act?

Di seguito le nostre raccomandazioni su ciò che le aziende dovrebbero fare ora in vista dell'imminente legge sull'AI:

1. Mappare i sistemi già utilizzati che potrebbero qualificarsi come sistemi di AI - La definizione di sistemi di intelligenza artificiale è molto ampia e non include solo i General Purpose AI system. Per qualificarli adeguatamente, occorre eseguire una due diligence interna;

2. Includere nei contratti con i fornitori l'obbligo di rispettare l’AI Act e rinegoziare i contratti esistenti - Le aziende stanno già includendo nei contratti una clausola che richiede di rispettare l’AI Act. Considerando l'investimento in termini di tempo, costi e sforzi per implementare un sistema di AI, nessuna azienda può permettersi di essere obbligata a licenziarlo o almeno a riqualificarlo una volta che il sistema di AI è in funzione;

3.  Adottare policy tecniche e operative interne per regolare l'uso dell'AI - La legge europea sull'AI prevede obblighi diversi a seconda del tipo di sistema di AI. È fondamentale che qualsiasi azienda disponga di un sistema di governance interna sull'utilizzo dei sistemi di AI e sulla loro revisione e approvazione. Questo quadro interno è necessario anche per evitare che i dipendenti utilizzino sistemi di AI che sono pubblicamente disponibili senza alcun controllo, esponendo l'azienda a rischi elevati;

4. Implementare soluzioni per garantire la conformità alle normative sulla privacy e sulla proprietà intellettuale - L'utilizzo dei sistemi di AI non è regolato solo dalla Legge europea sull'AI. Le autorità per la privacy nell'UE, in particolare l'autorità italiana per la protezione dei dati, il Garante, hanno già avviato indagini ed emesso multe GDPR contro i fornitori di sistemi di intelligenza artificiale. Allo stesso modo, negli Stati Uniti sono sorte controversie significative per la violazione dei diritti di proprietà intellettuale attraverso i sistemi di intelligenza artificiale;

5. Adottare un tool per la messa in conformità all'AI Act - Le politiche di cui sopra devono essere accompagnate da una metodologia per valutare la conformità; altrimenti, rimangono principi generici che rischiano di essere ignorati. Da DLA Piper, abbiamo sviluppato uno strumento di legal tech, PRISCA AI Compliance, che può supportare notevolmente le aziende nel loro programma di conformità all'AI. Può guardare un video QUI e contattarci per saperne di più;

6. Proteggere i segreti commerciali e le informazioni riservate - I recenti scandali sulla divulgazione di informazioni riservate e segreti commerciali, tra cui stringhe di codice incollate in sistemi di intelligenza artificiale disponibili al pubblico, dimostrano che un programma di conformità completo richiede l'implementazione di misure tecniche e organizzative volte a limitare gli abusi da parte dei dipendenti; e

7. Formare i suoi dipendenti; altrimenti, qualsiasi progetto di intelligenza artificiale è in pericolo - Tutte le misure di cui sopra probabilmente non sono sufficienti se non sono supportate da una cultura di conformità all'AI all'interno dell'azienda. A tal fine, le aziende devono adottare le politiche precedentemente menzionate e condurre una formazione interna per diffondere una maggiore consapevolezza dei potenziali benefici e rischi.

Qual è la vostra opinione su quanto sopra? Avete bisogno di conoscere i contenuti essenziali dell’AI Act in un formato breve e facile da leggere e ricordare? Li potete trovare QUI

La responsabilità di sviluppatori e produttori di software AI secondo la Direttiva sul risarcimento dei danni da prodotti difettosi

Dopo quasi quarant’anni dalla direttiva 85/374/CEE sulla responsabilità per danno da prodotti difettosi, il 12 marzo il Parlamento europeo approva la nuova direttiva col proposito di innovare la disciplina alla luce degli sviluppi legati alle nuove tecnologie, in primis l’Intelligenza Artificiale.

La Product Liability Directive (PLD), si inserisce infatti all’interno del pacchetto di misure europee volte a sostenere la promozione dell’Intelligenza Artificiale: se nell’AI Act è infatti possibile trovare norme che tentano di ridurre i rischi per la sicurezza e di proteggere i diritti fondamentali, la direttiva disciplinante la responsabilità in caso di danni costituisce l’altra faccia della medaglia, dal momento che sicurezza e responsabilità si applicano in momenti differenti e si rafforzano vicendevolmente. La direttiva, nell’ottica di sopperire alle necessità dettate dalla complessità tecnica e scientifica dei prodotti nell’era digitale, stabilisce un sistema semplificato in grado di fornire al danneggiato strumenti più idonei ad ottenere un risarcimento del danno causato da prodotti difettosi.

Il software come “prodotto” e lo sviluppatore come “fabbricante”

Tra i prodotti, la direttiva include i software - come i sistemi operativi, i firmware, i programmi per computer, le applicazioni ed i sistemi di AI – a prescindere dalla modalità con cui venga fornito o usato, e quindi indipendentemente dal fatto che sia integrato in un dispositivo, utilizzato tramite una rete di comunicazione o tecnologie cloud, oppure fornito attraverso un modello software-as-a-service. Una precisazione necessaria riguarda il fatto che le informazioni non possono essere considerate come prodotto e, di conseguenza, che le norme sulla responsabilità non si applicano al contenuto dei file digitali (quali, ad esempio, file multimediali, e-book o codici sorgente dei software). Dal perimetro di applicabilità della direttiva sono in ogni caso esclusi i software liberi e open source, in un’ottica di incoraggiamento della ricerca e dell’innovazione all’interno del mercato europeo e in ragione del fatto che questi, non sviluppati o forniti nel corso di un’attività commerciale, non vengono per definizione immessi sul mercato. Nel caso in cui, al contrario, il software sia fornito a titolo oneroso o i dati personali siano usati nel corso di un’attività commerciale, la direttiva troverà applicazione.

Data l’attitudine dei servizi digitali ad essere integrati all’interno di prodotti o ad essere interconnessi con questi, la responsabilità oggettiva si estende anche ai servizi correlati.

Si precisa poi che il produttore o lo sviluppatore di software, compreso il fornitore di sistemi di AI, vada considerato come fabbricante. Egli potrebbe essere responsabile anche degli aggiornamenti, delle migliorie o degli algoritmi di apprendimento automatico, considerato il fatto che tecnologie digitali quali l’AI consentono a produttori e sviluppatori di esercitare un controllo sui prodotti anche in un momento successivo rispetto alla loro immissione sul mercato o alla loro messa in servizio.

Il danno da perdita immateriale

Tra i motivi di risarcimento vengono incluse anche la distruzione o la corruzione di dati, debitamente distinte dalle fughe di dati o dalle violazioni alle norme in materia di protezione (non si preclude pertanto al soggetto di ottenere, qualora ne ricorrano gli estremi, un risarcimento del danno derivante dalla violazione del GDPR a latere di quello connesso a danni da prodotti difettosi). Tra le lesioni personali vengono ricompresi anche i danni psicologici riconosciuti e certificati dal punto di vista medico e le perdite immateriali quali dolori e sofferenze.

Il carattere difettoso del prodotto

La difettosità di un prodotto, ai sensi della direttiva, deve essere determinata sulla base di una moltitudine di fattori, quali la carenza del prodotto in base alla mancanza di sicurezza che il pubblico generale potrebbe legittimamente attendersi, tenendo conto dell’uso ragionevolmente prevedibile, della presentazione del prodotto, delle sue caratteristiche oggettive e delle sue proprietà. Per ciò che attiene all’AI, tenuto conto della capacità dei sistemi di continuare ad imparare ed acquisire nuove caratteristiche anche dopo l’immissione sul mercato o la messa in servizio, rileva anche l’effetto che sulla sicurezza ciò potrebbe comportare.

La semplificazione dell’onere della prova

Data la situazione di netto svantaggio in cui viene a trovarsi il danneggiato che chieda il risarcimento rispetto al fabbricante per ciò che concerne la possibilità di ottenere e comprendere le informazioni sulla modalità di fabbricazione e sul funzionamento dei prodotti, la direttiva prevede un alleggerimento dell’onere della prova a beneficio dell’attore. Nel provare il danno, il difetto del prodotto e il nesso di causalità tra difetto e danno, opera nel regime della direttiva una presunzione relativa per ridurre le difficoltà probatorie in capo all’attore. Il carattere difettoso dovrebbe essere presunto qualora il convenuto (che potrebbe essere lo sviluppatore del sistema di AI) non si conformasse all’obbligo di divulgazione delle pertinenti informazioni; in caso di malfunzionamento evidente durante un uso ragionevolmente prevedibile del prodotto; nel caso in cui all’attore risulti eccessivamente complicata la prova del carattere difettoso, soprattutto in considerazione della natura complessa della tecnologia impiegata (l’attore, a titolo esemplificativo, non sarebbe tenuto a spiegare il funzionamento interno di un sistema di AI). Questi sarebbe onerato di fornire argomentazioni per dimostrare l’esistenza delle eccessive difficoltà, ma non fino al punto da allegare elementi di prova al riguardo: ad esempio, non sarebbe tenuto a spiegare le caratteristiche del sistema di AI o il modo in cui le sue caratteristiche complicano la prova del nesso di causalità.

Il sostegno alla capacità innovativa delle microimprese

Un’attenzione particolare viene rivolta dalla direttiva alla capacità di innovazione propria delle microimprese e delle piccole imprese produttrici di software. Al fine di sostenere e non scoraggiare tale capacità, infatti, risulta possibile per tali soggetti concordare contrattualmente con i fabbricanti che integrino il loro software in un prodotto che i fabbricanti stessi non esercitino il proprio diritto di rivalsa, in caso di danno provocato da un componente difettoso. La ratio di tale previsione si rinviene nel fatto che il fabbricante del prodotto del suo complesso è, in ogni caso, responsabile di eventuali difetti del prodotto che riguardino i componenti.

La durata prolungata del periodo di responsabilità

Il progresso scientifico e tecnologico fa sì che i prodotti siano soggetti a cambiamenti sempre più repentini e sfuggenti; tuttavia, sarebbe irragionevole ritenere i fabbricanti responsabili dei difetti del prodotto per un periodo di tempo illimitato. La durata della responsabilità viene fissata a 10 anni dall’immissione del prodotto sul mercato, fatte salve le azioni giudiziarie pendenti che il danneggiato abbia intrapreso nei confronti del fabbricante. Tuttavia, per non negare la possibilità di un risarcimento per danni causati da un prodotto difettoso i cui effetti si manifestino in un periodo di tempo più lungo, il periodo di responsabilità viene esteso a 25 anni nei casi in cui le prove mediche indichino che i sintomi di lesioni personali si siano manifestati tardivamente.

Sul tema della normativa europea in materia di AI, potrebbe interessarvi: AI Act Finalizzato: Ecco Cosa E' Stato Concordato

 
Gaming & Gambling

Sanzione di AgCom da 1,3 milioni di euro per un noto social network per la violazione del divieto di pubblicità del gioco d’azzardo

L’Autorità per le Garanzie nelle Comunicazioni ha recentemente sanzionato un noto social networkper 1,3 milioni di euro circa (“AgCom” o “Autorità”). Questa decisione si pone sulla scia di tre precedenti provvedimenti che l’Autorità aveva irrogato nei confronti di TikTok, Google e un altro social media e rafforza ulteriormente la linea operativa dell’AgCom nel contrasto alla pubblicità del gioco d’azzardo, disciplinata dall’articolo 9 del Decreto Dignità.

1. La vicenda e la natura degli Account Contestati

La vicenda trae origine da diverse segnalazioni che, fra il 2 agosto 2022 e il 2 maggio 2023, erano pervenute all'Autorità in relazione a presunte violazioni dell'articolo 9 del Decreto Dignità dovute alla pubblicazione di determinati post da parte di circa una ventina di profili di un noto social network. Dopo un'attenta fase preistruttoria, l'Autorità appurava che, effettivamente, il contenuto di tali post promuoveva il gioco d’azzardo e quindi contestava alla società proprietaria del social network (la “Società”) la diffusione di pubblicità di siti di gioco d'azzardo con vincite in denaro.

In particolare, nei 20 account/canali identificati (gli “Account Contestati”), veniva effettuata la promozione del gioco d'azzardo tramite la pubblicazione di (i) sessioni di gioco (slot machine o video lottery terminal), (ii) immagini promozionali di siti di gioco e (iii) collegamenti ipertestuali diretti a siti di gioco con vincite in denaro nonché (iv) dettagli su come accedere ai siti di gioco, sui bonus disponibili e sui metodi di pagamento per depositare e prelevare le vincite.

Sui 20 Account Contestati, 9 erano contrassegnati dalla cosiddetta “spunta blu” che segnalava l’avvenuta sottoscrizione di un abbonamento opzionale a pagamento tra l’account in questione e la Società. In altre parole, alcuni degli Account Contestati beneficiavano di funzioni aggiuntive per migliorare l’esperienza degli utenti sul social network dietro corresponsione di una somma di denaro a favore della Società. Tuttavia, per poter ottenere tale certificazione, i 9 Account Contestati erano stati sottoposti a controlli da parte della Società, sia automatizzati che umani, finalizzati all’analisi dei contenuti del canale.

Al contrario, per i restanti 11 Account Contestati, la Società non aveva effettuato alcun controllo specifico dato che non sussisteva alcun abbonamento e quindi alcun rapporto commerciale con essi.

2. Le tesi difensive della Società

Nonostante le memorie difensive presentate dalla Società fossero pervenute in ritardo all’Autorità (i.e., oltre il termine di 30 giorni stabilito nell'atto di contestazione), l'AgCom decideva comunque di accoglierle e valutarle per il procedimento, al fine di non compromettere l’esercizio del diritto di difesa della Società.

La linea difensiva della Società faceva principalmente leva sul concetto di hosting provider passivo, di elaborazione giurisprudenziale, sia a livello unionale che nazionale, e il regime di esenzioni di responsabilità previsto dal D.lgs. 70/2003, che implementa la direttiva 2000/31/CE (rispettivamente il “Decreto eCommerce” e la “Direttiva eCommerce”).

In particolare, la Società:

  • asseriva di qualificarsi come hosting provider passivo e, in quanto tale, si riteneva responsabile della rimozione dei contenuti di terze parti solo se (i) specificamente segnalati e (ii) non tempestivamente rimossi ai sensi del Decreto eCommerce;
  • sottolineava che il Decreto eCommerce escludeva l'imposizione di obblighi di monitoraggio attivo per gli hosting provider, quindi un dovere di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite sul social network gestito dalla Società;
  • notava come le normative europee, incluso il Regolamento (UE) 2022/2065 (il “DSA”), e alcune decisioni del TAR Lazio in casi analoghi, confortassero la tesi della Società e cioè che gli hosting provider passivi debbano andare esenti da responsabilità a meno che non siano a conoscenza e non agiscano immediatamente per rimuovere i contenuti illeciti;
  • nel caso specifico, affermava di non aver ricevuto alcuna segnalazione da parte dell'Autorità riguardante i contenuti pubblicati dagli Account Contestati e, di conseguenza, solo dopo aver ricevuto l'atto di contestazione, aveva prontamente disabilitato l'accesso dall'Italia a tutti gli Account Contestati.

3.  Le risultanze istruttorie dell’AgCom

Nel proprio provvedimento contro la Società, prima di affrontare il regime di responsabilità ai sensi del Decreto eCommerce e del DSA, l’AgCom ha fornito una breve ricognizione della normativa applicabile in materia di divieto di pubblicità di gioco d’azzardo, sottolineando l’ampio ambito di applicativo dell’articolo 9 del Decreto Dignità.

Infatti, l’Autorità si è soffermata sull'inapplicabilità della Direttiva eCommerce al divieto stabilito dall'articolo 9 del Decreto Dignità poiché la Direttiva eCommerce esplicitamente esclude dal proprio ambito di applicazione determinati servizi della società dell'informazione, tra cui "i giochi d'azzardo che implicano una posta pecuniaria in giochi di fortuna, comprese le lotterie e le scommesse". Quindi, a tal riguardo, con specifico riferimento alla natura di hosting provider, il Decreto Dignità ha inteso adottare una norma generale che non consente in alcun modo di promuovere direttamente o indirettamente giochi con vincite in denaro. Ne discende, quindi, che, contrariamente a quanto affermato dalla Società, quest’ultima non possa invocare in ogni caso il regime di esenzione di responsabilità previsto dal Decreto eCommerce ma piuttosto quello del DSA che sostanzialmente riprende, nel suo articolo 6, gli stessi requisiti di cui alla Direttiva eCommerce (e quindi del Decreto eCommerce).

Quindi, l’Autorità si è focalizzata sul regime di responsabilità della Società in ragione della sua natura di hosting provider ai sensi del DSA e ritenuto come questa non potesse invocare il regime di esenzione di responsabilità automaticamente per tutti gli Account Contestati. Al contrario, secondo l’AgCom, occorreva verificare in concreto (case by case) l’eventuale responsabilità della piattaforma rispetto ai contenuti da essa veicolati e quindi rispetto alla natura di ciascuno degli Account Contestati.

Di conseguenza, secondo l’Autorità:

  • per quanto riguardava 11 Account Contestati su 20 per i quali non c’era rapporto commerciale e mancava qualsiasi forma di controllo, la Società non doveva essere ritenuta responsabile per le azioni commesse dai suddetti creator presso il proprio servizio di condivisione di contenuti. In questi casi, la Società effettivamente non aveva avuto alcuna conoscenza dell'illecito (prima delle contestazioni dell’Autorità) e poteva quindi beneficiare dei regimi di esenzione di responsabilità; a contario,
  • per i restanti 9 Account Contestati (quelli contrassegnati dalla “spunta blu”), dato che la Società aveva effettivamente avuto conoscenza dell'illegalità di tali account, non poteva avvalersi della condizione di esenzione di responsabilità prevista dal DSA. Secondo l’AgCom, la Società non poteva ritenersi non al corrente della natura dei contenuti veicolati dai 9 Account Contestati poiché la Società è dotata di procedure di controllo e verifica ad hoc per i diversi servizi commerciali offerti ai propri utenti (a pagamento) che mirano ad analizzare i contenuti del canale in questione. E tali Account Contestati erano stati oggetto dei suddetti controlli.

Pertanto, l’Autorità ha determinato la sanzione nella misura di euro 1.350.000 per i 9 Account Contestati ma "verificati" dalla Società, a causa dei quali è stata riscontrata la violazione dell'articolo 9 del Decreto Dignità attraverso la promozione, tramite una moltitudine di contenuti diffusi, dei siti con vincite in denaro. La sanzione è stata calcolata sul minimo edittale di euro 50,000 per ogni Account e moltiplicata sino al triplo.

Nella commisurazione della sanzione, sono stati presi in considerazione diversi criteri, tra gli altri, l’opera svolta per l’eliminazione o l’attenuazione delle conseguenze della violazione: l’Autorità ha rilevato la chiusura di 18 dei 20 Account Contestati dopo aver ricevuto l'atto di contestazione. Tuttavia, non risultava all’AgCom l’adozione di accorgimenti per prevenire future violazioni della normativa in questione. Inoltre, l’Autorità ha ritenuto le condizioni economiche della Società e l’avvenuta designazione, da parte della Commissione europea, quale (VLOP) Very Large Online Platform, visti i 112 milioni di utenti mensili attivi tali da giustificare la complessiva misura della sanzione.

4.  Alcune considerazioni per le aziende

Da questa decisione, oltre che dalle altre tre menzionate nell’introduzione, emerge la crescente attenzione e severità dell’Autorità nella valutazione delle condotte potenzialmente integranti una violazione del divieto della pubblicità del gioco d’azzardo. Pertanto, le piattaforme devono prestare sempre maggiore attenzione rispetto ai contenuti pubblicati dagli utenti e devono impegnarsi a implementare misure per la prevenzione di condotte illecite, al fine di poter beneficiare dell'esenzione di responsabilità prevista dal DSA ed eventuali attenuanti da parte dell’Autorità ai fini del calcolo della sanzione pecuniaria, nel caso di effettiva violazione del Decreto Dignità.

Potrebbe interessarvi “Divieto di pubblicità dei giochi: Sanzioni a Google e un altro social media, archiviazione per TikTok”.

 
Intellectual Property

Equo compenso per gli editori: il Consiglio di Stato accoglie il ricorso di AgCom e Fieg

Il Consiglio di Stato, con una decisione che rappresenta una vittoria per AgCom e Fieg nella disputa legale con Meta-Facebook, ha ribaltato la decisione del Tar che aveva sospeso il Regolamento AgCom sull'equo compenso.

La decisione

La controversia ha origine dall’appello presentato da AgCom contro la decisione del Tar Lazio, il quale, in risposta a un ricorso cautelare di Meta, aveva temporaneamente sospeso l'applicazione del Regolamento sull'equo compenso per gli editori. Questo regolamento prevede che le piattaforme online, inclusi i social network, debbano garantire un compenso equo agli editori per l'utilizzo dei loro articoli, consentendo anche agli autori di ricevere una parte dei proventi.

AgCom, supportata anche da FIEG (Federazione Italiana Editori Giornali), intervenuta nel procedimento, ha contestato questa sospensione, sostenendo che compromettesse l'applicazione di un meccanismo volto a garantire un equo compenso agli editori da parte delle grandi piattaforme online come Facebook.

Il Consiglio di Stato, dopo aver affrontato alcune questioni preliminari e fatto chiarezza sul thema decidendum del procedimento, ha focalizzato la propria attenzione sulla valutazione del requisito del periculum in mora, riconosciuto in primo grado dalla decisione del Tar. Sul punto, è stato ritenuto che i pregiudizi prospettati da Meta non sarebbero, in effetti, concreti ed attuali (la società paventerebbe un futuro “rischio sanzionatorio”), né gravi ed irreparabili, risolvendosi al massimo in possibili perdite patrimoniali come tali per definizione ristorabili. Inoltre, il Collegio osserva che detti pregiudizi non possono dirsi conseguenza diretta ed immediata del Regolamento, ma delle eventuali iniziative che, sulla scorta di questo, AgCom potrebbe prendere nei confronti di Meta (iniziative avverso le quali la società potrà eventualmente esperire tutte le azioni, anche cautelari, che l’ordinamento prevede). Infine, il Collegio, dopo aver sottolineato che il regolamento AgCom prevede un meccanismo per raggiungere un accordo tra le parti, lasciando comunque aperta la possibilità di ricorrere al giudice competente, conclude che “la valutazione bilanciata dei contrapposti interessi, tenuto conto della natura prevalentemente economica dell’interesse azionato dalla ricorrente in primo grado, quindi, conduce a ritenere non sussistente il requisito del periculum in mora”. Di conseguenza, il Consiglio di Stato ha accolto l'appello e, in riforma dell’ordinanza impugnata, respinto l'istanza cautelare proposta in primo grado da Meta.

Il Regolamento AgCom

La decisione del Consiglio di Stato (così come la precedente decisione del TAR) verte sull’applicazione del Regolamento AgCom in materia di equo compenso, approvato il 19 gennaio 2023. Esso attua quanto previsto dall’art. 43-bis della Legge sul diritto d’autore n. 633/1941, che recepisce a sua volta l’art. 15 della Direttiva Copyright UE 2019/790, stabilendo che agli editori di pubblicazioni di carattere giornalistico debba essere riconosciuto un equo compenso per lo sfruttamento dei loro contenuti.

Con l’introduzione del meccanismo dell’equo compenso, sia il legislatore europeo sia quello italiano sono intervenuti per favorire l’equa distribuzione del valore generato dallo sfruttamento online di una pubblicazione di carattere giornalistico tra editori, ossia i titolari dei diritti, e le piattaforme che utilizzano e re-distribuiscono tali contenuti. L’obiettivo del Regolamento è quello di colmare il c.d. value gap, ossia l’assenza di equilibrio rispetto ai ricavi ottenuti dai titolari dei diritti delle pubblicazioni giornalistiche e quelli ottenuti dalle piattaforme online.

Il Regolamento ha, quindi, individuato modelli e criteri finalizzati a garantire il riconoscimento e lo sfruttamento dei diritti di riproduzione e comunicazione al pubblico degli editori, rispondendo allo stesso tempo alla necessità di effettuare un adeguato bilanciamento dei diversi interessi coinvolti.

Per quanto riguarda i prestatori di servizi della società dell’informazione, il Regolamento identifica come base di calcolo per la determinazione dell’equo compenso “i ricavi pubblicitari del prestatore derivanti dall’utilizzo online delle pubblicazioni di carattere giornalistico dell’editore, al netto dei ricavi dell’editore attribuibili al traffico di reindirizzamento generato sul proprio sito web dalle pubblicazioni di carattere giornalistico utilizzate online dal prestatore”. Su questa base, gli editori delle pubblicazioni giornalistiche possono vedersi riconosciuta una quota fino al 70%, quantificata secondo i criteri predeterminati dal Regolamento.

Partendo dalle pratiche commerciali e dai modelli di business adottati nel settore di riferimento, il Regolamento stabilisce le aliquote e i criteri su cui la determinazione dell’equo compenso deve essere effettuata, con lo scopo di incentivare la stipulazione di accodi tra editori e prestatori di servizi della società dell’informazione.

 
Conclusioni

In conclusione, con l’accoglimento dell’appello e la riforma dell’ordinanza cautelare impugnata da AgCom, viene meno la sospensione del Regolamento AgCom decisa dal giudice di primo grado, che quindi tornerà ad applicarsi.

La decisione del Consiglio di Stato è stata naturalmente accolta con soddisfazione dalla FIEG, che ha dichiarato in una notaAll’esito della bilanciata valutazione dei contrapposti interessi operata dal Consiglio di Stato, il Regolamento Agcom torna ad essere efficace e a svolgere la sua funzione fondamentale per il buon esito delle trattative, che da oggi potranno nuovamente svolgersi anche tenendo conto dei criteri di riferimento elaborati dall’Autorità al fine di determinare quanto dovuto agli editori per l’uso che le piattaforme fanno dei contenuti giornalistici”.

Potrebbe interessarvi “Regolamento AGCOM su equo compenso per gli editori sulle pubblicazioni giornalistiche online”.

 
Technology Media and Telecommunication

Consultazione pubblica del BEREC sugli sviluppi tecnologici, di mercato e sul loro impatto sull’applicazione dei diritti degli utenti finali

Il 12 marzo 2024, l’Organismo dei regolatori europei delle comunicazioni elettroniche (Body of European Regulators for Electronic Communications – “BEREC”) ha dato avvio ad una consultazione pubblica volta a ricevere contributi in merito agli sviluppi tecnologici e di mercato e al loro impatto sull’applicazione dei diritti degli utenti finali così come previsti dal Codice europeo delle comunicazioni elettroniche, istituito dalla Direttiva (UE) n. 1972/2018 recepita in Italia con il d.lgs. 207/2021, che ha modificato il d.lgs. 259/2003 (la “Direttiva”).

Il BEREC ha avviato tale consultazione pubblica al fine di predisporre – in conformità con l’art. 123, paragrafo 1, della Direttiva – un parere sui temi oggetto della consultazione. A norma dell’art. 123, par. 1, infatti, il BEREC è incaricato di monitorare il mercato e gli sviluppi tecnologici riguardanti i vari tipi di servizi di comunicazione elettronica e a pubblicare, ogni tre anni a partire dal 21 dicembre 2021 o su richiesta motivata di almeno due Stati membri, un parere in merito a tali sviluppi e al loro impatto sui diritti degli utenti finali.

La pubblicazione del prossimo parere è quindi attesa per dicembre 2024.

Come previsto dall’articolo 123, paragrafo 1 della Direttiva, nel suo parere, il BEREC si occupa di valutare se i diritti degli utenti finali previsti dalla Direttiva siano sufficientemente garantiti, alla luce degli obiettivi previsti dall’articolo 3 della Direttiva quali, tra gli altri, (i) la promozione della connettività, dell’accesso alle reti ad altissima capacità e del loro utilizzo; (ii) la promozione della concorrenza nella fornitura delle reti e servizi di comunicazione elettronica; (iii) la cooperazione nello sviluppo del mercato interno delle reti e dei servizi di comunicazione elettronica e (iv) la promozione degli interessi dei cittadini dell’Unione europea.

Ai fini dell’elaborazione del parere (e quindi per stabilire se e in che misura sono garantiti i diritti degli utenti finali), il BEREC considera, tra l’altro, i seguenti elementi:

  • in che misura gli utenti finali di servizi di comunicazioni elettroniche sono in grado di prendere decisioni libere e consapevoli, anche grazie alla fornitura di informazioni contrattuali complete da parte degli operatori, e di cambiare agevolmente il proprio fornitore di servizi di comunicazioni elettroniche;
  • in che misura si siano verificate distorsioni del mercato o pregiudizi per gli utenti finali a causa di carenze in merito alle possibilità di cui al punto precedente;
  • in che misura l’accesso effettivo ai servizi di emergenza sia pregiudicato da eventuali mancanze in termini di interoperabilità o di sviluppo tecnologico, in particolare a causa dell’incremento nell’uso dei servizi di comunicazione interpersonale indipendenti dal numero;
  • i costi di eventuali adeguamenti degli obblighi previsti dalla Direttiva al fine di garantire i diritti degli utenti finali o l’impatto in materia di innovazione che i fornitori di servizi di comunicazione elettronica dovrebbero sostenere.

Sulla base del parere del BEREC – come previsto dall’art. 123 della Direttiva – la Commissione europea pubblica una relazione sull’applicazione delle previsioni relative ai diritti degli utenti finali contenute nella Direttiva e può, altresì, presentare una proposta legislativa per modificare tali previsioni qualora lo ritenga opportuno ai fini del conseguimento degli obiettivi generali di cui all’articolo 3 della Direttiva, sopra richiamati.

Tutti i soggetti interessati a partecipare alla consultazione pubblica possono presentare i propri contributi entro il 12 aprile 2024.

Su un simile argomento può essere interessante l’articolo “Consultazione pubblica del BEREC sulle comunicazioni machine-to-machine e sul roaming permanente”.


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna Angilletta, Matteo Antonelli, Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Alessandra Faranda, Nadia FeolaLaura Gastaldi, Vincenzo GiuffréNicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Miriam Romeo, Rebecca Rossi, Roxana Smeria, Massimiliano TiberioGiulia Zappaterra.

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su Transfer, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.