Aggiungi un segnalibro per cominciare

Abstract_Lights_P_0152
9 novembre 202345 minuti di lettura

Innovazione e diritto: le novità della settimana

9 novembre 2023
Podcast

Selina Zipponi, Group DPO di Dedalus, su come l’innovazione ha cambiato la compliance privacy

Selina Zipponi di Dedalus illustra la sua visione su come la compliance privacy stia cambiando grazie all’innovazione. È possibile vedere e ascoltare l’episodio del podcast QUI.

 

Data Protection & Cybersecurity

CyberItalia: il Decreto sul Perimetro di Sicurezza Nazionale Cibernetica e i suoi decreti attuativi in pillole

In questo quinto articolo della rubrica CyberItalia esploreremo un altro insieme di norme nazionali dedicati al tema della cybersecurity che derivano dall’adozione del Decreto sul Perimetro di Sicurezza Nazionale Cibernetica e dei suoi decreti attuativi. Potete leggere il contributo QUI.

 

Artificial Intelligence

Il G7 approva il primo Codice di Condotta sull’Intelligenza Artificiale

All’interno dell’AI Act si prevede all’articolo 69 l’adozione volontaria, per i sistemi di AI diversi da quelli ad alto rischio, di un Codice di Condotta col fine di adottare e rispettare i requisiti del Regolamento previsti per i sistemi di AI ad alto rischio.

A tal riguardo, il 30 ottobre 2023, i leader del G7 hanno annunciato un importante accordo sui Principi Guida Internazionali sull’Intelligenza Artificiale (AI) e sul Codice di Condotta per gli sviluppatori di AI nel contesto dell’“Hiroshima AI Process”.

Questo processo del G7 è stato istituito in occasione del vertice del G7 del 19 maggio 2023 per promuovere a livello globale dei limiti per i sistemi avanzati di AI. L’iniziativa si inserisce in una più ampia gamma di dibattiti internazionali sul tema, anche in seno all’OCSE, al Partenariato globale sull'intelligenza artificiale (GPAI) e nel contesto del Consiglio per il commercio e la tecnologia UE-USA e dei Partenariati digitali dell’UE.

L’Hiroshima AI Process mira a promuovere un’AI sicura e affidabile in tutto il mondo e fornirà una guida volontaria per le azioni degli sviluppatori dei sistemi avanzati di AI, compresi i modelli fondazionali e i sistemi di AI generativa. I due documenti andranno a completare a livello internazionale le regolamentazioni vincolanti che i legislatori dell’UE stanno ancora definendo nell’ambito dell’AI Act, non è un caso se la maggior parte dei principi e dei contenuti del Codice di Condotta riprendino il contenuto degli articoli dell’AI Act.

  • I Principi Guida del Codice di Condotta

Con l’obiettivo di garantire la sicurezza e l’affidabilità della tecnologia sono stati individuati 11 principi guida che forniscono indicazioni alle organizzazioni che sviluppano, distribuiscono e utilizzano sistemi avanzati di AI. I soggetti destinatari dei principi non sono solamente le aziende sviluppatrici dei sistemi di AI, ma anche gli enti del mondo accademico, della società civile, del settore privato e del settore pubblico che sviluppano sistemi avanzati di AI.

I principi guida individuati per le organizzazioni che sviluppano sistemi avanzati di AI riprendono in maniera fedele i contenuti dell’Allegato IV dell’AI Act relativi alla documentazione tecnica di cui all’art. 11(1) dello stesso regolamento e sono sintetizzabili in:

  1. Adottare misure adeguate durante lo sviluppo di sistemi avanzati di AI, incluso prima e durante la loro distribuzione e commercializzazione, per identificare, valutare e ridurre i rischi lungo tutto il ciclo di vita dell’AI;
  2. Identificare e ridurre le vulnerabilità e, se del caso, gli incidenti e i casi di abuso, dopo la distribuzione e l’immissione sul mercato;
  3. Comunicare pubblicamente le capacità, limitazioni e ambiti di utilizzo appropriato e improprio dei sistemi avanzati di AI per garantire trasparenza e responsabilità;
  4. Condividere responsabilmente informazioni e segnalare incidenti tra organizzazioni sviluppatrici di AI;
  5. Sviluppare, attuare e divulgare politiche di governance e gestione del rischio basate sul rischio, inclusi aspetti di privacy e mitigazione;
  6. Investire e attuare controlli di sicurezza solidi, incluso controllo fisico, cibernetico e contro minacce interne;
  7. Implementare meccanismi affidabili di autenticazione e provenienza dei contenuti per consentire agli utenti di identificare i contenuti generati dall'AI;
  8. Prioritizzare la ricerca per mitigare i rischi sociali, di sicurezza e protezione, e investire in misure di mitigazione efficaci.
  9. Sviluppare sistemi di AI avanzati per affrontare le sfide globali, come la crisi climatica, salute e istruzione;
  10. Promuovere lo sviluppo e l’adozione di standard tecnici internazionali, se del caso; e
  11. Implementare misure appropriate per l’input e la protezione dei dati personali e della proprietà intellettuale.
  • I contenuti del Codice di Condotta

Partendo da questi principi è stato poi scritto il Codice di Condotta contenente indicazioni pratiche e dettagliate per gli sviluppatori di AI, relative ad ognuno degli 11 principi.

Relativamente al primo principio, il Codice di Condotta stabilisce che durante lo sviluppo, l’implementazione e la commercializzazione dei sistemi avanzati di AI, le organizzazioni debbano adottare adeguate misure per identificare, valutare e ridurre i rischi in tutto il ciclo di vita dell’AI. Ciò include l’adozione di varie misure di test interne ed esterne per la valutazione dei sistemi, come il red-teaming. Le organizzazioni devono implementare adeguate misure di mitigazione per affrontare i rischi e le vulnerabilità identificate, garantendo l’affidabilità e la sicurezza dei sistemi. Questi test devono essere eseguiti in ambienti sicuri e in vari momenti del ciclo di vita dell’AI, specialmente prima dell’implementazione e della commercializzazione, per identificare rischi e vulnerabilità e adottare adeguati rimedi. Inoltre, le organizzazioni devono prestare particolare attenzione ai rischi relativi alla sicurezza, tra cui la sicurezza chimica, biologica, radiologica e nucleare, le capacità offensive cibernetiche, i rischi per la salute e la sicurezza, l’auto-riproduzione dei sistemi di AI e i rischi alla società e alla democrazia. Le organizzazioni impegnate a seguire questo codice devono anche investire nella ricerca per migliorare la sicurezza, l’affidabilità, la trasparenza e l’interpretabilità dei sistemi avanzati di AI, prestando particolare attenzione a evitare l'abuso, la discriminazione e la disinformazione.

Per il secondo principio si prevede che le organizzazioni utilizzino, se e quando appropriato in base al livello di rischio, sistemi e procedure per monitorare le vulnerabilità, gli incidenti, i rischi emergenti e l’uso improprio dopo l’implementazione, e adottare le misure appropriate per affrontarli. Le organizzazioni sono incoraggiate a prendere in considerazione, tra le misure, anche la possibilità di facilitare e rendere possibile la ricerca e la segnalazione di problemi e vulnerabilità anche a parti terze e utenti; ad esempio, attraverso sistemi di concorsi o premi per incentivare la divulgazione responsabile di problemi e vulnerabilità. Le organizzazioni sono inoltre, incoraggiate a mantenere una documentazione appropriata degli incidenti segnalati e a mitigare i rischi e le vulnerabilità identificati.

Al terzo principio si richiede che le organizzazioni pubblichino rapporti di trasparenza contenenti informazioni e istruzioni per l’uso e la documentazione tecnica e che questi vengano tenuti aggiornati. Questi documenti dovrebbero includere:

  • Dettagli delle valutazioni condotte per i potenziali rischi per la sicurezza e la società, così come i rischi per i diritti umani;
  • Le capacità di un modello/sistema e le limitazioni significative nelle prestazioni sui casi d’uso appropriati;
  • Discussione e valutazione degli effetti del modello/sistema e dei rischi per la sicurezza e la società come i bias, le discriminazioni, le minacce alla privacy ed effetti sulla equità sociale;
  • I risultati del red-teaming condotto per valutare l’idoneità del modello/sistema a superare la fase di sviluppo.

Le organizzazioni dovrebbero rendere tali informazioni sufficientemente chiare e comprensibili per consentire agli utilizzatori e agli utenti, se dal caso, di interpretare l’output del modello/sistema e di utilizzarlo in modo appropriato.

Il quarto principio richiede la condivisione delle informazioni, tra cui i rapporti di valutazione, le informazioni sui rischi per la sicurezza, sulle pericolosità previste o meno e sui tentativi da parte degli attori dell’AI di eludere le salvaguardie, per tutta la durata del ciclo di vita dell’AI. Le organizzazioni dovrebbero stabilire o aderire a meccanismi per sviluppare, promuovere e adottare, laddove appropriato, standard condivisi, strumenti, meccanismi e best practices per garantire la sicurezza e l’affidabilità dei sistemi avanzati di AI. Le organizzazioni dovrebbero collaborare condividendo e segnalando al pubblico informazioni rilevanti con l’obiettivo di promuovere la sicurezza e l’affidabilità dei sistemi di AI, coinvolgendo le autorità pubbliche competenti, laddove appropriato.

Il quinto principio stabilisce che le organizzazioni stabiliscano meccanismi organizzativi per sviluppare e applicare politiche di gestione del rischio, inclusa l’identificazione e la mitigazione dei rischi. Le politiche sulla privacy dovrebbero coprire una varietà di rischi ed essere regolarmente aggiornate, garantendo anche una continua formazione del personale.

Secondo il sesto principio, le organizzazioni devono garantire la sicurezza dei pesi, dei modelli e dei dati tramite misure di sicurezza operative e controlli di accesso cibernetico/fisico adeguati. Devono anche valutare i rischi cibernetici, implementare politiche di sicurezza e soluzioni tecniche adeguate, è essenziale conservare i pesi dei modelli in ambienti sicuri con accesso limitato per prevenire la divulgazione non autorizzata e l’accesso indebito. Inoltre, devono implementare un programma di rilevamento delle minacce interne e periodicamente revisionare le misure di sicurezza per mantenerle efficaci e adeguate.

Il settimo principio prevede che le organizzazioni implementino meccanismi di autenticazione e provenienza per i contenuti creati con i loro sistemi di AI avanzati. I dati di provenienza devono includere un identificatore del servizio o del modello che ha creato il contenuto, ma non è necessario includere informazioni sugli utenti che hanno contribuito alla creazione. Le organizzazioni dovrebbero anche sviluppare strumenti o API per consentire agli utenti di verificare se un determinato contenuto è stato creato con il loro sistema AI, ad esempio tramite watermark. Viene anche incoraggiata l’implementazione di altri meccanismi come etichettature o dichiarazioni per consentire agli utenti di sapere quando interagiscono con un sistema AI.

Con l’ottavo principio si esortano le organizzazioni a investire nella ricerca per migliorare la sicurezza dell’AI, affrontando rischi chiave e sviluppando strumenti di mitigazione. Viene richiesto di concentrarsi sui valori democratici, i diritti umani, la protezione dei soggetti vulnerabili, la proprietà intellettuale e il contrasto a bias dannosi e disinformazione.

Il nono principio richiede alle organizzazioni l’impegno comune allo sviluppo dell’AI che vada a beneficio di tutto il mondo, in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Il principio menziona tre aspetti:

  • Dare priorità alla gestione responsabile dell’AI;
  • Sostenere l’alfabetizzazione digitale; e
  • Collaborare con la società civile per affrontare le più importanti sfide globali.

Al decimo principio si richiede alle organizzazioni di contribuire allo sviluppo e all’adozione di standard tecnici internazionali e best practices, oltre a lavorare con le Organizzazioni di Sviluppo degli Standard (SDOs), anche quando sviluppano le metodologie di test sui dati, meccanismi di autenticazione e provenienza dei contenuti, politiche di sicurezza informatica, segnalazioni pubbliche e altre misure. Si incoraggia, inoltre, l’adozione di misure per aiutare gli utenti a distinguere i contenuti generati dall’AI dai contenuti non generati dall’AI.

L’ultimo principio richiede alle organizzazioni di adottare misure di gestione della qualità dei dati, inclusi quelli utilizzati nell’addestramento e la raccolta dei dati, al fine di mitigare i bias. Le misure appropriate potrebbero includere, inter alia, la trasparenza, le tecniche di addestramento che preservano la privacy e il fine-tuning per garantire che i sistemi non divulghino dati confidenziali o sensibili. Da ultimo, le organizzazioni sono incoraggiate a implementare salvaguardie per il rispetto della privacy e della proprietà intellettuale.

  • Quale impatto deriva dal Codice di Condotta?

A differenza dell’AI Act che, anche qualora fosse approvato nei prossimi mesi, entrerà in vigore fra 18/24 mesi, il Codice di Condotta sull’Intelligenza Artificiale è immediatamente applicabile, anche se le aziende possono conformarsi allo stesso su base volontaria.

Tuttavia, nell’attuale contesto storico in cui c’è una notevole attenzione rispetto alla compliance dei sistemi di AI, la mancata conformità con il Codice di Condotta sull’intelligenza artificiale sarebbe difficile da giustificare internamente. Per tale motivo, DLA Piper sta estendendo la propria metodologia e tool di legal tech per valutare i sistemi di AI denominato “PRISCA AI Compliance” anche alla valutazione circa l’applicabilità del Codice di Condotta. Potete leggere di più su PRISCA QUI.

Ordine esecutivo per la futura regolamentazione dell’Intelligenza Artificiale negli Stati Uniti

Pubblichiamo in italiano la versione inizialmente pubblicata in inglese dai colleghi americani di DLA Piper disponibile QUI.

Il 30 ottobre 2023, la Casa Bianca ha firmato un ordine esecutivo (EO) sull’intelligenza artificiale sicura e affidabile. L’ordine esecutivo conferisce ampi mandati ai principali dipartimenti esecutivi, coinvolgendo le significative risorse del governo federale in un modo raramente visto al di fuori di una crisi nazionale.

Questi mandati coprono tutti gli aspetti del ciclo di vita dell’AI e si basano su diverse iniziative chiave già adottate dalla Casa Bianca per lo sviluppo e l’utilizzo di un’AI sicura e responsabile negli Stati Uniti. L’EO richiede lo sviluppo (per lo più entro tre-dodici mesi) di standard, pratiche e persino nuove normative per lo sviluppo e l’utilizzo dell’AI nella maggior parte degli aspetti dell’economia e in importanti settori regolamentati come la finanza a dettaglio, il lavoro e l’occupazione, l’assistenza sanitaria, l’istruzione, la sicurezza nazionale e altri, come illustrato più dettagliatamente di seguito.

Fatta eccezione per i nuovi requisiti di rendicontazione per gli sviluppatori di modelli linguistici di grandi dimensioni e cluster di calcolo, la maggior parte delle disposizioni dell’EO non modificano immediatamente i requisiti normativi. Tuttavia, l’EO esorta i regolatori e le agenzie federali a utilizzare le loro autorità esistenti per testare la sicurezza dei sistemi di AI e prevenire danni come la discriminazione, la perdita di posti di lavoro, le minacce straniere ad infrastrutture critiche e la mancanza di talenti. Il documento chiarisce che le risorse e l’autorità del governo federale si concentreranno sull’uso sicuro ed etico dell’AI in ogni aspetto importante del commercio e della società. Si prevede che nei prossimi dodici mesi, con l’adempimento di questi mandati e l’elaborazione di linee guida, standard e regole, verranno introdotti nuovi requisiti.

1. AI sicura e affidabile

La Legge sulla sicurezza dell’AI si inserisce in un contesto di intensa attività internazionale nel settore dell’AI, con l’Unione Europea che dovrebbe concludere i negoziati per lo sviluppo del quadro normativo proposto per la regolamentazione dell’AI (AI Act) e la riunione della comunità internazionale al Vertice sulla sicurezza dell’AI nel Regno Unito, con l’obiettivo di consolidare la cooperazione globale.

L’EO è l’ultima iniziativa degli Stati Uniti nella corsa all’intelligenza artificiale ed è la prima iniziativa del governo che offre passi pratici che possono e devono essere seguiti sia dalle autorità di regolamentazione che dalle aziende del settore. Ciò contrasta con i precedenti sforzi del governo statunitense, tra cui il “Blueprint for an AI Bill of Rights” e gli impegni volontari assunti dalle principali aziende di intelligenza artificiale all'inizio di quest’anno che, pur essendo lodevoli, sono stati criticati da alcuni per la loro mancanza di “mordente” quando si tratta di obblighi pratici e applicabili.

L’EO si basa su questi mandati e si concentra sulle seguenti aree chiave:

2. Red-teaming, banchi di prova per l’AI e standard industriali

Migliori pratiche e standard industriali: Una componente centrale del EO è la definizione di linee guida, standard e migliori pratiche per la sicurezza dell’AI. In particolare, il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio (DOC) è incaricato di promuovere standard industriali di consenso per lo sviluppo e l’implementazione di sistemi di AI sicuri e affidabili. Tra gli obiettivi specifici di questo lavoro c’è lo sviluppo di una risorsa complementare al popolare AI Risk Management Framework (NIST AI 100-01), specifica per l’AI generativa.

Linee guida e parametri di riferimento: Oltre allo sviluppo di best practice, l’EO prevede l’avvio di un’iniziativa per la creazione di linee guida e parametri di riferimento per la valutazione e la verifica delle capacità dell’AI, con particolare attenzione alle capacità attraverso le quali l’AI potrebbe causare danni, ad esempio nei settori della sicurezza informatica e della biosicurezza. Questo accompagnerà una nuova serie di linee guida per consentire agli sviluppatori di AI, in particolare di modelli fondazionali a duplice uso, quelli abbastanza potenti da rappresentare un serio rischio per la sicurezza, la sicurezza economica nazionale, la salute o la sicurezza pubblica nazionale, di condurre test di red-teaming dell'AI per consentire l’implementazione di sistemi sicuri e affidabili. Il NIST si coordinerà con il Dipartimento dell’Energia (DOE) e con il Direttore della National Science Foundation (NSF) per garantire la disponibilità di ambienti di test, come i banchi di prova, per sostenere lo sviluppo di tecnologie di AI sicure e degne di fiducia.

Test e monitoraggio del sistema: In tutto l’EO, si pone l’accento sul monitoraggio e sul collaudo continuo dei modelli per garantire che siano implementati in modo sicuro (e continuino a funzionare in maniera consistente). Ad esempio, l’EO prevede che il Consumer Financial Protection Bureau (CFPB) e la Federal Housing Finance Agency (FHFA) debbano valutare diversi aspetti delle loro infrastrutture, tra cui i modelli di sottoscrizione, le perizie automatizzate e i modelli automatizzati di valutazione delle garanzie.

3. Il Defense Production Act

Sviluppo legale: Nell’ambito della sua attenzione alla sicurezza, l’EO invoca il Defense Production Act (DPA), come modificato, 50 U.S.C. 4501 e seguenti, per garantire e verificare la disponibilità continua di AI sicura, affidabile ed efficace, anche per la difesa nazionale e la protezione delle infrastrutture critiche.

Obblighi del modello fondazionale a doppio uso: Poco dopo l’entrata in vigore dell’EO, il DOC è tenuto a richiedere alle aziende che sviluppano o dimostrano l’intenzione di sviluppare potenziali modelli di fondazione a duplice uso di fornire al governo degli Stati Uniti, su base continuativa, diversi rapporti incentrati sulle informazioni necessarie per monitorare le aree di preoccupazione o di potenziale rischio per la sicurezza degli Stati Uniti. Questi rapporti includono informazioni quali:

  • attività relative alla formazione, allo sviluppo o alla produzione di modelli di fondazione a duplice uso, con particolare attenzione al modo in cui cercano di affrontare le minacce alla sicurezza fisica e informatica
  • proprietà e possesso dei pesi dei modelli di fondazione a duplice uso e misure adottate per proteggere tali pesi
  • i risultati delle prestazioni di qualsiasi modello di base a duplice uso sviluppato nei pertinenti test dell’AI red-team, come indicato sopra e
  • descrizioni di qualsiasi misura associata adottata da un’azienda per soddisfare gli obiettivi di sicurezza e qualsiasi risultato del red teaming che riguardi l’abbassamento della barriera all’ingresso per lo sviluppo, l’acquisizione e l’uso di armi biologiche da parte di attori non statali; la scoperta di vulnerabilità del software e lo sviluppo di exploit associati; l’uso di software o strumenti per influenzare eventi reali o virtuali; la possibilità di auto-replicazione o propagazione; e misure associate per soddisfare gli obiettivi di sicurezza.

Cluster di calcolo su larga scala: l’EO prevede inoltre che il Ministero dell’Interno richieda alle aziende, agli individui o ad altre organizzazioni o entità che acquisiscono, sviluppano o possiedono un potenziale cluster di calcolo su larga scala di segnalare tale acquisizione, sviluppo o possesso, compresa l’esistenza e l’ubicazione di tali cluster e la quantità di potenza di calcolo totale disponibile in ciascun cluster.

4. La privacy

L’EO affronta la protezione della privacy per i dati che alimentano i sistemi di AI in diversi contesti. Uno dei principi guida dell’EO è che la privacy e le libertà civili degli americani devono essere protette con il progresso dell’AI. L’EO riconosce che l’AI mette a repentaglio la privacy in quanto rende più facile l’estrazione, l’identificazione e lo sfruttamento dei dati personali degli individui, aumentando al contempo gli incentivi a farlo data la necessità di dati di addestramento per i sistemi di AI. La scheda informativa dell’EO invita il Congresso ad approvare una legislazione bipartisan sulla privacy e il Presidente Joe Biden ha chiesto una legislazione federale sulla privacy dei dati durante la cerimonia della firma alla Casa Bianca.

Tecnologie che migliorano la privacy e garanzie di privacy differenziate: l’EO richiede che le agenzie federali utilizzino le politiche e gli strumenti disponibili, comprese le tecnologie di rafforzamento della privacy (PET), per proteggere la privacy e combattere i rischi associati alla raccolta e all’uso improprio dei dati personali. Le PET possono essere qualsiasi soluzione software o hardware, processo tecnico, tecnica o altro mezzo tecnologico per mitigare i rischi per la privacy derivanti dal trattamento dei dati. Per agevolare l’uso delle PET da parte delle agenzie, l’EO incarica il DOC di creare linee guida per valutare l’efficacia delle protezioni differenziali di garanzia della privacy, anche per l’AI. Il direttore dell’NSF dovrà inoltre (i) impegnarsi con le agenzie federali per identificare le attività in corso e le potenziali opportunità di incorporare le tecnologie PET nelle loro operazioni e (ii) dare priorità alla ricerca che incoraggia l’adozione di soluzioni PET per l’uso da parte delle agenzie.

Rete di coordinamento della ricerca: Per far progredire la ricerca e lo sviluppo relativi alle tecnologie PET, il direttore della National Science Foundation finanzierà la creazione di una rete di coordinamento della ricerca (RCN).

Uso da parte del governo federale di informazioni disponibili in commercio: Il direttore dell’OMB (i) identificherà e valuterà le modalità con cui le agenzie federali raccolgono e utilizzano le informazioni disponibili in commercio (CAI), in particolare quelle che contengono informazioni di identificazione personale, comprese quelle ottenute da intermediari di dati, e (ii) rafforzerà le linee guida sulla privacy per le agenzie al fine di mitigare i relativi rischi per la privacy.

Il direttore dell’OMB valuterà inoltre, attraverso una richiesta di informazioni, le possibili revisioni delle linee guida per l’attuazione delle disposizioni sulla privacy dell’E-Government Act del 2002, compreso il modo in cui le valutazioni d’impatto sulla privacy possono essere più efficaci per mitigare i danni alla privacy legati all’AI.

Altri effetti sulla privacy: Tra gli ulteriori effetti dell’EO sulla privacy vi sono:

  • l’incoraggiamento alle agenzie a implementare pratiche di gestione del rischio per garantire la conformità ai requisiti di registrazione, sicurezza informatica, privacy e protezione dei dati;
  • l'obbligo per il Ministero della Difesa di stabilire un piano per l’impegno globale nella promozione e nello sviluppo di standard per l’AI
  • sottolineare che il governo federale applicherà le leggi e i principi esistenti in materia di protezione dei consumatori e adotterà le opportune misure di salvaguardia contro le violazioni della privacy e
  • richiedere al Dipartimento della Salute e dei Servizi Umani (DHHS) di istituire una Task Force HHS per l’AI che svilupperà politiche e quadri di riferimento come dettagliato più avanti.

5. Sicurezza informatica

L’EO riconosce che, affinché l’AI sia sicura, oltre alle misure sulla privacy è necessario affrontare il tema della cybersecurity.

Infrastruttura statunitense come servizio: L’EO riconosce i rischi legati all’uso di prodotti statunitensi Infrastructure as a Service (IaaS) da parte di attori informatici malintenzionati stranieri e cerca di evitare che i potenti modelli di AI che possono essere creati da questi prodotti cadano nelle loro mani. Di conseguenza, il Ministero dell’Interno proporrà regolamenti che richiedano ai fornitori di IaaS statunitensi di presentare un rapporto “quando un soggetto straniero effettua transazioni con tale fornitore di IaaS per addestrare un modello di AI di grandi dimensioni con potenziali capacità che potrebbero essere utilizzate in attività malevole di tipo informatico”. Questi regolamenti richiederanno inoltre che i fornitori di IaaS statunitensi vietino ai rivenditori stranieri dei loro servizi di fornire i loro servizi a meno che il rivenditore straniero non presenti un rapporto simile.

Definizione delle condizioni tecniche: Il Ministero dell’Economia e delle Finanze determinerà anche l’insieme delle condizioni tecniche necessarie affinché un modello di AI di grandi dimensioni abbia capacità potenziali che potrebbero essere utilizzate in attività malevole di tipo informatico. Fino ad allora, l’EO elenca criteri provvisori, definiti dalla quantità di potenza di calcolo necessaria per crearli, in base ai quali i modelli saranno considerati potenzialmente in grado di essere utilizzati in attività informatiche dannose.

Sicurezza informatica e infrastrutture critiche: Le agenzie competenti dovranno valutare e riferire al Dipartimento per la Sicurezza Nazionale (DHS) i rischi potenziali legati all’uso dell’AI nelle infrastrutture critiche (ad esempio, guasti critici, attacchi informatici). Dovranno inoltre considerare le potenziali mitigazioni.

Linee guida e rapporti sulla sicurezza: Il DHS emetterà linee guida sulla sicurezza per i proprietari e gli operatori di infrastrutture critiche basate sul NIST AI 100-1. Entro otto mesi dall’emanazione di tali linee guida, saranno adottate misure per renderle obbligatorie. Verrà inoltre istituito un Comitato consultivo per la sicurezza dell’AI con il compito di fornire consulenza sul miglioramento della sicurezza, della resilienza e della risposta agli incidenti legati alluso dell’AI nelle infrastrutture critiche. La prossima primavera il pubblico potrà inoltre attendersi un rapporto del Dipartimento del Tesoro sulle migliori pratiche per le istituzioni finanziarie per gestire i rischi di cybersicurezza specifici dell’AI.

Migliorare le difese informatiche degli Stati Uniti: L’EO riconosce i potenziali benefici dell’AI nel contesto informatico e richiede ai Segretari del DoD e del DHS di condurre ciascuno un progetto pilota operativo per l’impiego di capacità di AI al fine di scoprire e correggere le vulnerabilità nei software, nei sistemi e nelle reti critiche del governo statunitense. Ciascuno di essi pubblicherà un rapporto sulle vulnerabilità trovate e risolte grazie alle capacità dell’AI, nonché sulle lezioni apprese su come utilizzare efficacemente le capacità dell’AI per la difesa informatica.

Altri impatti sulla sicurezza informatica: Tra gli ulteriori effetti dell’EO sulla sicurezza informatica vi sono:

  • Richiedere al Ministero della Difesa di lanciare un’iniziativa per creare linee guida e parametri di riferimento per la valutazione e l’audit delle capacità di AI, con particolare attenzione alle capacità attraverso le quali l’AI potrebbe causare danni, come la sicurezza informatica e la sicurezza informatica.
  • Richiedere alle aziende che sviluppano modelli fondamentali a doppio uso di riferire costantemente al governo federale le informazioni relative alle protezioni di cybersecurity adottate per assicurare l’integrità del loro processo di formazione contro minacce sofisticate.

6. Commissione Federale del Commercio (FTC) e Commissione Federale delle Comunicazioni (FCC)

L’ambito di applicazione dell’EO si estende oltre le infrastrutture specifiche dell’AI e cerca di indirizzare le agenzie, in particolare la FTC, a considerare come l’AI possa influire sui consumatori e sulle infrastrutture di rete. L’EO incoraggia la FTC a esercitare i poteri esistenti, compreso il potere di regolamentazione. La FTC ha già dichiarato di voler applicare la Sezione 5 del FTC Act, il Fair Credit Reporting Act e l’Equal Credit Opportunity Act come esempi di autorità esistenti per la regolamentazione dell’AI.

Gestione delle reti e dello spettro: L’EO incoraggia la FCC a considerare le azioni che può intraprendere per migliorare l’efficienza nell’uso dello spettro e ampliare le misure per la condivisione dello spettro non federale, dato che l’uso dell’AI aumenta l’uso della larghezza di banda complessiva. Questo obiettivo potrebbe essere raggiunto attraverso il coordinamento con la National Telecommunications and information Administration per creare opportunità e iniziative per la condivisione dello spettro. L’EO chiede inoltre alla FCC di prendere in considerazione metodi per fornire sostegno agli sforzi per migliorare la sicurezza, la resilienza e l’interoperabilità attraverso le tecnologie di prossima generazione che possono costituire la base per la diffusione su larga scala di reti wireless superveloci come il 6G.

Lotta allo spam robotico: L’EO cerca anche di combattere gran parte del rumore prodotto su queste reti attraverso programmi di spam di tipo robocall e robotext. La FCC è incoraggiata a prendere in considerazione l’implementazione di regole che contrastino direttamente questi programmi, assistiti (e per molti versi esacerbati) dalle capacità dell’AI.

 

7. Proprietà intellettuale

Nell’ambito della spinta della Casa Bianca verso l’innovazione, l’EO indirizza diversi mandati a chiarire le questioni in via di sviluppo che circondano l’AI e la sua capacità di creare opere inedite.

Posizione sui brevetti: l’EO incarica l’Ufficio brevetti e marchi degli Stati Uniti (PTO) di emanare una guida iniziale che assista sia gli esaminatori dei brevetti sia i richiedenti in merito ai diversi modi in cui l’AI generativa può essere coinvolta nel processo inventivo e a come le relative questioni di invenzione debbano essere analizzate in base alla legge vigente. È inoltre richiesta una guida successiva per affrontare altre questioni e tecnologie emergenti e aggiornare la guida iniziale, se necessario. In particolare, l’EO non richiede alcuna guida sulla registrazione dei marchi.

Chiarimenti sul copyright: l’EO richiede inoltre che il direttore del PTO si consulti con il direttore (Register of Copyrights) dell’US Copyright Office per fornire raccomandazioni per ulteriori azioni esecutive, tra cui la potenziale protezione delle opere create utilizzando l’AI generativa e il trattamento delle opere protette da copyright in relazione all’addestramento dei modelli di AI. Tali raccomandazioni dovranno essere emanate entro 180 giorni dalla pubblicazione da parte dell’Ufficio statunitense per il diritto d’autore dello studio sull’AI e il diritto d’autore, aperto ai commenti del pubblico.

8. Salute

Riconoscendo i potenziali rischi significativi per ’uso dell’AI in alcuni settori critici, come l’assistenza sanitaria, l’EO prevede le seguenti protezioni per salvaguardare i danni ai pazienti e ai consumatori. Se da un lato si prospettano maggiori orientamenti normativi, l’elaborazione di regole e l’applicazione di norme per l’uso e l’impiego dell’AI da parte delle aziende del settore sanitario e delle scienze della vita, dall’altro si riconosce l’enorme opportunità di migliorare l’assistenza sanitaria, se sviluppata e impiegata in modo appropriato e responsabile, sotto forma di opportunità di finanziamento.

Nuova protezione dei pazienti e dei consumatori: L’EO specifica che il DHHS dovrà:

  • istituire una Task Force HHS per l’AI, incaricata di sviluppare un piano strategico per la diffusione e l’uso responsabile dell’AI nel settore della salute e dei servizi umani;
  • sviluppare una strategia di qualità dell’AI, compreso lo sviluppo di una politica di garanzia e delle esigenze infrastrutturali per consentire la valutazione pre-mercato e la supervisione post-mercato dei sistemi algoritmici di tecnologia sanitaria abilitati all’AI;
  • prendere in considerazione azioni appropriate per far progredire la pronta comprensione e il rispetto delle leggi federali sulla non discriminazione da parte dei fornitori di servizi sanitari e umani che ricevono assistenza finanziaria federale;
  • stabilire un programma di sicurezza dell’AI che definisca un quadro comune per l’identificazione degli errori clinici derivanti dall’AI, un archivio centrale di tracciamento degli incidenti associati che causano danni e raccomandazioni per le migliori pratiche e linee guida informali per evitare i danni; e
  • sviluppare una strategia per regolamentare l’uso dell’AI nel processo di sviluppo dei farmaci.

Applicazione attiva delle protezioni esistenti: Inoltre, l’EO incarica la FTC, già attiva, di “far rispettare le leggi e i principi esistenti in materia di protezione dei consumatori e di adottare misure di salvaguardia adeguate contro le frodi, i pregiudizi involontari, le violazioni della privacy e altri danni causati dall’AI”, al fine di proteggere, tra l’altro, i pazienti dall’uso improprio o dagli errori causati dall’uso dell’AI nell’assistenza sanitaria.

Dare priorità alle sovvenzioni e ai premi dell’HHS: L’EO indica al DHHS di identificare e dare priorità alle sovvenzioni e ad altri finanziamenti per sostenere lo sviluppo e l’uso responsabile dell’AI. In particolare, individua l’avanzamento di strumenti abilitati all’AI che sviluppano profili di risposta immunitaria personalizzati per i pazienti, il miglioramento della qualità dei dati sanitari per supportare lo sviluppo di strumenti di AI per l’assistenza clinica, i programmi di evidenza del mondo reale, la salute della popolazione, la salute pubblica e la ricerca correlata, nonché le sovvenzioni destinate ai programmi di AI per l’equità sanitaria nelle comunità meno servite. L’EO indirizza anche una serie di iniziative per lo sviluppo di sistemi di AI per migliorare la qualità dell’assistenza sanitaria per i veterani.

9. Minacce chimiche, biologiche, radiologiche e nucleari (CBRN):

Per ridurre i rischi dell’AI in relazione ai CBRN, l’EO intraprende diverse azioni degne di nota, in particolare per quanto riguarda le armi biologiche: il Dipartimento della Difesa deve stipulare un contratto con le Accademie Nazionali delle Scienze, dell’Ingegneria e della Medicina per condurre uno studio volto a valutare i modi in cui l’AI può aumentare i rischi per la biosicurezza e le implicazioni per la sicurezza nazionale dell’uso dei dati associati agli agenti patogeni e agli studi “omici”, oltre a raccomandare modi per mitigare i rischi identificati.

La Sicurezza nazionale valuterà la possibilità che l’AI venga utilizzata in modo improprio per consentire minacce CBRN e prenderà in considerazione i potenziali vantaggi dell’AI per contrastare tali minacce. Un rapporto sarà presentato al Presidente per descrivere i tipi di modelli di AI che possono presentare rischi CBRN e formulare raccomandazioni per regolamentare o supervisionare l’addestramento, l’impiego o l’uso di questi modelli, compresi i requisiti per le valutazioni di sicurezza e le salvaguardie.

L’Office of Science and Technology Policy è incaricato di stabilire un quadro per incoraggiare i fornitori di sequenze di acidi nucleici sintetici a implementare meccanismi di screening completi, scalabili e verificabili per l’approvvigionamento di acidi nucleici sintetici. Tutte le agenzie che finanziano la ricerca nel campo delle scienze della vita richiederanno che l’approvvigionamento di acidi nucleici sintetici avvenga tramite fornitori o produttori che aderiscono al quadro, come requisito per il finanziamento. Il DOC è stato incaricato di sfruttare il quadro di riferimento per sviluppare le specifiche e le migliori pratiche a sostegno dell’implementazione tecnica di tale screening.

Il Dipartimento dell’Energia è incaricato di sviluppare strumenti di valutazione dei modelli di intelligenza artificiale e banchi di prova per l’intelligenza artificiale al fine di ridurre i rischi nei modelli che generano risultati che possono rappresentare minacce o pericoli nucleari, di non proliferazione, biologici, chimici, di infrastrutture critiche e di sicurezza energetica. Il banco di prova specifico ha “lo scopo di proteggersi da queste minacce” e deve anche sviluppare salvaguardie per i modelli, che riducano tali rischi.

10. Pratiche competitive e innovazione

Al di là degli elementi specifici del ciclo di vita dell’AI, l’EO riconosce i potenziali danni e rischi per la sicurezza nazionale derivanti da un’eccessiva concentrazione del controllo su elementi chiave, come l’accesso ai dati, alla potenza di calcolo e alla tecnologia. In risposta, l’EO attua diverse disposizioni specificamente mirate a promuovere l’innovazione e la concorrenza nel settore.

Supervisione normativa: l’EO richiede che ogni agenzia che sviluppa politiche e regolamenti relativi all’AI utilizzi la propria autorità per promuovere pratiche competitive all’interno dei mercati dell’AI (così come all’interno di altri mercati tecnologici). Ogni agenzia di sua competenza è tenuta a monitorare il settore dell’AI, adottando misure per prevenire collusioni illecite e “impedire alle imprese dominanti di svantaggiare i concorrenti”. Laddove le aziende continuino ad agire in modo sleale e anticoncorrenziale, l’EO incoraggia la FTC a perseguire attivamente le organizzazioni attraverso l’applicazione delle normative esistenti o lo sviluppo di nuove misure specifiche per l’AI.

Programmi di assistenza rivitalizzati per l’AI: in un ulteriore sforzo per aiutare la concorrenza, l’EO attribuisce diverse misure mirate a indirizzare finanziamenti e opportunità alle piccole imprese e agli sviluppatori attraverso la Small Business Administration. Questi programmi, come il Regional Innovation Cluster Program e il Growth Accelerator Fund Competition da 2 milioni di dollari, convoglieranno i finanziamenti verso le organizzazioni più piccole e aumenteranno la consapevolezza generale delle opportunità che gli sviluppatori e i fornitori di AI possono sfruttare nella loro ricerca di innovazione, formazione e sviluppo tecnico dell’AI. Oltre alle nuove misure, l’EO richiede che le agenzie rivedano i programmi esistenti, come il Programma di finanziamento per l’assistenza tecnica e commerciale, per determinare se sono adatti allo scopo. In caso contrario, si prevede una revisione dei criteri di ammissibilità.

Promozione dell’industria dei semiconduttori: l’EO ha inoltre concentrato il suo approccio alla promozione della concorrenza attuando diverse iniziative rivolte all’industria dei semiconduttori. L’EO si basa sulle iniziative esistenti create nell’ambito del Creating Helpful Incentives to Produce Semiconductors (CHIPS) Act del 2022 e incarica il DOC di sviluppare iniziative per incoraggiare la concorrenza nel settore dei semiconduttori. In particolare, il Ministero della Difesa è stato incaricato di implementare strutture flessibili per l’adesione al National Semiconductor Technology Center (anche per le startup e le organizzazioni più piccole), implementare programmi di mentorship per aumentare l’interesse e la partecipazione nel settore e aumentare la disponibilità di risorse per le startup e le piccole imprese in modo che abbiano accesso alle risorse necessarie per competere equamente.

11. Immigrazione

L’EO riconosce la necessità di lavoratori qualificati all’interno dell’industria tecnologica per perseguire un’AI sicura e affidabile e stabilisce diverse direttive volte ad attrarre e trattenere lavoratori dall'estero attraverso la semplificazione di diversi processi di immigrazione.

Snellimento dei processi di immigrazione: L’EO chiede al Dipartimento di Stato (DOS) e al DHS di snellire il processo di rilascio dei visti per gli immigrati che intendono lavorare con l’AI o con altre tecnologie critiche, compresa la modernizzazione dei percorsi per l’ottenimento dei visti da parte degli esperti di AI. L’EO raccomanda inoltre al DOS di prendere in considerazione la creazione di nuove regole per rendere più facile per i cittadini stranieri con visti H-1B e per quelli che partecipano a programmi di scambio educativo temporaneo lavorare con l’AI senza “inutili interruzioni”.

Reclutamento internazionale: L’EO punta ai lavoratori al di fuori degli Stati Uniti e richiede che diverse agenzie, tra cui il DOS, creino programmi per identificare e attrarre i migliori talenti dell’AI in tutto il settore, comprese le università, gli istituti di ricerca e il settore privato. Ciò deve essere accompagnato da una guida chiara ed esaustiva da parte del DHS, del DOC e del Direttore dell’Ufficio per la politica scientifica e tecnologica che illustri chiaramente come gli esperti possono lavorare negli Stati Uniti e i potenziali vantaggi.

Relazioni periodiche: l’EO riconosce che queste iniziative sono di scarso valore senza una comprensione del loro impatto più ampio. L’EO richiede pertanto che le agenzie, compreso il DOC, pubblichino relazioni pubbliche che illustrino in dettaglio informazioni quali l’attuale tendenza all’uso del processo di immigrazione da parte degli esperti di AI e dove è probabile che emergano lacune nelle attuali competenze.

12. Istruzione

Sviluppo di risorse per un impiego sicuro: l’EO indica al Dipartimento dell’Istruzione di sviluppare risorse, politiche e linee guida per affrontare “l’uso sicuro, responsabile e non discriminatorio dell’AI nell'istruzione” e di informare le parti sull’impatto che l’AI può avere sulle comunità vulnerabili e poco servite.

Sviluppo di un kit di strumenti per l’AI: l’EO richiede inoltre al Dipartimento dell'Istruzione di sviluppare un “kit di strumenti per l’AI” per aiutare i responsabili dell’istruzione ad attuare le raccomandazioni del Dipartimento sull’uso dell’AI nei contesti educativi. L’EO sottolinea che l’uso dell’AI nel settore dell’istruzione richiederà non solo mitigazioni applicabili in generale - ad esempio, un’adeguata revisione umana dei risultati e il rispetto delle normative sulla privacy - ma anche lo sviluppo di “guardrail specifici per l’istruzione”.

13. Alloggi

Prevenzione di pregiudizi e discriminazioni: l’EO sottolinea l’importanza di prevenire pregiudizi e discriminazioni nei contesti legati agli alloggi. Per affrontare questo problema, l’EO incoraggia il direttore della FHFA - che supervisiona Fannie Mae e Freddie Mac - e il direttore della CFPB a “valutare i loro modelli di sottoscrizione per individuare eventuali pregiudizi o disparità che colpiscono i gruppi protetti”[9] e a “valutare i processi automatizzati di valutazione delle garanzie e delle perizie in modo da ridurre al minimo i pregiudizi”.

Orientamenti sulla legislazione esistente: l’EO richiede inoltre al Dipartimento per gli alloggi e lo sviluppo urbano di emanare ulteriori orientamenti sull’uso dei sistemi di screening degli inquilini e su come le leggi e i regolamenti esistenti (ad esempio, il Fair Housing Act e l’Equal Credit Opportunity Act) si applichino alla pubblicità digitale per gli alloggi e il credito e incoraggia il direttore del Consumer Financial Protection Bureau a intraprendere gli stessi sforzi.

14. Lavoro

Approccio incentrato sui lavoratori: l’EO chiarisce che l’amministrazione Biden si concentra sull’impatto potenzialmente negativo dell’AI sulla forza lavoro americana. L’EO sottolinea il ruolo della contrattazione collettiva nel garantire che tutti i lavoratori abbiano un “posto a tavola” nel momento in cui l’AI viene integrata nel luogo di lavoro e mette in guardia contro applicazioni dell’AI che abbiano un impatto negativo sulla qualità del lavoro, che comportino un’indebita sorveglianza dei lavoratori, che danneggino la concorrenza o che creino rischi per la salute e la sicurezza, tra le altre preoccupazioni.

Intervento attivo delle agenzie: oltre a promuovere un approccio più generale incentrato sui lavoratori, l’EO richiede a diverse agenzie chiave di intervenire entro i prossimi sei mesi:

Il Consiglio dei consulenti economici deve preparare una relazione per il Presidente sugli “effetti dell’AI sul mercato del lavoro”.

Il Dipartimento del Lavoro (DOL) è incaricato di presentare al Presidente un rapporto che analizzi le capacità delle agenzie federali esistenti di “sostenere i lavoratori sfollati a causa dell’adozione dell’AI e di altri progressi tecnologici”, che deve valutare se sia possibile utilizzare l’assicurazione contro la disoccupazione e altri programmi e identificare altre opzioni o un ulteriore sostegno federale per i lavoratori sfollati.

La DOL è inoltre incaricata di sviluppare e pubblicare principi e buone pratiche per aiutare i datori di lavoro a mitigare il potenziale impatto negativo dell’AI sul posto di lavoro. Tali principi devono includere misure specifiche che i datori di lavoro possono adottare e devono riguardare i rischi di dislocazione dei posti di lavoro e le opportunità di carriera legate all’AI, le questioni relative alla qualità del lavoro e del luogo di lavoro e le implicazioni della raccolta di dati sui lavoratori da parte dei datori di lavoro legati all’AI.

La DOL è tenuta a emanare “linee guida per chiarire che i datori di lavoro che impiegano l’AI per monitorare o aumentare il lavoro dei dipendenti devono continuare a rispettare le protezioni che assicurano che i lavoratori siano compensati” per le ore lavorate secondo la FLSA.

Il Direttore della NSF è tenuto a dare priorità alle risorse disponibili per sostenere l’istruzione e lo sviluppo della forza lavoro legati all’AI attraverso i programmi esistenti.

Orientamenti sull’AI generativa: per quanto riguarda la forza lavoro federale, l’EO incarica anche il direttore dell’Office of Personnel Management di sviluppare orientamenti sull'uso dell’AI generativa entro 180 giorni, nell’ambito di un’iniziativa più ampia volta a migliorare il livello dei dipendenti federali e a prepararli all’uso dell’AI generativa nelle loro responsabilità.

15. Cosa possiamo aspettarci in seguito?

A differenza delle precedenti iniziative del governo statunitense, l’EO fa scattare l’orologio per i dipartimenti e le agenzie federali che devono agire in base ai mandati di cui sopra. A partire dalla data dell’EO, ogni dipartimento avrà all’incirca tra i tre e i dodici mesi per adempiere a tali mandati. Durante questo periodo, possiamo aspettarci l’emanazione di nuovi standard e di nuove linee guida sulle misure di applicazione esistenti in tutti i dipartimenti federali.

L’enfasi posta sui test e sul monitoraggio dei sistemi di AI per individuare eventuali danni dovrebbe motivare le aziende a progettare e implementare meccanismi di test ben prima dell’entrata in vigore dei nuovi requisiti.

L’EO e alcune delle sue direttive serviranno probabilmente a delineare i contorni di un’eventuale legislazione sull’AI in sede di Congresso. I legislatori bipartisan stanno attualmente cercando di bilanciare gli imperativi concorrenti di agire rapidamente e di fare le cose per bene.

Il leader della maggioranza del Senato Chuck Schumer (D-NY) ha annunciato a metà maggio che stava lavorando con un piccolo nucleo bipartisan di suoi colleghi - identificati come i senatori Mike Rounds (R-SD), Todd Young (R-IN) e Martin Heinrich (D-NM), presidente del Caucus AI del Senato - per elaborare una legislazione che possa attirare un ampio sostegno bipartisan. Schumer e Young hanno collaborato in modo trasversale all’iniziativa che alla fine è stata promulgata in legge l’anno scorso, il CHIPS and Science Act, che comprendeva finanziamenti per incentivare la ricerca e la produzione di semiconduttori negli Stati Uniti.

A giugno, il senatore Schumer ha annunciato una serie di nove forum sull’intelligenza artificiale che si terranno in autunno per contribuire a integrare e accelerare il tradizionale processo di audizione in commissione ai fini dell’elaborazione di una legislazione completa sull’intelligenza artificiale.

A settembre, i senatori Richard Blumenthal (D-CT) e Josh Hawley (R-MO) hanno annunciato un approccio bipartisan alla regolamentazione dell’AI incentrato su licenze, responsabilità e trasparenza. Il senatore John Thune (R-SD) dovrebbe introdurre una legislazione bipartisan sull’AI insieme alla senatrice Amy Klobuchar (D-MN) in materia di valutazioni d’impatto e certificazione, forse la più completa legislazione in materia di AI fino ad oggi.

Nonostante i passi positivi compiuti da entrambe le parti, i progressi continuano a ritmo lento, con il rischio che il processo rimanga indietro rispetto ai rapidi progressi dell’AI. Molti operatori del settore si augurano quindi che la legge sulla pubblicità genererà un ulteriore slancio per il Congresso e spingerà gli Stati Uniti verso un regime di AI leader a livello mondiale che incoraggi gli investimenti e l’innovazione, garantendo al contempo la protezione di coloro che sono colpiti dall’AI.

Su un simile argomento, il seguente articolo può essere di interesse “Gli ultimi sviluppi sull’EU AI Act introducono cambiamenti”.

 

Technology, Media and Telecommunications

Osservatorio sulle comunicazioni dell’AGCom per il primo semestre del 2023

Il 25 ottobre 2023 l’AGCom ha pubblicato il terzo Osservatorio sulle Comunicazioni per il 2023, che contiene i dati relativi al primo semestre del 2023.

I dati riportati nell’Osservatorio sulle Comunicazioni indicano che vi è stata una flessione negli accessi complessivi per la rete fissa su base annua, quantificabile in 162 mila accessi. Inoltre, rispetto al corrispondente periodo del 2019 si è registrata una riduzione degli accessi pari a 137 mila unità. Sono poco meno di 20 milioni gli accessi alla rete fissa complessivamente registrati a giugno 2023.

L’AGCom informa che le tradizionali linee basate su tecnologie in rame si sono ridotte di circa 210 mila unità su base trimestrale e di circa 900 mila unità rispetto a giugno 2022 (una riduzione di circa 6,4 milioni nell’ultimo quadriennio), mentre le linee che utilizzano altre tecnologie più evolute sono aumentate di circa 720 mila unità rispetto al medesimo periodo dell’anno precedente. Se nel mese di giugno 2019 il 51,7% degli accessi alla rete fissa era in rame, dopo quattro anni, nel corrispondente mese del 2023, essi si sono più che dimezzati, attestandosi al 19,7%.

È stata registrata una lieve flessione, quantificabile in 110 mila accessi su base trimestrale e 287 mila su base annua, nel numero di accessi in rete FTTC (“Fiber To The Cabinet”), con un totale di circa 10,9 milioni di accessi a giugno 2023. Gli accessi alla rete in tecnologia FTTH (“Fiber To The Home”) sono aumentati di circa 850 mila unità su base annua e, a fine giugno, ammontavano a circa 3,97 milioni di accessi. In crescita, anche se in misura più contenuta, risultano anche le linee FWA (“Fixed Wireless Access”) che, con un incremento di quasi 150 mila unità nell’anno in corso, hanno raggiunto poco più di 1,9 milioni di linee a giugno 2023.

A fine giugno 2023, le linee broadband complessive ammontavano a poco meno di 18,7 milioni, risultando in leggera riduzione (quantificabile in 70 mila unità, pari allo 0,4%) su base annua. Tale flessione è causata dal decremento degli accessi in tecnologia DSL, diminuiti di circa 790 mila di unità.

Le dinamiche appena descritte hanno determinato un consistente aumento delle prestazioni in termini di velocità di connessione commercializzata. Come si legge nel Comunicato Stampa che accompagna la pubblicazione dell’Osservatorio, le linee con velocità pari o superiori ai 30 Mbit/s hanno raggiunto l’83% delle complessive linee broadband; quelle con prestazioni superiori ai 100 Mbit/s sono salite al 69,6% rispetto al 35,7% del giugno 2019.

Si riconferma al contempo il trend in crescita del consumo di dati: il volume complessivo dei dati consumati giornalmente nel primo semestre del 2023 è aumentato dell’11,3% rispetto al dato registrato a giugno 2022 e del 115% rispetto ai primi sei mesi del 2019. I dati unitari di consumo (ossia il traffico giornaliero registrato in relazione a ciascuna linea broadband) sono aumentati dell’11,5% rispetto al 2022.

Con riferimento al segmento della rete mobile, a fine giugno 2023, l’AGCom riporta che il numero complessivo delle SIM (sia c.d. “human”, ossia “solo voce”, “voce+dati” e “solo dati” che prevedono interazione umana, che M2M, ossia “machine-to-machine”) è stato pari a 108,2 milioni (con un aumento di circa 1,2 milioni su base annua). In particolare, le SIM M2M sono aumentate di oltre 582 mila unità in un anno, mentre, nello stesso arco temporale, l’incremento di quelle human è risultato pari a 602 mila unità (per un totale di 78,8 milioni SIM human, per il 13,4% appartenenti alla clientela business e per il restante 86,6% a quella residenziale cosiddetta consumer).

Come descritto dall’AGCom, sono valutabili in circa 56,7 milioni le SIM human che hanno prodotto traffico dati nel corso dei primi sei mesi dell’anno, valore inferiore di circa 190 mila unità al corrispondente valore del 2022. Il relativo consumo medio unitario giornaliero del primo semestre è stimabile in circa 0,75 GB, in crescita del 24,3% rispetto al 2022.

Su un simile argomento può essere interessante l’articolo “AGCom: Osservatorio comunicazioni a marzo 2023”.

 

Intellectual Property

Il nuovo manuale UPC edito da Wolters Kluwer

Da questo mese è disponibile il manuale “Enforcement of Decisions of the Unified Patent Court: A Survey of Participating Member States”, edito da Wolters Kluwer Legal & Regulatory.

Si tratta del nono volume della collana AIPPI Law Series, creata in collaborazione con l’Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI), ed è stato presentato in occasione dell’AIPPI World Congress appena conclusosi ad Istanbul.

Il manuale offre una panoramica sulle procedure nazionali di esecuzione delle decisioni emesse dall’UPC ed è suddiviso in dodici capitoli, ciascuno dei quali dedicato ad una specifica giurisdizione tra Austria, Belgio, Bulgaria, Danimarca, Francia, Finlandia, Germania, Italia, Paesi Bassi, Portogallo e Svezia.

Alla sua redazione hanno partecipato ventuno co-autori, tutti massimi esperti di controversie brevettuali; tra questi il nostro Partner Gualtiero Dragotti, Global Co-Chair del Patent Group, che insieme a Carlo Maria Faggioni ha curato la stesura del capitolo dedicato all’Italia.

Vi auguriamo una buona lettura!

EUIPO sul marchio figurativo e tridimensionale nell’Unione Europea

Lo scorso 11 ottobre 2023, la Quarta Sezione della Commissioni di Ricorso dell’Ufficio dell’Unione Europea per la Proprietà Intellettuale (EUIPO) ha riconosciuto la capacità distintiva di un marchio figurativo raffigurante un orsetto gommoso nel caso R 872/2023-4.

Questa decisione potrebbe avere un impatto molto significativo sulla protezione dei marchi bidimensionali e tridimensionali nell’Unione Europea.

Due anni fa, nell’ottobre 2021, la holding di un gruppo dolciario presentò una domanda di registrazione internazionale ai sensi del Protocollo di Madrid per un marchio figurativo rappresentante un orsetto gommoso, basandosi sul suo marchio anteriore del Benelux.

Tuttavia, la domanda di registrazione non andò a buon fine e nel giugno 2022, l’EUIPO respinse parzialmente la domanda, sostenendo che “il segno non era registrabile ai sensi dell’articolo 7, paragrafo 1, b), RMUE perché privo di carattere distintivo per una parte dei prodotti per cui si richiede la protezione”.

La società fece ricorso, opponendosi alla decisione impugnata e chiedendone l’annullamento parziale, vale a dire nella misura in cui l’esaminatore rifiutava la protezione per una parte dei prodotti, sostenendo che il marchio avesse carattere distintivo e citando come esempi famosi il coccodrillo di Lacoste e l’emblema di Batman. In seguito, la Commissione di Ricorso si è espressa chiarendo che il carattere distintivo del marchio, secondo l’interpretazione dell’Articolo 7(1)(b) dell’EUTMR, deve identificare l’origine dei beni o servizi e distinguerli dagli altri. Inoltre, considerando la natura figurativa del marchio senza elementi di testo, la percezione del pubblico sull’intero territorio dell’Unione è stata cruciale ai fini della decisione.

La presente decisione sottolinea l’esigenza di un livello minimo di carattere distintivo per i marchi figurativi, poiché originalità e novità non sono criteri pertinenti ai fini della valutazione del carattere distintivo di un marchio.

La Commissione ha, dunque, concluso che il “segno in questione si discosti sufficientemente dalla norma o dalla consuetudine nei settori corrispondenti per mantenere un livello minimo di carattere distintivo” rispetto ai prodotti in contestazione, consentendo ai consumatori di distinguerli sul mercato e garantendo la protezione come marchio dell’Unione Europea. Su un argomento simile, potrebbe essere interessante l’articolo “EUIPO sulla percezione dei diritti di proprietà intellettuale tra i cittadini dell’UE”.


La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Arianna Angilletta, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Silvia CerratoMaria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Chiara Fiore, Claudia Galatioto, Laura Gastaldi, Vincenzo Giuffré, Filippo Grondona, Marco Guarna, Nicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Dalila Mentuccia, Deborah Paracchini, Tommaso Ricci, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Alessandra Tozzi, Giulia Zappaterra

Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.

Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.

Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.

È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.

DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.

Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.