
26 settembre 2024 • 22 minuti di lettura
Innovation Law Insights
26 settembre 2024Podcast
Chi è il provider ai sensi dell’AI Act?
L’AI Act stabilisce obblighi e responsabilità stringenti per i provider di AI, rendendo imperativo per le aziende comprendere questi requisiti al fine di mitigare i rischi e guidare l’innovazione. Nell’ultimo episodio della serie “Legal Break” di Diritto al Digitale, Tommaso Ricci di DLA Piper approfondisce i principali obblighi che i provider di AI devono rispettare ai sensi dell’AI Act e offre spunti di riflessione per orientarsi nel nuovo contesto normativo. Potete ascoltare QUI.
La Direttiva NIS2 è finalmente arrivata – Come conformarsi?
Alla luce dell’approssimarsi del termine per conformarsi alla Direttiva NIS 2, Giulio Coraggio, Giulia Zappaterra, Cristina Criscuoli ed Edoardo Bardelli dello studio legale DLA Piper hanno affrontato i punti più salienti del nuovo disposto normativo, con un focus specifico sulle società nei confronti delle quali la Direttiva NIS2 sarà applicabile e sugli obblighi, non solo tecnici ma anche di compliance, che le aziende dovranno tenere in considerazione. È possibile rivedere il webinar QUI.
Artificial Intelligence
Pubblicato il “Complementary Impact Assesment” sulla proposta di Direttiva sulla responsabilità dell’intelligenza artificiale: possibili cambiamenti.
Il 19 settembre 2024 è stato pubblicato il “Complementary Impact Assessment” (“Studio”) sulla proposta di Direttiva sulla responsabilità dell’Intelligenza Artificiale (“AILD”). Commissionato dalla commissione giuridica del parlamento europeo, lo Studio mira a identificare eventuali lacune e problematiche nella normativa proposta, nonché a rispondere alle presunte incompletezze della valutazione d’impatto condotta dalla Commissione Europea.
L’AILD, insieme alla revisione della Direttiva sulla responsabilità da prodotto difettoso (“PLD”), rappresenta lo strumento principale per affrontare la responsabilità civile derivante dall’uso dell’intelligenza artificiale (“IA”). In particolare, l’AILD si propone di armonizzare gli aspetti procedurali delle cause legali relative all’IA promosse dinnanzi ai tribunali degli Stati membri. Un punto focale è la semplificazione dell’onere della prova, questione particolarmente complesse a causa dell’opacità dei sistemi di IA (il cosiddetto “Black Box Problem”). Per affrontare questa sfida, la normativa prevede, in casi specifici, il diritto della parte lesa di ottenere la disclosure di prove e documenti decisivi per comprendere il funzionamento del sistema di IA, nonché una presunzione di causalità in caso di danno derivante da un utilizzo dell’IA non in conformità con le disposizioni dell’AI Act.
Interazione tra AILD, PLD e AI Act
Lo Studio esamina come l’AILD si intersechi con altri strumenti normativi in materia di responsabilità da prodotto e IA. In particolare, raccomanda di:
- Allineare le definizioni chiave al fine di assicurare coerenza terminologica tra l’AILD e l’AI Act per evitare ambiguità interpretative; e
- Garantire l’applicazione dell’AILD a quei casi (e.g. discriminazione, diritti della personalità, danno causato da utilizzatori non professionali) che non rientrano nell’ambito di applicazione della PLD.
Ambito di applicazione
Lo Studio valuta altresì l’opportunità di ampliare l’ambito di applicazione dell’AILD oltre i sistemi di IA ad alto rischio, includendo sistemi che vengono definiti ad “alto impatto” quali i General Purpose AI (es. ChatGPT) e quei software che pur non qualificandosi propriamente quali sistemi di IA presentino problemi di trasparenza e opacità analoghi a quelli posti dai sistemi di IA “puri”, trasformando l’AILD in ciò che viene definito nello Studio come “Software liability instrument”. Tale approccio risulta ragionevole, dal momento che in presenza delle medesime sfide al sistema di responsabilità civile tradizionale, non avrebbe senso operare una distinzione basata meramente su una differenza tecnologica, dovendosi applicare le stesse regole a tutti quei sistemi che, a prescindere dalla loro qualificazione, pongono le suddette problematiche di opacità e trasparenza.
Responsabilità oggettiva o colposa?
Lo Studio mette in luce le conseguenze derivanti dalla qualificazione della responsabilità come oggettiva o colposa.
Per quanto riguarda la responsabilità oggettiva, la quale era originariamente prevista dalla Risoluzione del Parlamento europeo del 2020 per i sistemi di IA ad alto rischio, viene confermata come una possibile soluzione nel caso di sistemi vietati/ad alto rischio, prevalendo la protezione dei cittadini sull’effetto esacerbante che la stessa avrebbe sull’innovazione. Allo stesso tempo, viene sottolineata la differenza tra “legitimate-harm models”, i quali potrebbero causare un effetto negativo a un soggetto anche se correttamente utilizzati (e.g. sistemi di score dei candidati), e “illegitimate-harm models”, i quali non potrebbero in nessun caso causare un danno se utilizzati correttamente, auspicando un regime di responsabilità oggettiva solo per i secondi.
Relativamente invece alla responsabilità colposa e ai sistemi di alleviamento dell’onere probatorio, lo Studio sottolinea che:
- L’obbligo di disclosure potrebbe risultare di scarsa utilità pratica alla luce dell’elevata tecnicità dei documenti oggetto dello stesso. Inoltre, non è chiaro come verrà affrontato il requisito secondo cui il ricorrente deve fornire elementi volti a dimostrare la plausibilità della sua pretesa, o se la presunzione si applichi in caso di violazione dell’obbligo di formazione sull’IA (la c.d. AI literacy), ad esempio se un dipendente non adeguatamente formato causasse un danno; e
- La presunzione di causalità risulta di difficile attivazione, posto che per ottenerla il ricorrente dovrebbe comunque dimostrare, tra gli altri, la colpa del danneggiante e il danno stesso.
In ogni caso, pur riconoscendo i limiti insiti nella proposta, lo Studio non si sbilancia fino a proporre una presunzione di colpa che avrebbe effetti dirompenti sull’innovazione nel territorio dell’Unione.
Da direttiva a regolamento?
Infine, lo Studio valuta l’opportunità di trasformare l’AILD da direttiva a regolamento. Questo cambiamento, già avviato e solidificato in altri settori, garantirebbe un’applicazione uniforme delle norme in tutta l’UE, evitando le discrepanze che deriverebbero dal recepimento nazionale della Direttiva. Ciò è particolarmente vero se si considera che l’AILD persegue un livello di armonizzazione minima, lasciando margini di implementazione agli Stati membri che potrebbero dunque introdurre norme più specifiche. Pur in presenza dell’AI Act, si sarebbe dunque esposti a possibili differenze di trattamento sotto il profilo della responsabilità civile.
Conclusioni:
Lo Studio sottolinea l’importanza di un quadro di responsabilità per l’IA chiaro, coerente ed efficace, al fine di garantire agli operatori una normativa unitaria in tutta l’UE e ai cittadini un ristoro efficace nel caso in subiscano un danno causato dall’IA. In questa ottica, le osservazioni contenute nello Studio costituiscono uno spunto importante in vista dello sviluppo della direttiva che siede attualmente in uno stato di attesa dopo la sua proposta avvenuta ormai quasi due anni fa. Infatti, laddove venisse seguita la proposta di adottare un regolamento, vi sarebbe anche il concreto rischio che la stessa venga ritirata.
Su un argomento simile può essere di interesse l’articolo “La responsabilità di sviluppatori e produttori di software AI secondo la Direttiva sul risarcimento dei danni da prodotti difettosi”.
Autore: Federico Toscani
Data Protection & Cybersecurity
AI e GDPR: L’AG della CGUE sul bilanciamento tra la divulgazione delle decisioni automatizzate e i segreti commerciali
Il recente parere dell’Avvocato generale della Corte di giustizia europea (CGUE) nella causa C-203/22 rappresenta un importante sviluppo per quanto riguarda il modo in cui le aziende che utilizzano l’intelligenza artificiale (AI) possono bilanciare la trasparenza delle decisioni automatizzate con la protezione dei segreti commerciali, rispettando al contempo i requisiti del GDPR.
Il caso GDPR sulla decisione automatizzata e la sua rilevanza per l’AI
Nel caso in questione, a un cittadino austriaco è stato negato un contratto di telefonia mobile a seguito di un controllo automatizzato del credito condotto da un’azienda. La decisione è stata completamente automatizzata, senza alcun intervento umano. Il soggetto ha cercato di capire come sono stati trattati i suoi dati personali e la logica alla base della decisione automatizzata che l’ha riguardato. Tuttavia, l’azienda si è rifiutata di rivelare i dettagli critici, adducendo il proprio algoritmo come segreto commerciale protetto ai sensi della direttiva (UE) 2016/943.
L’intervento della CGUE ha richiamato l’attenzione su due questioni fondamentali:
- Trasparenza ai sensi del GDPR: quanti dettagli sulle decisioni guidate dall’AI devono essere divulgati dalle aziende agli interessati?
- Protezione dei segreti commerciali: Le aziende possono rifiutarsi di rivelare i dettagli dei loro algoritmi di AI invocando la protezione del segreto commerciale?
Il parere dell’Avvocato generale fornisce importanti indicazioni su come queste questioni si intersecano e hanno un impatto sullo sviluppo e sull’impiego delle tecnologie di AI.
AI e GDPR: Il diritto alla trasparenza
Ai sensi dell’articolo 22 del GDPR, le persone hanno il diritto di non essere sottoposte a decisioni basate esclusivamente sul trattamento automatizzato, compresa la profilazione, qualora tali decisioni abbiano implicazioni legali o personali significative. Questa disposizione è particolarmente rilevante per i sistemi di intelligenza artificiale, che spesso prendono decisioni autonome senza la supervisione umana. Inoltre, l’articolo 15, paragrafo 1, lettera h), del GDPR garantisce alle persone il diritto di ricevere “informazioni significative” sulla logica alla base della decisione automatizzata (come una decisione di AI) che le riguarda.
Per gli sviluppatori di AI, ciò significa che la trasparenza non è facoltativa: le persone devono ricevere informazioni sufficienti per capire come vengono trattati i loro dati personali e come vengono prese le decisioni guidate dall’AI. Il parere ha chiarito che ciò non significa necessariamente divulgare tutti i dettagli tecnici di un algoritmo, ma piuttosto fornire informazioni chiare e comprensibili sul funzionamento su:
- i principali fattori che hanno influenzato la decisione.
- il peso di tali fattori.
- l’esito della decisione.
Ad esempio, se un sistema di intelligenza artificiale valuta l’affidabilità creditizia, l’azienda deve spiegare quali tipi di dati (come il reddito o lo storico dei pagamenti) sono stati utilizzati, come sono stati ponderati tali fattori e come hanno portato alla decisione finale. Questa spiegazione deve essere accessibile e sufficientemente chiara da essere compresa da una persona comune.
Il ruolo dei segreti commerciali nell’AI
Molte aziende che utilizzano l’Ai considerano i loro algoritmi come segreti commerciali proprietari che conferiscono loro un vantaggio competitivo. Il parere dell’Avvocato Generale della CGUE riconosce l’importanza di proteggere i segreti commerciali, ma sottolinea che i segreti commerciali non possono essere utilizzati come uno scudo onnicomprensivo per evitare gli obblighi di trasparenza previsti dal GDPR.
L’Avvocato Generale ha invece suggerito che le aziende devono trovare un equilibrio:
- Le aziende dovrebbero fornire spiegazioni generali sul funzionamento dei loro sistemi di AI senza divulgare algoritmi proprietari dettagliati.
- Le autorità di regolamentazione o i tribunali possono intervenire per garantire che le aziende forniscano sufficiente trasparenza, proteggendo al contempo la proprietà intellettuale.
Ciò costituisce un precedente per gli sviluppatori di AI, segnalando che la protezione del segreto commerciale, pur rimanendo importante, non può prevalere sul diritto degli individui di capire come vengono prese le decisioni sull’AI.
Implicazioni per lo sviluppo e la diffusione dell’AI
Il parere dell’avvocato generale della CGUE ha implicazioni significative per le aziende e i settori che si affidano all’IA per il processo decisionale, in particolare in aree come la finanza, la sanità, le assicurazioni e le assunzioni, dove l’IA viene spesso utilizzata per prendere decisioni con un impatto sulla persona significativo.
I punti chiave includono:
- L’AI spiegabile non è negoziabile: Le organizzazioni devono garantire che i loro sistemi di AI siano non solo accurati, ma anche spiegabili. Le persone interessate dalle decisioni sull’AI hanno il diritto di ricevere spiegazioni chiare e le aziende devono essere pronte a fornirle.
- Bilanciare innovazione e conformità: Gli sviluppatori di AI devono essere strategici nel proteggere i loro segreti commerciali, garantendo al contempo la conformità agli obblighi di trasparenza previsti dal GDPR. Devono concentrarsi su un livello di trasparenza generale - divulgando quanto basta per consentire alle persone di comprendere le decisioni, senza rivelare il funzionamento interno dei loro sistemi proprietari.
- Creare fiducia nell’AI: questa sentenza rafforza l’idea che la trasparenza è fondamentale per creare fiducia nei sistemi di AI. Gli individui sono più propensi a fidarsi delle decisioni basate sull’AI se possono capire come vengono utilizzati i loro dati e come vengono prese le decisioni.
- Supervisione normativa: È probabile che il coinvolgimento delle autorità di regolamentazione in caso di controversie diventi sempre più comune. Man mano che i sistemi di AI diventano più complessi, i tribunali potrebbero sempre più fungere da arbitro nel bilanciare la trasparenza e la protezione dei segreti commerciali.
Il futuro dell’AI e della privacy
Poiché l’AI continua a evolversi e a svolgere un ruolo centrale nel processo decisionale, per le aziende sarà fondamentale garantire la conformità al GDPR. Il parere dell’Avvocato generale della CGUE nella causa C-203/22 fornisce indicazioni preziose su come le aziende possono raggiungere questo equilibrio. Le organizzazioni devono dare priorità alla creazione di sistemi di AI che non siano solo potenti ed efficienti, ma anche trasparenti, equi e rispettosi dei diritti individuali.
Questo adempimento è ulteriormente amplificato dagli obblighi derivanti dall’AI Act, che si basa sugli stessi principi di trasparenza e supervisione umana. Per saperne di più sull’AI Act può essere d’interesse “Cosa sapere sull’AI Act e sulle sue principali questioni legali?”.
Autore: Giulio Coraggio
Intellectual Property
WIPO pubblica la classifica dei 100 principali clusters S&T: Cina, USA ed Europa al Top, ma economie emergenti in rapida ascesa
Nel più ampio quadro del Global Innovation Index (GII) - la cui edizione 2024 verrà pubblicata il prossimo 26 settembre- al fine di individuare quali siano i sistemi economici maggiormente influenti a livello mondiale, si manifesta di fondamentale importanza il “Top 100 science and technology (S&T) clusters ranking”, già reso pubblico in anteprima. La classifica in parola permette di rilevare le aree geografiche-che prendono il nome di clusters- con la più elevata presenza di autori e inventori operanti nel settore tecnologico e scientifico.
I fattori presi in considerazione per la stesura della classifica dei primi cento clusters globali sono due: la provenienza geografica degli inventori che compaiono nelle domande di brevetto depositate secondo il WIPO Patent Cooperation Treaty e l’origine degli autori dei principali articoli scientifici pubblicati nel corso dell’anno. Entrambi i criteri in parola costituiscono d’altronde un indiscutibile indice di innovazione.
Analizzando i risultati registrati nel 2024, vi è poca sorpresa nel constatare una tendenziale conferma degli esiti ottenuti nell’anno precedente: salgono sul podio Cina (con 26 clusters), USA (20 clusters) ed Europa (in particolare la Germania, con 8 clusters). Ciò che è interessante notare, invece, è che non sempre al maggior sviluppo tecnico e scientifico di alcuni Paesi ha fatto seguito un buon posizionamento nella classifica in esame. Al contrario, si può notare come i clusters delle economie ad alto reddito abbiano seguìto un ritmo più lento rispetto alle economie a medio reddito. Il motivo di un simile esito va ricercato nel ritmo con cui l’innovazione si espande, lento nei Paesi più sviluppati, estremamente veloce in quelli in via di sviluppo. Di conseguenza, non stupisce come tra i primi cento classificati, oltre alla Cina, compaiano altre sette economie a medio reddito, tra le quali spicca l’Egitto, unico cluster africano per quanto concerne il settore scienza e tecnologia.
Da ultimo, il GII consente di scattare una diapositiva che ritrae il tipo di innovazione rilevabile nei vari clusters. Così, è possibile osservare come i clusters africani siano incentrati sulla pubblicazione di articoli scientifici più che sull’attività brevettuale e come la stessa tendenza sia tipica di altre economie in via di sviluppo. D’altro canto, nei Paesi maggiormente industrializzati, l’innovazione si fa largo tanto attraverso le pubblicazioni, quanto attraverso i brevetti.
Su un argomento simile può essere di interesse l’articolo “La WIPO pubblica il suo report annuale sugli IP right nel mondo”.
Autrice: Noemi Canova
Legal Tech
Panoramica dell’evoluzione del mercato LegalTech nel 2024
Nell’ultimo anno il mercato internazionale delle tecnologie legali ha registrato un forte aumento degli investimenti, con miliardi di dollari destinati allo sviluppo di tecnologie legali avanzate. Ad esempio, Clearbrief ha ottenuto 4 milioni di dollari per espandere il suo strumento di scrittura legale basato sull’intelligenza artificiale, portando il suo finanziamento totale a quasi 8 milioni di dollari. Hebbia ha raccolto quasi 100 milioni di dollari in un round di Serie B per il suo strumento di ricerca di documenti potenziato dall’intelligenza artificiale, mentre Hona, sostenuta da Y Combinator, ha ottenuto 9,5 milioni di dollari per affrontare le sfide della comunicazione negli studi legali focalizzati sul diritto dei consumatori. DeepJudge ha ricevuto 10,7 milioni di dollari per migliorare la ricerca legale, mentre Norm AI ha ottenuto 27 milioni di dollari per espandere la sua piattaforma di compliance basata sull’AI. Atticus ha raccolto 5,6 milioni di sterline per migliorare la verifica dei prospetti delle IPO e Harvey, una startup che adatta i Large Language Models di OpenAI al settore legale, ha ottenuto 100 milioni di dollari in un round di Serie C, raggiungendo una valutazione di 1,5 miliardi di dollari.
Nonostante questa impennata di investimenti, sta emergendo il fenomeno dell’“AI washing”, in cui il marketing esagera il ruolo dell’AI in prodotti che spesso si limitano a utilizzare servizi di terze parti senza aggiungere un valore sostanziale (ad esempio, wrapper GPT di base senza un adeguato valore aggiunto). Ciò evidenzia la necessità per le organizzazioni di consultare esperti di Legal Innovation e Legal Tech per selezionare le tecnologie più adatte e investire saggiamente il budget in soluzioni che siano in grado di fornire il ritorno sull’investimento desiderato.
Nelle più recenti soluzioni LegalTech lanciate sul mercato nel 2024, l’IA generativa viene applicata in modo ampio: dalla ricerca legale alla redazione e revisione di documenti legali. Queste tecnologie possono ottimizzare le clausole contrattuali in base all’analisi storica, migliorare la ricerca legale e tenere traccia degli elementi critici nelle trattative. La personalizzazione e l’efficienza dei servizi legali diventano centrali, poiché le aziende richiedono soluzioni rapide e su misura. L’adozione dell’IA generativa consente l’analisi di grandi quantità di dati, l’automazione di attività ripetitive e il miglioramento dell’esperienza del cliente.
Secondo l’Italian Legal Tech Report pubblicato da Legal Tech Italy e Giuffrè, il mercato LegalTech in Italia ha superato i 30 milioni di euro, con circa 89 aziende del settore, in crescita rispetto alle 85 dell’anno precedente. Tuttavia, il mercato rimane di nicchia, con molte aziende ancora in fase di progetto e una piccola percentuale di scale-up. Le barriere principali includono la resistenza culturale al cambiamento e la riluttanza ad adottare nuove tecnologie, spesso per il timore di interrompere i processi consolidati. Il fenomeno dell’intelligenza artificiale accelererà probabilmente l’adozione di LegalTech e attirerà nuovi capitali: il numero e la portata delle conferenze tenute in Italia e incentrate sulle tecnologie legali sono in espansione, come dimostra l’evento Legal Tech Island che si è tenuto a Palermo nel giugno 2024.
Questa crescita sottolinea l’incremento di interesse per il settore LegalTech, favorendo lo scambio di idee e alimentando una comunità innovativa. Nel corso dell’evento di Palermo, ho tenuto un discorso sulla prodottizzazione dei servizi legali. L’entusiasmo e il coinvolgimento dei partecipanti hanno evidenziato che molti avvocati e consulenti legali sono attivamente alla ricerca di metodi pratici per integrare l’IA nelle loro pratiche quotidiane.
In questo senso, stiamo fornendo consulenza a diversi team interni per sviluppare le loro strategie di implementazione dell’IA per la funzione legale. Li aiutiamo a identificare le loro esigenze specifiche, a selezionare gli strumenti di IA appropriati e a creare roadmap dettagliate per un’integrazione senza problemi. Inoltre, forniamo formazione per garantire che il personale utilizzi efficacemente la nuova tecnologia e stabiliamo processi di monitoraggio per ottimizzare le prestazioni. Questo supporto sarà fondamentale per gli studi legali che assistono i loro clienti nel percorso di innovazione e nell’adozione dei progressi tecnologici.
Su un argomento simile può essere di interesse l’articolo “Legal Tech oltre le buzzword: nuove tendenze di mercato e modelli di partnership in arrivo”.
Autore: Tommaso Ricci
Life Sciences
Il TAR del Lazio sospende l’efficacia del Decreto sulla Cannabis
Il 10 settembre 2024, il Tribunale Amministrativo Regionale del Lazio (TAR) ha emesso un’ordinanza con cui ha sospeso l’efficacia del Decreto del Ministero della Salute del 27 giugno 2024 (Decreto) relativo alla commercializzazione della cannabis (CBD). Il Decreto prevedeva l’inserimento delle composizioni per somministrazione ad uso orale di cannabidiolo (CBD) ottenuto da estratti di cannabis nella Tabella dei medicinali, sezione B, del Testo Unico sugli stupefacenti e le sostanze psicotrope (DPR 309/1990).
Tale decisione del TAR giunge al culmine di un lungo e travagliato iter che aveva già portato all’adozione di altri decreti i quali, a loro volta, erano stati prima sospesi e infine abrogati.
1. Ordinanza Cautelare
I giudici hanno accolto l’istanza cautelare presentata da alcune aziende, riconoscendo il rischio di danni economici e patrimoniali che l’immediata applicazione del Decreto avrebbe potuto provocare. L’introduzione del Decreto avrebbe infatti messo a rischio l’intera filiera, dalla produzione alla vendita dei prodotti a base di CBD, generando incertezze legali e potenziali responsabilità penali per gli operatori del settore.
Il TAR, decidendo di mantenere lo status quo fino all’udienza di merito (“res adhuc integra”), ha adottato una misura prudenziale per prevenire la destabilizzazione del mercato del CBD. L’udienza di merito è stata fissata per il 16 dicembre 2024.
Nel frattempo, le aziende possono continuare le loro attività senza essere costrette a rispettare le previsioni del Decreto, anche se permane una situazione di incertezza giuridica che potrebbe influire sulle loro scelte a breve termine.
2. Cannabis e Iter Legislativo
Come già indicato nella newsletter del 18 luglio 2024, il CBD è un composto naturale presente nella pianta di Cannabis sativa L., noto per la sua assenza di effetti psicoattivi rispetto al tetraidrocannabinolo (THC). Questa caratteristica ha stimolato un crescente interesse nel suo utilizzo, portando alla sua inclusione in numerosi prodotti. Nel 2017, l’Organizzazione Mondiale della Sanità ha affermato che il CBD non comporta un rischio significativo di dipendenza o danni alla salute, favorendo così il suo impiego terapeutico e il commercio in numerosi paesi. A conferma di ciò, nel 2020, nella causa C-633/18, la Corte di Giustizia dell’Unione Europea ha dichiarato che, sulla base delle conoscenze scientifiche disponibili, il CBD non ha effetti psicotropi né risulta dannoso per la salute umana.
Ciò nonostante, il percorso legislativo per la regolamentazione del CBD in Italia è stato complesso e segnato da numerosi provvedimenti e revisioni, culminato con l’emanazione del Decreto. Pubblicato sulla Gazzetta Ufficiale del 6 luglio 2024, il Decreto ha segnato la conclusione di un lungo iter normativo avviato nel 2020, abrogando i decreti ministeriali del 1° ottobre 2020, 28 ottobre 2020 e 7 agosto 2023.
Il primo di questi decreti, datato 1° ottobre 2020, aveva aggiornato le tabelle delle sostanze stupefacenti e psicotrope, inserendo il CBD nella sezione B della Tabella dei medicinali, rendendolo soggetto a prescrizione medica non ripetibile (RNR). Tuttavia, l’entrata in vigore del decreto era stata sospesa il 28 ottobre 2020 per permettere ulteriori approfondimenti da parte dell’Istituto Superiore di Sanità e del Consiglio Superiore di Sanità. A seguito di tali approfondimenti, il Ministero della Salute aveva revocato la sospensione precedentemente disposta, emanando un nuovo decreto (decreto del 7 agosto 2023) che confermava l’inclusione del CBD tra le sostanze stupefacenti. Tale decisione era stata immediatamente contestata dall’associazione di categoria “Imprenditori Canapa Italia”, che aveva sollevato dubbi sulla completezza dei pareri scientifici e sulla scarsa chiarezza riguardo agli effetti del CBD, in particolare rispetto alle concentrazioni ammesse. In seguito al ricorso presentato dall’associazione, il TAR aveva sospeso l’efficacia del decreto del 7 agosto 2023, evidenziando lacune nell’istruttoria e l’assenza di una chiara valutazione dei rischi di dipendenza associati all’uso del CBD.
In risposta, il Ministero della Salute ha riaperto l’istruttoria e richiesto ulteriori pareri scientifici, i quali hanno indicato la necessità di includere il CBD nella Tabella B dei medicinali per tutelare la salute pubblica. Sulla base di tali pareri, il Ministero della Salute ha emanato il Decreto. Tuttavia, la recente sospensione dell’efficacia del Decreto da parte del TAR ha riaperto il dibattito, rendendo ancora una volta incerto il futuro normativo del CBD in Italia. La decisione finale - che potrebbe poi passare anche per un successivo grado di giudizio davanti al Consiglio di Stato – sarà fondamentale per stabilire un quadro regolatorio definitivo sull’uso di tale sostanza.
Su un argomento simile può essere di interesse l’articolo “La CGUE si pronuncia sulla commercializzazione del cannabidiolo tra Stati Membri”.
Autori: Nicola Landolfi, Nadia Feola
La rubrica Innovation Law Insights è stata redatta dai professionisti dello studio legale DLA Piper con il coordinamento di Edoardo Bardelli, Carolina Battistella, Carlotta Busani, Giorgia Carneri, Noemi Canova, Maria Rita Cormaci, Camila Crisci, Cristina Criscuoli, Tamara D’Angeli, Chiara D’Onofrio, Federico Maria Di Vizio, Enila Elezi, Nadia Feola, Laura Gastaldi, Vincenzo Giuffré, Nicola Landolfi, Giacomo Lusardi, Valentina Mazza, Lara Mastrangelo, Maria Chiara Meneghetti, Deborah Paracchini, Maria Vittoria Pessina, Tommaso Ricci, Rebecca Rossi, Roxana Smeria, Massimiliano Tiberio, Federico Toscani, Giulia Zappaterra.
Gli articoli in materia di Telecommunications sono a cura di Massimo D’Andrea, Flaminia Perna e Matilde Losa.
Per maggiori informazioni sugli argomenti trattati, è possibile contattare i soci responsabili delle questioni Giulio Coraggio, Marco de Morpurgo, Gualtiero Dragotti, Alessandro Ferrari, Roberto Valenti, Elena Varese, Alessandro Boso Caretta, Ginevra Righini.
Scoprite Prisca AI Compliance, il tool di legal tech sviluppato da DLA Piper per valutare la maturità dei sistemi di intelligenza artificiale rispetto alle principali normative e standard tecnici qui.
È possibile sapere di più su “Transfer”, il tool di legal tech realizzato da DLA Piper per supportare le aziende nella valutazione dei trasferimenti dei dati fuori dello SEE (TIA) qui e consultare una pubblicazione di DLA Piper che illustra la normativa sul Gambling qui, nonché un report che analizza le principali questioni legali derivanti dal metaverso qui, e una guida comparativa delle norme in materia di loot boxes qui.
DLA Piper Studio Legale Tributario Associato tratta i dati personali in conformità con l'informativa sul trattamento dei dati personali disponibile qui.
Qualora non si volesse più ricevere gli Innovation Law Insights o ci si volesse iscrivere alla stessa, è possibile inviare un'email a Silvia Molignani.