L’AI Act europeo e il suo impatto sulla creazione di contenuti digitali

L’AI Act europeo e il suo impatto sulla creazione di contenuti digitali

Alberto Maestri Pubblicato il 8/2/2024

Questo articolo è stato pensato e scritto in collaborazione con Federica Morichetti, Copywriter e Content Manager in GreatPixel.

Privacy Policy “fumose”, generazione di contenuti ingannevoli e manipolazione degli utenti: sono tanti i rischi provocati dal repentino sviluppo delle tecnologie di Intelligenza Artificiale (AI).

Per questo motivo l’Unione Europea si è mobilitata nella creazione di un AI Act (ovvero, una vera e propria legge sull’Intelligenza artificiale) con l’obiettivo di definire limiti precisi e arginare i pericoli portati dell’inarrestabile sviluppo di questa tecnologia.

Dalla prima proposta, arrivata dalla Commissione Europea nel 2021, il documento è stato finalmente approvato dal Parlamento Europeo il 13 marzo 2024 ed è iniziato il processo che ne vedrà la messa in vigore. Un passo successivo è stato compiuto il 30 maggio 2024 con la formazione di un nuovo ufficio, l’AI Office, dedicato alla supervisione della messa in atto della legge e composto da 140 esperti del settore.

L’importanza dell’AI Act

Già dalla sua prima proposta, l’AI Act era stato definito il più completo progetto di regolamentazione dei sistemi di Intelligenza Artificiale a livello globale.

Durante il dibattito in plenaria che ha preceduto l’approvazione, il parlamentare europeo e co-responsabile della legge Brando Benifei ha dichiarato:

“siamo finalmente arrivati ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale.”

Una posizione che rende l’Unione Europea un esempio da imitare ma che, allo stesso tempo, comporta tutti i rischi del principiante (o del pioniere, a seconda delle prospettive 😉 ).

Regolamentare un mercato così vasto, multi-sfaccettato e fluido come quello dell’AI non è semplice e richiede un grande sforzo. I legislatori si trovano a dover lavorare nella sfera del probabile, cercando di stare al passo di una tecnologia che cambia molto più rapidamente del tempo necessario per comprenderla.

Basti pensare che, poco dopo l’approvazione della legge, ci sono stati significativi cambiamenti. A Maggio 2024 OpenAI ha generato molto entusiasmo con il suo nuovo modello di punta: GPT-4o. Ancora una volta, l’organizzazione di San Francisco fondata da Elon Musk e Sam Altman, ha consolidato la sua posizione pionieristica nel settore. Il nuovo modello è in grado di elaborare input testuali e audiovisivi dell’utente attraverso un’unica rete neurale, minimizzando la perdita di dati e velocizzando il processo di risposta a 320 millisecondi, pari alla velocità di una conversazione umana.

A chi si rivolge l’AI Act?

Una tematica così complessa richiede una legislatura altrettanto omnicomprensiva e può essere difficile coglierne il succo. Per questo affrontiamo i punti fondamentali del piano europeo per l’AI, che fa parte della più ampia strategia digitale dell’UE

Il punto di partenza, solo apparentemente semplice, è definire cosa si intende per Intelligenza Artificiale. Il regolamento definisce nell’articolo 3 un sistema di AI come:

“un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.” 

Sono quindi interessati dal regolamento tutti i programmi di AI generativa come Google Gemini o la già citata ChatGPT. Infatti, benché le aziende proprietarie siano di origine statunitense, la legge si applica a tutti i “fornitori” (sia pubblici che privati) che offrono servizi di AI nel mercato europeo. Inoltre, sono interessati gli “operatori” – ovvero tutti coloro che utilizzano a livello professionale un sistema di AI sotto la propria autorità, fintanto che l’output sia accessibile all’interno dell’UE. Perciò, anche le aziende che utilizzano contenuti creati tramite AI generativa saranno interessate dalla legge.

Restano esclusi tutti gli utilizzi per scopi militari o di sicurezza nazionale così come la ricerca scientifica e le licenze open source (che vengono tuttavia regolamentate in caso di alto rischio).

I punti salienti dell’AI Act

Il testo applica limiti differenti a seconda del livello di rischio dei diversi sistemi di AI. Vengono quindi definite quattro macro categorie:

  • Sistemi di AI con un livello di rischio inaccettabile. Sono tutte quelle tecnologie che non rispettano i valori fondamentali dell’UE come la dignità umana, la democrazia e lo Stato di diritto. Ciò che rientra in questa categoria viene vietato o sottoposto a rigidissime restrizioni.
  • Sistemi di AI con elevato livello di rischio. Ritenuti in grado di avere un impatto “significativo” sulla tutela dei diritti fondamentali dei cittadini europei. Sono tutti i sistemi di AI utilizzati nella gestione e raccolta di dati sensibili come nel campo della sanità, dell’istruzione, delle forze dell’ordine o delle risorse umane. Sono state incluse in questa categoria tutte le AI generative con potenza di calcolo superiore a 10^25 Flop. A tali tecnologie si applicano severe linee guida riguardanti le modalità di raccolta dei dati, l’informazione degli utenti, la supervisione umana, la valutazione del rischio e molto altro. Dovranno essere certificate e approvate da organismi indipendenti.
  • Sistemi di AI a rischio limitato. Questa categoria comprende la vastità di AI generative utilizzate per scopi personali o per la creazione di contenuti audiovisivi non istituzionali (come ad esempio i chatbot o la generazione di immagini). In questo caso l’obbligo sostanziale è quello di tutela dell’utente che deve essere informato chiaramente di star interagendo con un’intelligenza artificiale. 
  • Sistemi di AI a rischio minimo o nullo. Si tratta, ad esempio, dei filtri fotografici o delle tecnologie utilizzate in campo videoludico. Non si applicano particolari restrizioni ma valgono le generali leggi europee di privacy, tutela del consumatore e diritto d’autore. 

Tuttavia, è facile ipotizzare che queste categorie potrebbero cambiare nei prossimi anni per via di ulteriori sviluppi del settore.

Contenuti generati dall’AI: una questione complessa

Il nuovo testo è certamente un passo in avanti rispetto al passato, ma non fa chiarezza su una questione particolarmente delicata: il diritto d’autore legato a contenuti generati dall’intelligenza artificiale.

Ciò tema solleva diverse questioni. La prima tra tutte riguarda il modo in cui le tecnologie sono “addestrate”. Affinché un sistema di AI generativa possa produrre testi, immagini o audio deve analizzare un’enorme quantità di opere create dall’uomo (data-mining). Questo prevede l’accesso a contenuti coperti da copyright ed è una metodologia da tempo denunciata dagli stessi autori che accusano gli sviluppatori di appropriarsi delle loro creazioni indiscriminatamente.

A tal proposito l’AI Act ha definito delle limitazioni, nell’articolo 105 del provvedimento, per la tutela degli autori. Il testo dichiara che:

“Qualsiasi utilizzo di contenuti protetti da copyright richiede l’autorizzazione del titolare dei diritti interessato, a meno che non si applichino eccezioni e limitazioni relative al copyright.”

Gli autori possono quindi riservarsi il diritto di negare ai sistemi di AI accesso alle proprie opere. Ma cosa succede per quanto riguarda gli output? A chi appartiene davvero un contenuto generato dall’AI?

Purtroppo la questione rimane ancora poco chiara e non esiste una posizione internazionale sul tema. Fino ad oggi sono stati adottati due approcci:

  • Riservare il diritto d’autore alle opere create dall’uomo. È la politica adottata, fra altri, da Stati Uniti e dall’Ufficio europeo dei brevetti (EPO). Secondo quanto stabilito dall’EPO nel dicembre 2021 in seguito a un caso riguardante il sistema di intelligenza artificiale DABUS, affinché un’opera possa essere coperta da diritto d’autore deve essere creata da un umano con capacità legale. 
  • Attribuire l’originalità dell’opera al distributore del sistema di intelligenza artificiale, ovvero gli sviluppatori della tecnologia. Questa è la posizione assunta da Regno Unito, India, Irlanda e Nuova Zelanda. 

Per ovviare questa problematica molte aziende preferiscono modificare in modo significativo i contenuti generati da AI, utilizzandoli solo come traccia e orientamento iniziale. In questo modo sarebbe possibile dimostrare un contributo creativo umano che rende l’opera privata e quindi tutelabile, ma ad ogni modo la questione rimane aperta.

Conclusioni e prospettive future

L’AI Act segna un cambiamento decisamente importante, sia dal punto di vista legale che culturale. Il semplice fatto che esista è sintomo della crescente importanza che queste tecnologie stanno assumendo nella vita quotidiana della popolazione. La regolamentazione dell’Intelligenza Artificiale è una questione che non può essere più rimandata e che sarà sempre più centrale nel dibattito globale

La criticità principale è data dalla natura regionale del provvedimento, specialmente considerando che si tratta di tecnologie non sempre collocabili geograficamente. La natura digitale dell’AI permette a chiunque, da qualsiasi parte del mondo, di utilizzarla, indipendentemente dalla sede dell’azienda produttrice. Pertanto quella dell’AI rimane una questione globale. Inoltre, potrebbero sorgere conflitti di interesse fra i vari paesi interessati, specialmente in presenza di differenze regolamentatorie sostanziali. Proprio per questo gli esperti raccomandano da tempo un approccio universale che coinvolga quanti più interlocutori possibili.

Nonostante ciò, l’AI Act segna comunque un passo in avanti significativo. Se non altro, Il progetto legislativo testimonia la consapevolezza, da parte delle istituzioni europee, del fatto che il progresso dell’AI non possa essere arrestato, ma che al contrario, se messo a servizio dell’uomo, possa apportare considerevoli vantaggi. Come afferma il parlamentare europeo Dragoş Tudorache: “Il futuro sarà alimentato dall’intelligenza artificiale e noi dobbiamo continuare a plasmarlo”.