
AI
L’Unione Europea ha festeggiato l’approvazione all’unanimità dell’AI Act, segnando un importante momento storico e piazzandosi al primo posto nella classifica mondiale delle potenze con un manuale d’istruzioni per domare – o almeno provarci – l’Intelligenza Artificiale. Mentre attendiamo il passaggio formale all’Europarlamento entro aprile, sembra che la partita sia praticamente vinta.
Questo regolamento non è solo l’ennesimo documento burocratico destinato a prendere polvere sugli scaffali dell’UE, ma è la prima grande avventura legislativa che mira a disciplinare l’AI, dettando regole per il suo sviluppo, il lancio sul mercato e il suo utilizzo. L’ambizioso obiettivo è di spingere l’innovazione pur tenendo a bada i possibili rischi per la sicurezza e per i diritti fondamentali dei cittadini.
Vediamo alcuni punti salienti, e no: non sono ispirati a una puntata di Black Mirror.
L’articolo 3 fornisce una definizione legislativa di Intelligenza Artificiale e suona così:
“Il sistema di Intelligenza Artificiale è un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Dopo aver ripreso fiato e decifrato i geroglifici burocratici, possiamo ridurli a tre concetti chiave: autonomia, adattabilità e la capacità di influenzare l’ambiente circostante. Questa trinità punta a distinguere i veri giocatori AI dal resto del mondo software, regolando di fatto solo le tecnologie che possiedono quei determinati requisiti. La Commissione Europea è incaricata di sviluppare delle linee guida per applicare tale definizione, promettendo uno sforzo e un lavoro di continuo aggiornamento, nel tentativo di tenere il passo con le meraviglie (e gli incubi) dei progressi tecnologici.
È il primo punto che definisce il perimetro d’azione del regolamento, determinando quali tecnologie rientrano sotto la giurisdizione e quali no.
L’AI Act si occupa anche di categorizzare i sistemi di AI in base al loro potenziale di creare scompiglio, dai rischi inaccettabili fino a quelli che possiamo ignorare con cauto ottimismo. In pratica, abbiamo una scala che va da “assolutamente no” al “sì, grazie”, organizzata come segue.
Rischio inaccettabile: racchiude gli usi vietati dell’AI per la loro natura pericolosa, sono inclusi i sistemi che possono manipolare il comportamento umano per eludere il libero arbitrio o la sorveglianza di massa. Ad esempio, il social scoring, ampiamente accettato in certi angoli del globo, per l’UE è un grande no. Sottolinea infatti che, senza l’AI, un tale modello (forse distopico) di società non sarebbe concretamente realizzabile.
Alto rischio: qui cadono invece tutti i sistemi che influenzano significativamente la vita delle persone, toccando i diritti fondamentali o la sicurezza personale. Sono compresi tutti gli ambiti critici come l’assistenza sanitaria, il trasporto, il sistema giudiziario e la sorveglianza biometrica. Ad esempio, sono ad alto rischio le pratiche di riconoscimento delle emozioni, il monitoraggio degli studenti durante gli esami o la selezione del personale. Questi algoritmi devono superare una valutazione severa prima di essere immessi sul mercato, con focus su trasparenza, affidabilità e sicurezza dei dati.
Rischio limitato: la parola chiave è trasparenza. Come nel caso di un chatbot, che dovrebbe cortesemente informarci che non è umano. L’obiettivo è di rendere consapevoli gli utenti, affinché possano fare scelte informate.
Rischio minimo o nullo: la buona notizia è che la maggior parte delle applicazioni AI rientra in questa categoria. Queste tecnologie possono operare con poche o nessuna restrizione aggiuntiva, portando avanti la loro missione di migliorare la società.
L’AI Act pone particolare attenzione – come tutti noi d’altronde – all’AI generativa, tra modelli di linguaggio e produttori di contenuti, stabilendo alcuni requisiti specifici per assicurarne un uso sicuro. L’obiettivo è far sì che quando l’AI si mette al lavoro, tutti sappiano chi opera davvero dietro il sipario. Il mantra è sempre lo stesso: trasparenza. Ogni creazione, che sia un articolo potenzialmente candidato al premio Pulitzer o un video degno di Hollywood, dovrebbe portare un badge Made by AI ben visibile. Inoltre, i fornitori devono controllare ed evitare che i loro sistemi diventino involontariamente fabbriche di contenuti illeciti, tramite la valutazione dei rischi e della conformità.
E perché l’innovazione non rimanga un castello di carte, l’AI Act gioca una carta vincente a favore delle startup e delle PMI, introducendo strumenti come gli spazi di sperimentazione normativa. Questi spazi – chiamati anche sandbox – devono materializzarsi sul territorio UE entro due anni, tramite le autorità locali che hanno vinto la delega per i controlli.
Le sandbox sono ambienti, fisici o virtuali, dove le novità tecnologiche possono fare il loro debutto sotto l’occhio vigile, ma benevolo, delle autorità. Una sorta di talent show per l’innovazione, dove le idee più promettenti ricevono il lasciapassare per il mondo reale. Questi spazi di prova offrono alle menti creative un terreno sicuro per testare le loro invenzioni, dialogando direttamente con chi tiene in mano le redini della regolamentazione. Così facendo, l’AI Act non solo pone dei limiti, ma promuove un ambiente di sviluppo collaborativo e l’innovazione responsabile.
Per le aziende si tratta di una doppia sfida e opportunità. Da una parte, c’è l’impellente necessità di rivedere le strategie di sviluppo e impiego dell’AI per allinearle ai dettami europei. Dall’altra, offre una chiara roadmap per l’evoluzione etica, permettendo alle imprese europee di posizionarsi come leader nello sviluppo di soluzioni sicure e di definire gli standard globali.
Un delicato equilibrio tra dovere e ambizione.
Ma, c’è un capitolo nel discorso sull’AI che infervora tanto il pubblico digitale quanto quello analogico e su cui, ahimè, l’AI Act sembra passare in punta di piedi: il diritto d’autore e il copyright.
La paternità delle opere generate dall’Intelligenza Artificiale è un argomento che mi ha già visto sproloquiare in passato, qui un excursus sul rapporto tra AI, arte e autore. Tuttavia, nonostante le ampie discussioni, il regolamento non si spinge oltre, lasciando la questione della protezione di queste opere in balia delle interpretazioni delle leggi nazionali già in vigore.
Il nocciolo della questione è stabilire se e come queste opere possono rientrare sotto l’ombrello della tutela dei diritti d’autore. Qui le acque si fanno torbide. È un aspetto intricato che dipende strettamente dall’input umano nel processo creativo, dall’output generato dall’AI e dalle variegate legislazioni di ogni paese, senza dimenticare che talvolta il verdetto finale può dipendere dall’intervento di un giudice.
A preoccupare maggiormente gli scettici quanto gli ottimisti, è il copyright delle opere utilizzate per l’addestramento dell’Intelligenza Artificiale. Qui si apre un vero e proprio vaso di Pandora legato all’obbligo di trasparenza e alla difficoltà di identificare i titolari dei diritti in assenza di un database universale. L’incertezza regna sovrana, complicando sia la mappatura dei titolari dei diritti che l’acquisizione delle necessarie autorizzazioni.
Nel frattempo, potrebbero venirci in soccorso alcuni dibattiti work in progress sulla remunerazione per l’uso di contenuti coperti da copyright nei cervelli elettronici. L’AI Act, con tutte le sue buone intenzioni, lascia queste acque agitate senza un faro guida, spingendo di fatto la questione nelle arene pratiche, dove i fornitori di AI e i detentori di diritti si trovano a negoziare terreni comuni.
Ci potrà forse rispondere la causa intentata da Getty Images contro Stability AI?
Tra Inghilterra e Stati Uniti, la mamma di Stable Diffusion è accusata di aver nutrito la sua AI con immagini di Getty senza autorizzazione preventiva. Di recente, un tribunale federale del Delaware ha rifiutato la richiesta di Stability AI di respingere le accuse di violazione del copyright. Questa decisione potrebbe indicare il riconoscimento delle rivendicazioni di Getty Images. Allo stesso tempo, nel Regno Unito, l’Alta Corte si è rifiutata di liquidare la faccenda con il giudizio sommario, richiesto da Stability AI, avviandosi verso il processo completo. Questa decisione, conferma che è necessario un esame approfondito per esplorare tutte le sfumature del diritto d’autore nel contesto di addestramento e sviluppo dell’Intelligenza Artificiale. La novità e la complessità dell’argomento segnalano che la strada per una comprensione giuridica completa è ancora lunga.
Questi processi non sono solo un termometro dell’attuale clima legale, ma anche un preludio di come potrebbe evolversi il panorama del copyright in relazione all’avanzamento tecnologico.
La definizione di questi casi, come di altri, potrebbe diventare un punto di riferimento essenziale per navigare nelle tecnologie emergenti.
Peccato che toccherà alle company private, i colossi armati di mezzi e ambizioni, disegnare le regole del gioco in questo spazio inesplorato, lasciando intravedere un futuro in cui la regolamentazione rischia di essere più una conquista di chi detiene il potere tecnologico, piuttosto che l’espressione della volontà legislativa.