Un quadro volontario ma strategico per guidare sviluppo, trasparenza e responsabilità nell’era dell’Intelligenza Artificiale in Europa
L’Unione Europea compie un passo decisivo nella regolamentazione dell’intelligenza artificiale con la pubblicazione, il 10 luglio 2025, del General-Purpose AI Code of Practice (Codice di Condotta per le Intelligenze Artificiali a Uso Generale, GPAI). Si tratta di uno strumento volontario, ma ufficialmente riconosciuto, pensato per aiutare i fornitori di modelli di IA a uso generale a conformarsi tempestivamente alle disposizioni del nuovo AI Act, che sono entrati in vigore a partire dal 2 agosto 2025. L’obiettivo è chiaro: garantire che lo sviluppo e l’utilizzo dell’IA avvengano nel rispetto dei diritti fondamentali, della sicurezza e della trasparenza, senza soffocare l’innovazione.
Il Codice si articola in tre sezioni principali: trasparenza, copyright e sicurezza. La parte dedicata alla trasparenza introduce un modello standard di documentazione per i sistemi di intelligenza artificiale, il cosiddetto “Model Documentation Form”, che dovrà includere informazioni dettagliate sull’uso previsto dei modelli, sui loro limiti, sui dati utilizzati per l’addestramento, sulle caratteristiche tecniche, sui consumi energetici e sulle licenze d’uso. L’obiettivo è fornire sia agli utenti finali sia alle autorità di regolamentazione un quadro chiaro e accessibile su come il modello è stato sviluppato e su come deve essere impiegato, consentendo di valutarne correttamente i rischi e le potenzialità.
Un altro aspetto centrale è quello del copyright. Con l’espansione dei modelli generativi, infatti, cresce la preoccupazione per l’uso di dati protetti da diritti d’autore nei processi di addestramento. Il Codice stabilisce che i fornitori debbano assicurarsi che i dati vengano raccolti legalmente, rispettando i segnali tecnici come i file robots.txt, che vietano la raccolta di contenuti e che esistano procedure chiare per gestire eventuali reclami o richieste di rimozione da parte dei titolari dei diritti. Questo punto appare particolarmente delicato, poiché tocca il cuore di una delle questioni più discusse dell’IA: il bilanciamento tra l’accesso ai dati necessario per l’innovazione e la tutela della proprietà intellettuale.
La sezione sulla sicurezza e sulla protezione è forse la più ambiziosa. Si concentra sui modelli definiti “a rischio sistemico”, cioè quelli che, per la loro portata e le loro potenzialità, potrebbero avere impatti significativi sulla società in caso di malfunzionamenti o abusi. Per questi modelli, il Codice introduce obblighi specifici: valutazioni del rischio sistemico, piani di mitigazione, controlli esterni, monitoraggio post-mercato e sistemi di segnalazione per eventuali incidenti gravi. L’intento è quello di prevenire scenari critici, creando una catena di responsabilità chiara e meccanismi di intervento rapidi ed efficaci.
Pur essendo volontario, il Codice GPAI potrebbe rappresentare un vantaggio concreto per i firmatari. Aderire al Codice consentirà, infatti, di ridurre il carico amministrativo e di dimostrare più facilmente la conformità alle nuove norme europee, evitando procedure lunghe e complesse. Chi non vi aderirà dovrà comunque rispettare gli stessi obblighi, ma dovrà dimostrare la propria conformità con modalità autonome e probabilmente più onerose.
Restano alcune criticità. Alcuni sviluppatori segnalano la necessità di chiarire meglio concetti come quello di “rischio sistemico”, definendo criteri tecnici chiari e condivisi per stabilire quando un modello rientri in questa categoria. Altri temono che regole troppo rigide possano rallentare l’innovazione, soprattutto per le piccole e medie imprese che non dispongono delle stesse risorse dei grandi colossi tecnologici. Il dibattito è aperto e la Commissione Europea dovrà trovare un equilibrio tra l’esigenza di regolamentare e la necessità di non soffocare la competitività europea in un settore in rapida evoluzione.
Nonostante queste sfide, il General-Purpose AI Code of Practice rappresenta un passo avanti significativo verso un’intelligenza artificiale più etica, sicura e trasparente. È un primo tentativo concreto di tradurre in prassi i principi enunciati dal AI Act, fornendo a sviluppatori, aziende e autorità un quadro di riferimento condiviso. Un segnale chiaro che l’Europa intende guidare lo sviluppo dell’IA non solo dal punto di vista tecnologico, ma anche da quello etico e sociale, con l’ambizione di coniugare innovazione e diritti, progresso e responsabilità.
https://digital-strategy.ec.europa.eu/it/policies/contents-code-gpai