Intelligenza artificiale, in Europa cambia tutto: le nuove regole, uniche al mondo

Nuove regole per l’intelligenza artificiale: l’ Europa fa da capofila

Venerdì 8 dicembre l’Unione Europea ha concluso un accordo sulle prime regole complete, uniche al mondo sull’intelligenza artificiale, aprendo la strada alla supervisione legale della tecnologia AI che dovrebbe strasformare la vita di tutti suscitando timori per i pericoli esistenziali per l’umanità.

Il Parlamento europeo dei 27 paesi membri è riuscito a superare le grandi differenze sui punti controversi, tra cui l’intelligenza artificiale generativa e l’uso da parte della polizia del riconoscimento facciale, per firmare un accordo politico provvisorio per una legge sull’intelligenza artificiale.

“Ottimo!” ha twittato il commissario europeo Thierry Breton poco prima di mezzanotte. “L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale”.

L’inizio di un lungo lavoro tecnico

Il risultato è arrivato dopo una maratona di colloqui a porte chiuse nella scorsa settimana, con la sessione iniziale durata 22 ore prima dell’inizio del secondo turno venerdì mattina.
I funzionari erano sotto pressione per garantire una vittoria politica per la legislazione di punta. I gruppi della società civile, tuttavia, hanno accolto con freddezza la proposta, in attesa dei dettagli tecnici che dovranno essere definiti nelle prossime settimane. Hanno affermato che l’accordo tuttavia non è andato troppo lontano nel proteggere le persone dai danni causati dai sistemi di intelligenza artificiale.

“L’accordo politico di oggi segna l’inizio di un lavoro tecnico importante e necessario sui dettagli cruciali della legge sull’intelligenza artificiale, che ancora mancano”, ha affermato Daniel Friedlaender, capo dell’ufficio europeo della Computer and Communications Industry Association, un gruppo di lobby dell’industria tecnologica. L’UE ha assunto un ruolo di guida nella corsa globale per definire i limiti dell’IA presentando la prima bozza del suo regolamento già nel 2021. Il recente boom dell’intelligenza artificiale generativa, tuttavia, ha spinto i funzionari europei ad affrettarsi ad aggiornare una proposta pronta a fungere da modello. Non solo per l’Europa ma per il mondo intero.

Il Parlamento europeo dovrà ancora votare la legge all’inizio del prossimo anno, ma sarà una formalità, ha detto venerdì scorso all’Associated Press Brando Benifei, un parlamentare italiano che co-guida gli sforzi negoziali dell’organismo.
“È molto, molto bello”, ha detto tramite messaggio di testo dopo che gli era stato chiesto se includeva tutto ciò che voleva. “Ovviamente abbiamo dovuto accettare alcuni compromessi ma nel complesso è andata bene.” L’eventuale legge non entrerà pienamente in vigore prima del 2025, e prevede severe sanzioni pecuniarie per violazioni fino a 35 milioni di euro (38 milioni di dollari) o al 7% del fatturato globale di un’azienda.

Le nuove regole sull’intelligenza artificiale

I sistemi di intelligenza artificiale generativa come ChatGPT di OpenAI sono esplosi in tutto il mondo, stupendo gli utenti con la capacità di produrre testi, foto e canzoni simili a quelli umani, ma sollevando timori sui rischi che la tecnologia in rapido sviluppo comporta per l’occupazione, la privacy, la protezione del copyright e persino la vita umana.

Ora, gli Stati Uniti, il Regno Unito, la Cina e le coalizioni globali come il Gruppo delle 7 principali democrazie sono intervenuti con le proprie proposte per regolamentare l’intelligenza artificiale, anche se devono ancora recuperando terreno rispetto all’Europa.

Norme forti e globali da parte dell’UE “possono costituire un potente esempio per molti governi che prendono in considerazione la regolamentazione”, ha affermato Anu Bradford, professore della Columbia Law School ed esperto di diritto dell’UE e regolamentazione digitale. Altri paesi “potrebbero non copiare tutte le disposizioni ma probabilmente ne emuleranno molti aspetti”. Le società di intelligenza artificiale soggette alle norme dell’UE probabilmente estenderanno alcuni di questi obblighi anche al di fuori del continente, ha affermato. “Dopo tutto, non è efficiente riqualificare modelli separati per mercati diversi”, ha affermato.
L’AI Act è stato originariamente progettato per mitigare i pericoli derivanti da specifiche funzioni dell’IA in base al loro livello di rischio, da basso a inaccettabile. Ma i legislatori hanno spinto per espanderlo ai modelli di base, i sistemi avanzati che sono alla base dei servizi di intelligenza artificiale di uso generale come ChatGPT e il chatbot Bard di Google.

I modelli di fondazione sembravano destinati a rappresentare uno dei maggiori punti critici per l’Europa. Tuttavia, i negoziatori sono riusciti a raggiungere un compromesso provvisorio all’inizio dei colloqui, nonostante l’opposizione guidata dalla Francia, che ha chiesto invece l’autoregolamentazione per aiutare le aziende europee di intelligenza artificiale generativa a competere con i grandi rivali statunitensi, tra cui Microsoft, sostenitrice di OpenAI. Conosciuti anche come modelli linguistici di grandi dimensioni, questi sistemi sono addestrati su vaste quantità di opere scritte e immagini pescate da Internet. Conferiscono ai sistemi di intelligenza artificiale generativa la capacità di creare qualcosa di nuovo, a differenza dell’intelligenza artificiale tradizionale, che elabora i dati e completa le attività utilizzando regole predeterminate.

Le aziende che realizzano modelli di fondazione dovranno redigere la documentazione tecnica, rispettare la normativa europea sul diritto d’autore e dettagliare il contenuto utilizzato per la formazione. I modelli di fondazione più avanzati che pongono “rischi sistemici” saranno sottoposti a un esame più approfondito, compresa la valutazione e la mitigazione di tali rischi, la segnalazione di incidenti gravi, l’attuazione di misure di sicurezza informatica e la segnalazione della loro efficienza energetica.

I ricercatori hanno avvertito che potenti modelli di fondazione, costruiti da una manciata di grandi aziende tecnologiche, potrebbero essere utilizzati per potenziare la disinformazione e la manipolazione online, gli attacchi informatici o la creazione di armi biologiche.Le associazioni per i diritti umani avvertono inoltre che la mancanza di trasparenza sui dati utilizzati per addestrare i modelli comporta rischi per la vita quotidiana perché fungono da strutture di base per gli sviluppatori di software che creano servizi basati sull’intelligenza artificiale.

LEGGI ANCHE ——————————————————————–> L’intelligenza artificiale quanto è rischiosa | Ecco i 4 gradi stilati dall’UE

Scansione facciale e controllo delle frontiere

Quello che è diventato l’argomento più spinoso sono stati i sistemi di sorveglianza con riconoscimento facciale basati sull’intelligenza artificiale e i negoziatori hanno trovato un compromesso dopo un’intensa contrattazione. I legislatori europei volevano un divieto totale dell’uso pubblico della scansione facciale e di altri sistemi di “identificazione biometrica remota” per motivi di privacy. Ma i governi dei paesi membri sono riusciti a negoziare delle esenzioni in modo che le forze dell’ordine potessero utilizzarle per contrastare crimini gravi come lo sfruttamento sessuale dei minori o gli attacchi terroristici.

Le associazioni per i diritti umani hanno inoltra affermato di essere preoccupati per le esenzioni e altre grandi lacune nell’AI Act, inclusa la mancanza di protezione dai sistemi di intelligenza artificiale utilizzati nella migrazione e nel controllo delle frontiere e la possibilità per gli sviluppatori di rinunciare a che i loro sistemi siano classificati come ad alto rischio. “Qualunque sia la vittoria in questi negoziati finali, resta il fatto che nel testo finale rimarranno enormi difetti”, ha affermato Daniel Leufer, analista politico senior presso il gruppo per i diritti digitali Access Now.

Condividi su

Lascia un commento