L’intelligenza artificiale quanto è rischiosa | Ecco i 4 gradi stilati dall’UE

L’Intelligenza Artificiale potrebbe essere molto rischiosa, per tutti noi. Forse fin troppo scontato, ma per niente tranquillizzante se si pensa che anche l’Unione Europea ha avanzato le sue prime perplessità nell’aprile scorso, decidendo di regolamentare il modo con cui le aziende del settore utilizzano i nostri dati gettando le basi per una regolamentazione mondiale sulla privacy.

L’Europa non vuole rimanere “fuori” dalla stanza dei bottoni dell’Intelligenza Artificiale che nasce ed ha le sue fondamenta negli Stati Uniti. In questi giorni la presidente della Commissione Ue Ursula von der Leyen nel suo discorso sullo Stato dell’Unione all’Eurocamera ha sottolineato che i computer Ue verranno aperti alle start-up dell’intelligenza artificiale e che “Il terzo pilastro della nostra strategia è guidare l’innovazione in modo responsabile. Grazie ai nostri investimenti degli ultimi anni, l’Europa è diventata leader nel supercalcolo, con 3 dei 5 supercomputer più potenti al mondo. Dobbiamo trarre vantaggio da questa situazione. È per questo che oggi posso annunciare una nuova iniziativa per aprire i nostri computer ad alte prestazioni alle start-up di IA per addestrare i loro modelli”.

L’Intelligenza Artificiale rischiosa e senza controllo

Regolamentate l’AI è necessario perché essa potrebbe rivelarsi molto pericolosa: le sue applicazioni si stanno diffondendo a macchia d’olio in ogni settore e stanno prendendo le redini di ogni nostra attività, che sia creativa o professionale. Ma non solo: l’Intelligenza Artificiale potrebbe influire sulle nostre vite in maniera pesante, arrivando anche a distruggerla completamente. Ma andiamo nel dettaglio.

Intelligenza Artificiale pericolosa – fuorionline.com

Mentre lo scrivo sta già accadendo. L’Intelligenza Artificiale sta già discriminando le persone per il colore della pelle nelle applicazioni sanitarie, sta prendendo decisioni sessiste nel valutare un curriculum e sta già manipolando le persone. Scenari che sono molto meno pacifici e allegri da “l’IA ci aiuta a vivere meglio e ci fa prendere un buon voto a scuola o ci scrive in poco tempo un intero romanzo”. Dietro questa facciata da unicorni e nuvole di zucchero filato, c’è una realtà grigia e terrificante. E non si tratta di cose astratte: stanno succedendo realmente e stanno realmente incidendo negativamente sulla vita di molte persone.

È chiaro che l’industria tecnologica ha la maturità di un bambino di 10 anni: si lancia nei progetti senza cautela, con l’entusiasmo che si ha la notte di Natale nello scartare i regali trovati sotto l’albero. Purtroppo questo è un problema: la vita reale è fatta di uomini e di donne che hanno istinti, pregiudizi, paure. Se l’industria tecnologica non è in grado di autoregolarsi, è necessario che qualcun altro lo faccia per essa. E in questo caso sono le autorità pubbliche, nello specifico per quanto ci riguarda l’UE.

Si chiama The Artificial Intelligence Act ed è una proposta di regolamento sull’Intelligenza Artificiale messa sul tavolo dall’UE con lo scopo di garantire che i sistemi di AI che entrano nel mercato europeo siano “sicuri e rispettino la normativa esistente sui diritti fondamentali e i valori dell’Unione”

I 4 gradi di rischi dell’Intelligenza Artificiale

I primi due pilastri fondamentali del regolamento sono:

  • Classificazione basata sul rischio delle applicazioni di IA
  • Nuovi requisiti per fornitori di sistemi di IA

Ma quali sono questi rischi a cui ci sottopone l’IA? L’Ue gli ha suddivisi in 4 gradi pericolosità: rischio minimo, rischio limitato, rischio elevato e rischio inaccettabile.

Intelligenza artificiale pericolosa – fuorionline.com

Le applicazioni a rischio limitato e minimo sono sistemi di intelligenza artificiale che nel complesso non possono intaccare e danneggiare la vita delle persone. Per esempio un filtro antispam. In realtà questi sistemi non necessitano di leggi specifiche, ma i fornitori sono obbligati a mettere in chiaro che in quel momento gli utenti stanno interagendo con un’IA e sono incoraggiati a stilare il proprio codice etico.

Le applicazioni ad alto rischio riguardano quelli che si insinuano nella nostra vita privata come le applicazioni di riconoscimento facciale in spazi privati o quelli per l’istruzione che vanno a valutare se una persona può essere ammessa o meno all’università, assegnando i punteggi ai candidati. Per quanto riguarda invece il mondo del lavoro sono ad alto rischio quelle applicazioni che vogliono regolare le assunzioni, le promozioni o i licenziamenti o l’accesso ai servizi pubblici, quelli per le forze dell’ordine, quelli che vengono applicati per la gestione delle migrazioni, dell’asilo e per i controlli alle frontiere e anche quelle che gestiscono le infrastrutture sensibili, come la fornitura di acqua, gas ecc.

Se il riconoscimento facciale può venire utile per la sicurezza pubblica o per cercare bambini scomparsi, allo stesso tempo può essere usato per secondi fini e non più in tempo reale. Queste applicazioni continuano ad essere sviluppate e sono già in uso ma necessitano di un maggiore controllo.

Il rischio inaccettabile lo detengono quelle applicazioni che non possono essere vendute nell’UE. Si tratta di sistemi che possono manipolare il comportamento delle persone, sfruttando le sue debolezza. Ci sono alcune applicazioni governative che rientrano in quest’area come il social scoring (quando si dà un punteggio di affidabilità alle persone in base ai loro comportamenti e anche l’uso del riconoscimento facciale ma in questo caso “in tempo reale” e negli spazi pubblici.

Il pericolo è già presente

Gli entusiasti o gente del settore dell’Intelligenza Artificiale temono che le regolamentazioni avanzate dall’UE possano bloccare o rallentare l’innovazione. Si tende a farsi trascinare dalla frenesia di portare avanti certe invenzioni, piuttosto che soffermarsi a riflettere se ciò potrebbe anche causare dei danni.

Intelligenza Artificiale pericolosa – Credits Instagram@tinaeliassi – fuorionline.com

La scienziata statunitense Tina Eliassi-Rad, docente alla Northeastern University di Boston dove studia gli scenari evolutivi dell’intelligenza artificiale e che a giugno si è aggiudicata il riconoscimento internazionale più importante per la scienza dei sistemi complessi e dei dati, considerata a livello internazionale una voce critica sull’Ai, al Sole 24 Ore ha detto che i potenziali pericoli e rischi associati all’uso della tecnologia dell’IA sono già presenti.

Questi includono mancanza di responsabilità, sfruttamento dei lavoratori, ulteriore concentrazione di potere, sorveglianza incontrollata, automazione non regolamentata e cambiamenti climatici avversi. Prendiamo ad esempio il cambiamento climatico. Le grandi aziende tecnologiche non rivelano l’impronta di carbonio della loro tecnologia AI generativa, come ChatGPT di OpenAI.” Tuttavia, le migliori stime suggeriscono che la formazione di ChatGPT ha emesso 500 tonnellate metriche di anidride carbonica, equivalenti a oltre un milione di miglia percorse da un’auto a benzina media. Se avremo molte di queste tecnologie AI generative, il loro contributo ai cambiamenti climatici non potrà essere ignorato.

LEGGI ANCHE ——————————————–> L’ intelligenza artificiale sarà cosciente. Lo studio è avviato

Bisognerebbe ritornare con i piedi per terra ed essere consapevoli del fatto che innovazione non è sempre sinonimo di positività. Alla fine, è davvero necessario avere questo tipo di tecnologia nella nostra vita? Se si, a che prezzo?

Condividi su

Lascia un commento