Al momento stai visualizzando Il nuovo regolamento europeo sull’AI: che cos’è l’Artificial Intelligence Act

Il nuovo regolamento europeo sull’AI: che cos’è l’Artificial Intelligence Act

Il 13 marzo 2024 il Parlamento europeo ha approvato l’Artificial Intelligence Act, il primo regolamento sull’AI al mondo. Se ne parlava da tempo, dopo il clamore che i recenti, rapidissimi sviluppi degli strumenti di intelligenza artificiale hanno suscitato negli ultimi due anni.

ChatGPT è solo la punta dell’iceberg di una sola tipologia di intelligenza artificiale, quella generativa: ce ne sono molte altre, magari meno immediatamente visibili e note ma molto più pervasive e impattanti sulla vita quotidiana delle persone e sul futuro dei singoli e delle società. Per scongiurare e monitorare i rischi in termini di affidabilità, giustizia, trasparenza, obiettività, privacy e sicurezza, l’Unione Europea ha elaborato il pacchetto di regole e divieti che prende il nome di Artificial Intelligence Act. La normativa è frutto di ampie consultazioni tra politica e cittadini, istituzioni accademiche, imprese, ricercatori, rappresentanti della società civile.

Perché un regolamento europeo sull’AI?

Come anticipato, l’intelligenza artificiale è una tecnologia che ha e avrà sempre di più applicazione in ogni ambito della nostra vita, e a ciascuna applicazione corrispondono implicazioni che pongono questioni di natura etica e di sicurezza.

Gli strumenti AI potranno rivoluzionare l’economia, la società, la medicina e la scienza, ma ogni rivoluzione crea un nuovo ecosistema che ha bisogno di nuove regole. Questo vale ancora di più quando alla radice del cambiamento ci sono tecnologie che rischiano di essere poco controllabili e i cui meccanismi di funzionamento non sono ancora del tutto decifrabili.

Se la maggior parte degli utilizzi dell’AI sono sicuri e preziosi per migliorare la vita dell’uomo, ve ne sono infatti alcuni che possono ledere i diritti fondamentali, violare la privacy, mettere in pericolo la vita e la salute, agevolare truffe e altri tipi di reato.

Principali rischi dell’intelligenza artificiale:

  • violazione della privacy e della libertà personale attraverso il rilevamento e la conservazione di dati sensibili e biometrici;
  • discriminazioni nella selezione di risorse umane o nella valutazione dell’idoneità per l’accesso a percorsi di formazione o istruzione;
  • errori fatali nella progettazione e gestione di sistemi di sicurezza, di diagnostica, di logistica;
  • diffusione di informazioni false;
  • mancanza di neutralità nell’amministrazione della giustizia;
  • manipolazione del comportamento umano;
  • molte altre variazioni su questi temi.

La maggior parte dei rischi sono legati alla natura dei set di dati con cui le intelligenze artificiali vengono “educate” e ai meccanismi degli algoritmi su cui si basano, alcuni invece agli strumenti in sé. L’Artificial Intelligence Act ha l’obiettivo di mitigare o evitare i rischi tramite un sistema di controllo e regolamentazione puntuale, ma anche vietando gli strumenti per i quali tale mitigazione del rischio è impossibile. Allo stesso tempo, il regolamento vuole permettere all’Europa di proseguire la ricerca e l’innovazione in campo AI, anzi incentivarle, per sfruttarne i vantaggi in termini di competitività economica e miglioramento del benessere sociale.

Cosa dice il regolamento europeo sull’AI?

Il primo regolamento europeo (nonché mondiale) sull’intelligenza artificiale suddivide i sistemi di AI in tre categorie: ad alto rischio, a rischio limitato, a rischio minimo o nullo.

Gli strumenti ad alto rischio sono considerati una minaccia per la sicurezza e i diritti delle persone, quindi sono soggetti a rigide condizioni o addirittura vietati. Tra questi ci sono tutti i sistemi AI che operano nei seguenti ambiti:

  • Infrastrutture
  • Istruzione
  • Occupazione
  • Sicurezza pubblica
  • Giustizia
  • Sanità
  • Immigrazione

Per le tecnologie applicate in questi settori, il regolamento UE ha stabilito sistemi di valutazione e mitigazione del rischio, criteri stringenti per definire i set di dati che alimentano il sistema, tracciabilità completa delle attività, informazioni dettagliate e trasparenti sui sistemi, misure di supervisione umana, e a monte è necessaria un’autorizzazione da parte di un organo giudiziario o altra autorità indipendente per l’immissione sul mercato e l’utilizzo.

Gli strumenti di AI a rischio limitato sono quelli che manifestano principalmente problemi di trasparenza, per i quali il regolamento ha stabilito l’obbligo di comunicare in modo chiaro quando un contenuto o un software di qualsiasi tipo sono stati realizzati o sono gestiti da un’intelligenza artificiale. Alcuni esempi sono articoli, video, immagini, comunicati stampa, chatbot ecc.

I sistemi AI a rischio minimo o nullo non sono soggetti a regolamentazione e comprendono per esempio i videogiochi.

Crowdfunding e intelligenza artificiale

Gli sforzi dell’Unione Europea di stimolare la ricerca e lo sviluppo in sicurezza dell’intelligenza artificiale derivano dalle grandi opportunità che essa può offrire in termini economici e sociali. Moltissime imprese innovative si basano su tecnologie di intelligenza artificiale che, sebbene siano oggetto di una forte spinta in termini di ricerca e investimenti, possono fare fatica ad affermarsi sul mercato per la quantità di incognite che si portano dietro e l’elevata concorrenza.

Per questo tali progetti innovativi trovano nella finanza alternativa un canale di finanziamento più accessibile e anche più coerente con la propria natura rispetto a quelli tradizionali. Per esempio, attualmente due startup innovative che propongono progetti legati all’AI sono in campagna di equity crowdfunding su Opstart: parliamo di Whp.AI, software di HR data intelligence per ottimizzare i processi legati alla ricerca del personale, e di AIRA, cestino intelligente per la gestione dei rifiuti con tecnologia di riconoscimento degli oggetti.

Per rimanere aggiornato su tutte le novità in ambito fintech continua a seguire il nostro blog!