Login

Lost your password?
Don't have an account? Sign Up

La regolamentazione dell’IA: un passo necessario verso un futuro etico

Il rischio è un concetto intrinsecamente legato all’intelligenza artificiale. A seconda delle applicazioni, l’IA può portare a conseguenze positive o negative, con un impatto significativo sulla società.

Più di qualcuno, mi ha chiesto un approfondimento sui livelli di rischio dell’IA e perché sono stati classificati in tal modo.

Prima di tutto credo che la Commissione che ha portato avanti il disegno di legge, si sia concentrata sulla tecnologia che può nuocere maggiormente all’uomo, stabilendo via via il grado di rischio e classificazione.

Inoltre, la legge si rivolge principalmente alle aziende che sviluppano l’intelligenza artificiale e alle aziende o enti che utilizzano questa tecnologia. Tra le numerose leggi che vengono promosse in materia, è la prima che prende in considerazione il fattore etico a livello mondiale.

Livelli di rischio basso

Al contrario della legge voglio partire dal livello più basso, quello definito minimo o nullo. In questa categoria vengono inseriti i videogiochi che utilizzano sistemi di IA per creare competizione e i semplici servizi di antispam per difendere i nostri sistemi di messaggistica da contatti indiscriminati.

A seguire troviamo il livello di rischio limitato: questo livello agisce su sistemi che presentano rischi limitati per i diritti fondamentali e che sono generalmente in ambienti controllati. Tra questi troviamo i chatbot dei servizi di assistenza clienti, oppure i sistemi di raccomandazione utilizzati nei servizi di streaming.

Tutti questi servizi coadiuvati dall’intelligenza artificiale, non rappresentano una seria minaccia per l’uomo, salvo qualche volta far perdere la pazienza: quante volte è capitato di iniziare una lunga conversazione con il chatbot di un operatore telefonico, per poi ricevere la risposta che bisogna parlare con un operatore umano?

Livelli di rischio elevato

Ora prendiamo in considerazione i livelli di rischio che interessano maggiormente la sicurezza pubblica.

Nel livello di rischio elevato troviamo tutti i sistemi di IA che possono porre un rischio significativo per la salute, la sicurezza, i diritti fondamentali o la proprietà delle persone. Nello specifico parlo dei sistemi utilizzati in ambito sanitario per la diagnosi medica, i sistemi utilizzati nei processi decisionali relativi all’accesso al credito e i sistemi utilizzati nei sistemi di gestione delle risorse umane per la selezione del personale.

Nell’AI Act, questi sistemi saranno soggetti a requisiti molto stringenti, come la valutazione della conformità da parte di enti terzi, la trasparenza sull’algoritmo utilizzato e la garanzia di un adeguato livello di controllo umano.

Di fatto è impensabile affidare a un sistema di IA la scelta se assegnare o meno una cura a un paziente con particolari esigenze. Oppure precludere la possibilità di accedere a particolari forme di credito o impiego, in base a soli dati informativi.

Questo livello di rischio obbligherà le aziende che ne fanno uso ad avere una certificazione per il sistema IA utilizzato, oltre a impiegare personale qualificato da interpellare in caso di reclami.

Livello di rischio inaccettabile

L’ultima tappa del nostro viaggio nei livelli di rischio è il campo minato del rischio inaccettabile.

Qui troviamo:

  • Sistemi che manipolano il comportamento umano per causare danni o sofferenza fisica o psicologica, come i giocattoli intelligenti che incoraggiano comportamenti pericolosi nei bambini;
  • Sistemi che consentono la sorveglianza di massa in tempo reale in spazi accessibili al pubblico;
  • Sistemi che sfruttano le vulnerabilità di gruppi specifici, come i sistemi di punteggio sociale che discriminano sulla base di caratteristiche personali.

Mentre per i primi due punti può essere chiaro perché l’AI Act considera quei sistemi come inaccettabili, sul terzo punto è doveroso ampliare il concetto di punteggio sociale.

Cos’è il punteggio sociale

In sostanza, il punteggio sociale è un sistema di classificazione individuale basato su dati personali raccolti da varie fonti, come i social media, le transazioni finanziarie e i dati governativi. Questo punteggio viene poi utilizzato per valutare la “affidabilità” di un individuo, influenzando l’accesso a servizi, opportunità di lavoro e persino relazioni sociali.

Perché è considerato un rischio inaccettabile? Principalmente per le seguenti ragioni:

Violazione dei diritti fondamentali come uguaglianza e non discriminazione: Il punteggio sociale può generare insiemi di individui sulla base di fattori come la loro origine etnica, le loro opinioni politiche o la loro situazione socioeconomica. Appartenere ad un particolare insieme può tradursi con l’accesso o meno a posizioni lavorative, a particolari forme di agevolazioni, o altro.

Mancanza di trasparenza: I sistemi di punteggio sociale operano in modo opaco, rendendo difficile per gli individui comprendere come il loro punteggio viene calcolato e quali dati vengono utilizzati.

Rischio di manipolazione: I sistemi di punteggio sociale possono essere facilmente manipolati per scopi politici o commerciali, creando una società in cui le persone sono costantemente sorvegliate e incentivate a conformarsi a determinati comportamenti. Di fatto limitando costantemente la libertà e la propria sfera privata.

Perpetuazione delle disuguaglianze: Il punteggio sociale può perpetuare e amplificare le disuguaglianze esistenti, creando una società a due velocità in cui le persone con un punteggio alto hanno accesso a maggiori opportunità, mentre quelle con un punteggio basso sono marginalizzate.

Un sistema di punteggio sociale può creare una società in cui le persone sono costantemente giudicate e valutate, portando a una perdita di fiducia reciproca e a un clima di sospetto.

Su quest’ultimo livello di rischio l’AI Act è stato particolarmente incisivo, tanto da mettere il divieto su questi sistemi di IA entro i prossimi sei mesi, con ingenti sanzioni per chi ne farà ancora utilizzo.

Conclusioni

La classificazione dei sistemi di IA in base al livello di rischio è fondamentale per garantire che l’innovazione nell’ambito dell’intelligenza artificiale avvenga in modo responsabile e sicuro. Questa classificazione permette di adottare misure di regolamentazione proporzionate al rischio effettivo, evitando di soffocare l’innovazione con regole troppo stringenti per sistemi a basso rischio, e al contempo proteggendo i cittadini dai rischi associati all’utilizzo di sistemi ad alto rischio.

Condividi su:

Facebook
WhatsApp
Email
Stampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*
*

su Kaire

Articoli correlati

Sentirsi riconosciuti, sentirsi amati

Omelia del Vescovo Carlo, celebrazione eucaristica in occasione della festa di Santa Maria Maddalena, nella omonima parrocchia in Casamicciola Ct 3,1-4a; Gv 20,1-2.11-18 Il Vangelo di Giovanni, che la Liturgia