Login

Lost your password?
Don't have an account? Sign Up

Il diritto di mettere in guardia

“Siamo dipendenti ed ex dipendenti di aziende leader nel settore dell’IA, e crediamo nel potenziale di questa tecnologia per offrire benefici senza precedenti all’umanità. Tuttavia, conosciamo anche i gravi rischi posti da questi sistemi.”

È con questo monito che alcuni dipendenti di aziende leader nel settore dell’intelligenza artificiale evidenziano i potenziali rischi per la sicurezza dalla rapida diffusione di questa tecnologia.

Operatori di OpenAi, Google e Anthropic rivendicano il diritto di mettere in guardia l’opinione pubblica sui rischi dell’intelligenza artificiale. Molti di loro non possono firmare l’appello apertamente, per non violare il loro contratto di lavoro con clausole che impediscono di parlare dei problemi collegati allo sviluppo dei sistemi di IA a cui hanno lavorato.

Le aziende di IA detengono molte informazioni non pubbliche sui limiti delle loro tecnologie e delle misure di protezione, tuttavia, non sono obbligate a condividerle con organi di controllo e governi e men che meno con la popolazione civile.

Attualmente, solo i dipendenti di queste aziende possono ergersi come giudice morale, supervisionando i fattori critici dello sviluppo dell’IA e segnalando agli amministratori delle società le loro perplessità, sempre che l’organo direttivo voglia affrontare la questione.

Pertanto, chiedono alle aziende, con questa lettera pubblicata sul sito righttowarn.ai, di:

  • non stipulare o applicare alcun accordo che vieti la “denigrazione” o la critica dell’azienda per problemi legati al rischio, né di vendicarsi per le critiche legate al rischio, ostacolando qualsiasi beneficio economico acquisito dal lavoratore;
  • facilitare un processo anonimo e verificabile, per i dipendenti attuali e gli ex dipendenti, volto a sollevare preoccupazioni relative ai rischi dell’IA al Consiglio di amministrazione dell’azienda, alle autorità di regolamentazione e a un’organizzazione indipendente appropriata con competenze pertinenti;
  • sostenere una cultura di critica aperta e consentire ai suoi dipendenti attuali ed ex dipendenti di sollevare dubbi sui rischi relativi alle sue tecnologie al pubblico, al Consiglio di amministrazione dell’azienda, alle autorità di regolamentazione o a un’organizzazione indipendente appropriata con competenze pertinenti, a condizione che i segreti commerciali e altri interessi di proprietà intellettuale siano adeguatamente protetti
  • Non ritorcersi contro gli attuali e gli ex dipendenti che condividono pubblicamente informazioni riservate relative ai rischi dopo che altre procedure sono fallite. Gli operatori accettano che qualsiasi sforzo per segnalare preoccupazioni relative ai rischi debba evitare di divulgare inutilmente informazioni riservate. Pertanto, una volta che esista un processo adeguato per la segnalazione anonima delle preoccupazioni al Consiglio di amministrazione dell’azienda, alle autorità di regolamentazione e a un’appropriata organizzazione indipendente con competenze rilevanti, accettano che le preoccupazioni vengano inizialmente sollevate attraverso tale processo. Tuttavia, fino a quando non esisterà tale procedura, i dipendenti attuali e gli ex dipendenti devono mantenere la libertà di riferire le proprie preoccupazioni al pubblico.

Grazie a questa iniziativa si capisce che il settore dell’intelligenza artificiale è in fermento, ma ancora lontano dalla capacità di essere sufficientemente in equilibrio tra regolamentazione, trasparenza e capacità di affrontare i rischi.

Chi chiede responsabilità etica si scontra con multinazionali guidate da leggi di mercato, mentre chi governa ripete meramente il suo futuro impegno in una regolamentazione efficace (vedi articolo della settimana scorsa sul G7 e IA).

Riusciranno gli impavidi operatori a convincere le grandi aziende della bontà della loro iniziativa? Staremo a vedere.

Condividi su:

Facebook
WhatsApp
Email
Stampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*
*

su Kaire

Articoli correlati

Mai da soli

Omelia del Vescovo Carlo in occasione della celebrazione eucaristica del 10 luglio scorso nell’ambito del Summer Holiday dell’Unitalsi Napoli, presso l’Hotel Re Ferdinando in Ischia Porto Os 10,1-3.7-8.12; Mt 10,1-7

Da discarica abusiva ad area protetta

Come nasce un’oasi WWF Tra i vari progetti dell’associazione WWF finalizzati alla tutela dell’ambiente vi è la ricerca sul territorio italiano di aree illegali di abbandono rifiuti. Le guardie ambientali