I rapidi progressi nell’intelligenza artificiale (AI), come ChatGPT basato su Microsoft, stanno ostacolando i tentativi dei governi di concordare leggi che disciplinano l’uso di questa tecnologia.
Ecco gli ultimi passi che le agenzie governative nazionali e internazionali stanno adottando per regolamentare gli strumenti di intelligenza artificiale:
Australia
* Trova le voci per i regolamenti
Un portavoce del ministro dell’Industria e della scienza ha dichiarato ad aprile che il governo si stava consultando con il principale organo consultivo scientifico australiano e stava valutando i prossimi passi.
Gran Bretagna
Regolamento urbanistico
Un portavoce della Financial Conduct Authority, uno dei numerosi regolatori governativi incaricati di stabilire nuove linee guida per l’IA, ha affermato che si sta consultando con l’Alan Turing Institute e altre istituzioni legali e accademiche per comprendere meglio la tecnologia.
Il regolatore della concorrenza britannico ha dichiarato il 4 maggio che inizierà a esaminare l’impatto dell’intelligenza artificiale sui consumatori, le imprese e l’economia e se sono necessari nuovi controlli.
La Gran Bretagna ha affermato a marzo di voler dividere la responsabilità della regolamentazione dell’IA tra le organizzazioni per i diritti umani, la salute e la sicurezza e la concorrenza, piuttosto che creare un nuovo organismo.
Cina
Regolamento urbanistico
L’autorità di regolamentazione del cyberspazio cinese ha presentato ad aprile una bozza di procedure per la regolamentazione dei servizi di intelligenza artificiale generativa, affermando che le aziende devono presentare valutazioni di sicurezza alle autorità prima di rendere pubbliche le loro offerte.
Il Bureau of Economics and Information Technology ha dichiarato a febbraio che Pechino sosterrà le aziende leader nella costruzione di modelli di intelligenza artificiale in grado di sfidare ChatGPT.
Unione Europea
Regolamento urbanistico
Il chief technology officer dell’Unione europea, Margrethe Vestager, ha affermato il 31 maggio che gli Stati Uniti e l’UE dovrebbero sollecitare l’industria dell’intelligenza artificiale ad adottare entro pochi mesi un codice di condotta volontario che fornisca salvaguardie man mano che vengono sviluppate nuove leggi. Vestager ha affermato di ritenere che una bozza potrebbe essere redatta “nelle prossime settimane”, con una proposta finale per l’industria da firmare “molto presto”.
I principali legislatori dell’UE l’11 maggio hanno approvato una bozza di regole più severe per frenare l’intelligenza artificiale generativa e hanno proposto un divieto della sorveglianza facciale. Il Parlamento europeo voterà a giugno il disegno di legge dell’UE sull’intelligenza artificiale.
L’Organizzazione europea dei consumatori (BEUC) si è unita alle preoccupazioni su ChatGPT e altri chatbot basati sull’intelligenza artificiale, invitando le agenzie di protezione dei consumatori dell’UE a indagare sulla tecnologia e sui potenziali danni alle persone.
Francia
* Indagare su possibili violazioni
Il garante della privacy francese CNIL ha dichiarato ad aprile che stava indagando su diversi reclami su ChatGPT dopo che la casella di chat è stata temporaneamente vietata in Italia a causa di sospette violazioni della privacy.
L’Assemblea nazionale francese ha approvato l’uso della videosorveglianza AI alle Olimpiadi di Parigi del 2024 a marzo, nonostante gli avvertimenti dei gruppi per i diritti civili.
G7
* Trova input organizzativi
Riconoscendo la necessità di una governance dell’IA e delle tecnologie immersive, i leader del G7 riuniti a Hiroshima, in Giappone, il 20 maggio hanno concordato di consentire ai ministri di discutere la tecnologia come parte del “Processo AI di Hiroshima” e di finalizzare il rapporto sui risultati nel 2023.
I ministri degli affari digitali del G7 hanno affermato dopo la riunione di aprile in Giappone che i paesi del G7 dovrebbero adottare una regolamentazione basata sul rischio per l’intelligenza artificiale.
Irlanda
* Trova input organizzativi
Il Chief Data Protection Officer irlandese ha dichiarato ad aprile che l’IA generativa deve essere regolamentata, ma che gli organi di governo devono sapere come farlo bene prima di precipitarsi in un divieto che “non regge davvero”.
Israele
* Cerca input normativo
Ziv Katzir, direttore della pianificazione nazionale per l’IA presso l’Autorità israeliana per l’innovazione, ha dichiarato a giugno che Israele ha lavorato alla regolamentazione dell’IA “per circa 18 mesi” per trovare il giusto equilibrio tra innovazione e difesa dei diritti umani e delle garanzie civili.
Israele ha pubblicato a ottobre una bozza di 115 pagine della politica sull’IA e ora sta raccogliendo il feedback del pubblico prima di prendere una decisione definitiva.
Italia
* Indagare su possibili violazioni
Un alto funzionario in Italia ha dichiarato il 22 maggio che l’autorità italiana per la protezione dei dati intende indagare su altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale.
ChatGPT è tornato disponibile per gli utenti in Italia ad aprile, dopo essere stato temporaneamente bandito a marzo a causa delle preoccupazioni dell’autorità nazionale per la protezione dei dati.
Giappone
* Indagare su possibili violazioni
L’autorità di vigilanza sulla privacy del Giappone ha dichiarato il 2 giugno di aver messo in guardia OpenAI dal raccogliere dati sensibili senza il consenso delle persone e di ridurre i dati sensibili che raccoglie, aggiungendo che potrebbe intraprendere ulteriori azioni se solleva preoccupazioni.
Spagna
* Indagare su possibili violazioni
L’agenzia spagnola per la protezione dei dati ha dichiarato ad aprile di aver avviato un’indagine preliminare su possibili violazioni dei dati da parte di ChatGPT. Ha anche chiesto al garante della privacy dell’Unione Europea di valutare i problemi di privacy che circondano ChatGPT.
Stati Uniti d’America.
* Trova input organizzativi
Il 3 maggio il capo della Federal Trade Commission degli Stati Uniti ha dichiarato che l’agenzia vuole utilizzare le leggi esistenti per contrastare alcuni dei rischi dell’intelligenza artificiale, come l’aumento del potere delle aziende dominanti e il “rafforzamento” delle frodi.
Il senatore Michael Bennett ha presentato ad aprile un disegno di legge per creare una task force per rivedere le politiche di intelligenza artificiale degli Stati Uniti e determinare il modo migliore per mitigare le minacce alla privacy, alle libertà civili e al giusto processo.
L’amministrazione Biden ha dichiarato all’inizio di aprile che stava cercando un commento pubblico su potenziali misure di responsabilità per i sistemi di intelligenza artificiale.
“Fanatico della musica. Risolutore di problemi professionale. Lettore. Ninja televisivo pluripremiato.”