Fatti – I governi sono in competizione per regolamentare gli strumenti di intelligenza artificiale

I rapidi progressi nell’intelligenza artificiale (AI), come ChatGPT basato su Microsoft, stanno ostacolando i tentativi dei governi di concordare leggi che disciplinano l’uso di questa tecnologia.

Ecco gli ultimi passi che le agenzie governative nazionali e internazionali stanno adottando per regolamentare gli strumenti di intelligenza artificiale:

Australia

* Trova le voci per i regolamenti

Un portavoce del ministro dell’Industria e della scienza ha dichiarato ad aprile che il governo si stava consultando con il principale organo consultivo scientifico australiano e stava valutando i prossimi passi.

Gran Bretagna

Regolamento urbanistico

Un portavoce della Financial Conduct Authority, uno dei numerosi regolatori governativi incaricati di stabilire nuove linee guida per l’IA, ha affermato che si sta consultando con l’Alan Turing Institute e altre istituzioni legali e accademiche per comprendere meglio la tecnologia.

Il regolatore della concorrenza britannico ha dichiarato il 4 maggio che inizierà a esaminare l’impatto dell’intelligenza artificiale sui consumatori, le imprese e l’economia e se sono necessari nuovi controlli.

La Gran Bretagna ha affermato a marzo di voler dividere la responsabilità della regolamentazione dell’IA tra le organizzazioni per i diritti umani, la salute e la sicurezza e la concorrenza, piuttosto che creare un nuovo organismo.

Cina

Regolamento urbanistico

L’autorità di regolamentazione del cyberspazio cinese ha presentato ad aprile una bozza di procedure per la regolamentazione dei servizi di intelligenza artificiale generativa, affermando che le aziende devono presentare valutazioni di sicurezza alle autorità prima di rendere pubbliche le loro offerte.

Il Bureau of Economics and Information Technology ha dichiarato a febbraio che Pechino sosterrà le aziende leader nella costruzione di modelli di intelligenza artificiale in grado di sfidare ChatGPT.

Unione Europea

READ  Il Napoli continua la sua serie di vittorie consecutive

Regolamento urbanistico

Il chief technology officer dell’Unione europea, Margrethe Vestager, ha affermato il 31 maggio che gli Stati Uniti e l’UE dovrebbero sollecitare l’industria dell’intelligenza artificiale ad adottare entro pochi mesi un codice di condotta volontario che fornisca salvaguardie man mano che vengono sviluppate nuove leggi. Vestager ha affermato di ritenere che una bozza potrebbe essere redatta “nelle prossime settimane”, con una proposta finale per l’industria da firmare “molto presto”.

I principali legislatori dell’UE l’11 maggio hanno approvato una bozza di regole più severe per frenare l’intelligenza artificiale generativa e hanno proposto un divieto della sorveglianza facciale. Il Parlamento europeo voterà a giugno il disegno di legge dell’UE sull’intelligenza artificiale.

I legislatori dell’Unione Europea hanno raggiunto un accordo provvisorio ad aprile sulla bozza che potrebbe aprire la strada alle prime leggi globali sulla tecnologia al mondo. La protezione del copyright è fondamentale per gli sforzi del blocco per frenare l’intelligenza artificiale.

Il Consiglio europeo per la protezione dei dati, in cui si uniscono i garanti nazionali della privacy in Europa, ha istituito ad aprile una task force per ChatGPT.

L’Organizzazione europea dei consumatori (BEUC) si è unita alle preoccupazioni su ChatGPT e altri chatbot basati sull’intelligenza artificiale, invitando le agenzie di protezione dei consumatori dell’UE a indagare sulla tecnologia e sui potenziali danni alle persone.

Francia

* Indagare su possibili violazioni

Il garante della privacy francese CNIL ha dichiarato ad aprile che stava indagando su diversi reclami su ChatGPT dopo che la casella di chat è stata temporaneamente vietata in Italia a causa di sospette violazioni della privacy.

L’Assemblea nazionale francese ha approvato l’uso della videosorveglianza AI alle Olimpiadi di Parigi del 2024 a marzo, nonostante gli avvertimenti dei gruppi per i diritti civili.

READ  Nonostante l'inaspettata rimonta, i Lions sono stati eliminati...

G7

* Trova input organizzativi

Riconoscendo la necessità di una governance dell’IA e di tecnologie immersive, i leader del G7 riunitisi a Hiroshima, in Giappone, il 20 maggio, hanno concordato che i ministri discutano la tecnologia come “Processo AI di Hiroshima” e riferiscano entro la fine del 2023 per comunicare i risultati.

I ministri degli affari digitali del G7 hanno affermato dopo la riunione di aprile in Giappone che i paesi del G7 dovrebbero adottare una regolamentazione basata sul rischio per l’intelligenza artificiale.

Irlanda

* Trova input organizzativi

Il Chief Data Protection Officer irlandese ha dichiarato ad aprile che l’IA generativa deve essere regolamentata, ma che gli organi di governo devono sapere come farlo bene prima di precipitarsi in un divieto che “non regge davvero”.

Italia

* Indagare su possibili violazioni

L’autorità italiana per la protezione dei dati, il Garante, intende indagare su altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale, ha dichiarato un alto funzionario in Italia il 22 maggio.

ChatGPT è tornato disponibile per gli utenti in Italia ad aprile, dopo essere stato temporaneamente bandito a marzo a causa delle preoccupazioni dell’autorità nazionale per la protezione dei dati.

Giappone

* Indagare su possibili violazioni

L’autorità di vigilanza sulla privacy del Giappone ha dichiarato il 2 giugno di aver messo in guardia OpenAI dal raccogliere dati sensibili senza il consenso delle persone e di ridurre i dati sensibili che raccoglie, aggiungendo che potrebbe intraprendere altre azioni se solleva preoccupazioni.

Spagna

* Indagare su possibili violazioni

L’agenzia spagnola per la protezione dei dati ha dichiarato ad aprile di aver avviato un’indagine preliminare su possibili violazioni dei dati da parte di ChatGPT. L’agenzia ha detto a Reuters ad aprile di aver anche chiesto al garante della privacy dell’Unione Europea di valutare i problemi di privacy relativi a ChatGPT.

READ  I prodotti orticoli minacciano di tornare a essere un mezzo di scambio

Stati Uniti d’America

* Trova input organizzativi

Il capo della Federal Trade Commission degli Stati Uniti ha dichiarato il 3 maggio che l’agenzia vuole utilizzare le leggi esistenti per affrontare alcuni dei rischi dell’intelligenza artificiale, come il crescente potere delle società dominanti e le frodi “turbocompresse”.

Il senatore Michael Bennett ha presentato ad aprile un disegno di legge per creare una task force per rivedere le politiche di intelligenza artificiale degli Stati Uniti e determinare il modo migliore per mitigare le minacce alla privacy, alle libertà civili e al giusto processo.

L’amministrazione Biden aveva affermato all’inizio di aprile che stava cercando un commento pubblico su potenziali misure di responsabilità per i sistemi di intelligenza artificiale.

Il presidente Joe Biden ha anche detto ai consulenti scientifici e tecnologici che mentre l’intelligenza artificiale può aiutare ad affrontare le malattie e il cambiamento climatico, è anche importante affrontare i potenziali rischi per la società, la sicurezza nazionale e l’economia.

We will be happy to hear your thoughts

Leave a reply

TGcomnews24