Home » Crescono i timori per l’intelligenza artificiale: Germania, Francia, Svezia e Canada esprimono preoccupazioni

Crescono i timori per l’intelligenza artificiale: Germania, Francia, Svezia e Canada esprimono preoccupazioni

by v

I governi di tutto il mondo sono sempre più preoccupati per il vaso di Pandora dell’intelligenza artificiale avanzata che è stato scoperchiato con il rilascio pubblico di ChatGPT da parte di OpenAI. Anche se stanno valutando possibili regolamentazioni, non è chiaro se il genio possa essere costretto a rientrare nella bottiglia.

Martedì scorso, il commissario canadese per la privacy ha dichiarato di stare indagando su ChatGPT, unendosi ai colleghi di una lista crescente di Paesi – tra cui Germania, Francia e Svezia – che hanno espresso preoccupazione per il popolare chatbot, dopo che l’Italia lo ha completamente vietato domenica.

“La tecnologia A.I. e i suoi effetti sulla privacy sono una priorità per il mio ufficio”, ha dichiarato in un comunicato Philippe Dufresne, Commissario per la privacy del Canada. “Dobbiamo stare al passo con i rapidi progressi tecnologici, e questo è uno dei miei obiettivi principali in qualità di Commissario”.

Il divieto dell’Italia è scaturito da un incidente del 20 marzo in cui OpenAI ha riconosciuto un bug nel sistema che ha esposto le informazioni di pagamento e la cronologia delle chat degli utenti. OpenAI ha messo brevemente ChatGPT offline per risolvere il bug.

“Non abbiamo bisogno di un divieto sulle applicazioni di intelligenza artificiale, ma piuttosto di modi per garantire valori come la democrazia e la trasparenza”, ha dichiarato lunedì un portavoce del Ministero dell’Interno tedesco all’agenzia di stampa Handelsblatt.

Ma è possibile vietare software e intelligenza artificiale in un mondo in cui esistono le reti private virtuali (VPN)?

Una VPN è un servizio che consente agli utenti di accedere a Internet in modo sicuro e privato creando una connessione crittografata tra il proprio dispositivo e un server remoto. Questa connessione maschera l’indirizzo IP dell’utente, facendo sembrare che l’accesso a Internet avvenga dalla posizione del server remoto anziché dalla sua posizione reale.

Inoltre, “un divieto di utilizzo dell’IA potrebbe non essere realistico perché ci sono già molti modelli di IA in uso e altri sono in fase di sviluppo”, ha dichiarato a TCN Jake Maymar, vicepresidente di Innovations presso la società di consulenza sull’IA Glimpse Group. “L’unico modo per imporre un divieto alle A.I. sarebbe quello di proibire l’accesso ai computer e alla tecnologia cloud, il che non è una soluzione pratica”.

Il tentativo dell’Italia di vietare la ChatGPT arriva nel contesto di una crescente apprensione per l’impatto che l’intelligenza artificiale avrà sulla privacy e sulla sicurezza dei dati, e per il suo potenziale uso improprio.

Il mese scorso un think tank sull’intelligenza artificiale, il Center for A.I. and Digital Policy, ha presentato un reclamo formale alla Federal Trade Commission statunitense, accusando OpenAI di pratiche ingannevoli e sleali dopo la pubblicazione di una lettera aperta firmata da diversi membri di alto profilo della comunità tecnologica che chiedeva un rallentamento dello sviluppo dell’intelligenza artificiale.

OpenAI ha cercato di rispondere a queste preoccupazioni in un post sul blog del 5 aprile sulla sicurezza dell’IA, in cui ha illustrato l’impegno dell’azienda nella ricerca a lungo termine sulla sicurezza e nella collaborazione con la comunità dell’IA.

OpenAI ha dichiarato di voler migliorare l’accuratezza dei fatti, riducendo la probabilità di “allucinazioni” e proteggendo al contempo la privacy degli utenti e dei bambini, esaminando anche le opzioni di verifica dell’età. “Riconosciamo inoltre che, come ogni tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli”, ha scritto l’azienda.

Il messaggio di OpenAI non è piaciuto ad alcuni, che l’hanno definito un’operazione di facciata che non affronta il rischio esistenziale posto dall’IA”.

Mentre alcuni lanciano l’allarme su ChatGPT, altri sostengono che il problema non è il chatbot, ma piuttosto una questione più ampia relativa all’uso che la società intende farne.

“Questo momento offre l’opportunità di considerare che tipo di società vogliamo essere, quali regole vogliamo applicare a tutti allo stesso modo, con o senza IA, e che tipo di regole economiche servono meglio alla società”, ha dichiarato al TCN Barath Raghavan, professore associato di informatica alla USC Viterbi. “Le migliori risposte politiche non saranno quelle che mirano a specifici meccanismi tecnologici dell’IA di oggi (che saranno rapidamente superati), ma a comportamenti e regole che vorremmo vedere applicati universalmente”.

Related Posts

Leave a Comment