L’arrivo di ChatGPT dimostra che dobbiamo prepararci per un futuro in cui l’intelligenza artificiale (AI) svolge un ruolo importante. Questo articolo risponde alle tue domande frequenti.
L’intelligenza artificiale influenzerà l’intera società, e questo è evidente, secondo il professore di Intelligenza Artificiale dell’Università di Utrecht, Mehdi Dastani. “È una ‘tecnologia di sistema’, paragonabile all’elettricità o a un motore a vapore, che influenza l’organizzazione del nostro mondo: il mercato del lavoro, il nostro comportamento e il nostro modo di pensare”.
1. Quali sono i potenziali rischi dell’IA?
Un esempio di come l’intelligenza artificiale stia influenzando il modo in cui pensiamo e ci comportiamo, afferma Dastani, è che le aziende inviano annunci più numerosi e “migliori”. “In questo modo, influenzano ciò che compriamo e come ci sentiamo riguardo alle cose”.
E ci sono anche dei rischi in questo: “Se l’intelligenza artificiale diventa una parte essenziale della nostra vita quotidiana, ne diventeremo dipendenti. Pensa alla velocità con cui siamo diventati dipendenti da tecnologie come i sistemi di navigazione e le applicazioni di traduzione. Ora nuovo le tecnologie – con l’aiuto dell’intelligenza artificiale – vengono sviluppate così rapidamente da non essere adeguatamente testate e valutate. Se iniziamo a usarle collettivamente, diventeremo vulnerabili”.
Lo confermano i ricercatori dell’Institute for Advanced Computer Science (LIACS), Max van Duyn e Tom Koenhoven. “Puoi vedere la nostra debolezza ora, ad esempio, in ChatGPT, un chatbot intelligente. Lo strumento ora è molto popolare. E le persone ci giocano perché lo trovano interessante. Ma questo li fa tendere a ignorare come può essere utilizzato gratuitamente Il ricercatore sospetta che l’azienda dietro ChatGPT voglia principalmente realizzare un profitto a lungo termine. “Attraverso il nostro gioco contribuiamo allo sviluppo dell’abbonamento a pagamento”.
Kouwenhoven menziona un altro pericolo: “Tendiamo ad assumere ciecamente ciò che l’intelligenza artificiale, come ChatGPT, ci sta dando. Questo è rischioso, se non altro perché i dati con cui viene addestrato uno strumento come ChatGPT di solito hanno pochi mesi. Abbiamo quindi davvero bisogno di sviluppare un occhio critico.” per utilizzare questo tipo di strumenti.
chiede oggi
Questo articolo contiene le risposte alle domande inviate tramite EenVandaag Chiede. Con EenVandaag, ti chiediamo di influenzare ciò che facciamo. Vuoi unirti? Quindi scarica l’app EenVandaag Poll, vai su Impostazioni e attiva le notifiche per EenVandaag Chiede. Puoi trovare le domande e le risposte in “Unisciti a noi”. Il sondaggio può essere scaricato gratuitamente da EenVandaag in app Store O Play Store.
2. Come manteniamo il controllo dello sviluppo dell’intelligenza artificiale o siamo già indietro?
“Non siamo in ritardo”, dice il professor Dastani. “Ma gli sviluppi si stanno muovendo molto rapidamente. Ciò è dovuto a tre fattori: in primo luogo, vengono conservati sempre più dati su come pensiamo, come scriviamo e come agiamo. In secondo luogo, i computer stanno diventando più veloci ed economici. E in terzo luogo, ora ci sono centinaia di migliaia di esperti di intelligenza artificiale in tutto il mondo. E le grandi aziende traggono vantaggio da tutte e tre queste cose. Hanno i dati, hanno la potenza di calcolo e i massimi esperti.”
Non c’è niente di sbagliato in questo in sé e per sé, dice Dastani. “Fa parte di un’economia libera”. Ma esperti di tecnologia come Elon Musk hanno messo in guardia in un discorso la scorsa settimana sui pericoli dell’intelligenza artificiale. Chiedono commissioni, legislazione internazionale, marchi di qualità e certificati. Dastani: “Il problema è che le aziende stanno attraversando enormi sviluppi tecnologici, ma legalmente non possiamo stare al passo con loro. Si stanno facendo leggi, ma quel processo è molto più lento degli sviluppi tecnologici”.
Governi e organi legali non hanno alcun controllo sugli sviluppi. Quindi alcuni esperti di tecnologia vogliono fermare le aziende tecnologiche. “Questo, ovviamente, non è nella natura della comunità imprenditoriale, che cerca di ottenere il massimo possibile”, afferma il professore.
3. È realistico preoccuparsi della possibilità che la tecnologia controlli le persone?
È qualcosa che vediamo spesso nei film o nei libri: i robot si liberano dalla gabbia dei programmatori e vanno per la loro strada, ridono van Duygen e Kouwenhoven. Van Duyn: “La domanda è di cosa abbiamo esattamente paura. Penso che sia una paura giustificata che persone o parti con interessi discutibili ci controllino meglio attraverso l’IA e ne facciano un uso improprio. Ma non saremo così veloci da essere completamente dominato da tecnologie autonome.”
Van Duijn ritiene che la tecnologia diventerà più intelligente nel prossimo decennio. “Le tecnologie a volte sono molto intelligenti a volte, ma sono fondamentalmente in un dominio. Penso che il numero di domini aumenterà e si sovrapporrà. Nel prossimo decennio saremo sicuramente stupiti di ciò che la tecnologia può fare, ma fino ad ora le persone sono sempre state intelligenti e si sono dimostrati abbastanza innovativi Per affrontarlo, e anche per aumentare la loro intelligenza con esso.
Alcuni anni fa, il computer di Google ha sconfitto il campione del mondo nel gioco da tavolo Go, un gioco asiatico paragonabile agli scacchi. Il mese scorso sono stati pubblicati articoli scientifici che dimostrano che le persone hanno ora sviluppato tattiche per riconquistare il computer, quindi anche se le persone sono sconfitti, possono andare avanti da soli e trovare nuove soluzioni creative.
4. Possiamo essere sicuri che l’IA stia “dicendo la verità”?
“Questa è davvero una domanda che si pone un nuovo strumento come ChatGPT”, afferma Dastani. “Le persone spesso pensano che le risposte di ChatGPT siano corrette. Ma non deve essere così.”
“La verità è una caratteristica derivata di ChatGPT”, afferma Van Duijn. “Lo strumento è progettato principalmente per creare un nuovo linguaggio nel modo più naturale possibile. E per fungere da utile assistente. Questo non vuol dire che lo strumento faccia tutto, ma la ‘verità’ non è la prima priorità.”
La società dietro ChatGPT si è impegnata a sviluppare sistemi in grado di stimare se una storia è stata scritta o meno da ChatGPT. Ma questi sistemi non esistono ancora. Kouwenhoven: “Puoi chiedere allo strumento quanto è sicuro della risposta, su una scala da 1 a 10, per esempio. Ma se la risposta è ‘corretta’ o meno dipende dai dati su cui è stato addestrato.” Pertanto, il modello stesso non ha alcuna conoscenza di giusto o sbagliato, e stimarlo rimane un lavoro umano.
5. Come fai a sapere da quali fonti l’IA ottiene le sue informazioni e quanto sono affidabili i risultati?
Kouwenhoven e Van Duijn sottolineano che sono state rilasciate pochissime informazioni su ChatGPT. Spiegano che lo strumento prende informazioni da varie fonti e le combina in una risposta. “Lo strumento in sé non sa esattamente da dove l’hai preso. Puoi chiedere da dove provengono le informazioni, ma lo strumento probabilmente cercherà solo la fonte che corrisponde alle informazioni che hai fornito in precedenza, non tanti nomi di posti quanti dove alcune informazioni provengono da “, dice. Van Duijn.
Kouwenhoven: “L’intelligenza artificiale è ovviamente molto più ampia del solo ChatGPT. Ma quanto segue si applica a tutti i sistemi: se i dati inseriti nello strumento non sono corretti, verrà prodotta anche una risposta errata. Non esiste ancora un singolo strumento in grado di sviluppare veramente più dei dati che gli vengono forniti.
Dastani: “Ci sono molti strumenti che fanno collegamenti predittivi tra dati diversi e poi arrivano a una previsione. Ad esempio, se uno strumento riceve dati sul reddito e sul genere, può arrivare alla conclusione che il reddito delle donne è inferiore a quello degli uomini. Potrebbe essere vero, ma potrebbe non essere desiderabile o applicabile in un singolo caso.
6. Qual è un esempio di risultato utile o utile per un’IA?
I vantaggi sono molti, secondo il Prof. Dastani. “L’intelligenza artificiale può svolgere un lavoro che poche persone vogliono fare. E nella scienza può portare a nuove scoperte. L’IA può aiutare nelle scienze mediche, ad esempio, quando viene utilizzata per confrontare le proprietà del DNA con malattie specifiche”.
Al-Dastani afferma che lo sviluppo dell’intelligenza artificiale non è una brutta cosa. “Il problema è che dobbiamo imparare a usarlo. Proprio come con una calcolatrice. Non è un grosso problema, ma abbiamo dovuto capire quali test sono consentiti e quali no.”
“Fanatico della TV. Dipendente del web. Evangelista di viaggi. Aspirante imprenditore. Esploratore dilettante. Scrittore.”