C’è sempre qualcosa che manca nell’IA

Puoi insegnare a un computer a non mentire a meno che la Gestapo non sia alla porta? E come fa la macchina a sapere che non si tratta di clienti “ordinari”, che nelle società democratiche sono chiamati i tuoi migliori amici?

Bene, dovrebbe essere possibile, afferma il professore di intelligenza artificiale Jan Porsen. In realtà è un esempio molto semplice di eccezione che va oltre la regola generale. “Hai già sistemi di pensiero formali in grado di gestire regole che devi anche essere in grado di infrangere in determinate situazioni. Ci sono esempi più complessi, interi sistemi di regole che interagiscono. Ma in teoria tutto ciò può essere programmato”.

Come questo renda possibili computer “etici”, sistemi automatizzati che imparano a fare le proprie scelte – e ad assumersi la responsabilità – è al centro della ricerca di Broersen, che ha tenuto la sua conferenza inaugurale all’Università di Utrecht alla fine di marzo. Formatosi come matematico a Delft, vuole usare la logica per provare a sviluppare un calcolo morale per i sistemi di intelligenza artificiale.

Questo “ragionamento dionico” (dal greco Debito: ciò che è appropriato o obbligatorio) è molto necessario, ritiene, per una società che utilizza sempre più l’intelligenza artificiale. “Tutti parlano di intelligenza artificiale ed etica, ma quasi nessuno fa qualcosa al riguardo. Almeno, di solito viene trattato come un problema sociale o legale. Vogliamo davvero le auto a guida autonoma sulla strada? Come dovremmo adattarle legalmente? Quando “I produttori si assumono responsabilità?”

Sono tutti molto importanti, dice Broersen, ma perché non guardare se la responsabilità morale può essere programmata negli stessi sistemi di IA? “Voglio sapere: come si fa a far funzionare le teorie esistenti sulla morale e a metterle in una macchina in modo da sapere come affrontare le situazioni in cui le considerazioni morali contano”.

Supponiamo di poter salvare queste 10 persone spingendo l’un l’altro sulle sbarre

Spiega solo, come metti la morale nelle macchine?

“Naturalmente inizia con teorie morali molto diverse. I filosofi lavorano su questo all’infinito. Alcune teorie sono più facili da immaginare di automazione rispetto ad altre. Prendi l’utilitarismo, in un senso approssimativo, l’idea che dovresti fare ciò che produce il massimo beneficio o felicità per come quante più persone possibile. Si tratta di un approccio in qualche modo quantitativo che si può facilmente recepire nel software. Si adatta al modo in cui gli informatici pensano già all’intelligenza: come una procedura per selezionare le azioni da una serie di scelte con uno scopo chiaro”.

Quindi viene visualizzato “problema carrello”. Devi lasciare che un tram in fuga corra verso dieci persone per assicurarti che vengano uccise, o devi passare a un altro binario in cui solo una persona viene uccisa?

“Sì, ci sono molte variabili. Puoi vedere che per molte persone l’utilitarismo è una teoria morale insoddisfacente. La moralità è davvero una semplice aritmetica: dieci vittime o una? Anche le persone fanno la differenza tra non fare nulla e interferire attivamente, come premere un interruttore . Questo ha conseguenze sul modo in cui percepiamo la responsabilità. Supponiamo che tu possa salvare quelle 10 persone spingendo qualcun altro sui binari. Questa è un’altra cosa. Lo sentiamo intuitivamente, e no, il computer no”.

Le regole danno indicazioni, ma devi anche essere in grado di infrangerle a seconda del contesto

Cosa è possibile allora?

“L’aritmetica morale che sostengo non pensa principalmente in termini di risultati desiderati – es: numero minimo di vittime – ma nel seguire le regole. Il comportamento morale è un comportamento orientato alle regole. Quali regole si applicano in una situazione e quale regola dovrebbe avere la precedenza su L’altro? Insegniamo anche ai bambini come comportarsi. Le regole forniscono indicazioni, ma devi anche essere in grado di infrangerle a seconda del contesto. Dovrebbe essere possibile renderlo operativo in un sistema formale. “

Tuttavia, nella tua conferenza di apertura, eri scettico sulla possibilità di una forte intelligenza artificiale, macchine per insegnare l’intelligenza umana “reale”. perché? Ho citato Wittgenstein come supporto. Ma dice anche: seguiamo le regole alla cieca, senza nemmeno pensarci. Anche un computer può farlo, giusto?

Penso che manchi ancora qualcosa, che è la fonte morale. Con noi c’è la mente e la società, che ci rendono entrambi umani. Impariamo e mettiamo alla prova le nostre intuizioni e intuizioni morali l’una contro l’altra, interpretiamo le regole e le differenziamo. Le macchine non ce l’hanno. Puoi programmare molto, ma non queste idee morali.

Non possono anche sviluppare queste cose da soli mentre imparano?

“No, secondo me a un sistema del genere mancherà sempre qualcosa. Siamo ancora noi a decidere come interpretare la regola. Alla fine la macchina non fa altro che seguire le istruzioni che ci inseriamo. Per inciso, questo vale per le macchine che abbiamo usa ora Non si può escludere che sia possibile un giorno Statistica quantitativaAutomazione con approfondimenti dalla meccanica quantistica. Se inizi a capire l’intelligenza e le scelte morali in modo quantitativo, sarà un’altra storia. Ma questo è molto speculativo. Quest’area è aperta e ne capiamo ancora molto poco. Personalmente, non sono determinista e credo che la legge non definisca completamente la realtà. Ma penso che alla fine siamo macchine. Non solo il tipo di macchine che ora chiamiamo computer”.

Quella macchina non capirà cosa fare quando gli altri utenti della strada suonano il clacson

Più pratico: in che modo il ragionamento morale può aiutare le autorità fiscali a prevenire un nuovo scandalo delle indennità?

“Non credo che abbia molto a che fare con l’intelligenza artificiale. Ci sono semplicemente connessioni statistiche fatte in un modo che non riteniamo desiderabile. Inserisci gli stati “Sì/No frode”, e quindi questo computer inizia ad apprendere. Quindi cerca correlazioni tra le caratteristiche delle persone o dei file, ma non è così. Non puoi più disattivarlo. Puoi anche farlo in modo diverso e stabilire in anticipo le regole su come cercherà il computer. Quindi puoi programmarlo in un modo che pesa o non include determinate caratteristiche. Come ora, non sai come impara il sistema e non puoi nemmeno correggerlo. Sì, allora alla Camera dei rappresentanti”.

Un’auto che si guida da sola ha occhi e una memoria che sa scegliere. Non è una forte intelligenza artificiale?

“No, non credo. Questa macchina non può provare emozioni o vedere un significato come noi, non con i nostri computer attuali. Non capirà cosa fare quando gli altri utenti della strada inizieranno a rispondere a un segnale che dice”Suona se sei feliceSu di loro, come puoi vedere in America. Ovviamente puoi programmare qualcosa al suo interno, ma il comportamento sarà comunque diverso. Non ritardato, sì, puoi insegnarglielo.

"Fanatico della musica. Risolutore di problemi professionale. Lettore. Ninja televisivo pluripremiato."

We will be happy to hear your thoughts

Leave a reply

TGcomnews24