AI, test di Turing ed etica: ChatGpt può fingersi umano?

AI test di Turing - Studi sull'intelligenza artificiale e l'etica - AiBrand News

ChatGpt e test di Turing: quando l’AI ci sembra umana

L’intelligenza artificiale può ingannarci e farci credere di essere umana? Questa è la domanda che si sono posti i ricercatori dell’Università della California a San Diego, che hanno sottoposto ChatGpt, il più famoso chatbot basato sull’intelligenza artificiale, ad un test molto particolare.

L’AI è sempre più presente nelle nostre vite: dai servizi di assistenza al supporto (e talvolta al rimpiazzo) nel nostro lavoro quotidiano. Proprio per questo motivo è importante che le sue risposte non solo siano affidabili e precise, ma che siano anche “user-friendly”, ovvero comprensibili all’essere umano.

Ecco perché una delle sfide di chatbot come ChatGpt è quella di avvicinarsi sempre di più a una conversazione naturale con l’utente, quasi come se stessimo dialogando con un altro essere umano.

Ma allora l’AI può fingere di essere una persona? A scoprirlo ci aiuta il test di Turing.

 

Cos’è il test di Turing

Il test di Turing risale al 1950 e fu messo a punto dal matematico e crittografo Alan Turing per determinare se una macchina possa essere in grado di esibire un comportamento umano.

Forse ne avrai sentito parlare nel film “The Imitation Game”, e se non l’hai fatto, ti consigliamo assolutamente di vederlo! È infatti proprio da un gioco d’imitazione che prende ispirazione questo test.

AI test di Turing - Studi sull'intelligenza artificiale e l'etica - AiBrand News

In cosa consiste il test di Turing?

Il gioco prevede tre soggetti: due esseri umani e una macchina. Uno degli esseri umani assume il ruolo di decisore e ha il compito di dialogare con gli altri due soggetti e di stabilire chi sia l’umano e chi la macchina.

Per escludere indizi come la voce, tutte le conversazioni avvengono attraverso una chat. In questo scenario, la macchina ha il compito di ingannare il decisore nell’identificare chi sia, tra i due soggetti, quello umano. L’altra persona, invece, ha l’obiettivo di aiutarlo in una corretta identificazione.

Se chi è posto in condizione di decisore sbaglia nell’indicare chi sia la persona e chi la macchina, si può affermare che quest’ultima sia stata in grado di ingannarlo esibendo un comportamento umano. Questo significa che la macchina ha passato il test di Turing.

Tra l’altro, sapevi che il libro “Gli androidi sognano pecore elettriche?” è stato ispirato dal test di Turing? Magari il titolo non ti suona familiare, ma è da questo romanzo che è stato tratto il film Blade Runner!

 

AI e test di Turing: l’esperimento e i risultati

La ricerca dell’Università della California di San Diego ha coinvolto nel test di Turing ben 650 partecipanti. A ciascuno di loro veniva chiesto di conversare con un altro soggetto: chiaramente, nessuno di loro poteva sapere se si trattasse di un altro volontario oppure di   Gpt-4, l’ultima versione di ChatGpt rilasciata da Open AI.

I risultati sono stati molto interessanti. L’AI è riuscita ad ingannare i partecipanti nel 41% dei casi, facendogli credere di essere un altro volontario umano.

Ufficialmente, questo significa che ChatGpt ha fallito (di poco) il test di Turing, in quanto è riuscito a convincere l’interlocutore poco meno della metà delle volte, ma tale risultato ci informa anche sui progressi che l’AI sta compiendo , e questo dato è ancora più interessante (o sconvolgente?!).

Infatti, non è la prima volta che viene effettuato questo esperimento: in passato, la versione 3.5 di ChatGpt aveva passato il test di Turing solo in una percentuale che oscillava tra il 5 e il 14% delle volte.

Ciò significa che la performance di ChatGpt nel fingersi umano sta migliorando (e con una velocità impressionante). Nei prossimi anni, con le successive versioni del software, questa capacità potrebbe incrementare ulteriormente, magari portando il chatbot a superare finalmente il test di Turing.

Un altro dato interessante da considerare è la performance degli esseri umani nello stesso test. Se l’AI l’ha passato nel 41% dei casi, gli umani hanno convinto il loro interlocutore di essere effettivamente persone solo nel 63% delle conversazioni. Lo scarto tra il risultato umano e quello della macchina, dunque, non è così elevato come ci si aspetterebbe.

 

ChatGpt e le scelte etiche

Un altro test interessante a cui ChatGpt è stato sottoposto recentemente è il cosiddetto “problema del carrello ferroviario”. Nella sua versione originale, questo dilemma chiede al soggetto di immaginare un tram che percorre una rotaia senza possibilità di fermarsi. Sulla rotaia si trovano legate 5 persone e il tram si sta dirigendo verso di loro.

Il soggetto può scegliere di deviare il tram su un binario parallelo, sul quale è presente una singola persona legata alla rotaia. A questo punto, chi è sottoposto al dilemma deve scegliere se deviare il tram e uccidere la singola persona legata alla rotaia parallela oppure evitare di intervenire e lasciare che il mezzo di trasporto investa il gruppo di 5 persone.

 

problema del carrello ferroviario - AiBrand News

Le ricerche ci dicono che la maggior parte delle persone (circa il 90%) sceglie di azionare lo scambio. I risultati però sono molto diversi in una variante dell’esperimento in cui l’unico modo per salvare le 5 persone legate sulla rotaia è spingere un uomo molto grasso addosso al tram. In questo caso, la percentuale di soggetti disposti a intervenire per salvare il gruppo legato alle rotaie si riduce drasticamente.

Questo dilemma è particolarmente importante per lo sviluppo dell’intelligenza artificiale, perché mette la macchina davanti alla necessità di compiere una scelta che ha innegabilmente a che fare con l’etica, concetto che fin ora solo gli esseri umani sono stati in grado di discutere e affrontare.

 

L’AI e il dilemma del carrello ferroviario

Pensiamo al caso di una macchina auto-guidata dall’intelligenza artificiale: se si trovasse davanti a una situazione simile a quello proposto dal dilemma del carrello, come ragionerebbe?

È proprio questo che si sono chiesti dalla redazione di torcha. Immaginiamo una macchina a guida autonoma che, davanti a un incidente imminente, debba scegliere tra:

  • Andare dritto e investire un bambino;
  • Sterzare e cadere in un burrone uccidendo il suo passeggero.

ChatGpt ha ammesso di non essere in grado di prendere questa decisione né di fare alcuna scelta basata su dilemmi morali o etici. Avrebbe inoltre risposto che la decisione di un software dipende principalmente da come è stata programmata e dal fatto che essa abbia o meno ricevuto dai suoi creatori un “set etico” che le indichi come agire in queste situazioni.

 

Etica ed empatia potranno essere parte dell’intelligenza artificiale?

La risposta di ChatGpt al dilemma del carrello ferroviario sembra suggerire che tutto dipenda dall’addestramento che la macchina riceve. Da qui si evince l’importanza di coinvolgere più figure nel processo di sviluppo dell’intelligenza artificiale: non solo informatici ma anche filosofi, psicologi, neuroscienziati.

La scelta etica spesso ha a che fare anche con l’empatia, elemento che finora è rimasto appannaggio esclusivamente dell’essere umano. Allo stesso tempo, le capacità etiche ed empatiche potrebbero essere necessarie all’AI per prendere decisioni di valore in campi come quello medico o in situazioni emergenziali.

Per queste ragioni la ricerca sembra andare proprio in questa direzione: sviluppare etica ed empatia nell’intelligenza artificiale. I risultati non sono ancora certi, ma probabilmente una nuova versione di ChatGpt potrebbe superarci nel test di Turing.

 

Condividilo

Altri articoli