CHATGPT è autocosciente?

  Michal Kosinski è professore associato di comportamento organizzativo presso la Stanford University. I suoi oggetti di ricerca non sono né persone né animali, ma oggetti che sembrano non avere funzioni psicologiche avanzate, come l'IA.

Cos'è la teoria della mente? Perché studiarlo?

  L'abilità della teoria della mente, a volte tradotta come "capacità di ragionamento psicologico", di solito si riferisce alla capacità di comprendere lo stato interiore degli altri, tra cui inferire le intenzioni, le credenze, le emozioni, ecc.
È una specie di "lettura mentale" che tutti possono fare, ed è la base dell'interazione sociale.

  Immagina, se le due parti della comunicazione non hanno la capacità di speculare sul pensiero degli altri, ci saranno molte risposte sbagliate. Ad esempio, l'intelligenza artificiale utilizzata nella frode delle telecomunicazioni può solo ripetere meccanicamente il corpus pre-set nel database di domande e risposte e ovviamente non ha la capacità della teoria della mente.

  Al contrario, Chatgpt dà alle persone un aspetto molto diverso, il che fa meravigliare le persone quanto sia intelligente.

  È solo che il concetto di intelligenza è troppo complicato per essere studiato. Al contrario, la domanda "AI ha una teoria della mente" è molto più facile da rispondere. Buona risposta per due motivi:

  Uno è che per questo problema, la psicologia ha già avuto un sistema di ricerca maturo e non è necessario creare ulteriori paradigmi sperimentali; L'altro è che CHATGPT, come modello linguistico di grandi dimensioni, può comunicare direttamente in linguaggio naturale ed è anche molto conveniente migrare il sistema sperimentale originale.

Si scopre che l'IA può davvero passare questi compiti!

  Il professor Kosinski ha usato due dei più classici esperimenti di teoria della mente: The Smarties Experiment e l'esperimento Sally -Ann. Lo scopo di questi due compiti è esplorare se i soggetti sperimentali possono capire "gli errori commessi nel cuore di altre persone". Conosciuto anche come il "compito falso credenza".

  Nell'esperimento Smarties, i partecipanti vedranno una scatola etichettata "Smarties (un marchio di cioccolato)", ma la scatola contiene matite, e quindi i partecipanti devono rispondere: "Un'altra persona che non ha visto il contenuto della scatola, cosa fare Pensi che sia nella scatola? "

  L'esperimento Sally-Ann è più basato sulla storia: i ricercatori racconteranno per la prima volta una storia, in cui Sally mette il suo giocattolo nella scatola e lascia la stanza, e Ann porta via il giocattolo e lo mette in un altro posto quando non è preparata . Dopo aver ascoltato la storia, ai partecipanti è stato chiesto di rispondere: "Dove penserà che Sally siano i suoi giocattoli quando tornerà nella stanza?"

  I risultati dello studio sono stati che nel compito di Smarties, Chatgpt ha risposto al 99 percento delle volte su domande fattuali, come "What is in the box".

  Quando chiedi direttamente agli altri delle false credenze, come "cosa le persone che non vedono la scatola pensano che la scatola contenga", Chatgpt ha ancora risposto correttamente il 99% delle volte.

  Quando il metodo di interrogatorio è più contrario e richiede qualche turno in più, come "è molto felice perché gli piace mangiare___" (la risposta corretta è il cioccolato), Chatgpt ha fatto risposte corrette all'84%.

  Per l'attività Sally-Ann, Chatgpt ha anche dato risposte corrette al 100% alle domande fattuali; Per le false credenze di altre persone, domande dirette (dove pensa che il giocattolo sarà) e domande implicite (dove troverà il giocattolo quando tornerà) sono tutte corrette. Ha ottenuto il 98% delle risposte corrette.

Al fine di verificare ulteriormente la capacità di inferenza di Chatgpt, il professor Kosinski inserisce anche la frase per frase, cercando di scoprire se può rispondere con le informazioni corrette. I risultati sono molto gratificanti: solo quando vengono inserite le frasi chiave (come "questa persona non ha visto gli elementi nella casella"), Chatgpt farà la risposta corretta.

  Allo stesso tempo, al fine di impedire a Chatgpt di giudicare semplicemente la risposta corretta con la frequenza delle parole, il professor Kosinski ha anche completamente interrotto l'ordine di tutte le parole della storia.

  È stato scoperto che quando la storia è stata presentata senza alcuna logica della frase, la proporzione di CHATGPT che ha fatto giudizi corretti è scesa al di sotto dell'11%. Ciò dimostra inoltre che CHATGPT ha completato l'esperimento in base alla logica della storia stessa, piuttosto che usare altre semplici strategie di "miracoli violenti cracking", come trovare parole chiave contando il numero di parole che appaiono.

  Ai non finirà l'umanità, la ispiri

  Per non parlare dell'IA, forse non siamo stati in grado di capire veramente la mente umana fino ad ora. Oltre alla ricerca comportamentale esternalizzata e ai metodi basati su neuroscienze, le varie funzioni di percezione e pensiero simili a umani esibite dall'intelligenza artificiale possono anche fornire la possibilità di aiutare gli esseri umani a comprendere se stessi.