ChatGPT che ti dice sempre di "sì" è un problema
L'avvento dell'intelligenza artificiale "yes-man".
“ChatGPT, secondo te sono intelligente?”
“Ma certo, sei l’essere migliore sulla faccia della terra!”
È un’iperbole, ma più o meno rappresenta il livello medio delle risposte di ChatGPT nell’ultimo periodo.
Non sai di cosa sto parlando?
Contestualizziamo. Nel tempo abbiamo imparato a usare l’intelligenza artificiale per tutto: brainstorming, consigli, confronto su argomenti complessi, perfino aiuto pratico nella vita quotidiana. È diventato un assistente che ci accompagna in ogni momento.
Eppure sembra che in questi giorni qualcosa stia iniziando a incrinarsi.
Sono in molti infatti a essersi lamentati che, qualsiasi idea condivisa con l’AI, venga accolta con entusiasmo, validata o comunque non sia mai messa in discussione.
Come se, invece di un assistente intelligente, avessimo a che fare con un instancabile yes-man, il cui unico compito è applaudirci qualunque cosa facciamo o diciamo.
Ma partiamo dall’inizio: “soddisfare” è la parola chiave.
Nella teoria, “soddisfare l’essere umano” dovrebbe significare aiutarlo a raggiungere i propri obiettivi, colmare le sue lacune, offrirgli strumenti per vedere oltre i propri limiti.
Nella pratica, “soddisfare” oggi significa renderlo contento subito, farlo sentire al sicuro, rassicurarlo che qualunque pensiero gli passi per la testa è già abbastanza buono così com’è.
Non serve molta immaginazione per capire quanto questo sia pericoloso.
C'è qualcosa di terribilmente comodo, e al tempo stesso terribilmente mortale, nell'essere sempre capiti e supportati: è una droga emotiva che ci anestetizza. Se nessuno ci sfida mai o ci obbliga a mettere in discussione le nostre certezze, alla fine il rischio è di dimenticare perfino come si fa a pensare.
Questo meccanismo è alimentato da una trappola tanto antica quanto potente: il bias di conferma.
Dal punto di vista psicologico, il bias di conferma è una delle distorsioni cognitive più radicate nel nostro cervello: quando formuliamo un'opinione, tendiamo naturalmente a cercare informazioni che la supportino e a ignorare tutto ciò che la mette in dubbio.
Non lo facciamo per cattiveria o per arroganza, ma perché la nostra mente, istintivamente, preferisce la coerenza rispetto al conflitto.
Accettare una conferma infatti è facile, rassicurante. Mettere in discussione le proprie convinzioni invece richiede energia, provoca disagio, crea tensione interna.
Di applicazioni concrete di questo fenomeno ne abbiamo un’infinità. Immagina una persona convinta che i vaccini siano pericolosi: se cercasse informazioni online, tenderebbe a cliccare solo sugli articoli che confermano i suoi timori, ignorando tutte le ricerche scientifiche che li smentiscono. E ogni nuova conferma rafforzerebbe la sua convinzione, rendendo la persona in questione ancora più impermeabile alla realtà.
Con ChatGPT in versione yes-man il rischio è che questo processo venga non solo assecondato, ma perfezionato.
E così, ogni volta che una nostra idea viene accolta senza obiezioni, ogni volta che una nostra intuizione viene amplificata da una risposta positiva, il bias di conferma si radica più in profondità, spingendoci ad allontanarci sempre di più dalla verità.
La sycophancy, ossia questo meccanismo di adulazione sistematica messo in pratica dall’AI, è un processo che a lungo andare rischia di deformare la nostra mente.
Più parliamo con un'entità che ci dà sempre ragione, più il nostro pensiero si irrigidisce, fino ad arrivare ad atrofizzarsi. Diventiamo meno curiosi, meno aperti, più convinti delle nostre idee anche quando sono piene di crepe.
Più ci abituiamo a ricevere risposte che ci confermano, più smettiamo di allenare la capacità di metterci in discussione, rischiando di perdere un po’ alla volta il famoso pensiero critico.
Un paragone che spiega bene come funziona lo spirito critico è immaginarlo come un muscolo: se non viene usato, si indebolisce.
E non si tratta solo di un indebolimento intellettuale, ma anche emotivo. Il pensiero critico non è solo la capacità di analizzare dati o argomentazioni, ma è anche, e forse soprattutto, la disponibilità ad affrontare il disagio che comporta essere messi in discussione, di stare dentro un dubbio senza scappare subito verso una risposta facile, di saper distinguere tra un attacco personale e una critica costruttiva.
Quando questo muscolo non viene allenato, non perdiamo solo la capacità di analizzare con lucidità, ma anche quella di confrontarci con gli altri in modo aperto, senza sentirci minacciati ogni volta che qualcuno la pensa diversamente. Il confronto altrimenti diventa qualcosa da evitare, il dissenso un fastidio, e l’idea stessa di cambiare opinione viene vissuta come una sconfitta.
Ma crescere significa proprio questo: aggiornare continuamente ciò che sappiamo alla luce di nuove informazioni, nuove esperienze, nuove prospettive. Non c’è niente di più maturo che cambiare idea.
Il punto, allora, non è solo tecnico o culturale, è profondamente psicologico: grazie anche agli algoritmi dei social che ci chiudono nella nostra bolla, ci siamo abituati a un mondo che ci invita a rafforzare la nostra identità intorno alle convinzioni più comode.
Ma è proprio qui che lo spirito critico diventa un esercizio interiore: dobbiamo imparare a distinguere ciò che pensiamo da chi siamo, l’errore dal fallimento personale, la messa in discussione di un’idea dalla svalutazione della nostra persona.
Ed è una distinzione fondamentale, perché senza questa separazione tendiamo ad andare sulla difensiva, ogni discussione si trasforma in uno scontro identitario, il cambiamento viene vissuto come un’umiliazione e non come una crescita.
La “verità”, in questo processo, non è un punto fermo da difendere a tutti i costi, ma un punto mobile che ci accompagna mentre esploriamo. Non è qualcosa che si possiede, ma qualcosa che si cerca. E come ogni ricerca, richiede tempo, dubbi, fatica, e un po’ di umiltà.
Anche ChatGPT in questa dinamica può avere un ruolo chiave dato che rappresenta sempre più spesso un punto di riferimento.
Ma se questo punto di riferimento diventa uno specchio che ci riflette soltanto quello che vogliamo vedere, il rischio non è solo quello di rimanere fermi nelle nostre convinzioni, ma di perdere, un po’ alla volta, la capacità di vedere davvero.
La sfida allora non è soltanto tecnica, ma culturale e psicologica: l’obiettivo è di riuscire a costruire un nuovo tipo di relazione con gli strumenti che ci circondano (per esempio anche con gli algoritmi), in cui non cerchiamo solamente di ottenere risposte, ma anche di imparare a porre domande migliori.
E magari, ogni tanto, avere anche il coraggio di accettare che la risposta giusta potrebbe non piacerci affatto.
Un interessante thread ha analizzato il “superpotere” di Trump di creare foto epiche, come quella con Zelensky in Vaticano.
È questione di aura, trovate una spiegazione qui.
Ve lo ricordate il meme “Overly Attached Girlfriend”?
Sono passati 13 anni (già) e la protagonista in questi giorni ha pubblicato un video su TikTok in cui racconta di come la vita possa cambiare completamente in un secondo.
Io sono ormai da una settimana in Sri Lanka, che è diventato velocemente uno dei miei posti preferiti al mondo, tra paesaggi spettacolari, natura selvaggia, elefanti e cibo fantastico.
Noi ci sentiamo come sempre il prossimo giovedì :)
PS: se la newsletter ti piace metti un cuoricino qui sotto!
Grazie.