Il 2026 sarà l’anno dei porno
E, se le cose non cambiano, il prossimo porno potrebbe essere il tuo.
Il titolo che avevo scelto per questa prima newsletter del 2026 era “2026, l’anno in cui si odierà l’AI”.
Volevo raccontare (ancora una volta) di come ci stiamo stancando di percepire l’AI in ogni cosa che ci circonda, dai contenuti, ai film, alla musica, alle pubblicità, ai prodotti del supermercato, e di come uno dei trend dei prossimi mesi probabilmente sarà basato su “cose fatte interamente da esseri umani”.
Poi è successa una cosa gravissima.
Ho aperto Twitter e, scorrendo, ho trovato una sequenza infinita di ragazze in bikini, con costumi succinti, alcune girate di schiena, mezze nude…
Cosa stava succedendo?
Grok, l’AI integrata delle piattaforma, nei giorni scorsi ha introdotto una nuova funzione che permette agli utenti di modificare le immagini tramite un semplice prompt.
Ecco allora che, se una persona carica una foto, chiunque può rispondere al tweet chiedendo a Grok di modificare l’immagine di partenza.
“Grok, fai in modo che la persona indossi solo una canottiera”.
“Fai indossare alla persona un bikini”.
“Fai indossare alla persona un bikini VERAMENTE succinto”.
In un solo prompt, quindi, si può trasformare un selfie allo specchio in un’immagine sessualizzata, senza che la persona ritratta abbia alcun controllo sul processo.
E la cosa che mi ha preoccupato era che, mentre scorrevo, il feed era pieno di immagini del genere…
Il punto principale della faccenda è che questa azione molto spesso non è consensuale.
Proprio su questo aspetto, Grok parte da un presupposto assolutamente errato. Il fatto che una foto sia stata pubblicata su un social non la rende automaticamente “pubblica”, nel senso che altri utenti non possono manipolarla senza consenso.
Una foto condivisa online ha un contesto, un’intenzione e un perimetro d’uso implicito. Viene pubblicata per essere vista dagli altri utenti, magari commentata, al massimo ricondivisa così com’è. Sicuramente non per essere trasformata e sessualizzata da terzi.
Grok invece ignora completamente questa distinzione: l’AI vede l’immagine solo come un input tecnico, un insieme di pixel da rielaborare. Questo approccio riduce le persone a materiale grezzo, con conseguenze invasive, asimmetriche e difficili da fermare.
A rendere ancora più grave la situazione c’è poi la scalabilità. Questa funzione è facilmente accessibile: basta un brevissimo prompt. Senza costi e senza freni, proprio questa facilità spinge gli utenti a replicarla all’infinito.
Quello che prima sarebbe stato un gesto isolato (un deepfake creato con ore di lavoro e anni di competenza) diventa così un comportamento seriale su scala globale.
Al che viene da chiedersi: ma qual è l’utilità di uno strumento del genere? In che modo “utile” potrei usare un tool che genera immagini iperrealistiche partendo da foto reali, se non in mala fede?
Ci penso da tempo, da quando l’AI è diventata capace di produrre immagini estremamente verosimili, e ancora non ho trovato una risposta valida.
L’unica risposta che riesco a darmi è, appunto, utilizzarla per fini “sessuali”.
È proprio così che infatti sta andando: il feed di Twitter è saturo di immagini AI sessualizzate.
Ma non è un caso, e non è nemmeno colpa di Twitter in sé. Era successa la stessa cosa con l’esplosione dell’AI di Gemini, qualche settimana fa: la maggior parte dei soggetti erano giovani donne, sempre succinte, anche se mai nude come ora.
Ora sono “più nude” per un motivo puramente tecnico: Gemini stessa impediva di “spogliare” le ragazze nelle immagini. Ora sembra invece che questi limiti siano decisamente più labili e diventa chiaro come, a mano a mano che la tecnologia diventa più potente e accessibile, una parte consistente degli utenti la userà sempre più per spingersi verso la sessualizzazione dei contenuti.
La parte più inquietante di questa dinamica sono i fenomeni che si innescano, come lo spostamento della finestra di Overton (che tra l’altro spiego bene nel mio libro): il perimetro di ciò che riteniamo accettabile si sposta gradualmente, attraverso piccoli slittamenti quotidiani.
All’inizio queste immagini sessualizzate generano indignazione. Poi, un po’ alla volta, ci abituiamo, fino a renderle la nuova normalità.
Ricorderete phica.net, uno dei principali siti di diffusione non consensuale di immagini intime (o il gruppo “Mia Moglie”): quando è esploso il caso, era evidente come la piattaforma fosse una forma di violenza. Oggi il rischio è che pratiche simili vengano riproposte in una versione più “ripulita”: non più piattaforme esplicitamente illegali, ma strumenti integrati nei social mainstream, come nel caso di Grok.
Uno dei problema allora è che se ci abituiamo a vedere ogni giorno immagini sessualizzate, quando poi scoppierà un altro caso del genere non si mobiliteranno più in molti, visto che sembrerà “routine”.
L’intelligenza artificiale è stata spesso raccontata come uno strumento di progresso: più creatività, più efficienza, più possibilità espressive.
Ma il caso Grok di questi giorni mostra chiaramente che la tecnologia non eleva automaticamente l’uso che ne facciamo.
Se siamo immersi in una cultura tossica, tenderà ad amplificare quanto di sbagliato ci circonda.
Quindi ribadisco quello che avrebbe dovuto essere il titolo originale: “il 2026 sarà l’anno in cui si odierà l’AI”.
Per questo e per mille altri motivi.
Ho iniziato una nuova rubrica in cui consiglio cose che ho letto e visto invece di doomscrollare.
Un buon allenamento per andare più in profondità su certi argomenti, recuperare un po’ di complessità e allenare la soglia dell’attenzione.
Qui trovi la compilation. Fammi sapere se ti piace!
Buon inizio anno a tutti! :)
Dopo un paio di edizioni in ritardo di qualche giorno, dalla prossima settimana torneremo alla routine con la newsletter del giovedì.
PS: se la newsletter ti piace metti un cuoricino qui sotto!





I social media sono il male. Per questo qualche anno fa li ho abbandonati tutti, nessuno escluso; poi un mese fa ho incontrato Substack e adesso vediamo...
I social sono il male per le ragioni che hai detto anche tu: assuefanno all'idiozia, ai falsi, al soft porno, al dileggio, allo scrolling veloce e senza pensiero; impigriscono, manipolano, eccetera. Allora che fare? La risposta potrebbe essere semplice: abbandonarli in massa. Ma ciò non accadrà per ragioni facili da intuire. Finirà così: una ristretta élite fuori dai social, o dentro solo in alcuni e in modo molto controllato. La massa dentro, ad assorbire a getto continuo scemenze colossali e manipolazioni ideologiche. Il vulnus micidiale per la democrazia come ce la siamo descritta fino a a qualche decennio fa è, credo, evidente.
Sempre interessante e pieno di “warning” quello che scrivi. Grazie!
Butto qua il mio non richiesto pensiero: non hai anche l’impressione che tutte queste derive tecnologiche, per quanto a volte accattivanti, a volte svilenti, abbiano le gambe corte?
Cioè, non è simile ad entrare in un Bar, dove puoi vedere le tante bottiglie esposte?
Mica le bevi tutte; sai che se prese a piccole dose possono ( a chi piace) essere gradite, per alcuni ( credo non tanti) sono fonte di dipendenze; per la maggioranza sono solo un qualcosa da gestire od irrilevante.
Quello che sto maldestramente tentando di dire è che , da sempre esistono cose folli, sbagliate e pericolose, che a volte si paga un prezzo ma spesso si trova un equilibrio.
Penso e spero che sarà così anche con le “tentazioni” AI.