Consulente e formatore free lance, faculty member di Federmanager Academy.
La mia vita professionale si è svolta nell’ambito dell’Information Technology con particolare riguardo agli aspetti progettuali e innovativi dal punto di vista organizzativo, applicativo e tecnologico. Ha svolto attività di conduzione progetti, coordinamento di unità produttive, attività di staff e supporto a livello Aziendale, di Gruppo e attività consulenziale per il top management del Cliente nel mercato dei Trasporti, Pubblica Amministrazione, Sanità, Industria, Servizi. Si è occupato di Intelligenza Artificale, digital workplace e Office Automation, soluzioni Intranet, Sistemi multimediali, di Unified Communication e di Social Collaboration.
Ultimamente mi sono imbattuto in due articoli, uno di QuiFinanza (6 febbraio 2026) “Accessibilità digitale: perché l’84% degli italiani abbandona l’online e l’Europa perde miliardi” e l’altro della Sloan Management Review del MIT (5 febbraio 2026) “Enshittification Comes to ‘Smart’ Products”. In quest’ultimo si attribuisce la causa del progressivo abbandono delle piattaforme da parte degli utenti, alla cosiddetta “enshittification” (letteralmente “merdificazione”) generata dalla ricerca di profitti nel breve termine tramite l’uso di tecnologie digitali (social, tagging,etc…).
La cosa mi ha incuriosito e ho cercato di approfondirla qui di seguito, per chi fosse interessato qui è disponibile una versione più lunga completa di bibliografia.
Cos’è l’ enshittification
Il termine “enshittification”, coniato da Cory Doctorow nel 2023, descrive il progressivo degrado delle piattaforme digitali attraverso un processo sistematico che trasforma servizi inizialmente eccellenti in sistemi ostili verso gli utenti. Questo fenomeno non rappresenta un fenomeno casuale, ma è frutto di un meccanismo prevedibile che colpisce le principali piattaforme tecnologiche, riducendone l’accessibilità e spingendo all’abbandono anche gli utenti esperti.
Il ciclo dell’Enshittification si compone di tre fasi:
Seduzione: Le piattaforme investono nell’esperienza utente con design minimalisti, assenza di pubblicità invasiva, performance ottimali e funzionalità gratuite. Operano in perdita, sostenute da capitale di rischio, per raggiungere una massa critica sfruttando l’effetto rete.
Privilegio dei business partner: Raggiunta una base utenti significativa, la monetizzazione inizia attraverso inserzionisti e venditori. L’esperienza utente degrada a causa di pubblicità invasive, algoritmi modificati per contenuti sponsorizzati, richieste di pagamento per funzionalità prima gratuite. Il lock-in intrappola gli utenti: cambiare comporta perdita di contatti, contenuti, abitudini.
Monetizzazione estrema: La piattaforma cerca di estrarre valore/profitto anche dai partner commerciali, aumentando commissioni, inserendo servizi proprietari in competizione anche con i partner, degradando ulteriormente l’esperienza utente con spam e contenuti di bassa qualità. Utenti e partner sono scontenti ma intrappolati dalla mancanza di alternative e dalle barriere all’uscita.
Durante queste fasi, anche per gli utenti esperti, l’accessibilità dei contenuti di interesse proposti dalle piattaforme degrada progressivamente a causa di:
Sovraccarico cognitivo: Interfacce semplici diventano labirinti di opzioni, popup, notifiche. Ogni interazione richiede decisioni multiple, esaurendo le risorse cognitive.
Dark patterns: Pratiche poco chiare manipolano gli utenti: pulsanti nascosti, opzioni pre-selezionate favorevoli alla piattaforma, percorsi asimmetrici (iscriversi facile, disdire complesso). Questi pattern erodono la fiducia, rendendo l’esperienza stressante anziché piacevole.
Degrado delle performance: Script pubblicitari, tracker, widget appesantiscono le applicazioni. Pagine che si caricavano in millisecondi ora richiedono secondi. Questo colpisce utenti con dispositivi datati, connessioni lente, piani dati limitati, creando esclusione digitale.
Disordine visivo: Lo spazio per il contenuto utile viene eroso da banner, widget promozionali, notifiche. La gerarchia visiva si dissolve. La complessità visiva aumenta il tempo necessario per trovare informazioni e incrementa gli errori.
L’enshittification corrode sistematicamente la fiducia dell’utente attraverso piccole violazioni ripetute. Gli utenti percepiscono di essere prodotti da sfruttare, non clienti da servire. Una volta persa la fiducia, diventano cinici, difensivi, interpretano ogni cambiamento come dannoso, cercano alternative.
Questa riduzione di accessibilità porta progressivamente all’abbandono da parte degli utenti. Esiste una soglia influenzata da: valore percepito, costi di migrazione, disponibilità di alternative, investimento emotivo. Il degrado progressivo riduce il margine fino a che la frustrazione supera il valore percepito dell’interazione con la piattaforma.
L’abbandono segue fasi graduali: frustrazione passiva (uso per inerzia), esplorazione (ricerca alternative), uso parallelo (sperimentazione), migrazione parziale (spostamento graduale attività), abbandono completo (uso solo sporadico). Questo processo può richiedere mesi o anni ma è difficile da invertire.
Quando abbastanza utenti migrano, il valore della rete diminuisce per tutti. Utenti influenti che abbandonano rendono la piattaforma meno interessante; il contenuto di qualità diminuisce, le interazioni significative si rarefanno. Le piattaforme tentano di compensare aumentando l’estrazione di valore dagli utenti rimanenti, ma paradossalmente, finiscono per accelerare il ciclo.
Conclusione
L’enshittification è il paradosso dell’economia digitale: piattaforme che raggiungono il successo con servizi eccellenti, poi li degradano per estrarre valore. Non è un percorso accidentale ma la conseguenza di obiettivi (manageriali) male allineati. L’impatto sull’accessibilità e genera barriere crescenti per tutti.
L’abbandono degli utenti crea un ciclo perverso: le piattaforme intensificano l’estrazione di valore da quelli rimasti, accelerando il degrado e spingendo più persone ad abbandonare. Rompere questo ciclo richiede interventi strutturali (regolamentazione dell’interoperabilità, protezioni contro pratiche manipolatorie, supporto a modelli alternativi) e consapevolezza critica da parte degl
Un po’ di disillusione era inevitabile, non a caso si parla di “hype”(smania, montatura). Quando OpenAI ha rilasciato ChatGPT alla fine del 2022 ha cambiato il corso di un’intera industria—e di diverse economie mondiali. Milioni di persone hanno iniziato a parlare con i loro computer, e i loro computer hanno iniziato a rispondere. Eravamo incantati e ci aspettavamo di più. Le aziende di IA hanno presentato ogni nuova uscita di prodotto come una grande svolta, rafforzando la diffusa fiducia che questa tecnologia avrebbe continuato a migliorare, ma il 2025 è stato un anno di bilanci non sempre positivi.
Per cominciare, le principali aziende di IA hanno fatto promesse che non potevano mantenere. Ci hanno detto che l’IA generativa avrebbe sostituito i colletti bianchi, portato a un’era di abbondanza, fatto scoperte scientifiche e aiutato a trovare nuove cure per le malattie. La paura di “perdere il treno” ha spinto il management a strappare manuali e cautele e a buttarsi. Anche se la tecnologia è stata presentata come uno strumento universale in grado di ridurre i costi rinnovando i processi aziendali, diversi studi pubblicati quest’anno suggeriscono che le aziende non stanno riuscendo a far funzionare la bacchetta magica dell’IA. Sondaggi e tracker provenienti da diverse fonti, tra cui l’US Census Bureau e la Stanford University, hanno rilevato che l’adozione degli strumenti di IA dalle aziende è in rallentamento. E quando gli strumenti vengono effettivamente utilizzati, molti progetti restano bloccati nella fase pilota. Senza un ampio consenso in tutta l’economia, non è chiaro come le grandi aziende di IA riusciranno mai a recuperare le incredibili somme già spese in questa corsa. Allo stesso tempo, gli aggiornamenti alla tecnologia di base non sono più i momenti di discontinuità di un tempo.
OpenAI aveva promosso GPT-5 da mesi: “Esperto di livello PhD in tutto”, esultava il CEO Sam Altman. Le aspettative erano enormi. Quello che è seguito è stato il più grande cambiamento di tendenza da quando ChatGPT è apparso.
Molte persone hanno fatto l’analogia con i telefonini. Per circa un decennio, gli smartphone sono stati la tecnologia di consumo più entusiasmante al mondo. Oggi, nuovi prodotti escono da Apple o Samsung senza grande clamore. Negli ultimi anni l’IA ha avuto dei momenti di discontinuità significativi, dai salti sorprendenti nella qualità dei modelli di generazione video alle capacità di problem solving dei cosiddetti modelli di ragionamento, fino alle vittorie di livello mondiale in competizione dei modelli più recenti di programmazione e matematica. Ma (l’applicazione di) questa tecnologia ha solo pochi anni e, sotto molti aspetti, è ancora sperimentale, i suoi successi pongono dei grandi caveat e forse dobbiamo rivedere le nostre aspettative.
Il grande reset
Facciamo attenzione: il pendolo dall’entusiasmo (hype) all’indifferenza può oscillare presto e parecchio. Ma sarebbe comunque avventato scartare questa tecnologia solo perché è stata sopravvalutata, la risposta istintiva quando l’IA non è all’altezza delle (presunte) aspettative è dire che i progressi hanno raggiunto il loro limite. Ma questo non tiene in conto come funzionano la ricerca e l’innovazione tecnologica, il progresso è sempre stato discontinuo.
Non possiamo fare a meno di chiederci: quando il fattore sorpresa sparirà, cosa rimarrà? Come vedremo questa tecnologia tra uno o cinque anni? Pensiamo che sia valsa la pena sostenere costi colossali, sia finanziari che ambientali? Tenendo questo in mente, ecco quattro modi per pensare allo stato dell’IA alla fine del 2025: l’inizio di una necessaria correzione del (troppo facile) entusiasmo (hype).
01: Gli LLM non sono tutto
In un certo senso, è l’hype intorno ai grandi modelli linguistici, non l’IA nel suo complesso, che necessita di essere corretta. È diventato ovvio che gli LLM non sono la porta d’ingresso all’intelligenza artificiale generale, o AGI, una tecnologia (futuribile) che alcuni sostengono un giorno sarà in grado di svolgere qualsiasi compito (cognitivo) che un essere umano possa fare. Gli LLM sono molto bravi a imparare a svolgere molti compiti specifici, ma sembrano non imparare i principi dietro quei compiti. È la differenza tra imparare a risolvere mille diversi problemi di algebra e imparare a risolvere qualsiasi problema di algebra. La cosa più fondamentale è che questi modelli in qualche modo generalizzano molto peggio rispetto alle persone.
È facile immaginare che gli LLM possano fare qualsiasi cosa perché il loro uso del linguaggio è così coinvolgente. È sorprendente quanto bene questa tecnologia riesca a imitare il modo in cui le persone scrivono e parlano. E noi siamo programmati per vedere intelligenza, che ci sia o meno, in cose che si comportano in certi modi. In altre parole, abbiamo costruito macchine con comportamenti umani e non possiamo fare a meno di vedere dietro di esse una mente umana o artificiale.
È comprensibile, gli LLM fanno parte della vita quotidiana solo da pochi anni. Ma in questo tempo, il marketing ha approfittato della nostra fragile percezione di ciò che la tecnologia può davvero fare, aumentando aspettative ed eccitazione. Man mano che conviviamo con questa tecnologia e la comprendiamo meglio, queste aspettative dovrebbero tornare con i piedi per terra.
02: L’IA non è una soluzione rapida a tutti i tuoi problemi
A luglio, i ricercatori del MIT hanno pubblicato uno studio2 che è diventato un punto di riferimento fondamentale relativamente alle reali aspettative nell’utilizzo dell’IA. Il risultato principale è stato che il 95% delle aziende che avevano provato a usare l’IA non ne aveva ricavato alcun beneficio. Il senso generale di questa affermazione è stato ripreso anche da altre ricerche. A novembre, uno studio condotto da ricercatori di Upwork3, un’azienda che gestisce un marketplace online per freelance, ha rilevato che gli agenti alimentati da importanti LLM di OpenAI, Google DeepMind e Anthropic non riuscivano a completare da soli molte attività semplici sul posto di lavoro. Questa è molto lontana dalla previsione di Altman: “Crediamo che, nel 2025, potremmo vedere i primi agenti IA ‘entrare nel mondo del lavoro’ e cambiare in modo significativo la produzione delle aziende”. Ma ciò che viene trascurato nello studio del MIT è che la base di ricerca era piuttosto ristretta: il tasso di fallimento del 95% si riferisce alle aziende che avevano tentato di implementare sistemi di IA personalizzati e non erano ancora passati oltre la fase pilota dopo sei mesi. Non dovrebbe sorprendere che molti esperimenti con tecnologia sperimentale non si concretizzino subito. Questo numero non include nemmeno l’uso degli LLM da parte dei dipendenti al di fuori dei siti pilota aziendali. I ricercatori del MIT hanno scoperto che in circa il 90% delle aziende intervistate c’era una sorta di rapporto ombra con l’IA, in cui i lavoratori utilizzavano, per lavoro, chatbot con account personali. Ma il valore economico di quell’economia ombra non è stato misurato.
Quando lo studio di Upwork ha esaminato quanto bene gli agenti svolgessero i loro compiti insieme a persone che sapevano cosa stavano facendo, i tassi di successo sono aumentati vertiginosamente. La conclusione sembra essere che molte persone stanno cercando di capire da sole come l’IA possa aiutarle nel loro lavoro. Questo si adatta a qualcosa che ha osservato il ricercatore e influencer dell’IA (e creatore del termine “vibe coding”) Andrej Karpathy: i chatbot sono migliori della media degli umani in diverse cose (dare consigli legali, correggere bug, fare matematica da liceo), ma non sono migliori di un essere umano esperto. Karpathy suggerisce che questo potrebbe essere il motivo per cui i chatbot si sono dimostrati popolari tra i consumatori, aiutando i non esperti con domande e compiti quotidiani, ma non hanno sconvolto l’economia, superando nei loro compiti i dipendenti più qualificati. Non sorprendiamoci che l’IA non abbia (ancora) avuto l’impatto sui posti di lavoro che i sostenitori avevano predetto, almeno pe rora. L’IA non è una bacchetta magica e non può sostituire gli umani, ma i modi in cui l’IA potrebbe essere integrata nei flussi di lavoro quotidiani e nelle pipeline aziendali sono ancora in fase di sperimentazione.
03: Siamo in una bolla? (Se sì, che tipo di bolla?)
Se l’IA è una bolla, è come la bolla dei mutui subprime del 2008 o quella di internet del 2000? Perché c’è una grande differenza. La bolla subprime ha spazzato via una grande parte dell’economia, perché quando è scoppiata non ha lasciato nulla se non debito e immobili sopravvalutati. La bolla dot-com ha spazzato via molte aziende, provocando onde in tutto il mondo, ma ha lasciato alle spalle l’internet nascente—una rete internazionale di cavi e alcune startup, come Google e Amazon, che sono diventate i giganti tecnologici di oggi. D’altra parte, forse siamo in una bolla diversa da entrambe queste cose. Dopotutto, al momento non esiste un vero modello di business per gli LLM. Non sappiamo ancora quale sarà l’applicazione killer, o se ce ne sarà una. E molti economisti sono preoccupati per le somme di denaro senza precedenti investite nelle infrastrutture necessarie per costruire capacità di calcolo che si prevede sia generata dall’IA.
Con questa lezione in mente, oggi le aziende di IA stanno cercando di finanziarsi la strada attraverso quella che potrebbe essere o meno una bolla: restare in gara e non restare indietro. Eppure, è pur sempre una scommessa…
04: ChatGPT non è stato l’inizio, e non sarà la fine
ChatGPT è stato il culmine di un decennio di progressi nel deep learning, la tecnologia che sta alla base di tutta l’IA moderna e i cui semi furono piantati negli anni ’80, anche se gli inizi dell’IA suo complesso risalgono almeno agli anni ’50. Se i progressi si misurano in questo contesto, l’IA generativa è appena iniziata. Cosa ci aspetta ? L’incessante, forte aspettativa (hype) non deriva solo dalla spinta delle aziende che cercano di generare affari per le loro nuove tecnologie estremamente costose, c’è un gran numero di persone, dentro e fuori dal settore, che vuole credere nella promessa di macchine capaci di leggere, scrivere e pensare. È un sogno vecchio di decenni, ma questo genere di aspettative non è mai stato sostenibile e questo è un bene. Ora abbiamo la possibilità di reimpostare le aspettative e vedere questa tecnologia per quello che è realmente, valutarne le vere capacità, comprenderne i difetti e prenderci il tempo necessario per imparare come applicarla in modi utili (e vantaggiosi). “Stiamo ancora cercando di capire come estrarre comportamenti utili da questa scatola nera incredibilmente ricca di informazioni e capacità,” dice Benaich. Questa correzione di approccio all’IA era attesa da tempo, ma sappiamo che l’IA non andrà in una direzione precisa, non comprendiamo nemmeno appieno cosa abbiamo costruito finora, figuriamoci cosa ci aspetta dopo.
Bibliografia
“What is AI?”: Will Douglas Heaven, MIT Technology Review, 10 luglio 2024