In morte della ricerca
Ovvero: band generate da intelligenza artificiale e cosa perdiamo quando smettiamo di cercare
Ciao, intanto ti ricordo che è uscito il mio secondo libro, che ha lo stesso titolo della newsletter. Lo trovi un po’ ovunque, librerie fisiche o online: ti lascio un link per ordinarlo, se vuoi. Questo numero di Turisti della realtà è un po’ schizofrenico, forse: parla di una band generata da AI, dell’illusione della libertà di scelta e della morte della ricerca. Mi scuso per la confusione, ma mi sembrava avesse senso, in fondo. Prima di cominciare, un promemoria: se vuoi ricevere i prossimi numeri direttamente via mail, puoi iscriverti cliccando il pulsante qui sotto.
Sono uno complicato quando si tratta di musica, quasi insopportabile. Non che abbia gusti particolarmente difficili, però mi piace avere una certa cura nel modo in cui decido cosa ascoltare. Fin da quando ero piccolo, gli artisti e le artiste che ascolto mi aiutano molto a definire chi sono, la mia identità, le cose in cui credo e che mi emozionano.
Per questa ragione, ho un rapporto abbastanza complicato con le playlist. Mi piacciono poco perché preferisco ascoltare gli album, in primo luogo. Poi, al massimo, mi piacciono se le compongo io. Il fatto è che ho sempre meno tempo per farlo e, quindi, a volte mi capita di cedere a Spotify.
Mi capita di mettere su quelle playlist per genere, perché magari sono di un umore che mi pare di poter associare meglio a un determinato tipo di musica. E questa storia inizia in effetti da una playlist di Spotify, di quelle a volte compilate da curatori umani; altre da un complesso algoritmo di raccomandazione.
Niente, sto qui che ascolto questa playlist classic rock, tra Pink Floyd e Kinks e a un certo punto parte un pezzo che non conosco. Alzo lo schermo dello smartphone, la luce si accende. Il gruppo si chiama The Velvet Sundown, la canzone Dust on the wind. Niente male, ma non credo la ricorderò.
Continuo a fare quello che stavo facendo, parte una canzone dei The Band che mi piace molto, The Weight.
Questa storia inizia da questo aneddoto apparentemente irrilevante perché qualche giorno dopo mi capita di leggere un articolo su Ars Technica, che parla proprio dei The Velvet Sundown. E ne parla come di una band interamente generata dall’intelligenza artificiale: volti, copertine, personalità, canzoni.
E in effetti, se uno cerca in giro, questi musicisti paiono non avere corpo. Nessuna traccia di concerti, interviste, biografie. Solo un profilo Instagram aperto da poco, immagini visibilmente generate da intelligenza artificiale, con volti simmetrici, troppi panini sul tavolo, bicchieri in posizioni impossibili. E una discografia già corposa: due album pubblicati in un mese, un terzo in arrivo.
Non lo sappiamo con certezza, ma pare che The Velvet Sundown sia in effetti un progetto musicale interamente generato da intelligenza artificiale. Eppure funziona, in un modo o nell’altro: più di mezzo milione di ascoltatori in poche settimane, brani infilati in decine di playlist, anche una certa spinta da Spotify, che suggerisce le loro canzoni in modo attivo.
Non mi scandalizza (non mi scandalizzo dal ‘96, per citare l’Ispettore Bloch di Dylan Dog). Mi fa pensare, in primo luogo, alla fine di un certo modo di intendere la cultura pop.
Poi, a una delle condizioni statutarie del nostro stare online, che l’intelligenza artificiale generativa renderà ancora più netta: la moltiplicazione infinita delle scelte.
Se ci pensate, è l’idea stessa alla base di Internet. Moltiplicare il più possibile le opzioni, le alternative: uno spazio aperto in cui costruire identità, possibilità. Fin da subito, ci è sembrata una cosa positiva, un Ovest di promesse di cambiamento.
È una sorta di tara ideologica che la storica Sophia Rosenfeld, in un libro che si chiama The Age of Choice, chiama idolatria della scelta: l’idea che la libertà coincida con l’accesso illimitato a opzioni, che l’identità si fondi sulla capacità di selezionare. Ma questa visione, sottolinea Rosenfeld, non è naturale né universale. È il prodotto di una lunga evoluzione storica e culturale, un’abitudine mentale nata nell’Europa del tardo Seicento e cresciuta con l’espansione dei consumi.
Dalla scelta tra tessuti di calicò colorati nei negozi inglesi del Settecento ai menù dei bistrot parigini, fino alle danze con dance cards e al voto segreto, la scelta è diventata il linguaggio operativo della libertà moderna. Ma è un linguaggio che ha sempre portato con sé ambiguità morali: tra emancipazione e vizio, tra agency e frivolezza. Spesso, osserva Rosenfeld, le ansie legate alla scelta sono state proiettate sulle donne, colpevolizzate per il loro ruolo crescente nel consumo.
Il culmine di questa ideologia si raggiunge nel Novecento, nel secolo del neoliberismo. L’individuo è Homo economicus, un decisore razionale mosso da preferenze. È in questo contesto che entra il web, culmine di un secolo di scelte di consumo. Internet, poi i social, gli smartphone, poi ancora le piattaforme in senso più ampio, azzerano i costi di distribuzione e riducono quelli di produzione.
Le scelte diventano sempre di più. È il motivo stesso per cui nascono gli algoritmi di raccomandazione: troppe possibilità, serve qualcosa in grado di organizzare la conoscenza.
Eppure, tra raccomandazioni personalizzate e intelligenze artificiali, ci troviamo sempre più a delegarle, le scelte, scrollando un suggerimento dopo l’altro.
Scegliere meglio è, in effetti, il senso stesso - o, almeno, il punto di partenza concettuale - della storia degli algoritmi di raccomandazione.
Inizia tutto da un sistema, Tapestry, nato dentro l’azienda di stampanti Xerox per gestire l’overload informativo: all’inizio degli anni ‘90, in una delle prime vere aziende della Silicon Valley, i dipendenti iniziavano a ricevere troppe email. O, vista in un altro modo, avevano troppe scelte da prendere ogni giorno. Da lì, nasce questo sistema che, a partire da una votazione di importanza, ordinava per rilevanza la posta in arrivo, dando priorità a quelle percepite come più importanti.
Ecco, più o meno sappiamo tutti oggi cos’è un algoritmo di raccomandazione. Io, però, per spiegare bene di cosa si tratta faccio sempre lo stesso esempio, a partire da tre piattaforme musicali con approcci diversi: Pandora, Last.fm e Spotify.
Pandora usa un metodo basato sul contenuto: ogni canzone viene analizzata secondo centinaia di parametri (ritmo, melodia, strumenti). Se ascolti un brano dei Joy Division, ti proporrà qualcosa con una struttura musicale simile, anche se magari di un’altra epoca o genere. È un algoritmo che parte dalla musica, non dall’ascoltatore.
Last.fm fa il contrario. Usa il collaborative filtering: suggerisce quello che ascoltano altri utenti con gusti simili. Se uno ascolta i Joy Division, potrebbe ricevere in risposta i Coldplay, non perché abbiano qualcosa in comune, ma perché c’è qualcuno che ascolta entrambi. Non si parte dalla musica, ma dai comportamenti.
Spotify, infine, fonde i due modelli. Analizza sia il contenuto dei brani, sia le abitudini degli utenti. L’algoritmo cerca di anticipare i gusti con una precisione sempre più alta, costruendo un ambiente d’ascolto su misura. E non è un caso isolato: funziona così anche su Netflix, Amazon, Google, Facebook. Da un lato, un qualche genere di valutazione del contenuto; dall’altro la reazione di utenti simili a quel contenuto.
Alla base di tutto, però, resta una cosa. Ogni suggerimento si fonda su quello che l’utente sceglie per ridurre o ottimizzare il numero di opzioni disponibili. O meglio, è stato così per un lungo periodo di tempo.
Il modello TikTok, la sezione completamente algoritmica dei Per te, elimina questo presupposto: non serve scegliere, hai già tutto servito. Le piattaforme imparano da te, ma nel farlo ti spingono sempre un passo più vicino a ciò che sei già.
Le cose che vuoi davvero (o che almeno ti tengono lì) sono quelle che non sai ancora di volere.
Ho bisogno di raccontare un’altra storia, prima di andare avanti.
Non so se vi siete accorti, di recente, della comparsa di una stringa di testo più o meno lunga, quando si fa una ricerca su Google. È quella che Google chiama AI Overview: una risposta sintetica generata dall’intelligenza artificiale, che si posiziona sopra i normali risultati, spesso senza che l’utente debba più cliccare nulla. In sostanza, l’intelligenza artificiale “consulta” le fonti principali e genera una risposta, a partire da quelle informazioni.
In un articolo su The Atlantic, Alex Reisner racconta come questa tecnologia stia diventando una minaccia esistenziale per l’editoria. Il punto non è solo che le IA generative - come ChatGPT, Claude, Perplexity, ma anche gli stessi Overviews di Google - attingano da contenuti giornalistici per fornire risposte. È che lo fanno senza restituire traffico, abbonamenti o valore economico agli editori. Il lettore resta dentro l’ecosistema dell’IA, e l’informazione si consuma lì, senza passare più dai luoghi che l’hanno prodotta.
Secondo uno studio, l’introduzione degli AI Overviews ha ridotto di oltre il 34% il traffico verso i siti esterni. Il crollo del click-through rate - la percentuale di persone che cliccano su un link dopo averlo visualizzato - è stato ancora più impressionante: da oltre il 7% a meno del 3%. E mentre alcune aziende, come la BBC, registrano numeri marginali in entrata da ChatGPT, molti altri vedono diminuire perfino quei pochi click. In parallelo, diverse testate, dal Daily Dot a Business Insider, hanno avviato licenziamenti, con ex dipendenti che parlano di un modello editoriale ormai inadatto al nuovo contesto digitale.
Gli editori, racconta Reisner, stanno cercando di reagire. Alcuni portano le aziende IA in tribunale, ma sono cause complesse, costose e dall’esito incerto. Altri scelgono la via degli accordi commerciali - 72 in due anni - che però appaiono spesso squilibrati: le Big Tech pagano poco, trattano contenuti di grande valore come commodity, e in molti casi hanno già dimostrato di poterli usare anche senza consenso. Il tutto in un contesto di totale opacità: non si sa esattamente quali testi siano stati usati per addestrare i modelli, né esiste una normativa (in Europa c’è l’AI Act, ma ormai parte del danno è fatto) che imponga trasparenza.
Nel frattempo, dirigenti come Sam Altman (OpenAI) e Sundar Pichai (Google) iniziano a parlare apertamente di un futuro senza editori. Un mercato in cui i creator, autori, giornalisti, saggisti, lavorano direttamente per l’IA, magari ricevendo qualche micropagamento. È lo stesso schema già visto con Uber: si sfrutta l’infrastruttura esistente, si scavalcano gli intermediari, poi si ridisegna il mercato sotto il controllo della piattaforma.
È una storia che si presta ad almeno due chiavi di lettura.
La prima, più urgente, riguarda la ridefinizione radicale di un modello di business: quello di chi produce contenuti online e per anni ha considerato Google il proprio principale canale di distribuzione.
La seconda, più ampia, tocca quello che potremmo chiamare il paradosso della scelta. La rete ci ha offerto possibilità pressoché infinite. Per orientarle, abbiamo costruito sistemi che ci aiutassero a selezionare, semplificare, ordinare.
Poi, senza quasi accorgercene, abbiamo smesso di scegliere. Abbiamo delegato tutto: la ricerca, la sintesi, perfino il giudizio.
Cosa perdiamo, se smettiamo di cercare, di scegliere, di provare a trovare alternative?
In queste settimane si è parlato molto del preprint del MIT di Boston che dice, in modo probabilmente frettoloso, che usare ChatGPT in modo pigro per scrivere saggi riduce l’attività cerebrale.
C’è un’altra ricerca, di cui si è parlato meno, e di cui non sono in grado di determinare l’accuratezza scientifica, che mi pare altrettanto interessante.
L’ha condotta la Wharton School dell’Università della Pennsylvania su oltre 4.500 persone, e mostra che chi usa ChatGPT per cercare informazioni finisce per capire meno, ricordare meno e scrivere testi più poveri rispetto a chi usa Google in modo tradizionale (i link su sfondo bianco, per capirci). Non solo: tende a fidarsi di più, a impegnarsi di meno, a rinunciare prima.
Il punto non è demonizzare l’intelligenza artificiale. Secondo i ricercatori, se usata con spirito critico (per confrontare, revisionare, fare domande) l’AI generativa può diventare un ottimo alleato.
Ma se usata per saltare a piè pari lo sforzo del pensare, il rischio è di dimenticare come si impara davvero. Qualcuno lo chiama cognitive off-loading. Molte tecnologie lo fanno: usiamo un'azione fisica per ridurre le richieste di sforzo al nostro cervello. Ad esempio la rubrica del telefono: non c'è più bisogno di ricordare i numeri - io per quasi 10 anni non ho ricordato quello della persona che è diventata mia moglie - basta salvarli nella rubrica dello smartphone.
Nel caso dell'Al, il rischio è demandare il processo di pensiero critico. Chi usa in modo pigro, superficiale, l'intelligenza artificiale fa proprio questo: rinuncia all'elaborazione per affidarsi a quella tecnologia, per raggiungere un fine senza sforzo.
E allora torniamo alla domanda iniziale: cosa perdiamo, quando smettiamo di cercare?
Nel mio libro appena uscito, Turisti della realtà, parlo abbastanza a lungo di questo mio feticismo per i libri che parlano di libri. Non quelli che parlano di librai, librerie e di quanto è bello l’odore di questi tomi perduti in affascinanti biblioteche antiche.
Quelli, piuttosto, di chi cerca di trovare un senso a partire dai libri. Le storie, in altre parole, di chi è convinto che la risposta a una domanda enorme, esistenziale, si possa trovare in qualche libro perduto, in qualche storia nascosta da qualche parte.
L’esempio più celebre di questa mia personalissima collana è I detective selvaggi di Roberto Bolaño. Che, in fondo, altro non è che la storia, raccontata stupendamente, del tentativo di trovare un senso attraverso la ricerca di Cesarea Tinajero, la scomparsa antesignana della corrente dei realisti viscerali.
Stavolta, però, voglio citare un romanzo che devia leggermente da questa traiettoria. Si chiama Lo stadio di Wimbledon e l’ha scritto uno dei più importanti scrittori italiani del ‘900, Daniele Del Giudice. È un romanzo che parla sempre di una ricerca, ma in senso contrario rispetto al mio solito.
Il protagonista si mette sulle tracce di Roberto Bazlen, un famoso critico letterario. E cerca di capire, più di ogni altra cosa, perché quella figura così importante per la letteratura italiana non abbia mai scritto nulla.
È, insomma, la ricerca di un’assenza, tra Trieste e Londra; il tentativo di spiegare cosa è possibile raccontare e come è possibile farlo.
È un romanzo bellissimo, prima di tutto. È anche utile, nell’economia di questo articolo, per rispondere a una domanda. Cosa perdiamo quando smettiamo di cercare? Perdiamo, racconta la tutto sommato inutile ricerca del personaggio di Del Giudice, la capacità di capire chi siamo, di individuare una direzione, di trovare risposte anche quando non esistono davvero risposte.
Scrive Del Giudice, mentre il protagonista del libro guarda il Faro della Vittoria, a Trieste:
Il navigante segue il faro calcolando continuamente la distanza; è un buon modo, credo, quello di avvicinarsi alle cose misurando sempre quanto se ne è lontani.
E anche questo numero di Turisti della realtà è andato. Se vuoi ordinare il libro, puoi farlo qui. Puoi anche condividere la newsletter dal bottone qui sotto, iscriverti da quello ancora più sotto, scrivermi o seguirmi qui.
Grazie per le tue riflessioni e per il modo in cui le esponi
Grazie come sempre!