L’illusione del progresso elegante

C’è un mito che ci raccontiamo ogni volta che una nuova tecnologia prende piede: quello dell’eleganza nascosta, della raffinatezza intrinseca che giustificherebbe la sua esistenza. Vale per la matematica, vale per la fisica, vale soprattutto per l’informatica. Nel caso dei Large Language Model (LLM), questo mito viene pompato da un marketing che parla di “intelligenza artificiale ispirata al cervello umano”, “reti neurali profonde che simulano la cognizione” e altre formule tanto affascinanti quanto fuorvianti. In realtà, sotto tutta questa vernice semantica, gli LLM non sono altro che giganteschi loop di operazioni ripetute: moltiplicazioni di matrici, somme, normalizzazioni, passaggi in cascata. Tradotto: una mostruosa serie di cicli for annidati che non hanno nulla di elegante o sofisticato, ma che funzionano.

Un tamburo che picchia

Un LLM non “pensa” e non “ragiona”. Predice. Fa calcoli su probabilità condizionate, come un enorme completatore automatico ipertrofico. L’architettura Transformer, presentata da Google nel 20171, è stata venduta come una rivoluzione elegante, e in un certo senso lo è stata. Ma la “rivoluzione” non consiste in un qualche salto concettuale simile alla scoperta del calcolo infinitesimale: è piuttosto un trucco statistico estremamente scalabile che permette di dire “quale pezzo di input conta di più quando devo prevedere l’output?”. Se lo spogliamo dal gergo tecnico, rimane un algoritmo che prende i tuoi token, li mette in fila, moltiplica matrici gigantesche e continua a iterare finché non sputacchia fuori la prossima parola.

L’immagine poetica del cervello umano in silicio si dissolve subito quando realizzi che tutto quello che fa un LLM è applicare funzioni matematiche ripetute miliardi di volte. Eleganza? Col cavolo. È la versione moderna di un motore a vapore: rumoroso, affamato di risorse e privo di grazia, ma con una potenza devastante.

La soluzione brutale

Chi mastica un minimo di storia della tecnologia sa che non è la prima volta che succede. Anzi, sembra quasi una regola: la soluzione più sporca, più grezza, più “ingegneristicamente volgare” finisce quasi sempre per vincere.

Prendiamo l’aviazione. Per secoli, gli inventori hanno provato a imitare le ali degli uccelli, convinti che la vera eleganza fosse riprodurre la natura. Fallimenti su fallimenti. Poi arrivano i fratelli Wright nel 1903: niente piume, niente battiti d’ala, solo ali rigide e un motore a scoppio. Risultato: il primo volo controllato della storia.2 Una soluzione brutta rispetto alla perfezione della natura, ma tremendamente efficace.

Altro esempio: il motore a combustione interna. Non c’è nulla di elegante nel bruciare carburante in cilindri di metallo per muovere pistoni che fanno girare ruote. È inefficiente, inquina, si rompe. Eppure ha dominato il Novecento, asfaltando (letteralmente) soluzioni più “raffinate” come il motore elettrico, che pure esisteva già alla fine dell’Ottocento3.

Stesso discorso per il web. Il protocollo HTTP è fragile, insicuro, nato come sistema provvisorio per scambiare documenti tra ricercatori. Eppure oggi regge il peso di miliardi di interazioni al secondo. È un colabrodo che funziona, e tanto basta.

Una colonia di formichine

Un’immagine che rende bene l’idea è quella della colonia di formiche. La singola formica è stupida, segue feromoni, inciampa su granelli di sabbia. Ma metti insieme milioni di formiche e ottieni comportamenti che sembrano intelligenti: percorsi ottimizzati, costruzioni collettive, addirittura la capacità di difendersi in modo coordinato. Non c’è nessuna mente collettiva, nessun piano segreto: solo stupidità su larga scala che diventa intelligenza emergente.

Gli LLM fanno lo stesso: ogni passaggio è un’operazione elementare, priva di senso. Ma quando metti insieme miliardi di operazioni, addestrate su trilioni di parole, ecco che la macchina comincia a darti risposte che sembrano ragionate. Non perché ci sia logica dietro, ma perché la scala è talmente grande da produrre l’illusione di intelligenza.

…Ma, tutto sommato, va bene così

La tentazione è quella di dire: “ma allora è tutto finto, tutto brutto, tutto sbagliato”. Ma la verità è che no, non è affatto un problema. La storia dell’innovazione ci insegna che la bellezza intrinseca non è un requisito. Non serve che la tecnologia sia elegante, serve che funzioni e che ci porti un passo avanti. Gli LLM non sono raffinati: sono cannoni a ripetizione che sparano calcoli finché non ottengono una frase coerente. Eppure, questo ci ha già dato strumenti impensabili dieci anni fa: assistenti virtuali, traduzioni istantanee, strumenti di scrittura, codici generati in tempo reale.

Proprio come gli aerei, i motori a scoppio o il web, anche gli LLM sono destinati a restare non perché siano belli, ma perché sono utili. Non hanno eleganza, ma hanno efficacia. Non hanno coscienza, ma hanno impatto. E alla fine della fiera, è questo che ci interessa davvero.

Se cerchi poesia, vai in biblioteca. Se cerchi eleganza, apri un libro di geometria o di musica classica. Ma se vuoi capire il futuro della tecnologia, devi accettare che molto spesso non c’è nulla di sublime: solo un mucchio di cicli for che girano più velocemente di quanto la mente umana possa concepire. Gli LLM sono brutti, rumorosi, energivori, eppure ci accompagneranno nei prossimi anni, sempre più integrati nelle nostre vite. È un progresso che non ha bisogno di sembrare bello: ha solo bisogno di andare avanti.

E andrà avanti comunque, perché il mondo non ha mai chiesto eleganza alle sue macchine: ha sempre chiesto di funzionare.

  1. Vaswani et al., “Attention Is All You Need” ↩︎
  2. https://airandspace.si.edu/collection-objects/1903-wright-flyer/nasm_A19610048000 ↩︎
  3. https://www.petersen.org/alternating-currents-exhibit ↩︎