Nel cervello di un verme il futuro dell’intelligenza artificiale
14 gennaio 2026
In un mondo in cui l’intelligenza artificiale (IA) sembra diventare sempre più potente, con modelli che occupano montagne di dati e richiedono enormi risorse energetiche, una scoperta sorprendente prova che “più grande” non significa sempre “migliore”.
L’ispirazione arriva da un animale minuscolo: il verme Caenorhabditis elegans, lungo circa un millimetro, dotato di appena 302 neuroni. Gli scienziati hanno preso spunto dal suo sistema nervoso e dal modo in cui funziona, per progettare una nuova generazione di reti neurali artificiali dette “reti neurali liquide” (Liquid Neural Networks). Per capire perché questo verme può insegnarci qualcosa sull’IA, occorre tornare all’essenziale. Nel cervello del C. elegans i neuroni non comunicano soltanto con segnali “a impulsi” ben definiti, come accade in molti animali più grandi, ma anche con segnali analogici e graduali, con una dinamica più fluida. Questo permette al verme di adattarsi, esplorare e reagire al mondo con efficienza sorprendente per la sua semplicità. Gli ingegneri della società Liquid AI e dell’Università del Massachusetts Institute of Technology (MIT) hanno affermato che volevano “copiare” il verme per cogliere alcuni principi chiave del suo sistema nervoso, come flessibilità, feedback continuo e capacità di adattamento. Ecco allora cosa rende speciali queste reti liquide. Le reti neurali tradizionali operano in modo abbastanza statico: durante l’addestramento si stabiliscono le connessioni tra i “nodi” artificiali, e poi il modello “fissa” quelle relazioni. Con nuovi dati, non sempre è facile modificare il modello in modo significativo. Le reti liquide invece lavorano in modo più dinamico: ogni input può influenzare non solo l’uscita, ma anche modificare il modo in cui la rete calcola le cose. In pratica, il “calcolo” stesso può cambiare forma. Un altro punto: questo tipo di modello può avere “loops” o influenze che vanno anche all’indietro nella rete, non solo in avanti. Ciò conferisce una maggiore adattabilità, per esempio, se un’auto a guida autonoma incontra pioggia o nebbia, il sistema può “aggiustarsi” in tempo reale senza dover ripartire da zero. Quali vantaggi concreti porta questo approccio? Innanzitutto, queste reti richiedono molte meno risorse computazionali rispetto ai modelli giganteschi oggi dominanti. Il CEO di Liquid AI, il dottor Ramin Hasani, spiega che con questi modelli “puoi letteralmente montarli su una macchina da caffè”. Ciò significa che dispositivi piccoli, come occhiali intelligenti o auto compatte, potrebbero incorporare un’IA che non dipende da cloud o server potenti. Dal punto di vista ambientale e pratico è una svolta: meno energia, meno latenza, maggiore privacy. Inoltre, le reti liquide sono più trasparenti, in certi casi, si comprende meglio come esse “pensano” e cambiano comportamento, rispetto ai modelli giganteschi che sono spesso delle “scatole nere”. Tuttavia, non tutto è risolto e ci sono limiti. Le reti liquide sono particolarmente adatte a dati che cambiano nel tempo (serie temporali), come video, segnali audio e sensori, mentre per compiti statici come l’analisi di immagini fisse o generazione di grandi testi, i modelli tradizionali restano oggi più performanti. Un altro aspetto da considerare è che, pur essendo più “vicine” al modo in cui agiscono i sistemi biologici, queste reti più adattabili rischiano di essere anche meno prevedibili in alcuni casi. Occorre quindi un bilanciamento tra flessibilità e controllo. Il fatto che l’ispirazione arrivi da un verme minuscolo ci ricorda che a volte la semplicità nasconde soluzioni profonde. In futuro potremmo avere dispositivi quotidiani, dallo smartphone agli occhiali, all’automobile, che incorporano un’intelligenza “liquida”, capace di adattarsi al mondo in cui viviamo, senza consumare montagne di energia o richiedere server lontani. Un piccolo verme che si muove nel suolo potrebbe indicare la strada verso una grande rivoluzione dell’IA.