La spinta dell’intelligenza artificiale sulle convergenze tecnologiche

9-02-2023 | News

Sempre più spesso le tecnologie tendono a combinarsi tra loro, rafforzandosi a vicenda. Una convergenza rafforzata dall’IA che può cambiare in meglio il corso di questo secolo.

Di Giorgio Metta

L’universo di scienza e tecnologia è in fermento e in evoluzione. Sempre più spesso leggiamo di acronimi come BANG (bits, atoms, neurons, and genes), NBIC (neuro, bio, info, cogno) nel contesto dei trend legati alle tecnologie convergenti. Molti esperti teorizzano una convergenza di queste quattro tecnologie verso un “unicum” che nel prossimo futuro rappresenterà tutta la nostra “ingegneria”.

Gli esempi di tecnologie convergenti sono, per esempio, la biologia sintetica (che permette di far eseguire alle cellule delle operazioni diverse da quelle per le quali si sono evolute, incluso il calcolo digitale), le tecnologie neuromorfe che imitano in silicio il funzionamento dei neuroni del nostro cervello, l’utilizzo del DNA come meccanismo di conservazione dell’informazione, lo sviluppo di nanobot per una cura super selettiva di importanti patologie, ecc.

L’idea è, tutto sommato, semplice: la capacità di manipolare l’informazione, di “mettere in fila” gli atomi uno per uno, di capire cosa fanno i nostri neuroni e la comprensione a livello molecolare della biologia consentiranno un progresso rapidissimo delle nostre capacità di realizzare dispositivi digitali e quantistici, curarci e migliorarci, di prenderci cura del nostro pianeta e, in maniera rivoluzionaria, migliorare la qualità della vita. Vorrei dare in queste pagine un’interpretazione delle stesse tecnologie e della loro convergenza nel contesto del recente sviluppo rapidissimo degli algoritmi di intelligenza artificiale.

Per essere precisi nell’uso dei termini, intelligenza artificiale è in questo contesto utilizzata nel suo senso più “ampio”, includendo in essa sia metodi simbolici, sia quelli sub-simbolici (come le reti neurali) e, allo stesso tempo, le tecniche di ottimizzazione ma anche tutti gli algoritmi che “apprendono” partendo dai dati. Si tratta chiaramente di un campo della ricerca molto ampio.

Il formidabile impatto dell’intelligenza artificiale

La ragione per la quale penso che l’intelligenza artificiale sia un elemento importante dello sviluppo tecnologico è perché essa stessa ha un impatto sempre più profondo nel modo in cui facciamo scienza. Gli stessi ricercatori, a prescindere dalle loro specialità, si stanno e dovranno sempre più adattarsi a lavorare fianco a fianco con gli “algoritmi”. Il dato diventerà essenziale, la sua cattiva gestione sarà esiziale.

Sarà qualcosa da raccogliere con cura, etichettare, conservare in modi e formati che ne permettano la successiva valorizzazione algoritmica. Se fino a qualche anno fa, le raccomandazioni europee in merito ai dati FAIR (Findability/Trovabile, Accessibility/Accessibile, Interoperability/Interoperabile, and Reuse/Riusabile) erano qualcosa di astratto per il ricercatore, oggi diventano uno strumento per essere competitivi.

Si parla recentemente dei cosiddetti modelli fondazionali (Foundation Models), quelli sui quali si dovrebbe basare una varietà di applicazioni specializzate. Modelli tipicamente composti da centinaia di miliardi di parametri, allenati in maniera semi-automatica su grandissime quantità di dati, che realizzano compiti come quelli di conversare in linguaggio naturale. Ebbene, alcuni ricercatori hanno cominciato a utilizzarli per generare in maniera automatica codici nei più comuni linguaggi di programmazione rispondendo a domande in linguaggio naturale del tipo: “mi visualizzeresti i dati contenuti nella variabile X e Y utilizzando uno scatter plot”.

Il programmatore chiede, l’IA prepara il codice e lo aggiunge al programma in via di sviluppo. Risultato, il programmatore diventa estremamente efficiente, non deve più preoccuparsi dei dettagli che sono verificati e controllati in continuazione dall’IA. Si è stimata – ad oggi – un’accelerazione del 30% nella preparazione di un codice. Immaginate il valore per le aziende. I propri programmatori diventano in media il 30% più veloci. Questo è il significato profondo dell’ingegneria dell’intelligenza artificiale moderna.

È chiaro che la competizione è solo per chi potrà accedere e pagare software di IA di questo tipo. Ragioniamo – come Paese – se non sia necessario un investimento importantissimo per costruire una competenza elevatissima nel dominio dell’IA.

Nuovi materiali

Qualche anno fa la comunità scientifica ha iniziato a studiare reti neurali a grafo per rappresentare e apprendere i possibili percorsi di sintesi di nuovi materiali. La chimica è stata codificata semplicemente partendo dai dati relativi alle sequenze di passi che da una serie di reagenti, cataliti, parametri fisici, ecc. porta alla sintesi di un certo prodotto in certe quantità. Gli ultimi risultati hanno mostrato che queste reti neurali sono circa il 10% più efficienti e affidabili di un chimico “umano”. Non inventano certamente nulla di nuovo in senso stretto ma fanno molto bene un mestiere che comunque comporterebbe un dispendio di tempo notevole per l’umano. 

Immaginate di etichettare tutto quello che si fa in laboratorio (o in tanti laboratori) per diversi anni e allenare modelli sempre più sofisticati, legandoli poi a modelli e conoscenze di base della fisica piuttosto che di quanto è già noto alla chimica nel suo insieme. Possiamo ipotizzare processi di sviluppo per nuovi materiali rapidissimi. Siccome bisogna successivamente provare quello che suggerisce l’IA e, probabilmente, anche raffinare le condizioni al contorno per ottenere l’accuratezza richiesta, si può successivamente immaginare di robotizzare il laboratorio. 

Ancora una volta, tecnologie convergenti – fisica, chimica, intelligenza artificiale – rendono la ricerca più veloce, permettendoci di esplorare nuove soluzioni meglio di quanto potremmo fare manualmente. Viene naturale chiedersi se sarà ancora possibile fare ricerca nel mondo dei materiali senza avere un’IA che ci accompagna.

Pensate a quanto questi nuovi materiali siano importanti in medicina per realizzare farmaci sempre più efficaci, nella lotta al cambiamento climatico per pannelli solari con rendimento sempre più elevato, agli enzimi per “digerire” la plastica, ma anche per catturare la CO2 in eccesso nei processi industriali.

La rivoluzione in medicina

Si ritiene che circa 1 miliardo di esseri umani soffra di disturbi mentali. Il 70% di questi sono legati alla depressione e a stati d’ansia. Parliamo di una vera emergenza sanitaria che colpirà la nostra società in parallelo a un invecchiamento della popolazione che vede il numero di individui oltre i 65 anni raggiungere più del 20% del totale della popolazione mondiale entro il 2050

Importanti problemi di salute si accompagnano all’invecchiamento con le patologie neurodegenerative. È assolutamente necessario capire quali siano le cause osservando e modellando il funzionamento del cervello. La possibilità di osservare il cervello con una risoluzione senza precedenti viene fornita, tra le altre tecnologie, da elettrodi con impianti stabili di lungo periodo.

Si ipotizza di poter raggiungere centinaia di migliaia di neuroni, raccogliere segnali che poi possono essere modellati tramite reti neurali artificiali, estrarne il significato rispetto al comportamento, distinguendo gli elementi anomali. Un futuro dove registrare e stimolare i neuroni consentirà di determinare cause e porre rimedio, magari ricostruendo percorsi neurali non più funzionanti. Mole e complessità delle informazioni, non possono che essere analizzate tramite l’IA. 

Parlando di medicina, nel senso più ampio del termine, l’IA è in grado di svolgere una grande opera di modellazione delle interazioni farmaco-recettore piuttosto che risolvere e riprodurre le strutture molecolari della cellula come, per esempio, le proteine.

Molti recenti studi hanno iniziato a studiarle mediante approcci di apprendimento automatico (machine learning) rivoluzionando la ricerca nell’ambito delle scienze della vita. I microscopi elettronici ci permettono di vedere la struttura delle proteine, quelli ottici di osservarle all’interno delle cellule mentre svolgono la propria funzione, i sequenziatori di registrare la struttura degli acidi nucleici e le loro modificazioni. 

Sono tutte sorgenti di dati immense per le quali non è certamente possibile ipotizzare un’analisi manuale. La bioinformatica ancora una volta mischia le conoscenze. Sempre di più però elementi importanti di questa disciplina sono realizzati tramite algoritmi di IA. Dal silicio si passa poi per la chimica e si provano le soluzioni prima in vitro per poi arrivare dopo un lungo percorso alle sperimentazioni cliniche sull’essere umano.

Esistono circa un migliaio geni che codificano proteine per i quali abbiamo modo di inibirne l’espressione attraverso dei medicinali. Ancora pochi rispetto ai circa 22.000 che troviamo nel nostro DNA oltre ai circa 60.000 non codificanti. Immaginate quindi cosa può voler dire capire dall’analisi in silico come intervenire su uno specifico processo cellulare incrementando o riducendo la produzione di una certa proteina. Potremmo curare malattie ad oggi totalmente incurabili. Portare sollievo a chi al momento non lo ha. Ancora una volta, tecnologie convergenti, possono avere risultati incredibili.

La crescita dell’IA, in definitiva, non è certamente limitata alle sue applicazioni più evidenti come quelle del controllo automatico di robot sempre più autonomi, mezzi di trasporto che diventano di fatto dei robot piuttosto che l’utilizzo nei sistemi informativi in quanto tali. Nel mondo delle tecnologie sempre più convergenti, l’IA diventa certamente la nuova elettricità, la forza che può cambiare in meglio il corso di questo secolo. Visti i problemi che dovremo affrontare, uno su tutti il cambiamento climatico, non possiamo che auspicarci che ci sia sempre più intelligenza artificiale ad affiancare quella umana.

Giorgio Metta è Direttore scientifico dell’Istituto Italiano di Tecnologia (IIT).

Condividi questo contenuto su: