Tra scienza e fantascienza

13-06-2023 | News

Grazie alla fantasia di molti scrittori e sceneggiatori, libri e film hanno spesso anticipato il futuro immaginando mondi utopici ma anche distopici. Oggi però la realtà supera la fantasia

by Enrico Sassoon

Foto di Jonathan Kemper

Oggi l’intelligenza artificiale (IA), specie con il salto compiuto nei mesi scorsi con l’uscita esplosiva di ChatGPT e l’IA generativa, fa sempre più parte delle nostre abitudini quotidiane, sia nel mondo del lavoro sia tra le nostre pareti domestiche. Ogni tanto solleva qualche inquietudine, ma tutto sommato ci viviamo abbastanza bene. Abbiamo avuto qualche tempo per abituarci, probabilmente anche grazie al fatto che da ormai molto tempo l’IA ha scatenato la fantasia degli scrittori di fantascienza che, con incredibile visione anticipatoria, hanno immaginato scenari diversi, alcuni positivi e felici e altri distopici e da incubo. Vediamone qualcuno.

Un esperto di computer inavvertitamente lascia libera un’entità IA senziente di nome Archos R-14 che si propone subito di far fuori allegramente l’umanità intera. Le prime azioni vanno a buon fine, anche perché ben dissimulate, così vengono infettati tutti i dispositivi personali, le driverless car, le guide computerizzate degli aerei, le case gestite da domotica, gli ascensori, i programmi finanziari, i sistemi sanitari e chi più ne ha più ne metta. Seguono i prevedibili disastri a catena finchè, dopo un bel po’ di va e vieni, Archos viene neutralizzato e i buoni vincono (tranne che l’IA riesce segretamente a mandare in extremis un messaggio a sconosciute macchine aliene). È la trama di un bel libro di fantascienza di qualche anno fa, dal titolo di Robocalypse, che ha Daniel H. Wilson come autore. Ed è un po’ l’incubo-paradigma che si può applicare alle nostre fantasie sull’intelligenza artificiale.

Con la progressiva avanzata dell’IA, sappiamo cosa stiamo facendo? La domanda non è peregrina se già cinque anni fa gente seria come i banchieri centrali di mezzo mondo – da Draghi (BCE) a Bernanke (ex-Fed) a un’altra mezza dozzina di colleghi – aveva sentito il bisogno di riunirsi a discutere di questo tema sotto la guida di esperti come David Autor, Joel Mokyr e altri luminari di economia e tecnologia. Discussione innescata dal saggio dello stesso Autor (con Anna Salomons) dal titolo “Does Productivity Growth Threaten Employment?” (European Central Bank, 2017). 

The apocalypse of the central banker (who is known to have little imagination) concerns serious issues such as employment, productivity and the like. But the central point remains the question asked above. That is, to what extent to make AI evolve, give it autonomy, become dependent on it and, why not, potential victims. 

Ne avevamo già visto i primi esempi con Hal, di Odissea 2001 nello spazio; ma anche con gli androidi descritti da Philip K. Dick, il cui bel libro intitolato Do Androids Dream of Electric Sheep? ha generato i film della serie Blade Runner, which perhaps we have not taken seriously enough; and then in the distant future of the films dedicated to Terminator.

Citare a ripetizione, nel contesto di queste nuove e formidabili tecnologie, film e libri di fantascienza può sembrare poco appropriato, ma non lo è. Scrittori visionari hanno anticipato di decenni ciò che osserviamo ora: per esempio, Jules Verne e H. G. Wells avevano prefigurato già attorno alla fine dell’Ottocento i viaggi spaziali che noi oggi prendiamo come del tutto scontati. 

An AI super expert, Oren Etzioni (CEO of the Allen Institute for Artificial Intelligence) recently called up The New York Times le “tre leggi della robotica” enunciate da Asimov nel 1942 come una buona base per regolare i nostri futuri rapporti con IA e robot. E se Bill Gates ha ipotizzato l’introduzione di una tassa sui robot per finanziare le alternative derivanti dalla perdita di posti di lavoro, sia il creatore di OpenAI e ChatGPT Sam Altman, sia il visionario capo di Tesla, Elon Musk, hanno esortato i governanti del mondo a regolare l’introduzione dell’intelligenza artificiale “prima che sia troppo tardi”. 

La pensano come loro alcuni ricercatori che qualche tempo fa hanno deciso di porre fine all’idillio di Alice e Bob, due computer evidentemente non stupidi che si erano inventati un linguaggio loro per non farsi capire, nelle loro evidentemente intime interazioni, dai programmatori umani. 

Insomma, come ha correttamente sostenuto nei suoi libri Luciano Floridi, docente di filosofia a Oxford, è indispensabile che ci si ponga la questione del rapporto tra umani e macchine non tanto per evitare che l’intelligenza di queste arrivi a sopraffare l’intelligenza di quelli, ma “per evitare che la stupidità umana si fonda con la stupidità dei robot”. È un tema logico, altrettanto filosofico quanto etico, ma alla fine terribilmente pratico e concreto. 

If we are led to believe that scientists, technologists, entrepreneurs, and politicians and the military are rational people, we must also hope that they will not delegate the choices about our safety and our lives to machines. But if we are, as is quite possible, inclined to doubt it, then we must set mutual rules for circulating driverless cars in the streets of our crowded cities, to allow financial robots to manage operations on the stock exchange and investments people, to authorize sophisticated software to do legal research, to entrust medical diagnostics to robotic assistants, or even just to have the lawn mowers cut by autonomous lawnmowers without threatening the paws of the house dog. And even more so, of course, to allow the creation and use of military robots in operation theaters.

And this is possible, resorting to increasingly sophisticated approaches to the development of artificial intelligence, whether they are based on bottom-up methodologies (such as the deep learning and the reinforced learning) o top-down (come i sistemi bayesiani centrati sulle capacità di astrazione), che in fondo hanno tutti quanti lo scopo di far sempre più avvicinare le capacità di imparare delle macchine a quelle dell’uomo (si legga in proposito il saggio di Alison Gopnik della Berkeley University, “Making AI More Human”, Scientific American, 2017).

After all, we have the time to reflect and act judiciously, since according to some, at least 20 years will be necessary to witness the triumph of AI and not less than 120 according to others. A period of time to be used to the best.

Enrico Sassoon is Director in charge of Harvard Business Review Italia.

Share this content on: