Grazie alla fantasia di molti scrittori e sceneggiatori, libri e film hanno spesso anticipato il futuro immaginando mondi utopici ma anche distopici. Oggi però la realtà supera la fantasia
di Enrico Sassoon
Oggi l’intelligenza artificiale (IA), specie con il salto compiuto nei mesi scorsi con l’uscita esplosiva di ChatGPT e l’IA generativa, fa sempre più parte delle nostre abitudini quotidiane, sia nel mondo del lavoro sia tra le nostre pareti domestiche. Ogni tanto solleva qualche inquietudine, ma tutto sommato ci viviamo abbastanza bene. Abbiamo avuto qualche tempo per abituarci, probabilmente anche grazie al fatto che da ormai molto tempo l’IA ha scatenato la fantasia degli scrittori di fantascienza che, con incredibile visione anticipatoria, hanno immaginato scenari diversi, alcuni positivi e felici e altri distopici e da incubo. Vediamone qualcuno.
Un esperto di computer inavvertitamente lascia libera un’entità IA senziente di nome Archos R-14 che si propone subito di far fuori allegramente l’umanità intera. Le prime azioni vanno a buon fine, anche perché ben dissimulate, così vengono infettati tutti i dispositivi personali, le driverless car, le guide computerizzate degli aerei, le case gestite da domotica, gli ascensori, i programmi finanziari, i sistemi sanitari e chi più ne ha più ne metta. Seguono i prevedibili disastri a catena finchè, dopo un bel po’ di va e vieni, Archos viene neutralizzato e i buoni vincono (tranne che l’IA riesce segretamente a mandare in extremis un messaggio a sconosciute macchine aliene). È la trama di un bel libro di fantascienza di qualche anno fa, dal titolo di Robocalypse, che ha Daniel H. Wilson come autore. Ed è un po’ l’incubo-paradigma che si può applicare alle nostre fantasie sull’intelligenza artificiale.
Con la progressiva avanzata dell’IA, sappiamo cosa stiamo facendo? La domanda non è peregrina se già cinque anni fa gente seria come i banchieri centrali di mezzo mondo – da Draghi (BCE) a Bernanke (ex-Fed) a un’altra mezza dozzina di colleghi – aveva sentito il bisogno di riunirsi a discutere di questo tema sotto la guida di esperti come David Autor, Joel Mokyr e altri luminari di economia e tecnologia. Discussione innescata dal saggio dello stesso Autor (con Anna Salomons) dal titolo “Does Productivity Growth Threaten Employment?” (European Central Bank, 2017).
L’apocalisse del banchiere centrale (che, si sa, è abbastanza poco dotato di fantasia) riguarda questioni serie come l’occupazione, la produttività e simili. Ma il punto centrale resta la domanda posta sopra. Ossia, fino a che punto fare evolvere l’IA, darle autonomia, diventarne dipendenti e, perché no, vittime potenziali.
Ne avevamo già visto i primi esempi con Hal, di Odissea 2001 nello spazio; ma anche con gli androidi descritti da Philip K. Dick, il cui bel libro intitolato Do Androids Dream of Electric Sheep? ha generato i film della serie Blade Runner, che forse non abbiamo preso abbastanza sul serio; e poi nei futuri remoti dei film dedicati a Terminator.
Citare a ripetizione, nel contesto di queste nuove e formidabili tecnologie, film e libri di fantascienza può sembrare poco appropriato, ma non lo è. Scrittori visionari hanno anticipato di decenni ciò che osserviamo ora: per esempio, Jules Verne e H. G. Wells avevano prefigurato già attorno alla fine dell’Ottocento i viaggi spaziali che noi oggi prendiamo come del tutto scontati.
Un super-esperto di IA, Oren Etzioni (CEO dell’Allen Institute for Artificial Intelligence) ha di recente richiamato su The New York Times le “tre leggi della robotica” enunciate da Asimov nel 1942 come una buona base per regolare i nostri futuri rapporti con IA e robot. E se Bill Gates ha ipotizzato l’introduzione di una tassa sui robot per finanziare le alternative derivanti dalla perdita di posti di lavoro, sia il creatore di OpenAI e ChatGPT Sam Altman, sia il visionario capo di Tesla, Elon Musk, hanno esortato i governanti del mondo a regolare l’introduzione dell’intelligenza artificiale “prima che sia troppo tardi”.
La pensano come loro alcuni ricercatori che qualche tempo fa hanno deciso di porre fine all’idillio di Alice e Bob, due computer evidentemente non stupidi che si erano inventati un linguaggio loro per non farsi capire, nelle loro evidentemente intime interazioni, dai programmatori umani.
Insomma, come ha correttamente sostenuto nei suoi libri Luciano Floridi, docente di filosofia a Oxford, è indispensabile che ci si ponga la questione del rapporto tra umani e macchine non tanto per evitare che l’intelligenza di queste arrivi a sopraffare l’intelligenza di quelli, ma “per evitare che la stupidità umana si fonda con la stupidità dei robot”. È un tema logico, altrettanto filosofico quanto etico, ma alla fine terribilmente pratico e concreto.
Se siamo portati a ritenere che gli scienziati, i tecnologi, gli imprenditori, e i politici e i militari, siano persone razionali, dobbiamo anche sperare che non delegheranno a delle macchine le scelte sulla nostra sicurezza e sulla nostra vita. Ma se siamo, come è ben possibile, propensi a dubitarne, allora occorre che fissiamo di comune intesa le regole per far circolare le auto senza conducente nelle vie delle nostre affollate città, per consentire ai robot finanziari di gestire le operazioni in Borsa e gli investimenti della gente, per autorizzare sofisticati software a fare ricerche legali, per affidare la diagnostica medica ad assistenti robotici, o anche solo per far tagliare il prato ad autonomi tagliaerba senza minacciare le zampe del cane di casa. E a maggior ragione, ovviamente, per consentire la creazione e l’utilizzo di robot militari nei teatri di operazione.
E questo è possibile, ricorrendo ai sempre più sofisticati approcci allo sviluppo dell’intelligenza artificiale, siano essi basati su metodologie bottom-up (come il deep learning e il reinforced learning) o top-down (come i sistemi bayesiani centrati sulle capacità di astrazione), che in fondo hanno tutti quanti lo scopo di far sempre più avvicinare le capacità di imparare delle macchine a quelle dell’uomo (si legga in proposito il saggio di Alison Gopnik della Berkeley University, “Making AI More Human”, Scientific American, 2017).
In fondo, il tempo per riflettere e agire con giudizio lo abbiamo, visto che per assistere al trionfo dell’IA occorreranno secondo alcuni almeno 20 anni e secondo altri non meno di 120. Un lasso di tempo da utilizzare al meglio.
Enrico Sassoon è Direttore responsabile di Harvard Business Review Italia.