Si moltiplicano gli ammonimenti sull’impatto dell’intelligenza artificiale sul lavoro e sulla vita delle persone. Tra buon senso ed esagerazioni
Enrico Sassoon
Il mondo ha gli occhi puntati sull’intelligenza artificiale e, in particolare, sull’IA generativa, ossia quello strumento che porta il nome di Chat Gpt, ma anche Bard e altri, e che in pochi mesi ha accumulato miliardi di consultazioni da parte di centinaia di milioni di utenti. Il paradosso è che questo strumento entusiasia molto chi lo usa ma, allo stesso tempo, è così potente da sollevare preoccupazioni diffure. È di solo un mese fa la richiesta di moratoria nella ricerca da parte di migliaia di scienziati nel mondo. Nei giorni scorsi a questi si è aggiunto il celebre storico israeliano Yuval Noah Harari che The Economist è arrivato a sostenere che “l’intelligenza artificiale ha violato il sistema operativo della civiltà umana”.
L’espressione è forte e non è stata usata a caso. Ma è troppo forte? In fondo, Harari è uno storico e non un economista o un tecnologo. Ma le sue argomentazioni sono come sempre ricche e articolate. Dice infatti Harari che i computer narranti potranno cambiare il corso della storia umana: «I timori dell’intelligenza artificiale hanno perseguitato l’umanità fin dall’inizio dell’era informatica – sostiene Harari. Finora questi timori si concentravano sulle macchine che utilizzavano mezzi fisici per uccidere, schiavizzare o sostituire le persone. Ma negli ultimi due anni sono emersi nuovi strumenti che minacciano la sopravvivenza della civiltà umana da una direzione inaspettata. L’IA ha acquisito notevoli capacità di manipolare e generare il linguaggio, sia con parole, suoni o immagini e così ha violato il sistema operativo della nostra civiltà».
Nell’articolo dell’Economist si legge che «il linguaggio è la materia di cui è fatta quasi tutta la cultura umana. I diritti umani, ad esempio, non sono inscritti nel nostro DNA. Sono piuttosto artefatti culturali che abbiamo creato raccontando storie e scrivendo leggi. Gli dei non sono realtà fisiche. Sono piuttosto artefatti culturali che abbiamo creato inventando miti e scrivendo scritture. Anche il denaro è un artefatto culturale. Le banconote sono solo pezzi di carta colorati e attualmente più del 90% del denaro non è nemmeno costituito da banconote, ma da informazioni digitali contenute nei computer. Ciò che dà valore al denaro sono le storie che banchieri, ministri delle finanze e guru delle criptovalute ci raccontano su di esso. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff non erano particolarmente bravi a creare valore reale, ma erano tutti narratori estremamente capaci».
Cosa accadrebbe, allora, quando un’intelligenza non umana diventasse migliore dell’uomo medio nel raccontare storie, comporre melodie, disegnare immagini, scrivere leggi e scritture? Quando si pensa a Chat Gpt e ad altri nuovi strumenti di intelligenza artificiale, spesso si pensa a esempi come quello degli studenti che usano l’intelligenza artificiale per scrivere dei saggi. Cosa succederà al sistema scolastico quando i ragazzi lo faranno? Ma questo tipo di domanda, secondo lo storico israeliano, non coglie il quadro generale. Occorre pensare alle prossime elezioni presidenziali americane del 2024 e cercare di immaginare l’impatto degli strumenti di IA che potrebbero essere utilizzati per produrre in massa contenuti politici, notizie false e scritture per nuovi culti più o meno esoterici. Oppure, su un piano più concreto, potremmo trovarci a condurre lunghe discussioni online sull’aborto, sul cambiamento climatico o sull’invasione russa dell’Ucraina con entità che crediamo umane, ma che in realtà non lo sono. Il problema è che per noi è del tutto inutile perdere tempo a cercare di cambiare le opinioni dichiarate da un Bot ai, mentre l’IA potrebbe affinare i suoi messaggi in modo così preciso da avere buone possibilità di influenzarci.
Insomma, i motivi per preoccupare ci sono tutti. Ancor più se si considera che, più o meno nello stesso momento di Harari, un grande esperto di IA ha a sua volta lanciato il suo grido d’allarme. Si tratta di Geoffrey Hinton, un grande esperto di intelligenza artificiale che ha collaborato per molti anni con Google, decidendo di lasciarla proprio in questi giorni. Definito come il «nonno» dell’intelligenza artificiale, ha dichiarato al New York Times che si sta pentendo del suo lavoro: «I chatbot al momento non sono più intelligenti di noi, ma penso che presto lo saranno». E ha chiosato dicendo dell’IA: «È spaventosa».
Con una enorme esperienza nel settore, Geoffrey Hinton ha finora diviso il suo tempo lavorando per l’università di Toronto e per Google, da cui ha appena annunciato le dimissioni all’età di 75 anni sollevando il proverbiale vespaio. Anche perché il parere di uno studioso che da decenni si occupa delle reti neurali artificiali pesa molto. Sul tema dell’IA Hinton ha firmato o co-firmato oltre 200 pubblicazioni nel corso della sua lunga carriera. E a suo modo di vedere, i problemi che l’intelligenza artificiale potrebbe causare un domani, si possono oggi solo scorgere: «Al momento, vediamo che il GPT-4 eclissa di gran lunga una persona per quanto riguarda la quantità di conoscenze generali che possiede. In termini di ragionamento, non è altrettanto bravo, ma riesce già a fare ragionamenti semplici e, dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparci».
Anche perché, secondo l’esperto di reti neurali, queste intelligenze artificiali sono molto differenti dalle intelligenze di cui siamo dotati noi: «Noi siamo sistemi biologici e questi sono sistemi digitali. E la grande differenza è che nei sistemi digitali ci sono molte copie dello stesso insieme di pesi, dello stesso modello del mondo. E tutte queste copie possono imparare separatamente, ma condividono le loro conoscenze all’istante. Quindi è come se avessimo 10mila persone e ogni volta che una persona impara qualcosa, tutti la conoscono automaticamente. È così che questi chatbot possono sapere molto di più di una singola persona».
Uno dei maggiori pericoli è rappresentato da quelli che Hinton descrive come “cattivi attori”. L’utilizzo dell’intelligenza artificiale da parte di questi sarebbe uno «scenario da incubo. Immaginiamo, per esempio, persone come Putin che decidano di dare ai robot l’abilità di creare i propri obiettivi come “devo ottenere più poteri”». Hinton però dichiara anche di non avere alcuna intenzione di colpevolizzare Google che, secondo lui, sta affrontando la questione in modo responsabile.
In effetti, i timori espressi sono forti ma anche probabilmente eccessivi. E questo ha l’effetto, forse indesiderato, di diffondere paura nell’opinione pubblica. Di recente, il Corriere della Sera ha pubblicato un lungo articolo di Federico Fubini dove emergono timori sui possibili impatti di Gpt sul lavoro. C’è chi racconta di aver già perso parte del proprio lavoro, chi teme un taglio dei costi e dei posti nella multinazionale dov’è occupato, chi si chiede quale istruzione dare ai figli e chi medita di sostituire il proprio psicanalista con l’intelligenza artificiale.
C’è poi chi vi vede una minaccia e chi pensa che la progressione di questa nuova tecnologia creerà mestieri nuovi. Secondo un recentissimo working paper di Daniel Rock dell’Università della Pennsylvania, di Tyna Eloundou e Pamela Mishkin di OpenAI (il produttore di ChatGPT) e Sam Manning di OpenResearch, metà dei 158 milioni di occupati americani rischia di perdere il posto o di dover competere al ribasso sul proprio salario. Non subito, ma quando l’intelligenza artificiale di GTP-4 sarà integrata nei software e nelle macchine industriali esistenti. Ma non tutti sono così preoccupati e negativi. Per esempio, Cesare Perani, che si occupa da anni di applicazioni dell’intelligenza artificiale, ritiene che Chat-GPT e le altre possono creare nuove opportunità anche per chi non ha una preparazione tecnologica. «Finora la programmazione era principalmente pertinenza degli informatici. GPT introduce nuove modalità ibride, dove alla programmazione basata su codice si affianca quella basata sul linguaggio naturale. Nasce quindi la richiesta di nuove figure professionali la cui formazione è principalmente umanistica». Ne sono esempi il prompt designer, che genera modelli di interrogazione e dialogo; il behavior designer che si occupa di modelli di comportamento; e l’application analyst che si occupa di analisi delle necessità e dei rischi». Conclusione, «Si aprono nuove prospettive d’impiego per psicologi, laureati in lettere o in filosofia».
La discussione dunque è aperta e si presenta lunga e molto, molto articolata. Intanto, dopo qualche settimana di chiusura imposta in Italia dal Garante della privacy, Chat GPT è tornata operativa anche da noi. La decisione di congelarla è stata molto criticata, con qualcuno che l’ha paragonata alle accuse della Chiesa a Galileo, definendola un atto medievale e oscurantista. Ma ora l’IA generativa più nota e potente è tornata in funzione, con tutte le sue meraviglie e tutti i suoi rischi potenziali. Tra paura e curiosità la storia dell’IA è solo all’inizio e, come ha detto un esperto di Microsoft, “quello che stiamo vedendo oggi non è neppure la punta dell’iceberg, ma quel po’ di nevischio che cade sopra la cima”.