Sam Altman, amministratore delegato di ChatGPT-maker OpenAIsecondo quanto riferito, sta cercando di trovare fino a 7mila miliardi di dollari di investimenti per produrre gli enormi volumi di chip per computer di cui ritiene il mondo abbia bisogno per far funzionare i sistemi di intelligenza artificiale (AI). Anche Altman ha recentemente affermato il mondo avrà bisogno di più energia nel futuro saturo di intelligenza artificiale, egli prevede, tanto più che potrebbe essere necessaria una sorta di svolta tecnologica come la fusione nucleare.
Altman ha chiaramente grandi progetti per la tecnologia della sua azienda, ma il futuro dell’intelligenza artificiale è davvero così roseo? Come ricercatore di lunga data sull’”intelligenza artificiale”, ho i miei dubbi.
I sistemi di intelligenza artificiale di oggi, in particolare gli strumenti di intelligenza artificiale generativa come ChatGPT, non sono veramente intelligenti. Inoltre, non vi è alcuna prova che possano diventarlo senza cambiamenti fondamentali nel modo in cui lavorano.
Cos’è l’intelligenza artificiale?
Una definizione di intelligenza artificiale è un sistema informatico in grado di “eseguire compiti comunemente associati agli esseri intelligenti”.
Questa definizione, come molte altre, è un po’ sfocata: dovremmo chiamare i fogli di calcolo AI, poiché possono eseguire calcoli che una volta sarebbero stati un compito umano di alto livello? Che ne dici dei robot di fabbrica, che non solo hanno sostituito gli esseri umani, ma in molti casi ci hanno superato nella loro capacità di svolgere compiti complessi e delicati?
Sebbene i fogli di calcolo e i robot possano effettivamente fare cose che una volta erano dominio degli esseri umani, lo fanno seguendo un algoritmo, un processo o un insieme di regole per affrontare un compito e portarlo a termine.
Una cosa che possiamo dire è che non esiste una “IA” nel senso di un sistema in grado di eseguire una serie di azioni intelligenti come farebbe un essere umano. Piuttosto, molte diverse tecnologie di intelligenza artificiale possono fare cose abbastanza diverse.
Prendere decisioni vs generare risultati
Forse la distinzione più importante è tra “AI discriminativa” e “AI generativa”.
L’intelligenza artificiale discriminativa aiuta a prendere decisioni, ad esempio se una banca dovrebbe concedere un prestito a una piccola impresa o se un medico diagnostica a un paziente la malattia X o la malattia Y. Tecnologie di intelligenza artificiale di questo tipo esistono da decenni, e altre più grandi e migliori Sono emergendo continuamente.
I sistemi di intelligenza artificiale generativa, invece – ChatGPT, Midjourney e i loro parenti – generano output in risposta a input: in altre parole, inventano cose. In sostanza, sono stati esposti a miliardi di dati (come frasi) e li usano per indovinare una probabile risposta a un suggerimento. La risposta può spesso essere “vera”, a seconda dei dati di origine, ma non ci sono garanzie.
Per l’intelligenza artificiale generativa, non c’è differenza tra un’“allucinazione” – una falsa risposta inventata dal sistema – e una risposta che un essere umano giudicherebbe vera. Questo sembra essere un difetto intrinseco della tecnologia, che utilizza una sorta di rete neurale chiamata trasformatore.
AI, ma non intelligente
Un altro esempio mostra come i pali dell’“intelligenza artificiale” siano in costante movimento. Negli anni ’80 ho lavorato su un sistema informatico progettato per fornire consulenza medica esperta sui risultati di laboratorio. È stato scritto nella letteratura di ricerca statunitense come uno dei primi quattro “sistemi esperti” medici nell’uso clinico e nel 1986 un rapporto del governo australiano lo descrisse come il sistema esperto di maggior successo sviluppato in Australia.
Ne ero piuttosto orgoglioso. Era un punto di riferimento dell’intelligenza artificiale e svolgeva un compito che normalmente richiedeva specialisti medici altamente qualificati. Tuttavia, il sistema non era affatto intelligente. In realtà era solo una sorta di tabella di ricerca che abbinava i risultati dei test di laboratorio a consigli diagnostici e di gestione del paziente di alto livello.
Ora esiste una tecnologia che rende molto semplice la costruzione di tali sistemi, quindi ce ne sono migliaia in uso in tutto il mondo. (Questa tecnologia, basata sulla ricerca mia e dei miei colleghi, è fornita da una società australiana chiamata Beamtree.)
Nello svolgere un compito svolto da specialisti altamente qualificati, sono certamente “AI”, ma non sono affatto intelligenti (anche se quelli più complessi possono avere migliaia e migliaia di regole per cercare risposte).
Le reti di trasformatori utilizzate nei sistemi di intelligenza artificiale generativa funzionano ancora secondo una serie di regole, anche se potrebbero essercene milioni o miliardi, e non possono essere facilmente spiegate in termini umani.
Cos’è la vera intelligenza?
Se gli algoritmi possono produrre risultati sorprendenti come quelli che vediamo da ChatGPT senza essere intelligenti, cos’è la vera intelligenza?
Potremmo dire che l’intelligenza è insight: il giudizio che qualcosa è o non è una buona idea. Pensa ad Archimede, che salta fuori dal bagno e grida “Eureka” perché aveva avuto un’intuizione sul principio della galleggiabilità.
L’intelligenza artificiale generativa non ha insight. ChatGPT non può dirti se la sua risposta a una domanda è migliore di quella di Gemini. (Gemini, fino a poco tempo fa noto come Bard, è il concorrente di Google della famiglia di strumenti IA GPT di OpenAI.)
O per dirla in un altro modo: l’intelligenza artificiale generativa potrebbe produrre immagini straordinarie nello stile di Monet, ma se fosse addestrata solo all’arte rinascimentale non inventerebbe mai l’impressionismo.
L’intelligenza artificiale generativa è straordinaria e le persone ne troveranno senza dubbio usi diffusi e molto preziosi. Fornisce già strumenti estremamente utili per trasformare e presentare (ma non scoprire) le informazioni, e gli strumenti per trasformare le specifiche in codice sono già utilizzati di routine.
Questi miglioreranno sempre di più: Gemini, appena rilasciato da Google, ad esempio, sembra provare a farlo minimizzare il problema delle allucinazioniutilizzando la ricerca e quindi riesprimendo i risultati della ricerca.
Tuttavia, man mano che acquisiamo maggiore familiarità con i sistemi di intelligenza artificiale generativa, vedremo più chiaramente che non è veramente intelligente; non c’è intuizione. Non si tratta di magia, ma di un astutissimo trucco da prestigiatore: un algoritmo che è il prodotto della straordinaria ingegnosità umana.
Fonte: UNSW
Da un’altra testata giornalistica. news de www.technology.org