OpenAI, l’azienda che ha creato il famosissimo ChatGPT, non ignora la possibilità che le tecnologie di intelligenza artificiale possano essere seriamente pericolose. Con questo in mente, l’azienda è sostanzialmente in aumento i suoi sforzi dedicati a impedire all’IA di “diventare canaglia”.
OpenAI, il creatore di ChatGPT, ha annunciato ieri, 5 luglio, il suo impegno a impedire che l’intelligenza artificiale “diventi canaglia”. L’organizzazione prevede di allocare risorse sostanziali e istituire un gruppo di ricerca dedicato per garantire la sicurezza dei suoi sistemi di intelligenza artificiale, puntando infine all’auto-supervisione utilizzando la tecnologia di intelligenza artificiale.
In un post sul blog, il co-fondatore di OpenAI Ilya Sutskever e il capo dell’allineamento Jan Leike hanno evidenziato i potenziali rischi associati a quella che hanno chiamato “IA superintelligente”, che potrebbe eventualmente superare l’intelligenza umana e potenzialmente rappresentare una minaccia per l’umanità, inclusa la perdita di potere o addirittura l’estinzione.
“Il vasto potere di superintelligenza potrebbe … portare alla perdita di potere dell’umanità o addirittura all’estinzione umana. Al momento, non abbiamo una soluzione per guidare o controllare un’IA potenzialmente superintelligente e impedire che diventi canaglia”, hanno scritto Ilya Sutskever e Jan Leike in un post sul blog.
Gli autori di questo post hanno previsto che l’IA superintelligente potrebbe emergere entro questo decennio, richiedendo tecniche avanzate per controllare e dirigere le sue azioni. Ciò sottolinea l’importanza delle scoperte nella ricerca sull’allineamento, che si concentra sul garantire che l’IA rimanga benefica e sicura per gli esseri umani.
OpenAI, con il supporto di Microsoft, prevede di dedicare il 20% della sua potenza di calcolo nei prossimi quattro anni per affrontare questa sfida. Inoltre, formeranno un nuovo team, il team Superalignment, per guidare questi sforzi.
L’obiettivo principale del team Superalignment di OpenAI sarà quello di sviluppare un “ricercatore di allineamento AI” che raggiunga un “livello umano” di comprensione, sfruttando una notevole potenza di calcolo. L’approccio di OpenAI comporterà la formazione di sistemi di intelligenza artificiale con feedback umano, l’utilizzo di sistemi di intelligenza artificiale per assistere nella valutazione umana e, infine, la formazione di sistemi di intelligenza artificiale per contribuire attivamente alla ricerca sull’allineamento.
Tuttavia, alcuni sostenitori della sicurezza dell’IA, come ad esempio Connor Leahritengono che il piano sia imperfetto, poiché un’IA a livello umano potrebbe potenzialmente causare il caos prima di poter affrontare efficacemente i problemi di sicurezza dell’IA.
Leahy ha sottolineato la necessità di risolvere i problemi di allineamento prima di sviluppare l’intelligenza a livello umano (o anche la cosiddetta superintelligenza) per garantire il controllo e la sicurezza, perché se lo facciamo nell’ordine sbagliato, non avremo un controllo adeguato sui processi che si svolgono all’interno il sistema di intelligenza artificiale.
Le preoccupazioni relative ai pericoli dell’IA sono state prominenti tra i ricercatori di intelligenza artificiale e il pubblico in generale. Ad aprile, leader ed esperti del settore hanno firmato una lettera aperta chiedendo a pausa temporanea nello sviluppo di sistemi di intelligenza artificiale più potentiesprimendo preoccupazione per i potenziali rischi.
Questa chiamata, tuttavia, non ha attirato un’attenzione significativa e alcuni paesi, incluso il Giappone, stanno già discutendo la possibilità di farlo in qualche modo “attenuare” gli standard di sviluppo dell’IA per renderli più favorevoli per l’attuazione industriale.
Un sondaggio Reuters/Ipsos condotto a maggio ha rivelato che oltre i due terzi degli americani sono preoccupati per i potenziali impatti negativi dell’IA, con Il 61% crede che possa rappresentare una minaccia per la civiltà.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org