-0.8 C
Rome
domenica, Novembre 10, 2024
- Pubblicità -
Scienze & AmbienteOpenAI: la superintelligenza potrebbe portare all'estinzione umana

OpenAI: la superintelligenza potrebbe portare all’estinzione umana

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


OpenAI, l’azienda che ha creato il famosissimo ChatGPT, non ignora la possibilità che le tecnologie di intelligenza artificiale possano essere seriamente pericolose. Con questo in mente, l’azienda è sostanzialmente in aumento i suoi sforzi dedicati a impedire all’IA di “diventare canaglia”.

Illustrazione artistica raffigurante la superintelligenza, o dualità tra intelligenza umana e macchina.

Illustrazione artistica raffigurante la superintelligenza, o dualità tra intelligenza umana e macchina. Credito immagine: Google DeepMind tramite Unsplash, licenza gratuita

OpenAI, il creatore di ChatGPT, ha annunciato ieri, 5 luglio, il suo impegno a impedire che l’intelligenza artificiale “diventi canaglia”. L’organizzazione prevede di allocare risorse sostanziali e istituire un gruppo di ricerca dedicato per garantire la sicurezza dei suoi sistemi di intelligenza artificiale, puntando infine all’auto-supervisione utilizzando la tecnologia di intelligenza artificiale.

In un post sul blog, il co-fondatore di OpenAI Ilya Sutskever e il capo dell’allineamento Jan Leike hanno evidenziato i potenziali rischi associati a quella che hanno chiamato “IA superintelligente”, che potrebbe eventualmente superare l’intelligenza umana e potenzialmente rappresentare una minaccia per l’umanità, inclusa la perdita di potere o addirittura l’estinzione.

“Il vasto potere di superintelligenza potrebbe … portare alla perdita di potere dell’umanità o addirittura all’estinzione umana. Al momento, non abbiamo una soluzione per guidare o controllare un’IA potenzialmente superintelligente e impedire che diventi canaglia”, hanno scritto Ilya Sutskever e Jan Leike in un post sul blog.

A che punto l'IA raggiunge il livello di superintelligenza?

A che punto l’IA raggiunge il livello di superintelligenza? Immagine: steamXO tramite Flickr, dominio pubblico.

Gli autori di questo post hanno previsto che l’IA superintelligente potrebbe emergere entro questo decennio, richiedendo tecniche avanzate per controllare e dirigere le sue azioni. Ciò sottolinea l’importanza delle scoperte nella ricerca sull’allineamento, che si concentra sul garantire che l’IA rimanga benefica e sicura per gli esseri umani.

OpenAI, con il supporto di Microsoft, prevede di dedicare il 20% della sua potenza di calcolo nei prossimi quattro anni per affrontare questa sfida. Inoltre, formeranno un nuovo team, il team Superalignment, per guidare questi sforzi.

L’obiettivo principale del team Superalignment di OpenAI sarà quello di sviluppare un “ricercatore di allineamento AI” che raggiunga un “livello umano” di comprensione, sfruttando una notevole potenza di calcolo. L’approccio di OpenAI comporterà la formazione di sistemi di intelligenza artificiale con feedback umano, l’utilizzo di sistemi di intelligenza artificiale per assistere nella valutazione umana e, infine, la formazione di sistemi di intelligenza artificiale per contribuire attivamente alla ricerca sull’allineamento.

Tuttavia, alcuni sostenitori della sicurezza dell’IA, come ad esempio Connor Leahritengono che il piano sia imperfetto, poiché un’IA a livello umano potrebbe potenzialmente causare il caos prima di poter affrontare efficacemente i problemi di sicurezza dell’IA.

Leahy ha sottolineato la necessità di risolvere i problemi di allineamento prima di sviluppare l’intelligenza a livello umano (o anche la cosiddetta superintelligenza) per garantire il controllo e la sicurezza, perché se lo facciamo nell’ordine sbagliato, non avremo un controllo adeguato sui processi che si svolgono all’interno il sistema di intelligenza artificiale.

Intelligenza artificiale, machine learning - interpretazione artistica.

Intelligenza artificiale, machine learning – interpretazione artistica. Credito immagine: Steve Johnson tramite Unsplash, licenza gratuita

Le preoccupazioni relative ai pericoli dell’IA sono state prominenti tra i ricercatori di intelligenza artificiale e il pubblico in generale. Ad aprile, leader ed esperti del settore hanno firmato una lettera aperta chiedendo a pausa temporanea nello sviluppo di sistemi di intelligenza artificiale più potentiesprimendo preoccupazione per i potenziali rischi.

Questa chiamata, tuttavia, non ha attirato un’attenzione significativa e alcuni paesi, incluso il Giappone, stanno già discutendo la possibilità di farlo in qualche modo “attenuare” gli standard di sviluppo dell’IA per renderli più favorevoli per l’attuazione industriale.

Un sondaggio Reuters/Ipsos condotto a maggio ha rivelato che oltre i due terzi degli americani sono preoccupati per i potenziali impatti negativi dell’IA, con Il 61% crede che possa rappresentare una minaccia per la civiltà.

Scritto da Alius Noreika



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.