Aziende leader che operano nel campo dell’intelligenza artificiale introdurrà speciali tecniche di watermarking dei contenuti su tutto ciò che viene creato dall’intelligenza artificiale.
La notizia è stata annunciata dalla Casa Bianca. Secondo la sua dichiarazione, le principali società di intelligenza artificiale, tra cui Google Alphabet, OpenAI, Meta Platforms e Anthropic, hanno accettato volontariamente di adottare “misure di sicurezza” per Contenuti generati dall’intelligenza artificiale.
Il messaggio non specificava esattamente come ogni azienda – o tutte insieme – perseguirà questo obiettivo. Le società, che includono anche Inflection, Amazon e Microsoft (partner OpenAI), si sono impegnate a eseguire test approfonditi prima di rilasciare sistemi di intelligenza artificiale e a condividere informazioni sulla riduzione del rischio e sulla sicurezza informatica.
Questa mossa è vista come un passo significativo negli sforzi dell’amministrazione Biden per regolamentare la tecnologia AI in rapida crescita, che ha guadagnato un’immensa popolarità e continua ad attrarre grandi investimenti.
Man mano che le tecnologie di intelligenza artificiale in grado di creare contenuti simili a quelli umani diventano sempre più diffuse, i legislatori globali hanno preso in considerazione modi per affrontare potenziali pericoli per la sicurezza nazionale e l’economia.
In risposta a tali preoccupazioni, il leader della maggioranza al Senato degli Stati Uniti Chuck Schumer ha chiesto una legislazione completa per stabilire salvaguardie per l’intelligenza artificiale.
I primi passi sono già stati fatti. Il Congresso sta attualmente valutando un disegno di legge che richiederebbe annunci politici che utilizzano contenuti generati dall’intelligenza artificiale per rivelare il loro utilizzo della tecnologia.
Ora, queste sette società di intelligenza artificiale si sono impegnate a sviluppare un sistema per “filigranare” tutti i tipi di contenuti generati dall’intelligenza artificiale, inclusi testo, immagini, registrazioni audio e video. Questa tecnica di watermarking ha lo scopo di rendere più facile per gli utenti rilevare contenuti deep-fake che possono comportare false rappresentazioni di violenza, truffe o immagini manipolate di personaggi pubblici.
Tuttavia, le specifiche di come sarà visibile la filigrana quando il contenuto viene condiviso non sono state chiarite.
Le aziende hanno anche fatto ulteriori promesse, tra cui concentrarsi sulla privacy degli utenti man mano che l’IA avanza, eliminando i pregiudizi nei sistemi di intelligenza artificiale e prevenendo l’uso discriminatorio della tecnologia contro i gruppi vulnerabili.
Inoltre, si sono impegnati ad applicare soluzioni di intelligenza artificiale per affrontare sfide scientifiche come la ricerca medica e la mitigazione dei cambiamenti climatici.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org