2.9 C
Rome
mercoledì, Novembre 27, 2024
- Pubblicità -
Scienze & AmbienteIntelligenza artificiale: puntare le politiche sull’hardware per garantire la sicurezza dell’intelligenza artificiale,...

Intelligenza artificiale: puntare le politiche sull’hardware per garantire la sicurezza dell’intelligenza artificiale, affermano gli esperti

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Un registro globale che tiene traccia del flusso di chip destinati Supercomputer IA è una delle opzioni politiche evidenziate da un nuovo importante rapporto chiedendo una regolamentazione del “computer” – l’hardware che è alla base di tutta l’intelligenza artificiale – per aiutare a prevenire l’uso improprio e i disastri dell’intelligenza artificiale.

Secondo gli esperti, oggi i più grandi modelli di intelligenza artificiale utilizzano 350 milioni di volte più risorse di calcolo rispetto a tredici anni fa.

Altre proposte tecniche avanzate dal rapporto includono “compute caps” – limiti incorporati al numero di chip con cui ciascun chip AI può connettersi – e la distribuzione di un “cambio di avvio” per la formazione sull’IA tra più parti per consentire un veto digitale sui rischi L’intelligenza artificiale prima che si nutra di dati.

I ricercatori sostengono che i chip e i data center IA offrono obiettivi più efficaci per il controllo e la governance della sicurezza dell’IA, poiché queste risorse devono essere possedute fisicamente, mentre gli altri elementi della “triade AI” – dati e algoritmi – possono, in teoria, essere duplicati all’infinito e diffuso.

Gli esperti sottolineano che i potenti chip informatici necessari per guidare i modelli di intelligenza artificiale generativa sono costruiti attraverso catene di approvvigionamento altamente concentrate, dominate solo da una manciata di aziende, rendendo l’hardware stesso un forte punto di intervento per le politiche di riduzione del rischio di intelligenza artificiale.

Il rapporto è redatto da diciannove esperti e co-diretto da tre istituti dell’Università di Cambridge: il Leverhulme Center for the Future of Intelligence (LCFI), il Centro per lo Studio del Rischio Esistenziale (CSER) e il Bennett Institute for Public Policy – ​​insieme a OpenAI e al Center for the Governance of AI.

“L’intelligenza artificiale ha compiuto progressi sorprendenti nell’ultimo decennio, molti dei quali sono stati resi possibili dal forte aumento della potenza di calcolo applicata agli algoritmi di addestramento”, ha affermato Haydn Belfield, co-autore principale del rapporto dell’LCFI di Cambridge.

“I governi sono giustamente preoccupati per le potenziali conseguenze dell’intelligenza artificiale e stanno cercando come regolamentare la tecnologia, ma i dati e gli algoritmi sono intangibili e difficili da controllare.

“I supercomputer IA sono costituiti da decine di migliaia di chip IA collegati in rete ospitati in giganteschi data center, spesso grandi quanto diversi campi da calcio, e consumano decine di megawatt di energia”, ha affermato Belfield.

“L’hardware informatico è visibile, quantificabile e la sua natura fisica significa che è possibile imporre restrizioni in un modo che presto potrebbe essere quasi impossibile con più elementi virtuali dell’intelligenza artificiale”.

La potenza di calcolo dell’intelligenza artificiale è cresciuta in modo esponenziale da quando è iniziata davvero l’era del deep learning, con la quantità di “calcolo” utilizzata per addestrare i modelli di intelligenza artificiale più grandi che raddoppia ogni sei mesi dal 2010. I modelli di intelligenza artificiale più grandi ora utilizzano 350 milioni di unità. volte più calcolo rispetto a tredici anni fa.

Gli sforzi dei governi di tutto il mondo nell’ultimo anno – tra cui l’ordine esecutivo degli Stati Uniti sull’intelligenza artificiale, l’AI Act dell’UE, il regolamento cinese sull’intelligenza artificiale generativa e l’AI Safety Institute del Regno Unito – hanno iniziato a concentrarsi sull’informatica quando si considera la governance dell’IA.

Al di fuori della Cina, il mercato del cloud computing è dominato da tre società, chiamate “hyperscaler”: Amazon, Microsoft e Google.

“Il monitoraggio dell’hardware aiuterebbe molto le autorità garanti della concorrenza a tenere sotto controllo il potere di mercato delle più grandi aziende tecnologiche, aprendo così lo spazio per maggiore innovazione e nuovi concorrenti”, ha affermato la coautrice Prof. Diane Coyle del Bennett Institute di Cambridge.

Il rapporto fornisce “schizzi” di possibili direzioni per la governance informatica, evidenziando l’analogia tra la formazione sull’intelligenza artificiale e l’arricchimento dell’uranio.

“La regolamentazione internazionale delle forniture nucleari si concentra su un input vitale che deve passare attraverso un processo lungo, difficile e costoso”, ha affermato Belfield. “Un focus sul calcolo consentirebbe alla regolamentazione dell’IA di fare lo stesso”.

Le idee politiche sono divise in tre campi: aumentare la visibilità globale dell’informatica basata sull’intelligenza artificiale; allocare le risorse informatiche per il massimo beneficio per la società; imporre restrizioni sulla potenza di calcolo.

Ad esempio, un registro internazionale di chip AI regolarmente controllato che richiedesse a produttori, venditori e rivenditori di chip di segnalare tutti i trasferimenti fornirebbe informazioni precise sulla quantità di computer posseduta da nazioni e aziende in qualsiasi momento.

Il rapporto suggerisce addirittura che un identificatore univoco potrebbe essere aggiunto a ciascun chip per prevenire lo spionaggio industriale e il “contrabbando di chip”.

“I governi tengono già traccia di molte transazioni economiche, quindi ha senso aumentare il monitoraggio di un bene raro e potente come un chip AI avanzato”, ha affermato Belfield. Tuttavia, il team sottolinea che tali approcci potrebbero portare a un mercato nero di “chip fantasma” non rintracciabili.

Altri suggerimenti per aumentare la visibilità – e la responsabilità – includono la segnalazione della formazione sull’intelligenza artificiale su larga scala da parte dei fornitori di cloud computing e il “monitoraggio del carico di lavoro” che preserva la privacy per aiutare a prevenire una corsa agli armamenti se massicci investimenti informatici vengono effettuati senza sufficiente trasparenza.

“Gli utenti del computer si impegneranno in un mix di attività benefiche, benefiche e dannose, e gruppi determinati troveranno il modo di aggirare le restrizioni”, ha affermato Belfield.

“I regolatori dovranno creare controlli ed equilibri che contrastino usi dannosi o fuorvianti dell’informatica basata sull’intelligenza artificiale”.

Questi potrebbero includere limiti fisici sulla rete chip-to-chip o tecnologia crittografica che consente la disabilitazione remota dei chip AI in circostanze estreme.

Un approccio suggerito richiederebbe il consenso di più parti per sbloccare il calcolo dell’intelligenza artificiale per cicli di addestramento particolarmente rischiosi, un meccanismo familiare alle armi nucleari.

Le politiche di mitigazione del rischio legate all’intelligenza artificiale potrebbero dare priorità all’informatica per la ricerca che ha maggiori probabilità di apportare benefici alla società, dall’energia verde alla salute e all’istruzione. Ciò potrebbe anche assumere la forma di grandi “megaprogetti” internazionali di intelligenza artificiale che affrontano problemi globali mettendo in comune le risorse informatiche.

Gli autori del rapporto sono chiari sul fatto che i loro suggerimenti politici sono “esplorativi” piuttosto che proposte vere e proprie e che tutti comportano potenziali svantaggi, dai rischi di fuga di dati proprietari agli impatti economici negativi e all’ostacolo dello sviluppo positivo dell’IA.

Offrono cinque considerazioni per regolamentare l’intelligenza artificiale attraverso l’informatica, tra cui l’esclusione dell’informatica su piccola scala e non basata sull’intelligenza artificiale, la revisione regolare delle soglie di elaborazione e l’attenzione alla tutela della privacy.

Belfield ha aggiunto: “Cercare di governare i modelli di intelligenza artificiale mentre vengono schierati potrebbe rivelarsi inutile, come inseguire le ombre. Coloro che cercano di stabilire una regolamentazione dell’IA dovrebbero guardare a monte, verso l’informatica, la fonte del potere che guida la rivoluzione dell’IA.

“Se l’informatica rimane non governata, pone gravi rischi per la società”.

Fonte: università di Cambridge



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.