Venerdì l’Europa raggiunto un accordo preliminare sulle normative innovative dell’Unione Europea riguardanti l’uso di intelligenza artificiale. Questo accordo abbraccia anche le applicazioni governative dell’intelligenza artificiale nella sorveglianza biometrica e nella regolamentazione dei sistemi di intelligenza artificiale come ChatGPT.
Questo consenso politico spinge l’UE a diventare la prima grande entità globale a stabilire leggi che regolano l’IA.
L’accordo è stato raggiunto dopo quasi 15 ore di negoziati tra gli Stati membri dell’UE e i rappresentanti del Parlamento europeo, a seguito di un dibattito durato quasi 24 ore il giorno precedente.
Entrambe le parti continueranno a lavorare per perfezionare i dettagli nei prossimi giorni, influenzando potenzialmente la forma finale della legislazione.
L’accordo impone che i modelli di fondazione piacciano ChatGPT e i sistemi di IA per scopi generali (GPAI) devono rispettare i requisiti di trasparenza prima di entrare nel mercato. Questi requisiti richiedono inoltre la creazione di documentazione tecnica, il rispetto delle leggi UE sul copyright e la fornitura di riepiloghi dettagliati sui contenuti utilizzati per la formazione.
I modelli di fondazione ad alto impatto che comportano rischi sistemici sono obbligati a sottoporsi a valutazioni dei modelli, valutare e mitigare i rischi sistemici, condurre test contraddittori, segnalare incidenti gravi alla Commissione europea, garantire la sicurezza informatica e divulgare informazioni sull’efficienza energetica.
Le GPAI con rischi sistemici possono scegliere di aderire a codici di condotta per soddisfare i nuovi standard normativi.
I governi si limitano a utilizzare la sorveglianza biometrica in tempo reale negli spazi pubblici in condizioni specifiche, come i casi che coinvolgono vittime di determinati crimini, la prevenzione di minacce reali e imminenti come attacchi terroristici e la ricerca di individui sospettati dei crimini più gravi.
L’accordo vieta esplicitamente la manipolazione cognitivo comportamentale, l’estrazione non mirata di immagini facciali da Internet o da filmati CCTV, il punteggio sociale e i sistemi di categorizzazione biometrica volti a dedurre convinzioni politiche, religiose, filosofiche, orientamento sessuale e razza.
Ai consumatori verrebbe concesso il diritto di presentare reclami e ricevere spiegazioni significative, con multe per violazioni che vanno da 7,5 milioni di euro (8,1 milioni di dollari) o l’1,5% del fatturato a 35 milioni di euro o il 7% del fatturato globale.
Si prevede che la legislazione entrerà in vigore all’inizio del prossimo anno, previa ratifica formale da entrambe le parti, e dovrebbe essere applicabile due anni dopo.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org