Le imprese sono sempre più utilizzando l’intelligenza artificiale (AI) per generare contenuti multimediali, comprese le notizie, per coinvolgere i propri clienti. Ora vediamo persino l’intelligenza artificiale utilizzata per la “gamification” delle notizie, ovvero per creare interattività associata ai contenuti delle notizie.
Nel bene e nel male, l’intelligenza artificiale sta cambiando la natura dei media. E dovremo essere saggi se vogliamo proteggere l’integrità di questa istituzione.
Come è morta?
Il Guardian ha accusato Microsoft di danni alla reputazione, dopo aver pubblicato uno dei suoi articoli insieme a un sondaggio inappropriato generato dall’intelligenza artificiale.
Immagina di leggere un articolo tragico sull’ morte di un giovane allenatore sportivo presso una prestigiosa scuola di Sydney.
In una casella a destra c’è un sondaggio che ti chiede di speculare sulla causa della morte. Il sondaggio è generato dall’intelligenza artificiale. È progettato per mantenerti coinvolto nella storia, poiché ciò ti renderà più propenso a rispondere agli annunci pubblicitari forniti dall’operatore del sondaggio.
Questo scenario non è ipotetico. È stato giocato in Il recente resoconto del Guardian sulla morte di Lilie James.
In base a un accordo di licenza, Microsoft ha ripubblicato la storia del Guardian sulla sua app di notizie e sul sito Web Microsoft Start. Il sondaggio era basato sul contenuto dell’articolo e veniva visualizzato accanto ad esso, ma Il Guardian non ha avuto alcun coinvolgimento o il controllo su di esso.
Un sondaggio sul probabile risultato sarebbe stato innocuo se l’articolo avesse riguardato un imminente evento sportivo. Eppure questo esempio mostra quanto possa essere problematico quando l’intelligenza artificiale inizia a mescolarsi con le pagine di notizie, un prodotto tradizionalmente curato da esperti.
L’incidente ha suscitato una ragionevole rabbia. In una lettera al presidente di Microsoft Brad Smith, l’amministratore delegato del Guardian Media Group, Anna Bateson, ha affermato che si trattava di “un uso inappropriato di genAI”. [generative AI]”, che ha causato “un danno significativo alla reputazione” del Guardian e del giornalista che ha scritto la storia.
Naturalmente il sondaggio è stato rimosso. Ma ciò solleva la domanda: perché Microsoft ha permesso che ciò accadesse?
La conseguenza dell’omissione del buon senso
La prima parte della risposta è costituita dai prodotti di notizie supplementari come sondaggi e quiz impegnarsi davvero lettori, come ricerca ha scoperto il Center for Media Engagement dell’Università del Texas.
Considerando quanto sia economico utilizzare l’intelligenza artificiale per questo scopo, sembra probabile che le aziende giornalistiche (e le aziende che mostrano notizie di altri) continueranno a farlo.
La seconda parte della risposta è che non vi è stato alcun “intervento umano nel circuito”, o un coinvolgimento umano limitato, nell’incidente di Microsoft.
I principali fornitori di grandi modelli linguistici – i modelli che sono alla base di vari programmi di intelligenza artificiale – hanno un incentivo finanziario e reputazionale per assicurarsi che i loro programmi non causino danni. Apri l’intelligenza artificiale con its Modelli GPT e DAll-EGoogle con PaLM 2 (utilizzato in Bardo), e Meta con il suo Lama 2 scaricabile hanno tutti compiuto sforzi significativi per garantire che i loro modelli non generino contenuti dannosi.
Spesso lo fanno attraverso l’“apprendimento per rinforzo”, in cui gli esseri umani curano le risposte a domande che potrebbero causare danni. Ma ciò non impedisce sempre ai modelli di produrre contenuti inappropriati.
Probabilmente Microsoft si affidava agli aspetti a basso danno della sua intelligenza artificiale, piuttosto che considerare come ridurre al minimo i danni che potrebbero derivare dall’uso effettivo del modello. Quest’ultimo richiede buon senso, una caratteristica che non può essere programmato in grandi modelli linguistici.
Migliaia di articoli generati dall’intelligenza artificiale a settimana
L’intelligenza artificiale generativa sta diventando accessibile e conveniente. Ciò lo rende attraente per le aziende di notizie commerciali, che sono state vacillanti a causa delle perdite di entrate. Pertanto, ora stiamo vedendo l’intelligenza artificiale “scrivere” notizie, risparmiando alle aziende di dover pagare gli stipendi dei giornalisti.
A giugno, presidente esecutivo di News Corp ha rivelato Michael Miller che l’azienda aveva un piccolo team che produceva circa 3.000 articoli settimanali utilizzando l’intelligenza artificiale.
In sostanza, il team di quattro persone garantisce che il contenuto abbia senso e non includa “allucinazioni”: falsa informazione costituita da un modello quando non è in grado di prevedere una risposta adeguata a un input.
Anche se è probabile che queste notizie siano accurate, gli stessi strumenti possono essere utilizzati per generare contenuti potenzialmente fuorvianti che si spacciano per notizie e sono quasi indistinguibili dagli articoli scritti da giornalisti professionisti.
Da aprile, un’indagine di NewsGuard ne ha trovati centinaia di siti web, scritti in diverse lingue, che sono per lo più o interamente generati dall’intelligenza artificiale per imitare siti di notizie reali. Alcuni di questi includevano una disinformazione dannosa, come l’affermazione secondo cui il presidente degli Stati Uniti Joe Biden è morto.
Si pensa che i siti, che pullulavano di pubblicità, fossero probabilmente generati per ottenere entrate pubblicitarie.
Con l’avanzare della tecnologia, aumenta anche il rischio
In generale, molti modelli linguistici di grandi dimensioni sono stati limitati dai dati di addestramento sottostanti. Ad esempio, i modelli addestrati sui dati fino al 2021 non forniranno “notizie” accurate sugli eventi mondiali nel 2022.
Tuttavia, la situazione sta cambiando, poiché ora i modelli possono essere messi a punto per rispondere a fonti particolari. Negli ultimi mesi, l’utilizzo di un framework AI chiamato “generazione aumentata di recupero” si è evoluto per consentire ai modelli di utilizzare dati molto recenti.
Con questo metodo sarebbe certamente possibile utilizzare contenuti concessi in licenza da un numero limitato di fonti di informazione per creare un sito Web di notizie.
Sebbene ciò possa essere conveniente dal punto di vista aziendale, è ancora un altro potenziale modo in cui l’intelligenza artificiale potrebbe escludere gli esseri umani dal processo di creazione e diffusione delle notizie.
Una pagina di notizie curata dal punto di vista editoriale è un prodotto prezioso e ben pensato. Lasciare che l’intelligenza artificiale faccia questo lavoro potrebbe esporci a tutti i tipi di disinformazione e pregiudizi (soprattutto senza la supervisione umana) o comportare la mancanza di un’importante copertura localizzata.
Tagliare gli angoli potrebbe renderci tutti perdenti
Il News Media Bargaining Code australiano è stato concepito per “livellare il campo di gioco” tra le grandi aziende tecnologiche e quelle dei media. Da quando il codice è entrato in vigore, un cambiamento secondario sta ora derivando dall’uso dell’intelligenza artificiale generativa.
Mettendo da parte la qualità dei clic, attualmente non esiste alcun confronto tra la qualità delle notizie che un giornalista può produrre e ciò che può produrre l’intelligenza artificiale.
Sebbene l’intelligenza artificiale generativa possa contribuire ad aumentare il lavoro dei giornalisti, ad esempio aiutandoli a ordinare grandi quantità di contenuti, abbiamo molto da perdere se iniziamo a vederla come un sostituto.
Fonte: UNSW
Da un’altra testata giornalistica. news de www.technology.org