Meta piattaforme svelato le prime versioni del suo ultimo modello linguistico di grandi dimensioni, Llama 3, insieme a un generatore di immagini progettato per aggiornare le immagini in tempo reale man mano che gli utenti inseriscono le richieste.
Questa mossa segnala lo sforzo di Meta di competere con il leader di mercato OpenAI nel campo dell’intelligenza artificiale generativa. I modelli aggiornati saranno integrati nell’assistente virtuale di Meta, Meta AI, che l’azienda ritiene più sofisticato dei suoi concorrenti, tra cui Google e Mistral AI, in aree come il ragionamento, la codifica e la scrittura creativa.
L’assistente Meta AI rivisto riceverà maggiore visibilità all’interno dell’ecosistema Meta, comprese le app Facebook, Instagram, WhatsApp e Messenger, nonché attraverso un sito Web dedicato, posizionandolo per rivaleggiare con ChatGPT di OpenAI supportato da Microsoft. Ai visitatori del sito Web viene chiesto di interagire con l’assistente in varie attività, dalla creazione di elenchi di cose da portare per le vacanze alla riproduzione di curiosità musicali.
Gli sforzi di Meta per distribuire prodotti di intelligenza artificiale generativa alla sua vasta base di utenti comportano investimenti sostanziali nell’infrastruttura informatica e nel consolidamento dei team di ricerca e di prodotto. Rilasciando apertamente i suoi modelli Llama per l’uso da parte degli sviluppatori, Meta mira a fornire un’alternativa potente e gratuita che potrebbe sconvolgere i modelli di entrate della concorrenza.
Secondo Chris Cox, Chief Product Officer di Meta, Llama 3 è stato migliorato con nuove funzionalità di codifica e addestrato sia su testo che su immagini, sebbene attualmente restituisca solo testo. Si prevede che le versioni future includano capacità di ragionamento avanzate e supporto per output multimodali, generando sia testo che immagini.
Secondo Cox, l’obiettivo finale è semplificare la vita degli utenti togliendo loro i compiti, che si tratti di interagire con le aziende, comporre testi o pianificare un viaggio. Ha sottolineato che l’inclusione delle immagini nell’addestramento di Llama 3 migliorerebbe un prossimo aggiornamento per gli occhiali intelligenti Ray-Ban Meta, sviluppati in collaborazione con Essilor Luxoticca, consentendo a Meta AI di identificare oggetti e fornire informazioni rilevanti a chi li indossa.
Inoltre, Meta ha rivelato una partnership con Google per integrare i risultati di ricerca in tempo reale nelle risposte dell’assistente, integrando la sua collaborazione esistente con il motore di ricerca Bing di Microsoft. È stata inoltre annunciata l’espansione dell’assistente Meta AI in oltre una dozzina di mercati al di fuori degli Stati Uniti, tra cui Australia, Canada, Singapore, Nigeria e Pakistan.
Rispondendo alle preoccupazioni sulle normative sulla privacy in Europa, Cox ha affermato che Meta sta ancora esplorando l’approccio migliore per l’espansione nella regione, dove le rigide norme sulla privacy e l’imminente legge sull’AI pongono sfide. Il CEO di Meta Mark Zuckerberg ha riconosciuto la concorrenza con OpenAI, descrivendo Meta AI come “l’assistente AI più intelligente che puoi utilizzare liberamente”.
Zuckerberg ha sottolineato la performance positiva delle versioni più piccole di Llama 3, con 8 miliardi e 70 miliardi di parametri, rispetto ai benchmark standard. Tuttavia, alcuni esperti notano un crescente divario prestazionale tra i modelli gratuiti e quelli proprietari. Meta ha affrontato i problemi precedenti con Llama 2 utilizzando “dati di alta qualità” per migliorare il riconoscimento delle sfumature di Llama 3, sebbene non siano state fornite specifiche relative ai set di dati utilizzati.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org