[ad_1]
L’espansione di Nvidia nell’intelligenza artificiale open source accelera attraverso due mosse separate: acquisto l’azienda dietro uno strumento informatico cruciale e lanciando quello che chiama il suo modelli di intelligenza artificiale più efficienti finora.

Approfondimenti chiave:
- Nvidia acquisisce SchedMD, sviluppatore del sistema di gestione del carico di lavoro Slurm utilizzato nel calcolo ad alte prestazioni dal 2002
- La nuova famiglia di modelli Nemotron 3 offre un throughput fino a 4 volte superiore con un’innovativa architettura ibrida per sistemi multi-agente
- I modelli vanno da Nano da 30 miliardi di parametri a Ultra da 500 miliardi di parametri, ciascuno ottimizzato per diversi livelli di complessità
Il produttore di chip ha annunciato lunedì di aver acquistato SchedMD, creatore di Slurm, un sistema di gestione del carico di lavoro open source che coordina le risorse di calcolo per l’intelligenza artificiale e le applicazioni ad alte prestazioni. Fondata nel 2010 da Morris Jette e Danny Auble, che originariamente lanciarono Slurm nel 2002, SchedMD continuerà a gestire il programma come software open source indipendente dal fornitore sotto la proprietà di Nvidia. L’attuale CEO Danny Auble rimane nell’azienda.
Nvidia ha rifiutato di rivelare i termini finanziari ma ha sottolineato la sua collaborazione decennale con SchedMD. La tecnologia funge da infrastruttura critica per l’intelligenza artificiale generativa e Nvidia prevede continui investimenti per accelerarne l’integrazione tra diversi sistemi informatici.
Lo stesso giorno è stato rilasciato Nemotron 3, una famiglia di tre modelli IA aperti che Nvidia posiziona come ottimali per la creazione di agenti IA accurati. Ogni modello si rivolge a casi d’uso specifici: Nemotron 3 Nano gestisce attività mirate con la massima efficienza, Nemotron 3 Super alimenta applicazioni multi-agente che richiedono coordinamento e Nemotron 3 Ultra affronta flussi di lavoro complessi che richiedono un ragionamento profondo.
“L’innovazione aperta è il fondamento del progresso dell’intelligenza artificiale”, ha scritto Jensen Huang, fondatore e CEO di Nvidia, nel comunicato stampa dell’azienda. “Con Nemotron, stiamo trasformando l’intelligenza artificiale avanzata in una piattaforma aperta che offre agli sviluppatori la trasparenza e l’efficienza di cui hanno bisogno per costruire sistemi ad agenti su larga scala”.
Il modello Nano mostra notevoli miglioramenti delle prestazioni. La sua architettura ibrida con una combinazione di esperti attiva solo 3 dei 30 miliardi di parametri totali per attività, producendo un throughput di token 4 volte superiore rispetto a Nemotron 2 Nano e riducendo la generazione di token di ragionamento del 60%. Una finestra di contesto da 1 milione di token consente di mantenere la precisione durante operazioni estese in più fasi. Artificial Analysis, un’organizzazione di benchmarking indipendente, lo ha valutato come il modello aperto più efficiente nella sua categoria di dimensioni con i migliori punteggi di precisione.
Nemotron 3 Super opera con circa 100 miliardi di parametri, attivandone fino a 10 miliardi per token per applicazioni che richiedono la collaborazione di più agenti. La versione Ultra funge da motore di ragionamento avanzato con circa 500 miliardi di parametri e fino a 50 miliardi attivi per token per flussi di lavoro che comportano ricerche approfondite e pianificazione strategica.
Entrambi i modelli Super e Ultra utilizzano il formato di training NVFP4 a 4 bit di Nvidia sull’architettura Blackwell, riducendo drasticamente i requisiti di memoria e accelerando le velocità di training. Questa efficienza consente ai team di addestrare modelli più grandi sull’infrastruttura esistente senza sacrificare l’accuratezza rispetto ai formati ad alta precisione.
Le organizzazioni che passano dai chatbot a modello singolo ai sistemi collaborativi multi-agente devono affrontare sfide crescenti: sovraccarico di comunicazione, deriva del contesto e costi di inferenza crescenti. Nemotron 3 affronta direttamente questi problemi fornendo al contempo la trasparenza richiesta dagli sviluppatori quando automatizzano flussi di lavoro complessi.
Tra i primi ad adottarlo figurano Accenture, Cadence, CrowdStrike, Cursor, Deloitte, EY, Oracle Cloud Infrastructure, Palantir, Perplexity, ServiceNow, Siemens, Synopsys e Zoom. Queste aziende stanno integrando i modelli Nemotron nella produzione, nella sicurezza informatica, nello sviluppo di software, nei media e nelle comunicazioni.
“NVIDIA e ServiceNow danno forma al futuro dell’intelligenza artificiale da anni e il meglio deve ancora venire”, Bill McDermott, presidente e CEO di ServiceNow. “Oggi stiamo facendo un importante passo avanti nel consentire ai leader di tutti i settori di accelerare la loro strategia di intelligenza artificiale. L’automazione intelligente del flusso di lavoro di ServiceNow combinata con NVIDIA Nemotron 3 continuerà a definire lo standard con efficienza, velocità e precisione senza pari.”
Perplexity sfrutta le capacità di Nemotron 3 attraverso il routing intelligente tra modelli aperti e proprietari. “Perplexity si basa sull’idea che la curiosità umana sarà amplificata da un’intelligenza artificiale accurata integrata in strumenti eccezionali, come gli assistenti AI”, ha affermato Aravind Srinivas, CEO di Perplexity. “Con il nostro agent router, possiamo indirizzare i carichi di lavoro sui modelli aperti meglio ottimizzati, come Nemotron 3 Ultra, o sfruttare modelli proprietari leader quando le attività beneficiano delle loro capacità uniche, garantendo che i nostri assistenti IA operino con velocità, efficienza e scalabilità eccezionali”.
Le startup ottengono particolari vantaggi dai modelli aperti di Nemotron 3, consentendo un’iterazione più rapida sugli agenti IA e un passaggio accelerato dal prototipo all’implementazione aziendale. Le società in portafoglio di General Catalyst, Mayfield e Sierra Ventures stanno esplorando Nemotron 3 per creare compagni di squadra IA che migliorino la collaborazione uomo-IA.
“Lo stack di modelli aperti di NVIDIA e il programma NVIDIA Inception offrono alle aziende in fase iniziale modelli, strumenti e un’infrastruttura conveniente per sperimentare, differenziarsi e crescere rapidamente”, ha affermato Navin Chaddha, socio amministratore di Mayfield. “Nemotron 3 offre ai fondatori un avvio veloce nella creazione di applicazioni AI agenti e di compagni di squadra AI e li aiuta a sfruttare l’enorme base installata di NVIDIA.”
Nvidia ha anche rilasciato strumenti di supporto e set di dati per la personalizzazione degli agenti AI. Tre trilioni di token dei nuovi set di dati di pre-addestramento, post-addestramento e apprendimento di rinforzo di Nemotron forniscono esempi estesi di ragionamento, codifica e flusso di lavoro in più fasi. Il set di dati di sicurezza degli agenti Nemotron fornisce telemetria nel mondo reale per valutare e rafforzare la sicurezza del sistema degli agenti.
Le librerie open source NeMo Gym e NeMo RL forniscono ambienti di allenamento e basi post-allenamento utilizzate nei modelli Nemotron, mentre NeMo Evaluator convalida la sicurezza e le prestazioni del modello. Tutti gli strumenti e i set di dati sono ora disponibili su GitHub e Hugging Face.
Nemotron 3 funziona con LM Studio, llama.cpp, SGLang e vLLM. Prime Intellect e Unsloth stanno integrando gli ambienti di allenamento di NeMo Gym direttamente nei loro flussi di lavoro, semplificando l’accesso alle capacità di apprendimento per rinforzo.
Nemotron 3 Nano è diventato immediatamente disponibile su Hugging Face e tramite fornitori di servizi di inferenza tra cui Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter e Together AI. Le piattaforme aziendali che offrono Nemotron includono Couchbase, DataRobot, H2O.ai, JFrog, Lambda e UiPath. La disponibilità del cloud si espanderà presto in AWS tramite Amazon Bedrock, Google Cloud, CoreWeave, Crusoe, Microsoft Foundry, Nebius, Nscale e Yotta.
L’attività riflette la convinzione di Nvidia che l’intelligenza artificiale fisica (robot e veicoli autonomi che richiedono processi decisionali sofisticati) guiderà la prossima ondata di domanda di GPU. Gli annunci recenti includono Alpamayo-R1, un modello di linguaggio di visione con ragionamento aperto per la ricerca sulla guida autonoma, oltre a flussi di lavoro ampliati per i modelli del mondo Cosmos con licenze open source permissive.
Nvidia si posiziona come fornitore essenziale per le aziende produttrici di robotica e veicoli a guida autonoma che sviluppano cervelli IA per sistemi fisici. La combinazione di hardware, software e ora infrastruttura di gestione del carico di lavoro attraverso l’acquisizione di SchedMD rafforza tale posizione supportando al contempo iniziative sovrane di intelligenza artificiale in Europa, Corea del Sud e oltre.
Scritto da Alius Noreika
[ad_2]
Da un’altra testata giornalistica. news de www.technology.org
