NVIDIA porta l’IA “che ragiona” sull’auto: Alpamayo debutta sulla Mercedes-Benz CLA

NVIDIA



NVIDIA ha svelato un’Intelligenza Artificiale open-source capace non solo di “vedere” la strada, ma di ragionare sulle situazioni più complesse. La nuova famiglia di modelli Alpamayo promette di affrontare i casi limite che mettono in crisi i sistemi ADAS tradizionali e farà il suo debutto commerciale sulla Mercedes-Benz CLA.

I primi veicoli muniti di questa nuova tecnologia sono in arrivo nel primo trimestre di quest’anno negli Stati Uniti e poco dopo in Europa. L’annuncio della discesa in campo del leader mondiale del computing segna un passaggio strategico per l’ecosistema dell’automotive intelligente.

Una IA che “ragiona” in strada

Con Alpamayo, NVIDIA parla apertamente di un “ChatGPT moment per la Physical AI”. Il cuore dell’annuncio è Alpamayo 1, un modello Vision-Language-Action da 10 miliardi di parametri progettato per affrontare alcune criticità della guida autonoma: eventi rari, imprevedibili, spesso causa di disattivazioni o errori dei sistemi.

A differenza dei sistemi tradizionali, Alpamayo non si limita a individuare ostacoli e pianificare una traiettoria. Utilizza un approccio di chain-of-thought reasoning (CoT), elaborando flussi video e producendo non solo la decisione di guida, ma anche la logica che la giustifica.

Un aspetto cruciale in ottica di sicurezza funzionale, validazione e – guardando all’Europa – conformità regolatoria.

Open-source come leva industriale

La scelta di NVIDIA di rendere open-source gran parte dell’ecosistema è tutt’altro che marginale. L’obiettivo dell’azienda è chiaro: diventare l’“Android della guida autonoma”, in contrapposizione a soluzioni chiuse come Tesla FSD.

Per costruttori e fornitori europei, questo approccio potrebbe tradursi in maggiore trasparenza, possibilità di audit del software e adattamento ai requisiti UNECE, elementi spesso critici per l’omologazione.

NVIDIA

Mercedes-Benz CLA, primo banco di prova

La Mercedes-Benz CLA model year 2025 sarà la prima vettura di serie a integrare l’intero stack NVIDIA con Alpamayo. L’auto tedesca andrà sul mercato statunitense nel primo trimestre di quest’anno. A seguire Europa e Asia.

Il sistema debutterà come Livello 2+, quindi con attenzione costante del conducente, in linea con quanto già visto sul mercato. L’ambizione dichiarata, però, è un’evoluzione progressiva verso funzionalità di livello superiore, potenzialmente fino al Livello 4, laddove normative e infrastrutture lo consentiranno.

Interessante la dotazione sensoriale: 30 sensori complessivi, con 10 telecamere, 5 radar e 12 ultrasuoni. Una scelta che riflette l’approccio prudente tipico dei costruttori premium europei, ancora poco inclini a puntare su una singola tecnologia.

Digitale & batterie: se qualcosa va storto nei “software defined vehicle”…

Vera Rubin, il motore invisibile dell’AI

Dietro Alpamayo c’è Vera Rubin, la nuova piattaforma NVIDIA a 6 chip che succede a Blackwell. Pensata soprattutto per data center, è qui che avviene l’addestramento massivo e la simulazione su larga scala. Le GPU “Rubin” e le CPU “Vera” saranno decisive per le iterazioni future del software che, una volta validate, arriveranno anche sulle auto di serie.

  • LEGGI ancheTesla Full Self-Driving in Italia: la nostra prova su strada rivela come funziona davvero”  e guarda il VIDEO

Visualizza commenti (2)
  1. Guido Baccarini

    E’ un tema estremamente interessante, perché di fatto sancisce la supremazia Tesla (in questo momento, ovviamente, per il futuro si vedrà):
    – implicitamente riconosce che l’approccio di Tesla con FSD V12 (e ora siamo a V14) basato su reti neuronali e non algoritmi precodificati era corretto;
    – assegna a Tesla un primato che, sempre al momento perchè Xiaomi è dietro l’angolo, nessun europeo può vantare: milioni di veicoli che inviano dati per l’addestramento su casi reali.

    Perché la partita si gioca sull’eccezione, non sulle regole: cito una frase di Iron Man, quando Tony Stark affronta il suo ex socio all’interno del robot che lo sta portando in quota stratosferica “Tu come hai risolto il problema del ghiaccio?” giusto qualche istante prima di vederlo precipitare senza controllo.
    Il 99% delle situazioni sono gestibili e le affronti in un anno di sviluppo, il restante 1% richiede anni e anni di eccezioni (un esempio: ad Halloween, quando ti attraversa la strada un tizio vestito da cassetta postale o da Oca dalle uova d’oro gigante, come la interpreta una AI?)
    E qui, con oltre 4 milioni di auto con HW4 che costantemente “simulano” di guidare con FSD anche se sono sotto il controllo umano e mandano a Tesla il dataset delle differenze, chi può batterli? (Xiaomi, Xpeng e BYD a parte che per volumi, regole sulle privacy e potenza economica possono fare la stessa cosa, manca ancora poco).
    Per gli europei la vedo sempre più dura…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

 

Articolo Precedente

BYD mette al lavoro 5.000 ingegneri per migliorare i sistemi ADAS

Articolo Successivo

Mercedes Classe B del 2016

Iscriviti alla nostra Newsletter

Abbonati alla nostra newsletter e resta aggiornato.
Seleziona i tuoi interessi:
No spam e zero emissioni garantiti!

Iscriviti alla nostra Newsletter

Abbonati alla nostra newsletter e resta aggiornato.
Seleziona i tuoi interessi:
No spam e zero emissioni garantiti!