Tesla Full Self-Driving in Italia: la nostra prova su strada rivela come funziona davvero

Gabriele Jorillo e Filippo Pagliuca, i nostri due giovani ingegneri Youtubre a bordo della Tesla a guida autonoma

Dateci subito, anche in Italia, il Full Self-Driving di Tesla! Si conclude con questo appello il test a due voci – quelle dei nostri giovani ingegneri Youtuber Gabriele Jorillo e Filippo Pagliuca – sulla guida autonoma (FSD) sviluppata dal colosso  americano e dallo scorso 1° dicembre oggetto di un tour promozionale in cinque città italiane (Milano, Roma, Bologna, Verona e Padova).

Lunedì scorso, a Milano, Gabriele e Filippo hanno vissuto in prima persona l’avventura di viaggiare su una Tesla Model 3 che si guida da sola. Ognuno ci propone una sua versione: Gabriele, in questo video, racconta  la sua esperienza emozionale.

Filippo, proprietario di una Model 3 che guida abitualmente tra Roma, dove risiede, e Milano, dove studia, come Gabriele, ingegneria dei veicoli al Politecnico, analizza nel dettaglio il comportamento del Full Self-Driving nel traffico caotico di un lunedì pomeriggio. E valuta la differenza tra la funzione Autopilot installata sulla Tesla di sua proprietà e quella FSD non ancora autorizzata in Italia. Qui sotto il suo video:

  Tesla prevede che il via libera per la commercializzazione nel nostro Paese arriverà nei primi mesi del prossimo anno. E sarà una rivoluzione.

Prova guida autonoma Tesla: i voti dell’ing. informatico

Un software americano che ora guida sulle strade italiane

di Filippo Pagliuca

Per la prima volta Tesla Full Self-Driving in Italia non è solo una sigla che arriva dagli Stati Uniti, ma un software operativo sulle nostre strade. Abbiamo trascorso quasi quaranta minuti a bordo di una Model 3 in modalità di guida autonoma avanzata per verificare quanto questo sistema sia davvero pronto a gestire rotonde, incroci ciechi, ciclisti lenti e parcheggi stretti del traffico quotidiano. L’auto non è un prototipo, ma una normale berlina elettrica di serie: ciò che cambia è il software, FSD 14.1, una versione ancora in fase di test e non acquistabile in Italia perché non omologata, adattata alle strade europee, dove segnaletica imperfetta e convivenza tra auto, bici e pedoni richiedono spesso intuito più che matematica.

La vettura del test è una Model 3 con hardware 4, prodotta in Cina, equipaggiata con l’intero pacchetto di telecamere, inclusa quella aggiuntiva nel paraurti. È attraverso queste telecamera che il sistema costruisce in tempo reale la scena attorno al veicolo, limitando la dipendenza dalle mappe. Rispetto alla versione americana, Tesla Full Self-Driving in Italia appare più prudente e regolamentato: niente profili di guida selezionabili e velocità contenute, con la possibilità di superare il limite solo del 10% nelle situazioni in cui quello ufficiale risulterebbe troppo restrittivo. Pur potendo tecnicamente arrivare a un +50%, per i test questa soglia resta bloccata: un esempio di tecnologia che deve correre entro confini normativi ben precisi.

La supervisione del conducente resta imprescindibile. La telecamera interna controlla che gli occhi siano sempre sulla strada e rileva distrazioni come smartphone, attivando immediatamente gli avvisi di takeover. È un promemoria chiaro: al momento Tesla Full Self-Driving in Italia è un sistema di livello 2, che richiede attenzione costante e responsabilità totale da parte del driver.

Come guida davvero: rotonde, incroci ciechi, ciclisti e segnaletica scadente

Il modo migliore per capire un software di guida autonoma è guardare come si comporta nelle situazioni che mettono in difficoltà anche gli umani. La nostra prova di Tesla Full Self-Driving in Italia parte da una rotonda, il terreno di gioco ideale per misurare equilibrio tra prudenza e decisione. L’auto rallenta prima di entrare, controlla chi è già impegnato, aspetta che lo spazio sia sufficiente e poi si inserisce con una accelerazione precisa, senza esitare troppo e senza tagliare la strada a nessuno.

Un passaggio particolarmente significativo è un incrocio a T con visibilità quasi nulla. A sinistra un camion parcheggiato chiude la visuale, a destra la situazione non è migliore. L’auto si ferma allo stop, resta in attesa, mostra una breve esitazione e solo quando la situazione lo consente decide di immettersi.

full self-driving
Vede i ciclisti sbucati da una laterale e li evita

Il software viene messo alla prova anche dove il traffico si complica. In un tratto con un ciclista anziano che procede lentamente e uno spazio ridotto per immettersi, la vettura gestisce la sequenza con naturalezza.

Non inchioda, non scarta all’ultimo secondo, non crea panico. Si inserisce in modo fluido, sfruttando il tempo giusto, quasi come se leggesse l’intenzione degli altri utenti della strada.

Le rotonde successive confermano il quadro. Anche in quelle ad alto scorrimento, dove le auto arrivano veloci e un camion si avvicina alle spalle di una Panda e di una 500, Tesla Full Self-Driving trova il momento giusto per entrare, usando un’accelerazione decisa ma sempre sotto controllo.

Il risultato, dal sedile del passeggero, è una guida che non dà l’impressione di eccessiva prudenza, il classico difetto dei sistemi autonomi, ma neppure di spavalderia artificiale.

full self -driving
Il Full Self-Driving alle prese con l’ingresso in una rotonda

Nel centro abitato vede le strisce pedinali e la segnaletica orizzontale “fantasma”

Un altro punto a favore emerge in un centro abitato, tra segnaletica orizzontale quasi inesistente, pedoni fuori dalle strisce e bici improvvise. L’auto individua i pedoni sullo schermo, li rappresenta correttamente e riduce la velocità in modo coerente con il contesto. Ancora più curioso è il caso di un incrocio con semaforo pedonale ma senza strisce disegnate: il sistema riconosce comunque l’area come attraversamento, prova che la percezione non dipende solo dalle linee di vernice ma da un insieme di indizi visivi.

In tutto questo, la guida resta sempre leggibile per chi è a bordo. La vettura frena quando serve, accelera quando serve, non dà mai la sensazione di “non sapere cosa fare”, che è la vera paura di chi ancora diffida della guida autonoma.

full self-drivingMappe, retromarcia e casi limite: quando l’umano deve ancora dire la sua

Non tutto, però, scorre alla perfezione. La prova di Tesla Full Self-Driving in Italia mette in luce anche i punti in cui la macchina ha ancora bisogno del contributo umano, soprattutto quando realtà e mappe non coincidono. L’esempio più evidente arriva vicino al Tesla Store di Vittuone, in provincia di Milano. La segnaletica è appena stata rifatta e una svolta a sinistra, che un tempo esisteva, ora è vietata da una doppia linea continua.

Le mappe, però, suggeriscono ancora quella svolta. L’auto inserisce la freccia, ma in quel momento il conducente interviene, toglie la freccia e dà un lieve colpo di acceleratore. Il risultato è che la vettura prosegue dritta, evitando rallentamenti inutili e una manovra ormai vietata. È un caso interessante, perché mostra come la lettura della segnaletica orizzontale in tempo reale sia già in grado di impedire violazioni, ma anche quanto sia ancora necessario un dialogo tra software e umano quando le mappe non sono aggiornate.

Il test europeo permette anche di osservare una funzione nuova: la retromarcia autonoma. Nelle prime versioni di FSD la macchina non era in grado di andare da sola in retro, manovra con calma e ne esce senza richiedere l’intervento del conducente. È una capacità fondamentale in un Paese dove garage, cortili e parcheggi condominiali sono spesso stretti e irregolari.

In ogni caso, quando qualcosa non convince, il driver può segnalare l’episodio direttamente a Tesla con un pulsante a forma di fotocamera sullo schermo centrale. La vettura salva i dati di quel preciso istante e chi guida può aggiungere un breve commento vocale per spiegare l’anomalia, per esempio un’eccessiva prudenza o una interpretazione sbagliata del comportamento del conducente. È una forma di “feedback sul campo” che alimenta l’evoluzione del software, in attesa di una futura omologazione.

Sicurezza, controllo del conducente e limiti normativi

Se la dinamica di guida è già sorprendentemente matura, il vero freno alla diffusione di Tesla Full Self-Driving in Italia è l’insieme di regole che circondano il suo utilizzo. Il sistema resta classificato come guida assistita di livello 2, quindi la responsabilità legale rimane in capo al conducente. Chi siede al volante non può distrarsi, non può usare il telefono, non può trattare l’auto come una navetta autonoma.

La telecamera interna monitora in tempo reale lo sguardo di chi guida e riconosce correttamente anche dispositivi come smartphone o action cam. Durante il nostro test, l’ActionCam montata sul tetto viene scambiata dal sistema per un possibile uso non consentito del cellulare. Il software inizia a inviare avvisi, chiede di riprendere il controllo. È un esempio di quanto sia stretto oggi il margine di tolleranza per i test in Europa.

Negli Stati Uniti, dove lo stesso software circola da più tempo e ha già accumulato miliardi di chilometri di test, il sistema è più permissivo. In alcuni stati si discute perfino della possibilità di permettere l’uso del cellulare in determinate condizioni, pur restando nel perimetro della guida assistita. In Europa, e in particolare in Italia, questo scenario sembra lontano.

Da un lato questa rigidità rallenta quella visione “utopica” dell’auto che guida da sola mentre il passeggero legge o si addormenta. La realtà, oggi, è che Tesla Full Self-Driving in Italia è già in grado di guidare in modo estremamente competente.

La nostra esperienza e come provarlo: un test che convince anche gli scettici

Alla fine del giro la sensazione è molto chiara. Tesla Full Self- Driving guida in modo morbido, comprensibile, rassicurante. Non è perfetto, ma è già superiore al pregiudizio che molti hanno quando sentono parlare di guida autonoma. Nelle rotonde affollate, negli incroci ciechi, tra pedoni distratti e ciclisti lenti, l’auto ha mantenuto una coerenza di comportamento che la avvicina più a un buon guidatore umano che a un algoritmo rigido.

L’intervento umano, quando serve, è semplice e naturale. Basta togliere una freccia o dare una lieve accelerazione per correggere la decisione del software, senza scatti e senza conflitti. Anche questo contribuisce alla sensazione di fiducia: non si ha mai l’impressione di lottare con la macchina per il controllo.

In questo periodo i test drive sono organizzati in finestra temporale limitata: le prove sono partite il 1° dicembre e le prenotazioni restano aperte fino al 31 marzo, con slot già disponibili fino al 15 gennaio. Il test è gratuito e pensato proprio per chi vuole farsi un’idea concreta prima di giudicare.

L’invito, soprattutto a chi è ancora scettico, è semplice: provatelo. Guardate come si comporta nel traffico reale, fatevi un’opinione basata sull’esperienza diretta e poi raccontateci cosa ne pensate.

  • LEGGI ancheDigitale & batterie: se qualcosa va storto nei “software defined vehicle”…” e guarda il VIDEO

Visualizza commenti (16)
  1. Sono curioso di quanto il guidatore riesca effettivamente a rimanere attento e vigile circa le dinamiche che avvengono in strada. Mi spiego meglio: dall’articolo di evince che in ogni caso, a prescindere da eventuali blocchi, il guidatore aveva le mani sul volante. Anche se capisco non fosse obbligatorio, perchè il sistema monitora sopratutto gli occhi per valutare il livello di attenzione del guidatore. Nel momento in cui ci sia stato bisogno dell’override del guidatore causa un errore di FSD, come nel caso della svolta a sinistra che non era più permessa, in quanto tempo il guidatore ha reagito ? Vorrei capire se c’è il rischio di minore attenzione da parte del guidatore, anche se lo stesso rimane vigile con gli occhi sulla strada, quando ci sono percorsi di 1 ora e oltre.
    Anche nella guida normale, specie se non c’è traffico, il livello di attenzione del guidatore diminuisce, mettendolo più a rischio nei casi di eventi improvvisi. Volevo capire se tale rischio di corre quando la normale operatività della conduzione del veicolo è gestito da FSD

  2. Ho provato la guida autonoma ed è spettacolare, non ho fatto purtroppo 2 domande e vorrei un chiarimento: come funziona con la nebbia e al buio?

  3. Come da altro articolo, e’ sempre un Livello 2 supervisionato. Quindi non richiede di avere le mani sullo sterzo ma occhi sulla strada. Non metto in dubbio il miglioramento ma all’atto pratico, tolto lo show per gli amici, cambia poco. Curioso pero’ di sapere delle Tesla senza camera frontale e con Hw3.
    Ed il conducente e’ responsabile sempre @Giorgio

  4. Io ho una serie di dubbi.
    Il primo, nelle ultime tre auto con ADAS mi è capitato che frenassero anche se non dovevano. Gli altri costruttori sono tutti più fessi di Tesla o mancano le statistiche vere su strada?
    Il secondo, chi ambisce alla guida autonoma molto probabilmente è perché vuole proprio fare altro mentre è in auto (p.es. usare lo smartphone). Come si concilia questo con la sicurezza?
    Il terzo, un auto seppur super equipaggiata di sensori non può vedere tutto e non può prevedere tutto. Fino a che tutti gli elementi non saranno connessi ad una rete radio capillare ed a bassa latenza, chi si prende la responsabilità del sistema?

    1. Guido Baccarini

      “mi è capitato che frenassero anche se non dovevano” lo faceva anche Tesla…
      La grossa differenza, e in questo è unica, è che Tesla raccoglie la telemetria dai suoi quasi 8 milioni di veicoli circolanti e ha una base dati pazzesca e unica che permette di avere qualsiasi condizione d’uso reale da cui apprendere.
      “Come si concilia questo con la sicurezza?” in un sistema di livello 4 o 5 (come è quello dei Robotaxy – che sono identici per HW e SW a qualsiasi Tesla con HW4 circolante, cioè milioni) non è richiesto che l’umano sia vigile. Infatti, mancando la normativa, rimane un livello 2
      “Il terzo, un auto seppur super equipaggiata di sensori non può vedere tutto e non può prevedere tutto” e non è nemmeno quello il fine, perchè è impossibile l’errore zero. Statisticamente, se le auto a guida autonoma fanno un decimo degli errori di un umano, abbiamo ridotto del 90% gli incidenti. Arrivare allo 0% non sarà mai possibile, esisterà SEMPRE un caso assurdo che non è stato contemplato. Oggi esistono MIGLIAIA di casi in cui l’umano sbaglia, dire che diventi un centesimo, magari, e non vada bene, è perdere di vista l’obbiettivo.

      1. Caro Guido, quale crede sara’ il destino delle milioni di auto con HW3 e/o senza telecamera frontale? Credo che chi valuata oggi un usato Tesla potrebbe dover fare delle valutazioni.

        1. Guido Baccarini

          La telecamera frontale pare non essere un problema (pochissime auto con HW4, che è il grosso scoglio, hanno la telecamera frontale nel paraurti), è l’HW3 che non è abbastanza potente.
          Questo dovrà essere risolto indiscutibilmente, perchè chi ha pagato 5 anni fa FSD (parlo di USA) oggi può legittimamente pretendere l’upgrade dell’hardware o la restituzione del denaro. E sappiamo che negli USA la Class Action è dietro l’angolo…
          Quindi qualcosa dovranno farlo, per forza.

      2. Ivone, Francia

        Caro Guido, riguardo alla frase: “In un sistema di livello 4 o 5 (…) non è richiesto che l’umano sia vigile; infatti, mancando la normativa, rimane un livello 2”, va fatta una distinzione importante.

        Per il livello 3 una normativa esiste già (UNECE R157 / ALKS, recepita anche in Europa), e infatti sistemi come Mercedes Drive Pilot sono omologati come L3: il conducente non deve essere vigile in continuo e la responsabilità durante la guida automatizzata è del costruttore.

        A questo punto la domanda è: se la normativa per il livello 3 esiste, perché Tesla non chiede l’omologazione come L3, che consentirebbe al conducente di trasferire la responsabilità al costruttore durante l’uso del sistema, invece di restare formalmente a livello 2?

        1. Forse perché non vuole fallire?

          Curiosità: ma in caso di responsabilità del costruttore, come si comporteranno le assicurazioni?

          Se ho letto bene la responsabilità civile è sempre coperta dall’assicurazione del veicolo, ma con possibilità di rivalsa verso il costruttore in caso di difetti tecnici.

          Ma rimane la responsabilità del conducente se non riprende il controllo quando richiesto dal sistema; ed in tal caso l’assicurazione copre i danni ma può rivalersi sul conducente.

          Credo che l’Italia tornerà ad essere il bengodi degli avvocati…
          E con cause ventennali…

  5. Domanda: al primo incidente con fsd in funzione o peggio che si sgancia un secondo prima e il guidatore non è preparato, chi ha la responsabilità civile e penale? Finché questa rimane sul guidatore è perfettamente inutile avere il fsd anzi è pericoloso perché provoca distrazioni nel guidatore a cui compete la responsabilità ultima del veicolo..

    1. Domanda stupida: nell’articolo è spiegato che la guida è sempre di livello 2, finché il legislatore non permette di più.

    2. Ivone, Francia

      Caro Giorgio, capisco il suo punto di vista che, se non vado errato, sarà affrontato con la guida autonoma di livello 3, mentre l’attuale FSD resta classificato come livello 2.
      Ma credo sia importante ricordare che anche senza FSD gli esseri umani commettono errori: distrazioni, fatica, tempi di reazione lenti, valutazioni sbagliate… sono all’origine della grande maggioranza degli incidenti.
      Per questo, secondo me, la vera questione sarà verificare se la combinazione FSD + supervisione umana porterà nel complesso meno incidenti rispetto alla sola guida umana.

      1. Ciò non toglie che con l’avvento della guida autonoma si aprirà una falla nel sistema giuridico nel caso di incidente dovuto a défaillance del sistema . Sarà ritenuto responsabile il proprietario dell’auto o lo sviluppatore del software? Che poi lo sviluppatore non è mai uno ma il risultato di più lavori assemblati

        1. Ivone, Francia

          Non sono un giurista ma, da quanto ho letto, per i livelli 2 e 3 il quadro giuridico è già piuttosto chiaro.
          Livello 2, quello di quasi tutti i costruttori Tesla incluso: il conducente è sempre responsabile, perché il sistema è solo di assistenza.
          Livello 3: durante la guida automatizzata, la responsabilità passa al costruttore, come previsto dalla normativa UNECE, entro le condizioni di utilizzo definite.
          La vera zona ancora in evoluzione riguarda i livelli 4 e 5, non il 2 e il 3.

    3. Guido Baccarini

      Visto che la versione 14 (quella dei video di prova in europa) è disponibile negli USA da oltre un anno e fa QUASI le stesse cose che fa il Robotaxi (le differenze sono minime), si sono già raccolte tantissime testimonianze e la risposta è che quando verrà rilasciato la stessa versione (indicativamente entro 3 settimane) che gira sul robotaxi, direi proprio di sì, dato che sul robotaxi proprio non guidi.
      Legalmente può essere che per ANNI rimanga un livello 2, ma nel momento in cui è la stessa versione del robotaxi che NON ha hardware aggiuntivo e che è identica a qualsiasi altra auto acquistabile… in realtà è un livello 4, quindi puoi distrarti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

 

Articolo Precedente

TruckCharge Network, ricarica per mezzi pesanti nei depositi

Articolo Successivo

50mila km in EX30 Volvo: “Perfetta, ti cambia la vita"

Iscriviti alla nostra Newsletter

Abbonati alla nostra newsletter e resta aggiornato.
Seleziona i tuoi interessi:
No spam e zero emissioni garantiti!

Iscriviti alla nostra Newsletter

Abbonati alla nostra newsletter e resta aggiornato.
Seleziona i tuoi interessi:
No spam e zero emissioni garantiti!