skip to main | skip to sidebar
8 commenti

Tesla Model 3 si schianta, conducente incolpa l’Autopilot

Ultimo aggiornamento: 2018/05/26 14:40.


YouYou Xue, un proprietario di una Tesla Model 3 americana che stava girando l’Europa per un tour personale per presentare l’auto ai tanti europei che l’hanno prenotata, ha avuto un incidente del quale incolpa il sistema di guida assistita, denominato Autopilot, mentre procedeva sull’autostrada E65 in Grecia, diretto verso Kozani. Il conducente è incolume e l’auto non ha preso fuoco. Non sono coinvolte altre auto.

Secondo quanto postato da Xue, il veicolo procedeva a 120 km/h con l’Autopilot attivo quando ha sterzato improvvisamente verso destra senza preavviso e si è scontrata con lo spartitraffico in corrispondenza di un’uscita. Una ruota è completamente distrutta e la portiera del conducente non si apriva correttamente.






Electrek ha raccolto un’altra dichiarazione di Xue, che dice che l’auto ha sterzato verso destra cinque metri prima che la fiancata sinistra colpisse il lato destro dello spartitraffico visibile in questa foto:



Lo spartitraffico è visibile a destra della corsia in quest’altra foto:



Xue ha segnalato l’incidente direttamente a Elon Musk via Twitter, parlando di malfunzionamento dell’Autopilot:


Electrek ha raccolto una dichiarazione di Tesla che traduco qui sotto:

“Anche se apprezziamo l’impegno di You You Xue nel far conoscere la Model 3, era stato informato che Tesla non ha ancora una presenza in Europa orientale e che lì non sono disponibili connettività o assistenza per i veicoli. Inoltre la Model 3 non è ancora stata approvata e omologata per la guida al di fuori degli Stati Uniti e del Canada. Anche se non siamo stati in grado di recuperare dati dal veicolo, visto che l’incidente si è verificato in una zona non supportata, Tesla è sempre stata molto chiara che il conducente deve restare responsabile dell’auto in ogni momento durante l’uso dell’Autopilot. Ci dispiace che sia avvenuto questo incidente e siamo contenti che You You sia salvo.”


Per quel che ne so, questo è il primo incidente in Autopilot di una Model 3.

La prima impressione è che l’Autopilot, basato in gran parte sul riconoscimento visivo della segnaletica orizzontale, abbia seguito per errore le linee bianche di demarcazione della corsia di uscita invece di quelle, più sbiadite, della corsia di marcia e quindi abbia (dal suo punto di vista) “corretto” all’ultimo momento la propria traiettoria prima che il conducente potesse intervenire, ma è solo una congettura.

È tutto quello che so per il momento; aggiornerò questo articolo se ci saranno novità.


2018/05/26 14:40


C’è una dichiarazione più dettagliata di Xue, che cito integralmente qui sotto: la tradurrò appena possibile.

Statement
Re: Model 3 crash on Autopilot

Statement regarding collision
26 May 2018
FLORINA, GREECE
Thank you everyone for your kind wishes and messages of support following the collision late yesterday night. This is an absolutely devastating loss for me and brings a great journey to a sudden end.

I was driving southbound on highway E65 near the city of Florina, Greece. I was headed towards Kozani, Greece, where I planned to charge and spend the night. At this time, I was not tired after having 8 hours of sleep the previous night. I engaged Autopilot upon entering the highway after crossing the border between Macedonia (FYROM) and Greece. My Autopilot maximum speed was set at approximately 120 km/h, the speed limit for this highway. The highway was well-marked, well-maintained, and well-lit. The conditions were dry, and there was no traffic around me. The highway was two lanes in each direction, separated by a concrete median. The highway in my direction of travel divided at a fork, with the #2 right lane changing into the exit lane, and the #1 left lane remaining the lane for thru traffic. I was travelling in the #1 lane.

My left hand was grasping the bottom of the steering wheel during the drive, my right hand was resting on my lap. The vehicle showed no signs of difficulty following the road up until this fork. As the gore point began, approximately 8m before the crash barrier and end of the fork, my Model 3 veered suddenly and with great force to the right. I was taking a glance at the navigation on my phone, and was not paying full attention to the road. I was startled by the sudden change in direction of the car, and I attempted to apply additional grip onto the steering wheel in an attempt to correct the steering. This input was too late and although I was only a few inches from clearing the crash barrier, the front left of the vehicle near the wheel well crashed into the right edge of the barrier, resulting in severe damage.

I was not harmed in the collision, and no medical attention has been sought. I was wearing my seatbelt before and during the collision. None of the airbags deployed.

My Model 3 is not drivable as the front left wheel is completely shattered, and the axle is out of alignment. The damage is severe on the left of the front bumper, running to the front lip of the driver’s door, and is moderately severe from there to the left of the back bumper. The vehicle has been towed to a shop, and at 09:00 today, I will accompany the vehicle on a tow truck to Thessaloniki. I am towing the car there under recommendation from locals as more resources are available there, including resources to repatriate the vehicle back to the United States. I will make a decision soon as to whether or not it makes sense to bring this car back to the United States in an attempt to fix it, as the cost to repair the vehicle may substantially exceed its value after repair or salvage value.

Tesla states in an on-screen warning that both hands should be on the wheel when Autopilot is activated. Furthermore, Tesla states that drivers should be paying attention and monitoring the performance of Autopilot at all times. It is likely true that if all drivers obeyed the warnings surrounding this software, that most of the collisions we hear about in the press would never happen. Autopilot has limitations that currently can only be overcome through human intervention. For example, it cannot detect stationary objects, which explains collisions where Model S has rear-ended stationary vehicles parked on the side of the road.

By looking at my navigation and by not having both hands on the wheel, I was not paying full attention to the road while the vehicle was in Autopilot and was not following Tesla’s directions in regards to the correct use of the software. I want to make it clear that I take responsibility in regards to my actions. With that being said, I do not believe that there are many Tesla owners who, when using Autopilot, always keep both hands on the wheel and provide their undivided attention to monitoring the road and the software. This collision was directly caused by the Autopilot software seriously malfunctioning and misinterpreting the road. This collision could have happened to anyone who does not expect a car travelling at a fast speed in a straight line to suddenly and without warning, veer off course. After tens of thousands of kilometres worth of Autopilot driving without major incidents, I have learned to trust the software. Autopilot provides users with a strong sense of security and reliability as it takes you to your destination and navigates traffic on your behalf. Clearly, I had become too trusting of the software.

Autopilot is marketed as a driver assistance feature that reduces stress and improves safety. However, the vigilance required to use the software, such as keeping both hands on the wheel and constantly monitoring the system for malfunctions or abnormal behaviour, arguably requires significantly more attention than just driving the vehicle normally without use of Autopilot. Furthermore, I believe that if Autopilot even has the small potential of misreading a clearly marked gore point, and has the potential to drive into a gore point and crash into a barrier, it should not be tested in beta, on the open road, and by normal consumers. My experience is not unique as many drivers have reported similar behaviour from Autopilot, and a fatal crash involving Autopilot on a Model X may have been caused by a disturbingly similar malfunction.

Many Tesla fans will likely dismiss this as fully my fault, but I implore those who believe so to take a full step back and put themselves in my shoes, as a driver who had used this amazing software for so long, and who could not have anticipated such a sudden and violent jerk of the wheel to one direction while travelling at a fast speed. I hope that my fellow owners will be less dismissive of various incidents regarding Autopilot, and understand that the general public views these severe collisions differently from the owner community. Tesla is moving quickly into the mass market, and potential customers in that segment aren’t going to ask, “why were both of his hands not on the wheel while the car was in Autopilot?”, rather, they are going to ask “why did the car swerve into the gore point without warning?”. The autonomous driving movement as well as the Tesla community can only get stronger when we tackle these questions and resolve the issues behind them.

I love my Teslas and I have owned a Tesla since 2014. I am upset with myself for being part of the growing list of individuals who have been involved in collisions while their Tesla was on Autopilot. I strongly believe in the capability of self-driving vehicles to not only eliminate all collisions on the road but to revolutionise our society. However, malfunctions like this greatly reduce the public’s confidence in a technology that should indeed be tested and rolled out to the public as soon as it is safe for use. I do not want to cause Tesla damage to its brand or image as I wholly support its mission and I am a big supporter. I only hope that Tesla will investigate this incident to determine what went wrong with the software, and make improvements that will enhance other people’s experiences with the car.

I am very grateful to be alive after what could have easily been a fatal collision. This incident was not more severe thanks to an excellent crash barrier on the Greek highway. I want to thank everyone again for your messages of support. I am honoured to have had this opportunity to spread the EV movement not only around my country but around the world. In closing, I want to address some of my critics who have used this collision to laugh at me or to otherwise make fun of this incident. On this road trip, there have indeed been crazy posts where I push the limit of my car and I have only done these things to share my excitement about my Model 3 with others. Please understand that there was nothing out of the ordinary occurring before this collision. I was not sleeping at the wheel, I was not tired, I was not eating at the wheel (which by the way, I have not done before), no videos were being filmed - the vehicle was being operated normally. I am truly sorry and deeply regret that some of my actions have caused a bad taste in people’s mouths, I ask those people to judge my road trip thus far as a whole and not by my craziest or worst moments. I have met with over 8000 people on the road in three continents and 25 countries, and have demonstrated that not only is it possible to drive an EV across the world, it is absolutely exhilarating and brings along great adventure along the way. I have also seen the potential and power of the EV owners community, which when leveraged, can make a great difference in our world. I ask those who disapprove of my actions to reconsider their stance, and I want to see what positive things can come of this collision.

What happens next on this road trip is uncertain. I will keep everyone posted.


Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
8 commenti

Le parole di Internet: adversarial attack

Fonte: Wired.
Noi abbiamo le illusioni ottiche, i computer hanno gli adversarial attack: è questa l’espressione che indica in informatica un contenuto (un’immagine, un video, un suono o un malware) che noi riconosciamo senza problemi ma confonde i sistemi di riconoscimento automatico. 

L’immagine qui accanto, per esempio, viene riconosciuta dalle persone senza alcun problema: sono due uomini in piedi, su una distesa innevata, in posa mentre sciano. Ma il sistema di riconoscimento delle immagini Google Cloud Vision, spiega Wired, lo ha identificato con il 91% di certezza come un cane.

Trovate altri esempi qui: è particolarmente notevole il gatto scambiato per del guacamole. E se volete quelli acustici, divertitevi qui.

È insomma chiaro che i sistemi di riconoscimento automatico per ora “pensano“ in maniera molto diversa dagli esseri umani: non avendo conoscenza del mondo fisico, ragionano soltanto sui pixel e non possono valutare cose come il contesto o la plausibilità di un’immagine o di un suono.
6 commenti

Le foto dei gattini sono utili: sviluppano l’intelligenza artificiale


Finalmente avete una giustificazione tecnica per pubblicare foto di gattini (ammesso che sentiate il bisogno di averne una): Facebook ha annunciato di aver utilizzato ben 3,5 miliardi di foto pubbliche di Instagram, corredate da 17.000 hashtag digitati dagli utenti per etichettarle, allo scopo di addestrare sistemi di riconoscimento delle immagini.

È la più vasta serie di foto mai usata in un progetto del genere: dieci volte più grande di quella usata da Google di recente.

Questo ha permesso al sistema di Facebook di ottenere un risultato record nell’identificazione e nell’etichettatura automatica delle immagini di circa 1000 categorie, comprese le ruote di auto, le calze di Natale e naturalmente i gatti, arrivando a riconoscere correttamente nell’85.4% dei casi, contro il risultato precedente di Google, che era arrivato all’83.1% (comunque un valore più che rispettabile).

Questi sistemi di riconoscimento sono utili ai non vedenti, per esempio, perché descrivono automaticamente il contenuto grafico di un post, ma servono anche per fare una preselezione delle immagini inaccettabili (pornografia, violenza) e, secondo i piani di Facebook, della propaganda criminale e terroristica. Ma questo è niente rispetto alla possibilità di dire che postiamo gattini per la scienza.


Fonte: Wired.
0 commenti

Videocitofono online un po' troppo pettegolo

La sicurezza dei campanelli o videocitofoni digitali è ancora tutta da inventare: si tratta di oggetti indubbiamente utili, perché consentono di vedere chi c’è alla porta tramite lo smartphone, sia quando siamo in casa sia quando siamo lontani da casa, come ho raccontato di recente, ma essendo connessi a Internet è importante assicurarsi che non abbiano difetti di progettazione che consentano a un malintenzionato di abusarne via Internet.

The Information segnala il caso del “campanello smart” della Ring, azienda acquisita di recente da Amazon per un miliardo di dollari: un uomo di Miami, in Florida, Jesus Echezarreta, dopo aver chiuso la relazione con il proprio partner, ha cambiato la password di questo campanello, eppure l’ex partner è riuscito comunque a scaricare video dal dispositivo e persino a farlo suonare nel cuore della notte. Tutto tramite smartphone.

L’azienda ha risolto questa falla a gennaio scorso, ma il difetto di progettazione era grave: se un utente era già connesso al campanello tramite l’app, il software del Ring gli consentiva di restare connesso anche dopo un cambio di password. Una progettazione intelligente, invece, avrebbe obbligato tutti a riconnettersi. È un po’ come cambiare la serratura alla porta di casa e poi scoprire che si apre anche usando le chiavi di quella vecchia.

Anche dopo la correzione apportata da Ring, comunque, i test indicano che un utente resta collegato anche fino a ventiquattro ore dopo il cambio di password. Se state pensando di installare questi dispositivi, valutate bene a chi affidarne l’accesso.
13 commenti

Facebook pubblica finalmente gli standard interni per approvare o rimuovere contenuti

Pubblicazione iniziale: 2018/05/15. Ultimo aggiornamento: 2018/05/25 8:40.

Se usate Facebook, probabilmente vi sarà capitato di notare che alcuni post vengono rimossi con un avviso che spiega che non rispettano gli “standard della comunità”. Avrete anche notato che questi standard vengono applicati in maniera spesso incomprensibile e incoerente.

Per esempio, nel 2013 Facebook bloccò l’intero profilo del museo francese Jeu de Paume perché aveva pubblicato una singola foto in bianco e nero di un nudo femminile parziale. Nello stesso periodo, invece, Facebook ritenne che fotografie di un cane trascinato dietro un’automobile fino a lasciare una scia di sangue sotto il suo corpo fossero conformi agli “standard della comunità”, nonostante le segnalazioni.

Per anni Facebook ha bloccato e rimosso arbitrariamente immagini di donne che allattano ma ha lasciato passare, e tuttora lascia passare, post nei quali si istiga all’odio e si promuove il bullismo. Facebook aveva risposto a queste contestazioni introducendo nuove regole nel 2015, ma le cose non erano cambiate granché all’atto pratico.

Ora Facebook ci riprova: promette di aver compiuto un passo avanti verso la risoluzione di questi problemi, pubblicando finalmente questi standard interni, validi “in tutto il mondo per tutti i tipi di contenuti”. Li trovate, tradotti anche in italiano, presso www.facebook.com/communitystandards (vengono visualizzati nella lingua che usate per Facebook).

Vale la pena di leggerli per tentare di capire quali sono i limiti, non sempre intuitivi, di quello che Facebook ritiene accettabile. Per esempio, il social network boccia le minacce, ma solo se sono personali e credibili; vieta le immagini di nudo dei bambini, postate spesso dai genitori con buone intenzioni; non accetta il bullismo, a meno che riguardi personaggi pubblici.

I discorsi di incitazione all’odio occupano una sezione particolarmente corposa di questi standard e vengono vietati se si tratta di attacchi diretti alle persone sulla base di “razza, etnia, nazionalità di origine, religione, orientamento sessuale, sesso, genere o identità di genere, disabilità o malattia” e se si tratta di discorsi violenti o disumanizzanti o di incitazione all’esclusione o alla segregazione.

Le immagini di violenza, invece, vengono gestite da Facebook aggiungendo “un'etichetta di avviso ai contenuti particolarmente forti o violenti in modo che non possano essere visualizzati dai minori di 18 anni”: chi le vuole vedere dovrà cliccarvi sopra intenzionalmente.

Secondo questi nuovi standard, è “permessa anche la pubblicazione di fotografie di dipinti, sculture o altre forme d'arte che ritraggono figure nude.” I musei possono tirare finalmente un sospiro di sollievo, insomma.

Un’altra novità importante è la prossima introduzione di una procedura di appello contro le decisioni dei valutatori di Facebook: se un post, una foto o un video viene rimosso perché considerato in violazione degli standard, questa decisione non sarà più definitiva, ma verrà offerta la possibilità di chiedere un riesame più approfondito da parte di un addetto in carne e ossa, in genere entro 24 ore; se il riesame riscontrerà che la rimozione era errata, i contenuti rimossi verranno ripristinati. Questa facoltà di appello varrà non solo per i contenuti rimossi, ma anche per quelli segnalati ma non rimossi.

Riuscirà Facebook a mantenere queste promesse? Lo scopriremo presto. Butac.it segnala che in queste ore sul social network circola un’accusa infamante nei confronti di Nadia Toffa, la conduttrice delle Iene, che (secondo quest’accusa) starebbe addirittura recitando, pagata dalle case farmaceutiche, per sponsorizzare le cure convenzionali contro il cancro. Secondo Facebook, in quale categoria rientra il complottismo che accusa per nome le persone in questo modo?
Articoli precedenti