L’accident mortel en TESLA aurait peut-être pu être évité grâce à des modules logiciels de NEXYAD

version française du livre blanc (French version of the white paper ... English version HERE :    )

par NEXYAD Août 2016

 

Les passions se déchaînent autour de la question des véhicules autonomes, ou semi-autonomes. Récemment, une personne a perdu la vie dans son véhicule TESLA alors qu’il était en mode auto-pilote. NEXYAD a étudié la sécurité routière pendant une vingtaine d’année, et nous donnons quelques éléments de réflexion sur ce type d’accident. Les chaînes de traitement de l’information des systèmes auto-pilote, driverless, etc… allant de la perception de l’environnement jusqu’à la prise de décision et à la gestion automatique des actionneurs, sont généralement très bien conçues, et mettent en œuvre des modules performants. Mais cela ne suffit pas à rendre nul le risque d’accident. En effet, pour traiter ce risque, il manque une chaîne parallèle (et indépendante) de « monitoring ». C’est pour bien comprendre cette nécessité, il faut tout d’abord appréhender le niveau de complexité d’une scène routière vue par une caméra. La variabilité des scènes routière est en effet beaucoup plus grande que ce qu’un humain arrive à imaginer : une image couleur qui a huit bits par plan (soit 24 bits puisqu’il y a 3 plans couleurs) peut coder 224 niveaux de couleurs différents sur un pixel (soit plus de 65 000 valeurs différentes). Une image standard HD a plus de 2 000 000 de pixels. Cela signifie qu’une matrice HD 8 bits couleur peut représenter plus de 65 0002 000 000 images différentes. Ce nombre est tout bonnement inimaginable. Cela pose la question de la validation d’un système d’aide à la conduite (ADAS) basé sur une caméra (voire plusieurs caméras !). Il est en effet absolument impossible de tester tous les cas possibles de scènes routières. Et que l’on ne s’imagine pas que l’on peut facilement réduire cette complexité en décrétant que la scène routière a une « forme particulière » (une route en perspective devant la voiture) … rien ne vous dit qu’une araignée n’a pas élu domicile devant l’objectif de la caméra … on peut aussi se trouver derrière un camion ou un bus avec une affiche publicitaire et là, toutes les images sont possibles, y compris une image de route bien droite dans le désert, alors que la vraie route, celle sur laquelle le véhicule roule, tourne ! L’exhaustivité étant totalement impossible, il existe néanmoins une solution pour utiliser quand-même ce genre de système : il faut « clôturer » le monde. Autrement dit, il faut que l’ensemble des cas déjà rencontrés lors de la validation génère une sorte « d’espace clos» appelé « espace connu », et il faut positionner ce que voit le véhicule à chaque instant dans cet « espace connu », afin que l’intelligence embarquée sache si la scène routière est conforme aux cas pour lesquels elle sait réagir, ou bien si la scène routière est trop différente des cas déjà rencontrés. Dans ce dernier cas, il est évident que l’intelligence embarquée doit prendre des décisions de prudence par défaut comme ralentir, prévenir le conducteur, etc… Il s’agit donc parallèlement à la construction de la chaîne de perception, d’intelligence, et de décision qui constitue le pilote automatique (ou semi-automatique), de construire une chaîne parallèle qui ne s’occupe que d’une seule chose : est-on dans un cas dont les caractéristiques (luminosité, contraste, etc…) sont identiques à celle des scènes routières qui ont conduit à la validation du pilote automatique. NEXYAD dispose de trois modules logiciels dont l’objectif est précisément de réaliser ce type de chaîne parallèle destinée au « monitoring » de la chaîne principale :

Lire la publication complète : 

- web :http://nexyad.net/Automotive-Transportation/?cat=501

- pdf : http://www.nexyad.net/news/Automotive_Transportation-Newsletter_11-01.pdf