Aux Etats-Unis, les "robotaxis" avaient parfois du mal à identifier les enfants

Les déboires s'accumulent pour Cruise. L'entreprise qui avait déployé ses robotaxis en phase de test dans plusieurs villes aux États-Unis, avant de les en retirer après leur implication dans des accidents, admet finalement que ses voitures présentées comme autonomes… étaient en fait très régulièrement aidées par des humains.
Avant que son programme de véhicules autonomes ne soit interdit en Californie, Cruise employait "une vaste équipe d'opération" qui intervenait fréquemment sur la conduite des véhicules "autonomes" en cas de problème, d'après des révélations du New York Times.
"Fréquemment" à quel point? Le mode "aide à distance" était lancé sur un véhicule par un de ces employés tous les 4 ou 5 miles (entre 6.5 et 8 kilomètres) en moyenne, selon une porte-parole de Cruise citée par CNBC. "L'aide à distance est déclenchée environ 2 à 4% du temps passé par un véhicule autonome sur la route, ce qui est minime", ajoute la porte-parole.
"L'assistant fournit des données au véhicule pour le guider, il ne le contrôle pas entièrement à distance", détaille la porte-parole de Cruise à CNBC.
Ces assistants humains ne sont pas une preuve des limites du logiciel de conduite autonome, au contraire, selon le PDG de Cruise Kyle Vogt. "(Leur implication) est déjà tellement faible qu'on ne gagnerait pas énormément à optimiser davantage, d'autant plus qu'il est utile d'avoir des humains qui vérifient des choses dans certaines situations", écrit Kyle Vogt dans les commentaires du site Hacker News.
Des problèmes de détection des enfants
Mais ce n'est pas la seule révélation concernant les robotaxis de Cruise. Dans certaines conditions, les voitures ne parvenaient pas à reconnaître des enfants sur la route, et donc à mettre en place des mesures de sécurité supplémentaires, selon le site The Intercept qui affirme avoir consulté des échanges internes à l'entreprise. Cruise manquerait également de données par rapport aux scénarios impliquant des enfants, qui peuvent agir de manière imprévisible.
"Au vu des résultats de la simulation, nous ne pouvons pas écarter la possibilité qu'un véhicule entièrement autonome puisse percuter l'enfant", décrit un compte-rendu d'une des simulations consulté par The Intercept.
En réponse à The Intercept, Cruise explique que durant l'été, l'entreprise a découvert que lorsque ses véhicules croisaient des enfants sur le bord de la route, ils pouvaient parfois ne pas les identifier comme tels – et donc mettre en place des mesures de sécurité supplémentaires. L'entreprise ajoute que ce bug a été détecté uniquement en simulation et pas en conditions réelles, et qu'il a depuis été corrigé (sans détailler comment).
Les véhicules autonomes de Cruise auraient également des difficultés à détecter des "obstacles négatifs" – c'est-à-dire des grands trous dans la chaussée. D'après The Intercept, Cruise avait connaissance de ce problème depuis plus d'un an, mais avait estimé que vu la petite taille de sa flotte, la probabilité d'une chute dans un trou était d'un véhicule par an; et celle d'une chute dans un trou de construction où se trouvent des ouvriers, d'un véhicule tous les 4 ans.
Après l'interdiction de ses véhicules autonomes en Californie, Cruise a interrompu son programme dans tous les États-Unis – mais pas ceux de conduite assistée, tant qu'un conducteur humain est toujours présent pour garder les mains sur le volant. Son concurrent Waymo, lui, a maintenu ses opérations.