Cruise 'Retiro' Robotaxis después del accidente, pero el retiro es el mecanismo incorrecto

En junio, la unidad "Crucero" de General Motor, que opera taxis robotizados no tripulados por la noche en San Francisco y está a punto de expandir el servicio, tuvo un accidente con heridas leves cuando se detuvo en medio de un giro a la izquierda y un automóvil que se aproximaba a gran velocidad. golpéalo en el costado. Esto es interesante tanto en términos de lo que salió mal en el accidente, como también en la forma en que la corrección del software se denominó "Retiro" a pedido de la Agencia Nacional de Seguridad del Transporte en las Carreteras.

Cruise anunció esta semana que serían expandiendo su servicio en San Francisco y también abriéndose en Phoenix y Austin a finales de 2022.

Es probable que este sea el primer accidente que involucre a un conductor sin seguridad, alguna falla en el sistema de conducción y lesiones a terceros (tanto pasajeros como aquellos en el otro vehículo). Recientemente se revelaron nuevos detalles sobre el evento.

sobre el accidente

El vehículo de Cruise cometió un error, pero se descubrió que el otro vehículo, según Cruise, tenía "la mayor parte de la culpa" porque iba a 40 en una zona de 25, y porque se acercaba en el carril de giro a la derecha, pero en lugar de girar. a la derecha cambió al carril directo y atravesó la intersección a gran velocidad. Algunos detalles se pueden encontrar en el Informe del DMV de CA. No se emitieron citaciones, pero el evento aún puede estar bajo investigación.

Las reconstrucciones del evento sugieren que el auto Cruise esperaba hacer un giro a la izquierda, la famosa "izquierda desprotegida" que muchos equipos han encontrado un desafío. Se acercaba un Prius en un carril que requiere un giro a la izquierda, excepto para autobuses y taxis, y el auto Cruise supuso que el auto realmente iba a girar a la derecha y que podía girar primero antes de que llegara el Prius. El Prius no era un taxi, pero se desconoce si el Cruise estaba seguro de eso o basó sus decisiones en eso. Parece probable que el Cruise predijera que el automóvil reduciría la velocidad, dejándole tiempo para dar la vuelta, y comenzó a girar.

El Prius no disminuyó la velocidad, por lo que el motor de predicción de Cruise calculó que si el auto Cruise continuaba girando y el Prius rápido también giraba, el Prius chocaría contra el Cruise. Entonces, el Cruise hizo lo que consideró que era lo correcto y conservador, que fue detenerse bruscamente en la intersección, lo que permitiría que el Prius hiciera lo correcto.

El Prius no hizo eso. De hecho, volvió al carril de paso y continuó hasta la intersección. Uno podría suponer que siempre tuvo la intención de seguir recto y ahora puede haber estado tratando de evitar que el automóvil se detuviera en la intersección. No lo hizo, y golpeó la parte trasera del vehículo Cruise, causando heridas leves en ambos autos.

Cruise admitió que su software actuó incorrectamente en un presentar ante la NHTSA, aunque culpó del accidente al Prius por su alta velocidad y por estar en el carril equivocado. El Cruise Bolt podría haber evitado el accidente al no detenerse y completar su giro, o al no intentarlo en primer lugar. La mayoría de los robocars son conservadores y no están del todo preparados para evitar accidentes acelerando, ya que eso puede generar otros problemas.

Cruise se negó a responder la mayoría de las preguntas sobre este evento más allá de lo que figura en sus archivos. Como dice la presentación, el automóvil estaba en "modo autónomo sin conductor" y Cruise confirma que esto significa que no había un conductor de seguridad a bordo. Los informes policiales dicen que había 3 pasajeros (viajando gratis) en la parte trasera del Bolt, y uno fue brevemente al hospital con heridas leves. Había dos en el Prius que fueron atendidos en la escena. Como este pasajero no se ha presentado a la prensa, es posible que Cruise haya ofrecido incentivos a esta persona para que no lo haga. Cruise no requiere NDA de los pasajeros.

Cruise dijo que este problema era muy poco común y solo sucedió una vez en más de 120,000 giros a la izquierda sin protección. (Pero vea a continuación para saber si eso es bueno). 3 días después, lanzaron una actualización de software que creen que soluciona el problema. Admiten que es su deber hacer más para evitar un choque, incluso cuando otros usuarios de la vía se están portando mal, y esa es una buena filosofía. La mayoría de los equipos de conducción autónoma intentan crear situaciones con otros conductores erráticos en el simulador y tratan de encontrar todas las variaciones posibles de ellos. Esta situación seguramente está en el simulador de Cruise ahora, y también en los simuladores de todos los demás equipos importantes que leyeron las noticias si aún no las tenían.

Acerca de la retirada

Curiosamente, Cruise describió esta actualización de software en particular como una "retirada del mercado" y presentó un aviso de retirada real ante la NHTSA. Cruise y todos los demás equipos que operan constantemente realizan actualizaciones de software para solucionar problemas, aunque, por supuesto, es muy raro solucionar un problema que causó un accidente, afortunadamente. No están poniendo esto a través del mecanismo de retiro. El mecanismo de retiro parece no encajar bien por muchas razones:

  1. Cruise en realidad no recordó los vehículos, es decir. pídales que los devuelvan a un centro de servicio para que los arreglen. Simplemente usó su proceso regular de actualización de software por aire.
  2. GM/Cruise nunca vendió estos vehículos, los posee y los opera, por lo que realmente no se los puede retirar del cliente.
  3. El proceso de recuperación es complicado y burocrático, y definitivamente no se puede usar para todas las actualizaciones de software, incluso las actualizaciones que solucionan un problema de seguridad. Casi todas las actualizaciones de software solucionan algún problema de seguridad u otro, pero no uno que realmente causó (en lugar de que pudiera causar) un bloqueo.

Tiene sentido que se informen estos accidentes y sus arreglos y, de hecho, este accidente se informó al DMV de California, a la policía y a la NHTSA mucho antes del retiro. NHTSA ha solicitado o aceptado retiros del mercado para algunos otros cambios de software, y necesita revisar y optimizar este proceso. Si bien la NHTSA tiene autoridad para regular la seguridad de los autos vendidos en los EE. UU., no está tan claro qué autoridad tienen sobre los autos que no se venden. Vale la pena señalar que justo el día antes de este accidente, a Cruise se le otorgó permiso, pero aún no había comenzado, para vender viajes en sus autos, y podría tener sentido regular los autos en los que se venden viajes (aunque esto puede ser más un asunto estatal si no cruzan las fronteras estatales).

Anteriormente, cuando Pony.AI tuvo un accidente en uno de sus vehículos no tripulados, el DMV retiró su permiso para operar en ese estado. En el caso de Pony, fue un accidente automovilístico en solitario, claramente culpa de su vehículo. Las diferentes circunstancias pueden haber resultado en diferentes acciones o inacciones por parte del DMV.

Los accidentes de Robocar son diferentes

Este choque nos dice algo sobre el patrón diferente de accidentes en los robocars. Las reacciones iniciales muestran que Cruise puede ser menos maduro de lo deseado. Waymo tuvo un accidente donde hubo una falla en 2016, 7 años después de su proyecto, aunque sin heridos. Han tenido muy poco desde entonces, aunque solo recientemente han manejado mucho en un territorio como San Francisco. Cruise ha tenido un montón de errores vergonzosos últimamente, incluida una parada policial inusual, grupos de autos que se detienen debido a un error de comunicación del servidor, un incidente con un camión de bomberos, quejas sobre recoger/dejar en medio del calle, y congelación al comienzo de un viaje para un reportero del Today Show. Esto es más de lo que hemos escuchado con Waymo y otros, y como tal, esperamos que estos sean solo dolores de dentición. Todos los equipos tendrán problemas y, de hecho, todos los equipos tendrán fallas, y lo que importa es la frecuencia con la que suceden.

Cruise declaró el 12 de septiembre que habían realizado alrededor de 300,000 millas de servicio de robotaxi sin conductor de seguridad en San Francisco, y que habrían hecho menos en junio. Eso no es bueno, porque los conductores humanos tienden a tener un accidente con lesiones por cada millón de millas de conducción. Si bien se puede juzgar que Cruise tiene menos fallas que el conductor de Prius, este no es un récord tan bueno como nos gustaría. (Un accidente después de, digamos, 250,000 millas no significa que no vayan a hacer un millón de millas antes del siguiente, pero no es un gran augurio). Por otro lado, han hecho 4 millones de millas en general (con conductores de seguridad). Debido a que los conductores de seguridad intervinieron con cualquier problema en los 4 millones de millas, no sabemos cuál fue la tasa real de accidentes para ese sistema, que también era un sistema más antiguo e inferior en comparación con el último. es bueno que teslaTSLA
informa que sus clientes han conducido con seguridad 30 millones de millas con el Tesla FSD de muy mala calidad y no ha surgido ningún informe de ningún accidente grave, particularmente lesiones.

El aspecto único de los robots, sin embargo, se señaló anteriormente. Cruise solucionó este problema en 3 días y no volverá a suceder, al menos no de esta manera. Probablemente las otras compañías hayan puesto esto en sus simuladores y tampoco les pasará a ellos. Las empresas construyen bibliotecas masivas de escenarios de simulación (e incluso, en un proyecto que ayudé a instigar, intercambiarlos). Cuando hacen esto, tienen algoritmos para "fuzz" el escenario, lo que significa ajustar todos los parámetros de diferentes maneras. Intentarán esto con el otro automóvil a diferentes velocidades o cambiando de carril en diferentes momentos. Lo intentarán con el auto Cruise actuando de manera diferente. Lo intentarán con peatones haciendo diferentes cosas en la intersección para comprobar que no se produce ningún problema en miles de variaciones.

Esto no es como la gente. Si una persona tuvo este tipo de accidente, y lo tiene, las lecciones de esa persona no enseñarán a ninguna de las demás. En el mejor de los casos, con el tiempo, la ciudad podría mejorar las reglas sobre los carriles o la velocidad, pero eso generará muchos incidentes. Independientemente de los errores que cometan los robots, generalmente solo mejorarán.

La gente empeora. Si bien la mayoría de la gente espera que los conductores jóvenes sean los más salvajes y tengan la mayor cantidad de accidentes, son los conductores de 80 años los que más se suicidan: el gráfico tiene una trágica forma de "U". Esto se debe en parte a que los conductores mayores son más frágiles, pero también se ha descubierto que tienen más accidentes a medida que sus facultades disminuyen. En particular, y de manera extraña, tienen más accidentes en los que son ellos los que golpean el automóvil, en lugar de que el automóvil golpee, aunque todavía es su culpa, debido a situaciones como esta en giros a la izquierda sin protección. Los robots deberían ser excelentes para juzgar la física de estas situaciones, pero el sistema de Cruise hizo demasiadas suposiciones.

Este es también un ejemplo clásico del problema de predicción. Mientras hablamos de sensores todo el tiempo en el mundo de los robocars, la detección no es el objetivo, es un medio hacia el objetivo real que es la predicción. No importa dónde está todo ahora, lo que importa es dónde estará en un futuro próximo. Cruise calculó mal hacia dónde podría ir el Prius y también qué hacer al respecto cuando la situación cambiara. Sospecho que el auto de Cruise no está programado para hacer cosas como correr hacia adelante para evitar el accidente, o incluso retroceder. No tenemos datos sobre si había un automóvil detrás del Cruise Bolt, pero una cosa que hacen los robots es mirar en todas las direcciones a la vez, y si estaba claro detrás, el automóvil podría haber actuado mucho más rápido que un humano, que lo haría. hay que mirar el espejo y llegar a la palanca de cambios. Un automóvil eléctrico y acelera muy rápido y a tiempo, los vehículos eléctricos robóticos deberían ser muy ágiles para evitar accidentes, si se atreven.

Digo si se atreven porque la mayoría de las empresas están siendo muy conservadoras. No quieren hacer movimientos repentinos que podrían empeorar la situación, incluso con una visión de 360 ​​grados. En particular, muchos movimientos repentinos de este tipo son técnicamente ilegales y no quieren violar la ley deliberadamente, especialmente si puede salir mal. Por ejemplo, los peatones pueden salir por sorpresa de detrás de las cosas en cualquier momento. Si saltan frente a ti, no es tu culpa, pero si estás en la acera para evitar un accidente, es otra historia. (No, los autos nunca intentarán elegir a quién golpear si tienen que elegir entre dos personas, ese es un mito común y una pregunta molesta, no es algo que realmente suceda.)

Con el tiempo, los robots deberían ser mejores que los humanos en esta situación. Mejorarán en la predicción del rango de cosas que harán otros autos. El automóvil debería haber estado diciendo constantemente: "¿Qué haré si este tipo no gira como lo exigen las reglas?" y asegurarse de que se pueda tomar una medida, como acelerar en el giro o retroceder. Si no hay ninguna acción que pueda funcionar y el riesgo tiene una probabilidad lo suficientemente alta, el automóvil esperará, pero lo ideal es que haya una acción posible. Es necesario tolerar algún riesgo de accidente cuando otros actúan de manera errática. La conducción defensiva es buena, pero un conductor totalmente defensivo bloqueará las carreteras con precaución, lo que no resuelve el problema.

Leer / dejar comentarios aquí

Fuente: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotaxis-after-crash-but-the-recall-is-the-wrong-mechanism/