edición general
258 meneos
6017 clics
Engañan a un Tesla para que pase de 56 a 140 km/h automáticamente pegando un trozo de cinta a una señal

Engañan a un Tesla para que pase de 56 a 140 km/h automáticamente pegando un trozo de cinta a una señal

Un trozo de cinta de cinco centímetros pegado a una señal. Eso es todo lo que han necesitado unos investigadores de McAfee para conseguir engañar a la cámara de un Tesla Model X y Tesla Model S de 2016 y hacer que aceleren automáticamente. En pocas palabras, los investigadores han pegado un trozo de cinta a una señal de 35 mph, de forma que el "3" pareciera un "8", engañando así al sistema.

| etiquetas: autopilot , conducción autónoma , reconocimiento de señales
«12
  1. #1 una persona sabe que la velocidad maxima es la que es en cada país por tipo de vía, si a mi me ponen una señal con una velocidad de 180 en españa se que es ilegal pasar de 120 ponga lo que ponga una puta señal, que además un humano detectaría posiblemente la cinta. Igual que cuando veo una señal grafiteada.
    Es un desastre que un coche no sepa cuál es la velocidad maxima de un país o estado, sabiendo además o pudiendo saber en qué vía está, estado, etc.
  2. #2

    Habida cuenta de que hay gente que se ido al río por seguir al GPS o cosas similares ... yo no pondría la mano en el fuego por algunas personas (por ejemplo, el otro día, en una glorieta de esas que corta una carretera me encontré con uno que venía de frente ... por el lado de ir. Por suerte, estábamos esperando en el semáforo y se dio cuenta y se salió en cuanto pudo)
  3. #2 En EEUU la velocidad máxima que puede tener una vía son 90mph. Esa señal de 85 podría pasar por buena. Para que la analogía fuera más exacta tendríamos que hablar de poner una señal falsa de 100 o 110km/h en una zona de 50km/h, Podría adivinarse por el contexto, pero no siempre.
  4. También podrían haber engañado a una persona de esta manera.
  5. #2 Y sin embargo el sistema Tesla tiene muchísimos más reflejos que el ser humano para evitar e incluso predecir accidentes. El autopilot aún es un bebé y sin embargo a avanzado a pasos de gigante, pero es gracioso como cada vez que se detecta una posible vulnerabilidad los catetos de turno recorren las callen con antorchas al grito de "¡vaya mierda!" "¡a un humano no le habría pasado!" "¡es un peligro!" "¡las nuevas tecnologías me dan miedo nunca podrán alcanzar lo que hacemos los humanos!"

    www.youtube.com/watch?v=RCahWWOSxaw
  6. #8 Por no hablar de los cafres que se llevan señales llamativas a su casa, con el consiguiente riesgo que eso supone... :troll:  media
  7. #16 Auguro que en términos absolutos bastante poco dinero xD
  8. #15 Pffff y que lo digas macho! Que dejen ya de investigar y desarrollar joder! y que pongan esa pasta en otras cosas más importantes, ostia ya! Como el puticlub de mi pueblo, que tiene los colchones mohosos!

    España, 2020.
  9. #1 Quizá, pero algo me dice que el humano habría considerado además el contexto (carretera, entorno, etc). Los sistemas inteligentes han dado un gran avance sin duda pero todavía les queda camino por recorrer, la interpretación del contexto es una de ellas y también una de las más difíciles.

    Aun y con todo el tema va por el buen camino. Hace 15 años le dices a alguien que un coche casi conduce solo y no te habría creido.
  10. #12 Lo que hubiera yo pagado por ese cartel cuando tenía el local de ensayo punkarra :-D
  11. #7 viaja al pasado regresa al futuro
  12. #1 la persona es más inteligente valorando si las instrucciones no tienen sentido, por el tipo de vía, por las normas de tráfico y por eso que no tienen las máquinas: sentido común
  13. #1 sería más difícil porque una persona tiene luces para saber qué ahí no tiene lógica ir a 85mph. Por ejemplo porque no sea autovía.

    Y digo difícil pero no imposible porque hay mucho cenutrio suelto.
  14. #37 Los bricks de El Conquistador con cola se llevaban todo el presupuesto xD
  15. Yo dudaría si esa señal es legítima, la máquina actúa sin interpretar. ¿Es la duda lo que nos hace humanos?
  16. El navegador de Google tiene una función que te avisa si superas el límite de velocidad de la vía. Y ese límite está definido por los mapas, no por las señales de tráfico. Eso sí, no tiene en cuenta las señales de velocidad temporales como las de obras, por ejemplo.
  17. Y si le llegan a poner un cero a la derecha viaja al pasado.
  18. En realidad es facil engañar a los sistemas, lo cual no es demasiado relevante.
    Lo verdaderamente relevante es que a causa de los falsos positivos (cosas que suceden continuamente delante de cámaras y sensores, y que con realmente difíciles de interpretar, como viento, lluvia, peatones), la IA siempre actuará del modo mas conservador, con lo que los bloqueos, frenazos y paradas serán continuos.

    Por eso esto está muy, muy lejos.
  19. #33 ¿Sensacionalista? Un humano leería sin problemas el 35 en esa señal, así que ahí tienen un problema que corregir. Lo otro se llama redondeo, y teniendo en cuenta que hablamos de doblar el límite de velocidad es perfectamente aceptable.
  20. #2 Eso es verdad. El engaño puede ser disculpable, pero el coche debería tener reglas para cumplir ciertas normas siempre.
  21. #21 menos extraño son carreteras que engañan y de repente aparece una curva que hay que coger a mucho menos o incluso una rotonda. En Pamplona hay una via que parece que se puede ir mas rapido y aparece la rotonda de repente. No debo ser el unico, porque esta llena de lucecitas de peligro para que no se la salten.

    Hay un monton de ilusiones visuales que hackean el cerebro humano. Hay una gallega que hace un concurso de ilusiones visuales en USA.
    Tambien son medio famosas las cuestas que desafian la gravedad. Pones una pelota y aparentemente la pelota sube la cuesta.

    En el caso de los limites de velocidad se puede solucionar. Por ejemplo, se puede saber las señales por el GPS o incluso la velocidad correspondiente si no hay señales o la velocidad que conviene porque otros coches frenan de repente, etc.

    Saul Lopez se queja de algo parecido. Cuando activa el control de crucero, no se selecciona la velocidad que Ya lleva, sino la de una señal que ve y se pone a acelerar.

    #9 #14 #6 #18 #4 #3 #20 #10 #13
  22. #77 y dos dias despues tienes una noticia que dice:

    "Engañan a un Tesla para que pase de 120 a 12 km/h automáticamente pegando un trozo de cinta a una señal"
  23. Buah, esto con un Tesla de 2016. Ya han dicho que en los de 2020 no sucede, así que los Tesla son como los iPhone, hay que cambiarlos cada uno o dos años. Tener un Tesla de 2016 es de pobres.
  24. #4 Las personas tampoco somos perfectas.

    La cuestión es saber quién comete más errores, los coches guiados por IA o los guiados por personas.

    Noticia de ahora: www.diariodemallorca.es/sucesos/2020/02/19/coche-fuera-control-atropel
  25. #8 "Me encontré con uno que venía de frente ... por el lado de ir." Qué barbaridad, mira que ir por el lado de ir.
    {0x1f602}
  26. #69 #71 es velocidad máxima caballeros, solo con tener ambos datos (Maps y sensores leyendo señales) y usar el más bajo de ellos nos aseguramos de que el coche no se vuelve una nave espacial.

    La redundancia genera seguridad.
  27. #19 Claro, claro : o es IA o puticlús...

    Falso dilema diría yo.
  28. #41 Estoy seguro de que en el artículo original usaban la palabra "redundancy" y han usado el google traductor :roll: :roll:
  29. #2 Y por GPS debería saber la velocidad en ese punto de la vía.
  30. Me ha parecido curioso esta parte del ultimo párrafo: MobilEye afirma que "... para garantizar la fiabilidad de la información recibida de los sensores de la cámara y ofrecer despidos y seguridad".
    Ofrecer despidos.... esta claro que se lo quieren vender a los empresarios para automatizar aun mas la empresa :troll:
  31. #15 El problema es llamarle inteligencia artificial a esto. Es las expectativas que crea.  media
  32. #1 Hay engaños y efectos ópticos con los que puedes engañar a una persona y no a una inteligencia artificial.
    Me acuerdo de esa carretera en la que los árboles estaban colocados de tal forma que, al pasar entre ellos la luz, producían ataques a los epilépticos. Eso nunca le pasaría a una inteligencia artificial.
    Además detectando estos fallos se pueden arreglar a la vez en todos los coches, cosa que no se puede hacer con todos los humanos.
  33. #15 No te falta razón, hay mucho más de humo que de realidad.
  34. #25 yo recuerdo 90 en Florida pero igual ha cambiado
  35. #101 porque la velocidad mata, ¿no dicen eso? ¿O es que ahora no vale esa premisa? ¿Es que partimos de la base de que todas las personas conducen todas igual? ¿Por qué suponemos que la IA es mejor que los humanos y merecen unos límites más laxos pero no suponemos que hay personas más capaces que otras y se merecen limites más laxos? ¿Por qué presupones que una IA que confunde un 3 con un 8 es mejor que un humano? ¿No ha sido acaso un humano el que ha engañado a la súper inteligente IA?
  36. #25 De hecho 85 es solo en alguna autovía, ni siquiera en todas las de Texas.
  37. Para que los coches autónomos tenga realmente fiabilidad, es posible que aún tengan que pasar 40 o 50 años. Se trata de manejar cientos de millones de variables en unas carreteras que no están adaptadas a la conducción autónoma.

    Otra cosa es que las carreteras se adapten a este tipo de conducción y esto facilite el trabajo. Por ejemplo, si toda señal está geolocalizada, sea fija o temporal y subida en una base de datos mapeada a la que tenga acceso el vehículo en todo momento, se podría prescindir de leer las señales. Es decir, los humanos facilitaríamos el trabajo a la máquina adaptándonos a sus necesidades y no al revés. Siempre será más efectivo adaptarnos nosotros, y más seguro.
  38. #19 Putas para todos, y de nivel como los sindicatos el PSOE,y el PP.
  39. #88 Si tu lo dices....:roll:
  40. #1 Difícil
  41. #3 www.elmundo.es/madrid/2019/12/10/5deff46521efa01b7b8b4580.html

    por supuesto que las personas tienen luces si.

    cc #4
  42. #1 bueno si va muy pasado quizás... Pero dudo que alguien sobrio se trague una señal de 140 km por hora en una carretera donde se puede ir a 60....
  43. #2 Es imposible entrenar a una IA, por mucho que se quiera, para que sea eficaz en el 100% de los casos. Esto es un desastre, en efecto.
  44. #62 Te equivocas de disyuntiva. Aunque no fue por dónde fui en la carrera, algo de redes neuronales e IA sí que di, poca cosa pero algo sí, lo justo para que me picase el gusanillo aunque después no fuese a más. Te puedo asegurar que el reconocimiento de imágenes no es una tarea fácil. Y no es lo mismo hacer un reconocimiento de imágenes de un TAC para detectar un tumor, que siendo algo muy serio, no importa si tarda unos minutos más o menos, a reconocer bien una señal de tráfico, que tiene que estar resuelto, y bien, el 100% de las veces, en milésimas de segundo.

    Decía que te equivocas de disyuntiva porque no se trata de ver cómo muere más gente, si por su cuenta o con IAs, se trata de que las IAs deberían ser, como mínimo, igual de buenas conduciendo que los humanos. No me sirve que sean mejores en una parte de la conducción si luego son desastrosas en cosas tan humanamente triviales como es reconocer una señal de tráfico.
  45. #74 Tú sí ¿qué?
  46. #1 Primero que sigue poniendo 35 y un humano no leería ahí 85, y segundo que el humano sabe interpretar el entorno y darse cuenta de que esa vía no es para ir a 140km/h.
  47. #45 #42 No... me reafirmo. Los que trabajamos en el sector estamos maravillados con lo que a avanzado la ciencia en computación de IA, y lo que está por venir va a revolucionar al mundo de formas que aún está por imaginar.

    es.wikipedia.org/wiki/DeepMind

    Ale, ya podéis seguir disfrutando de vuestro cubata :shit:

    Efecto Dunning-Kruger en su máximo explendor :palm:
  48. #7: Si pusieran un par de trozos más podrían trucar el 5 dejando un 8 para hacer los 88 MPH de #BTTF. :-D
  49. #67 claramente el tuyo al ser modelo español es mucho más pillo y difícil de engañar #83
  50. #23 Los catetos de turno también son útiles para tener los pies en el suelo y contrarestar los que quieren adoptar cualquier cambio sin pensar los peligros / desventajas.
  51. #33 goto #91 y oh, por 4km de diferencia menos de un 3% no llega a 140, que sensacionalista.
  52. #33 Es mucho más sensacionalista decir que han convertido un tres en un ocho tras ver la foto.
  53. #129 No leches, aunque algo sí que ha avanzado la cosa desde el 2016 del que son esos coches. Pero es que el reconocimiento de señales no es 100% infalible ni nunca lo será. Olvídate del trozo de cinta, te viene alguien con una pegatina con el 8 o el incluso el 85 completo, y ahí hasta un humano fallará. Lo que pasa es que la mayoría de humanos, basados en el contexto, se cuestionarán ese dato y posiblemente lo descarte como absurdo. De hecho en el artículo dicen que versiones más nuevas de MobilEye ya no comenten ese fallo. El comentario iba por la, al menos aparente, subestimación que hacías de la IA por lo que estudiaste (me voy a lanzar al río y decir que, como yo, hará 20-25 años). Es precisamente en el procesamiento del contexto, que una IA puede hacer en función ya no de decenas, sino miles (quizás decenas... cientos de miles, millones) de parámetros, donde nos están empezado a dar mil vueltas gracias a los avances en la última década: rectified linear units (ReLUs, mejora de eficiencia a similar capacidad de cálculo), aumento masivo de la potencia de cálculo vs coste (GPUs y más recientemente TPUs), nuevas arquitecturas neuronales (por ejemplo, redes generativas adversarias, GANs, que precisamente intentan minimizar o solucionar el tipo de problema en el que haces hincapié), cantidad masiva de datos nuevos e históricos (sin datos suficientes poca IA vas a tener) y más cosas que seguramente me dejo en el tintero. Y espero no equivocarme, pero en los 5 próximos años vamos a ver avances increíbles, al menos en comparación con los 5 últimos, que ya es decir bastante.
  54. #130 permíteme agregar lo que para mí ha sido la gran revolución de los últimos diez años, Deep Learning. Antes para hacer una red neuronal tenías que definir tu solito las funciones (features) de tu modelo. Por ejemplo, si querías clasificar vehículos en dos categorías de motos o automóviles una función típica era reconocer cuantas ruedas tenía el vehículo a clasificar. Esto que parece obvio en este ejemplo trivial exigía un enorme esfuerzo en una profesión que se denominaba feature engineering. Las redes de hoy que usan Deep Learning no necesitan que les definamos features, los aprenden y escogen ellas solitas y los resultados en muchos casos son poco menos que espectaculares.
  55. #128 Hace ya unos cuantos. Seguro que tú me dirás que en los últimos años ha habido algún milagro que, por lo que sea, no se ha aplicado al reconocimiento de señales...
  56. #13 si, tienes razón, es 85. No se por qué tenía en la cabeza que eran 90.
  57. #28 Parece ser que el concepto de "reducción al absurdo" no lo aprendiste bien. No pasa nada, a todos nos ha pasado alguna vez, no hay de qué avergonzarse.
  58. #30 Pero qué atrevida es la ignorancia... :palm:
  59. #28 Yo no veo ningún dilema ahí. Puticluses del tirón.
  60. #2 nada que no se pueda resolver con un algoritmo.

    Si al ver una señal 180 dudas, es porque tienes almacenada información pre existente contradictoria.
    Entoces te paras y buscas otras referencias (lo que hacen otros coches, te paras en una gasolinera y preguntas, etc).
  61. A ver. To tengo un Model 3 y cuando vas en Autopilot adapta la velocidad según las señales y el gps. Nunca me ha pasado lo de esta prueba, pero si no pasar de 70 kmh en una autovía recién inaugurada todavia no cartografiada. Y ahí hay señalea claras de 120, pero el coche en ese tramo no se pone a 120.
  62. #51 O bien aceptar que el coche aún no puede conducir sin vigilancia humana constante.
  63. ... la semana próxima: Engañan a un Tesla para que se despeñe por un barranco pegando unos trozos de cinta blanca en la carretera
  64. un tesla, un condensador de fluzo y unas pegatinas..... y a viajar al futu... a la cuneta .
  65. alguien en la sala que nos pueda decir cuál es la pena en este país por manipular con fines delictivos una señal de tráfico, por favor
  66. No sé las demás marcas, pero por ejemplo Mercedes Benz comprueba vía cartografía si la señal que está visualizando corresponde con la de su base de datos
  67. ¿Qué te había dicho, Marty? ¡140 kilometros por horaaaaaa! ;)
  68. #2 #5 Google sabe la velocidad máxima y de hecho la velocidad del tráfico en tiempo real de todas las vías del mundo civilizado. Lo tiene en el Google Maps.

    Me cuesta creer que Tesla no llegue a un acuerdo con Google en ese campo.

    Pero si, es terrorífico que se pueda engañar con esa facilidad a los sensores.
  69. #24 yo creo que mil o dos mil años al menos...
  70. #6 Las personas interpretamos información en base a las reglas que conocemos, no tenemos nada de especial. Al software le puede faltar tener en cuenta algunas de las variables que las personas manejamos. Pero cuando lo haga nos dejará en la cuneta por velocidad y capacidad de procesamiento.
  71. #48 cuidado! Google tardo tiempo en actualizar las velocidades cuando España paso a 110 de un día para otro, y otro tiempo igual al devolverlo, eso no es inmediato. Personalmente no creo que debamos culpar al coche, salvo un conocimiento de la velocidad máxima del país, acompasado por el conocimiento general de velocidad con el tipo de vía estaría bien, pero no me parece sorpréndete lo que ocurrió. No creo que debamos exigir al menos por el momento una capacidad y pericia comparable al humano, ni la de saber cada ida de pinza de lo que nuestros ayuntamientos ponen en sus calles.
  72. #48 y cada cuanto lo actualizan? que prevalece lo que dice una BBDD que vete tu a saber desde cuando esta actualizado o una señal nueva, por ejemplo por obras en la calzada?
  73. #2 pongamos que en una carretera limitada a 100 pasas por un tramo que esta limitado a 50 y un gracioso te cambia la señal y lo pone a 100? o modifica el 50 y pone 80 ¿sabrias identificar el engaño? Pues no.
  74. #80 mucho más seguro que lo otro. Además los mismos sensores aceleraría si alguien se le va a estampar por detrás.
  75. #89 Elon es un drogadicto gracioso, pero como todos los drogadictos, nada fiable.
  76. #2 bueno cuando estuve en Irlanda algún problema tuve con las señales al cambiar de "sur a norte" ;)
  77. #112 dirás, "pa una vez que se fuma SOLO un porro"

    Además en este caso hablaba de las pastillas que se mete, no de los porros.
  78. #2 ¡Un desastre apocalíptico! ¡Imperdonable! Ah, no, que la persona que está detrás del volante es plenamente responsable de la conducción del vehículo, y el AutoPilot (por ahora) es una ayuda a la conducción, no un sustituto.
  79. #9 déjame que lo dude :shit:
  80. La pasta y el marketing mandan. Los ciudadanos deberíamos ser más críticos con la adopción temprana de nuevas tecnologías.
  81. #2 lo han hecho en un área de pruebas no urbana, no tenemos ni idea de lo que habría hecho el coche en ciudad o carretera así que el experimento demuestra poca cosa, que la cámara no ve la cinta, ya está
  82. #73 Perdona la pregunta por, quizás, indiscreta: ¿en qué año dices que diste algo de redes neuronales e IA?
  83. #2 Pues es más grave todavía: el coche no tiene por qué saberlo, pero su inteligencia artificial, sí. Cualquier navegador de tres al cuarto de google, se sabe las velocidades de todas las carreteras, las condiciones del tráfico, las incidencias en el trazado, y obviamente, es más que probable que conozca las señales del camino.

    Obviamente, Tesla no tiene por qué desplegar toda la infraestructura que a Google le ha costado una fortuna. Pero sí que podría alquilarle el servicio para sus clientes.
  84. #35 No, no creo que sea ignorancia. Se de lo que hablo y es más que habitual la imagen de medio equipo llevándose las manos a la cabeza cuando nos enteramos de lo que van vendiendo por ahí los comerciales.
    Desgraciadamente ese humo que venden los comerciales es la idea (más cercano a lo que se ve en películas que a la realidad) que suele llegar al público general.
  85. #35 Ignorante o no ha dado en el clavo.
  86. #13 Al humano lo pueden engañar igual, las señales se miran por muy poco tiempo.
  87. #55 Igual que a los humanos, por eso tenemos miles de muertos en carretera todos los años. Ahora hay que ver cómo muere más gente, si con humanos o IAs conduciendo.
  88. #3 El Tesla tiene un nivel 2 de conducción autónoma. Es decir, que requiere au humano sujetando el volante y atento por si pasan estas cosas.

    Cuando el coche tenga un nivel 4 o 5 entonces sí será un problema.
  89. #48 Tesla no usa mapas para el autopilot, usa exclusivamente los sensores del coche. Lo bueno es que no se va a liar si en el mapa pone 120 pero la carretera está en obras con señales de 80. Lo malo es que se lía con absolutamente todo lo demás.
  90. #73 Yo sí que fuí más lejos, casi 10 años trabajando en I+D con temas relacionados con IA en general y visión por computador en particular.

    Para saber qué es "mejor" hay que establecer una métrica. El número de muertos en carretera me parece una buena métrica si hablamos de conducción.

    el 100% de las veces, en milésimas de segundo Eso tampoco lo consiguen los humanos.
  91. #64 claro, porque eso es lo que de toda la vida ha hecho la ciencia: adoptar cualquier cambio sin pensar los peligros / desventajas.

    Con este “mercado”, normal que estemos como 50 años por detrás de Europa :palm:
  92. #2 El dia menos pensado estos concienzudos investigadores me hackean a mi, dibujan una linea blanca en un puerto de montanya que me envie a un acantilado y de noche o con niebla me despanyan los cabrones.

    Nadie esta a salvo de los estupidos.
  93. #77 Si a mi no me tienes que convencer. Diselo a Elon xD
  94. #1 no de una forma tan burda una persona no confunde un 3 alargado con un 8 ni un trozo de cinta de otro color con un 8.
  95. #27 toma en paper original de mcafee.
    www.mcafee.com/blogs/other-blogs/mcafee-labs/model-hacking-adas-to-pav
    en ningun lugar convierten el 3 en un 8.
  96. #52 mira las fotos, en ningun lugar un humano confundiria esos 3 con un 8.
  97. #72 mira las fotos, ningun ser humano confundiria esos 3 con un 8.
«12
comentarios cerrados

menéame