Tecnología, Internet y juegos
236 meneos
2029 clics
¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?

¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?

Los vehículos autónomos ya están aquí. Aunque sea en fase de pruebas, estos vehículos sin conductor inteligentes, prometen ser mayoría en las carreteras en un horizonte de tiempo que los expertos calculan entre 15 y 30 años. Su objetivo es claro: reducir la gran cantidad de accidentes que se producen por error o negligencia humana, la gran mayoría de ellos. Sin embargo, el coche autónomo también ha llegado con sus propios dilemas morales, y no son desde luego sencillos

| etiquetas: coche , autónomo , futuro
92 144 3 K 243
92 144 3 K 243
Comentarios destacados:                                  
#20 #1 #3 #4 #11 #12 La alternativa sería comprar un coche autónomo que escogiera salvar tu vida por encima de la de los demás. ¿No entienden lo que realmente es eso?

Los demás coches autónomos, no solo el tuyo, también estarían diseñados para salvar la vida de sus dueños y no la de los demás (incluyendo la de ustedes). Y en cualquier accidente habrá una carrera egoísta de cada coche autónomo para hacer menor daño a su dueño y causándole daño indiscriminadamente a los demás. Muerte segura para muchos. Se salva el que tenga el coche autónomo más grande y blindado, es decir, el que tenga más dinero, o el que tenga más suerte.

Por el contrario, coches autónomos que decidan el mal menor (de una manera altruista y no egoísta), generalmente salvarían la vida de todos, y muy de vez en cuando habría algún muerto (que en una muy mala circunstancia puedes ser tú). Yo prefiero lo último a una muerte muchísimo más probable de lo primero.

Lo mismo vale para todo en la vida y en nuestra civilización con las alternativas de egoísmo vs. altruismo.
«12
  1. Si lo hace con cariño... pero claro, depende de a quién coño vaya a salvar...
  2. En mi opinión, si queremos que los coches autónomos triunfen en el mercado, es fundamental que siempre, en todos los casos, den prioridad a la vida del dueño. Si no, nadie querrá comprarlos. Y realmente no es un problema, porque como decía un ingeniero de google: "si nuestro coche llega a verse en esa tesitura, es que hemos hecho algo mal" (o lo que es lo mismo: tiene que ser capaz de prever lo suficiente como para que eso nunca ocurra).
  3. No.

    De igual modo que tampoco compraría un coche que se va frenando cada vez que se me cruce por delante un ciclista que se ha saltado el semáforo en rojo.

    Y tampoco me dejaría intervenir quirúrgicamente por una IA que pensase que muerto soy más útil donando mis órganos a 5 enfermos graves.

    ¿Estamos locos? Ya se que si.
  4. Si. Soy empático.
  5. #5 Pues suicídate de forma limpia para que tus órganos puedan ser aprovechados por niños con enfermedades graves.

    ¿O acaso eres egoísta? Yo si lo soy, por eso no lo hago.
  6. Creo que pueden pasar dos cosas:
    1- El gobierno de cada pais decide las prioridades y punto.
    2- Cada usuario puede decidir las prioridades mediante un menu configurable.
  7. En la peli de Yo, robot. Un robot tiene que decidir entre salvar a will smith o a una niña, evalúa la situación y opta por rescatar a will smith, ya que tiene más posibilidades de sobrevivir que la niña. Una decisión lógica y razonable, pero cualquier humano optaría por intentar salvar a la niña, una posibilidad es más que suficiente, como bien dice el prota.

    Ahora Imaginaos que el coche tiene que decidir entre tu y un crío, o entre tu y tu hijo y veinte personas. O entre tu mujer o tu... entre un inocente o un asesino hijo de puta. O peor, que sacrifique tu vida para salvar a un vegano o a un cebollista.
  8. #4 "De igual modo que tampoco compraría un coche que se va frenando cada vez que se me cruce por delante un ciclista que se ha saltado el semáforo en rojo."
    Entiendo que tú no frenas cuando se te cruza un ciclista, te lo llevas por delante.
    ¿Haces también eso cuando se te cruza un niño despistado?

    Sí que estás para camisa de fuerza, sí.
  9. #6 No digas gilipolleces. Eso no es egoísmo. Entre esto y tu comentario de #4 es para ponerte en cuarentena.
  10. No.
    Además soy neo ludita y estoy convencido de que internet es Satán.
  11. Obviamente no. El coche autónomo debe estar diseñado para priorizar siempre las vidas de sus ocupantes.

    Otro asunto es que en un futuro sea una IA global la que controle a la vez todos los coches que hay en las calles (una forma mucho más lógica y eficiente de controlar el tráfico). En ese momento la sociedad sí tendrá que tomar ese tipo de decisiones.
  12. Son casos extremos y la pregunta una patochada, la cosa es que se reduzca el numero de victimas de accidentes de circulación...
  13. #2 A un Menéante medio.
  14. #3 "si nuestro coche llega a verse en esa tesitura, es que hemos hecho algo mal"
    Exacto.

    Puestos a rizar el rizo (para bien), se podría legislar para que todos los coches sean autónomos y que solo puedan circular a altas velocidades en vías que no admitan ninguna forma de peatón o similares (agentes caóticos). De esta forma nunca tendrían que enfrentarse a una situación en la que se deba hacer una frenada o cambio de dirección bruscos con riesgo para la integridad no ya de los pasajeros sino del propio coche. Las compañías de seguros de coche serían historia.
  15. #8 Menú:
    vegano...acelerar
    Meneante: acelerar
    Perrhijo y amante: acelerar
    Fanático de linux: acelerar

    Bella damisela con dos buenas te...parada suave
    Tertuliano bis: acelerar
    niño: frenar
    Poeta: frenada lirica
    sindicalista: activar metralleta
    ...
  16. #12 El dia que una IA controle la circulacion es que tambien controlara muchas cosas mas, para entonces la libertad que vamos perdiendo a pasos agigantados ya se habra terminado.
  17. Preferiría uno que matase a mi vecino, y a su perro y a su suegra también, ya puestos a pedir.
  18. Siempre se le podrá cambiar el firmware para que mate al copiloto en tu lugar.

    La pregunta será: te harías pareja de un tipo que le ha cambiado el firmware al coche para q te mate a tí en su lugar?
  19. Las máquinas siempre deben proteger a su propietario.
  20. #17 Puede que sí, puede que no. De hecho, para cuando lleguemos a ese futuro el significado de liberdad seguramente ni será el mismo que ahora, igual que fue cambiando a lo largo de toda la historia.
  21. Esperemos que no sepa que tienes cancer terminal :-D
  22. #20 Queda una tercera alternativa: En la que la IA mata a ambos por el bien del planeta y la sociedad, en un futuro sin conductores imprudentes ni peatones inconscientes.
  23. #12 ¿Obviamente? ¿Y si el coche está en trayectoria de colisión contra un grupo de personas?

    Si fuera tan obvio este dilema no existiría: es.wikipedia.org/wiki/Dilema_del_tranvía
  24. #20 ¿Qué son los suvs entonces?
  25. #3 Si las probabilidades de morir descienden drásticamente gracias a la conducción autónoma por supuesto. Aunque en ciertas ocasiones me ponga en más peligro que a otros.
  26. #27 un tipo de diseño de coche.
  27. Si tan moderno es el coche que le pongan un sillón eyectable coño.
  28. #27 Coches nacidos para volcar
  29. #26 No cambía nada realmente, ni aunque le añadamos más dramatismo y pongamos en la carretera la excursión de una guardería. Una inteligencia artificial jamás deberá tomar ese tipo de decisiones morales, para eso siempre debería existir la opción de que el conductor tome el control. Y si el conductor no puede hacerlo el coche deberá asumir que sus ocupantes son la prioridad.
  30. #34 En el momento que programas el coche para que proteja al conductor bien el fabricante bien la legislación está estableciendo una decisión moral. No digo que no sea la correcta, solo digo que no es obvio que eso deba ser la prioridad.

    ¿No crees que sería igualmente válido proponer el mal menor como paradigma en el conjunto de la circulación viaria?
  31. #28 Pero puedes legislar para que se eviten esos hechos fortuitos.

    Ejemplos:
    - se te cruza un jabalí por la autovía a 120 por hora (la IA no lo puede ver con tiempo suficiente, si se lo lleva por delante corre riesgo de dañar a su pasajero, si lo esquiva corre riesgo de chocar contra otro vehículo...) -> legislas para que las autovías se construyan de forma que no puedan entrar animales ni personas.
    - se cae un puente sobre la autovía (aquí la igual porque si vas muy rápido te lo comes, y si no puedes frenar, tu coche y todos los demás, de forma coordinada porque para eso son todos autónomos y se comunican entre ellos) -> quizás puedas legislar para que las estructuras de esos puenten que podrían caerse sean más resistentes, mejor mantenidas, etc.
    - un coche frente a ti pegue un volantazo o un frenazo injustificado -> que todos los coches sean autónomos, adiós movimientos injustificados.
    - un coche sufre una avería catastrófica que de alguna manera le hace frenar muy rápidamente (p.ej. chocando contra la medianera de forma que los que venían detrás no pueden evitarlo frenando también) -> legislas para que los coches autónomos dejen siempre un espacio entre ellos que permita en caso de necesidad que varios coches de uno o varios carriles entren rápidamente en el los otros, coordinadamente.
    - un atentado terrorista que hace que todos los carriles queden repentinamente bloqueados y no hay forma de que los vehículos que estaban llegando en ese momento a esa sección de la vía frenen a tiempo -> no hay solución, ni con coches autónomos ni sin ellos.
    - se te cruza un peatón por vía urbana -> legislas para que la velocidad máxima por vía urbana permita el frenado repentino de forma que el peor de los casos sea golpes entre varios coches sin daños personales (y el peatón que pague los costes con su seguro).

    Quizás halla algún ejemplo de caso en que ni legislación ni leches puedan evitar la situación de "o yo o ellos", pero no se me ocurre.
  32. #20 ¿Y cual es el mal menor? La decisión ética de a quien matar depende de la cultura, e incluso de cada persona. ¿Salvarías a tres jubilados cuando en el coche hay un bebé? ¿y si esos jubilados se han saltado un semáforo en rojo? ¿y si en vez de jubilados es una madre embarazada? Cada persona tiene una respuesta diferente a lo que es el mal menor. Quizás deban de tener algún tipo de "test de ética" para ajustar los parámetros al del propio conductor.
  33. No compraría un coche autónomo. Fin.
  34. #20 sigo diciendo que no.
  35. #13 ¿Osea que sí lo comprarías? Yo no. Así que supongo que la pregunta no es tan "patochada".
  36. #20 pasas de preparados para proteger la vida del conductor a una carrera para causar daño indiscriminado al resto.
    Te añado otra grande, blindado y NUEVO. Y eso también pasa hoy. Tienes mas protección del conductor pero no más daño al otro conductor si lo hay, que tambien hay accidentes sin terceros.
  37. #7 doble contra simple que si se escoge el punto 1 al dia siguiente hay 20 firmwares para ‘arreglar’ tu coche.

    Como pasó con los limitadores de velocidad de algunas marcas.
  38. #26 en el dilema del tranvía el axioma es que no conoces a ninguno de los personajes.

    Esto es otra cosa.
  39. #37 Eso los chinos lo tienen ya controlado. Según se vayan cruzando con gente van agarrando el fichero de cada uno desde repositorio central donde viene tu puntuación de ciudadano. En el momento del choque calcula varias estrategias, suma las puntuaciones de los implicados, y al final elige la opción que mate a mas gente con menos puntuación. Perdooon, perdon perdon. Elige la estrategia en la que la suma de puntuaciones de los implicados sea menor. Así a mas puntos mas fácil te salvas.

    Tanto criticarles, y en el fondo estaban adelantándose al problema...
  40. #42 No, porque no me gusta conducir, soy mas de transporte publico.
  41. #4 Donar tus órganos cuando ya se están haciendo órganos impresos en 3D y para cuando una IA vaya a operarte ese problema puede estar más que resuelto.
    Esta es la enésima noticia tecnófoba planteando dilemas absurdos para crear polémica.
  42. #6 ¿Sabes que una de esas operaciones de transplante puede fallar, no? Deja de decir gilipolleces.
  43. #46 Si,pero te la jugarias a que en la ITV te pillen, como ahora.
  44. ¿Cruzarías una carretera como peatón sabiendo que la gente ha configurado sus coches para que ellos sean más importantes que tú a pesar de ser ellos los que generan un peligro con su conducción (sea manual o autónoma)?
  45. #20 A la IA no se la puede dejar tomar decisiones morales. Eso entra en el ámbito exclusivo del cerebro humano.
  46. No, no compraría un coche que me considerara prescindible, quiero que haga todo lo posible por mantener mi integridad física intacta que para eso lo pago.
  47. Sí, y se lo regalaría a mi suegra.

    :-P
  48. #20 La verdad es que este dilema dramático es una gilipollez, la probabilidad de que tu coche tenga que elegir entre salvar tu vida o la de algún random es ridículamente baja.

    En todo caso, está claro que prefiero que si se diera tan improbable situación mi coche priorice mi pellejo.
  49. Es que cuando se plantean estos dilemas chorras se parte de la base de que todo el mundo conduce de puta madre, tiene una capacidad de reacción de la leche y que gracias a la conducción humana nos evitamos los accidentes de tráfico.

    Los robots no se emborrachan, no les dan alergias, no discuten y no se la sacan para ver quién la tiene más grande; por lo que podemos afirmar que en cuanto a seguridad el coche autónomo es un avance.

    ¿Qué se debe hacer? Priorizar al más débil, si es un niño que salta a la vía frenazo aunque te coma el culo el de atrás, que para eso vas resguardado por una carrocería.

    Además ¿Sabemos lo que suele hacer un humano en estos casos? Protegernos de manera instintiva aunque luego no podamos vivir con la culpa. A priori mejor que se proteja a terceros.
  50. Ese tipo de preguntas son irrelevantes. La regla de oro es que el comportamiento de un coche autónomo debe ser predecible. Si ve un peatón que ha saltado a la carretera lo que hará será frenar y continuar en linea recta. Ni se desviará ni se tirará contra una farola. Esto lo he escuchado de un experto en estos temas.
    Pongamos el caso de que hay dos peatones en la calzada y tiene la opción desviarse atropellando a un peatón que estaba en la acera. Las implicaciones legales y de cara a las compañías de seguros será inadmisible que atropelle quien está en la acera.
  51. #45 Esta lógica se aplicaría si los coches están programados para matar todo lo que se cruce en su camino como si fueran armas, lo cual es una verdadera estupidez a menos que hablemos de tanques u otros drones militares. Para proteger al conductor, la primera medida es hacer lo posible para evitar un accidente.
  52. #53 Cruzaría con el mismo cuidado que hago siempre. Comprobando que el coche está frenando muy de lejos o se ha parado.
  53. #48 No se si lo decías de manera irónica, pero tienes toda la razón, y será lo que se hará, al menos en los países con gobiernos fuertes. De todas formas eso no arregla el problema, solo lo traslada: ya no es el coche el que tiene que decidir a quien matar, sino el algoritmo que puntua socialmente a cada persona. El principal problema es que ese algoritmo puntuador de la sociedad es muy, muy goloso para cualquier político, ya sea de un régimen autoritario o no. Poder manipular el algoritmo para arruinar la reputación de las personas que no piensan como tu, de tus potenciales rivales... el riesgo es enorme.

    Seguramente se termine haciendo, pero el peligro que conlleva es más que evidente, y te aseguro que se produciran abusos.
  54. #63 La probabilidad de que cualquier otro coche que no sea el tuyo tenga un accidente que pueda evitar y que pueda implicar tu muerte es despreciable no, lo siguiente. Ningún coche querrá que mueras, querrá que sobreviva su conductor sin lesiones, lo que implica evitar el golpe SIEMPRE.

    Si el golpe no puede evitarse (que como no sea por un mal funcionamiento de uno de los dos coches o porque el otro está conducido por un tipo de carne y hueso, ya me dirás, xD) es mejor que tu coche priorice tu vida siempre, porque esa prioridad es la que lo lleva a querer evitar todos los accidentes que pueda evitar.
  55. #20 Hasta hoy todos los coches llevan un piloto con instinto de supervivencia, que suponemos que prioriza su vida y la de los ocupantes del coche por encima de las demás.
  56. #25 y salva al negro. Menuda IA :troll:
  57. #1 tampoco
  58. #20 la alternativa es no tener un coche autónomo.

    Esas decisiones jamás se podrán poner en orden, ya que los valores y opiniones de la gente es imposible unificarlas.

    Por lo tanto aunque la tecnología lo permita, el coche autónomo jamás será una alternativa real, a mi modo de ver.
  59. #20 la solución es fácil, una decisión "random"
  60. Me bajaria algun firmware cyanogen modificado a mi gusto para que atropelle a segun quien se cruze por la calle.
  61. Pregunta estúpida, una IA no se va a programar para ver vidas, solo obstáculos estáticos o en movimiento.
    La cuestión primera es si la gente compraría un coche que se puede informar en contra de lo que hace el conductor cuando lleva el volante si no es obligatorio, eso pregunta mató la comunicación entre vehículos y vehículo e infraestructura desde hace décadas.
  62. #74 no se yo hasta qué punto estamos dispuestos a perder libertad. Veoas factible coches con alcoholímetro y test de drogas antes de arrancar que eso.
  63. #64 Era sarcástico, si. ¿Podemos, no se, olvidarnos de este problema simplemente haciendo que el coche no sea 100% autónomo, y siga teniendo a los mandos a alguien que tome decisiones, como en los aviones? Aunque sea alguien en remoto. O haciendo que solo haya coches autonomos en la carretera y que solo circulen por vias que sean puñeteros escalestrix a velocidad y rumbo controlados al milímetro. O que tengan un botón de parada de maniobra en mitad del salpicadero. Que en el momento en que lo veas mal le puedas dar y el coche simplemente se pare y ponga los 4 intermitentes.

    No se, es que dar por sentado que un vehículo automático va a chocar, no ya que va a tener que elegir a quien mata, para mi, es como excusarse de los fallos que van a ocurrir porque no vais a programarlo bien.
  64. #37 moralmachine.mit.edu/hl/es

    Quizás te interese si no conoces la iniciativa.
  65. Depende. Es el coche de Beetlejuice?
  66. Sí.

    La explicación es sencilla: si aumenta el riesgo de que mi coche me pueda matar pero disminuye el riesgo de que todos los demás me maten, estadísticamente salgo en positivo 8-D

    Y no, no es una broma... de verdad estadísticamente nos vendría bien a todos. Eso sí, si TODOS los coches tuvieran el mismo algoritmo de riesgo. No voy a ser yo el único gilipollas que va mejorando la estadística.
  67. #79 Completamente de acuerdo. El bien general de todos te repercute a ti tambien.
  68. Nop. Ni yo ni el 99.99% de la poblacion
  69. #14 Entonces sigo con mi diésel.
  70. Entonces... Se le está exigiendo a la máquina saber previamente como solucionará los dilemas morales que no se le preguntan a un humano cuando se monta en un coche, ¿no?
  71. Yo sí, pero el requisito de salvar otras vidas es una simple formalidad: incluso lo compraría sin eso.
  72. Se mata al que lo haga mal. Punto.
  73. Si todos tienen un vehículo así, si. Sino, no. No solo mi vehículo tomará la decisión de salvar las máximas vidas, sino también los otros y quizás me salve yo en alguna ocasión por eso.

    En todo caso, si todos tienen conducción autónoma, es difícil que se de el caso.
  74. Resumiendo, no
  75. Esos dilemas éticos en realidad son ajenos a la conducción autónoma. Un coche autónomo JAMÁS deberá tomar decisiones éticas ya que eso es una receta perfecta para que lluevan demandas contra la empresa que lo hace. Las normas van a ser siempre muy claras y ajenas a la ética. Nadie va a programar decisiones éticas en esos coches, simplemente reaccionarán a los obstáculos.

    Si se llega a una situación donde se puede producir un accidente es debido a que la AI ha fallado o que hay un problema mecánico.

    El problema mecánico es fácilmente evitable a base de sensores y de revisiones obligatorias sin las cuales el vehículo no funciona.

    El fallo en la AI es una opción, pero remota, muy inferior al de un fallo en una persona y lo que está claro es que la IA nunca deberá “juzgar” y jamás deberá lanzarse contra nadie, siempre hay otras opciones.

    Estos escenarios son pajas mentales de filósofos con demasiado tiempo libre.

    Un coche autónomo con sus sensores debería ser capaz de evitar cualquier accidente y predecir la ruta de cualquier peatón y vehículo y actuar mucho antes de que se llegue al punto en el que se podría plantear el realizar una decisión ética.

    Los coches autónomos no decidirán, reaccionarán. En caso de fallo catastrófico donde no se pueda evitar un accidente se haga lo que se haga la única opción que deberían tener es la no intervención. ¿Fallan los frenos? Pues sigues en la misma trayectoria salvo que el cambio de trayectoria implique no impactar con nada. Esta es la única solución posible ya que si el coche prioriza un impacto sobre otro el fabricante sería el responsable subsidiario y se expondría a ser demandado.

    No se trata de priorizar, se trata de reducir la intervención al mínimo posible. La única excepción a esta regla es si el obstáculo alternativo es un animal, en ese caso el vehículo deberá considerar que no hay obstáculo.

    En cualquier caso como he dicho esto no debería ocurrir, el coche autónomo debería haber sido capaz de anticipar el peligro mucho antes, incluso en caso de un fallo en los frenos, el coche autónomo debería cortar la energía al motor en cuanto detectase el fallo por lo que jamás tendríamos vehículos autónomos conduciendo sin frenos.
  76. #8 "Ahora Imaginaos que el coche tiene que decidir entre tu y un crío"

    Pongamos que vas conduciendo por un puerto de montaña. Un niño sale a tu paso. El coche frena. El coche, en ningún momento, va a hacer nada como tirarse por un acantilado para salvar a nadie ni a meterse en dirección contraria ni polladas de ese calibre.

    Pongamos que vas conduciendo. El semáforo se pone en rojo pero el coche detecta que el vehículo que llevas detrás no va a poder detenerse a tiempo. El coche frena por que el semáforo está en rojo. No se va a poner a hacer cabriolas a ver si atropella o deja de atropellar.

    No creo que sea tan difícil. El coche se va a comportar tal y como se espera que se comporte un humano. A nadie le dicen en el examen de conducir que si para evitar un atropello te tienes que tirar por barranco que te tires ni te dicen que te puedes saltar un semáforo para evitar que te den un golpe. Pues esto es lo mismo.
  77. #26 Es un falso dilema. La solución es frenar el tranvía.
  78. No entiendo el supuesto debate cuando con una secuencia de normas básicas evita todos los problemas:
    1) Evitar todo daño humano->animal->bienes materiales->...
    2) En caso de no poder evitar daños la norma vial prevalece, es decir, atropellar a quien cruza en rojo antes que matar al conductor,etc... del mismo modo el ejemplo del tranvía , si ambos casos estan al mismo nivel de cumplimiento de normativa se aplica siguiente caso
    3) Minimizar daños; humano->animal->bienes....
    La valoración humana no discrimina por sexo/raza/religión/status socioeconomico/etc...

    Con un planteamineto mejor elaborado todo podemos sentirnos 'seguros', como contraejemplo imaginar siguiente caso:
    Grupo chavales jovencitos y jovencitas borrachos se ponen en medio autopista para hacer la 'broma' donde los coches empezarán a 'sacrificar' a conductores de mayor edad por su programación 'etica'!! hay mucho absurdo en esos sesgos morales...normativa y coherencia sin discriminación....
  79. Hace años leí una entrevista a un ingeniero de Google que venía a decir "estos dilemas son divertidos de imaginar y tal. En la práctica, para cuando una colisión es inevitable, el coche no tiene tiempo de evaluar mil variables y un código ético, sólo tiene tiempo de frenar a tope y que sea lo que tenga que ser".
  80. No____
  81. #19 ¿Qué pregunta es esa? Jamás lo sabrías xD
  82. #21 Viva el mal, viva el capital.
  83. Bueno... no.
  84. #76

    El problema es que, por mucho que se afine, va a haber situaciones en las que no se va a poder evitar causar daño a alguin. Y en estos casos el coche tiene que tener algunos parámetros con los que decidir. Evidentemente casi nunca va a ser cosa de matar a unos u a otros, eso son casos extremos, pero si de dañar a unos u a otros. Por poner un ejemplo: Alguien que estaba parado cruza cuando el semáforo estaba en rojo cruza repentinamete, y el coche no le da tiempo a frenar en parámetros de seguridad. Es decir, puede frenar más rápido, pero el frenazo será tan brusco que seguramente lesione al conductor, o puede frenar dentro de los parámetros de seguridad para el conductor, pero aprovechará al peaton a una velocidad quizás no para matarlo, pero sí para lesionarle. El coche, o mejor dicho, el programa de IA que lo aliementa, tiene que saber actuar en estos casos. Se tiene que programar para que decida frenar mas fuerte o no según las personas implicadas en el accidente o programarlo para que actue siempre igual, independientemente de las personas, pero se tiene que decidir un protocolo. Por mucho que digamos inteligencia artificial, todavía no son inteligencias artificiales reales, siguen siendo programas más o menos complejos, y para que funcionen hay que decidir cómo actual, ya sean directa o indirectamente. Y eso es algo que se tiene que hacer, aunque se mantenga la posibilidad de devolver la autonomía del coche al conductor.
  85. #77 LA conocía, y de hecho es a partir de esta misma página de donde he sacado los ejemplos, y el hecho de que la moralidad cambiar de manera evidente con la cultura.
«12
comentarios cerrados

menéame