La USAF (Fuerza Aérea de los Estados Unidos) llevaba meses con un singular experimento para tratar de desarrollar un sistema de inteligencia artificial capaz de superar a un piloto en un combate aéreo simulado. Tras varias etapas preliminares ese sistema ha vencido por 5 combates aéreos a 0 a un experimentado piloto humano en un simulador de un F-16.
|
etiquetas: inteligencia artificial , pilotar , f-16 , mejor que humanos , usaf
Es más, y también lo digo completamente seguro, una vez probado el sistema, el general de turno ordenará a las tropas lo que le indique la IA, siendo el general un simple portavoz de la IA.
Incluso de mayor efectividad pues la IA se puede comportar como "mente enjambre" y coordinar TODOS los efectivos muchísimo mejor.
[1] en.wikipedia.org/wiki/OODA_loop
Death+love+robot
.
En fin, puede que eso sea inevitable y la realidad futura supere a la ficción y Skynet, sí, una IA, tome el control del mundo a un precio muy alto.
La IA no puede mover libremente los soldados pero si dar consejo al general que en ultima instancia dice si a todo menos a una cosa que controle de facto el ejercito de manera autónoma. (por poner un ejemplo)
O, como dice #12, que sea la IA como si fuera realmente el General quien directamente comande y coordine a miles de unidades, que le dejan hacer como desee, con unos Generales humanos al lado que desconectarían a la IA en caso de ser necesario, por ejemplo.
Eso entre cazas en guerra va a ser más difícil. Aquí esos puntos débiles se minimizarán y casi todas las respuestas de la máquina serán mas rápidas a cada situación, a no ser que introduzcas condiciones que no hayan sido tomadas en cuenta.
Ej: Pintar el avión de pene como han dicho arriba.
Por ejemplo, si a un helicóptero le destruyen el pequeño rotor, aunque el resto no lo toquen, el helicóptero caerá y se destruirá.
La estupidez humana es inmensa, hasta el punto de ir a una guerra por idioteces (como conseguir algo de más poder) y, en fin, dentro de esa estupidez humana, creo que sí desarrollarán la IA como arma de guerra. No me cabe duda.
Si una inteligencia no es capaz de aprender de los errores, tomar decidiones en base a la experiencia y la evaluar su entorno no es tan inteligente como nos quieren hacer creer y si es capaz de aprender,decidir y evaluar deberíamos preocuparnos.
Esos sí, yo creo que el futuro es el uso de IA en combate porque entrenar pilotos es un proceso caro y lento y todo su conocimiento se pierde si el piloto muere, mientras que la IA irá aprendiendo y mejorando de sus errores.
Si acaso dejar unos miles como rarezas en plan Zoo.
Imaginate como tropas 2000 drones supersónicos con pequeños misiles, mil pequeños submarinos (casi indetectables) con torpedos, 7000 tanquetas pequeñas con cañones super-rapidos y precisos, 20000 torretas autónomas con sensores que ametrallean todo lo que se mueva a 200 metros de distancia...
Imaginate cientos de satélites, antenas y sensores muy precisos y combinados para dar información en tiempo real y con una capacidad de reacción conjunta super-rápida...
No tengo duda que, secretamente, ya estarán haciendo simulaciones bélicas con esas cosas.
La victoria de la IA vs el humano es aplastante, pero también cabría ver el interface, como alimentan los datos a la IA en el simulador y si en la vida real sería lo mismo.
Usan los impactos de bala como una barra de energía de Street Fighter y en la vida real una sola bala certera puede hacerte vencer o que tus capacidades de vuelo puedan haber quedado reducidas.
Sin olvidar además que los combates entiendo son lanzar un misil a 10-50km y esperar lo propio, por lo que prácticamente son lanzar misiles y contra-medidas, no usar balas en vuelos tan cerrados y baja velocidad.
El ser humano siempre tendra el poder sobre como se usa la tecnologia. Lo peor que podemos hacer es cargarnos internet, y ni eso
www.youtube.com/watch?v=vbnySBqioB0
No, la inteligencia artifical no pilota mejor que nadie
Al tiempo
Además de lo dicho por #70
El piloto humano tiene su capacidad visual, muy limitada, y no sé si alguna clase de ayuda de radar, donde "sólo" tendría la posición.
Si el avión dirigido por la IA sabe en todo momento la posición, dirección y velocidad del rival, puede calcular y estimar los movimientos óptimos a realizar para encararlo, que es justo lo que se ve en el vídeo. Pero en la vida real no tendría tanta información.
De todas formas, con potencia de cálculo suficiente y mucho tiempo (y si no lo han conseguido ya los del meneo), con sólo la posición de radar le bastará a la IA para hacer casi lo mismo. Al fin y al cabo, la esencia del aprendizaje en profundidad es combinar movimientos simples (los movimientos que puede hacer el piloto con su avión) con miles de millones de combinaciones posibles a partir de una entrada (la posición del avión y los datos que sean de su enemigo, y puede que de la fecha, de la hora, del clima, a saber) para generar miles de millones de resultados, e ir quedándose con los mejores.
Igual de efectivo que peligroso.
Este video sobre los peligros de la AI (ENG):
youtu.be/tcdVC4e6EV4
(2a parte) youtu.be/5qfIgCiYlfY
El profesor tiene su propio canal
www.youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg
Hacen dinero a costa de los humanos y a pesar de los humanos, practicamente triturando humanos y deshechandolos cuando no sirven precisamente porque los humanos NO QUEREMOS poner restricciones a esas "maquinas".
El sindrome del monstruo de frankenstein no lo causa el monstruo, sino los humanos.
O sea, en su terreno.
#64 Sin piloto compensa mucho la estrategia de enjambre. Para apagar incendios tambien se preve usar la misma tactica.
www.meneame.net/story/dron-mas-grande-espana-comienza-pruebas
Tambien pueden coordinarse perfectamente, realmente como si mentalmente fuesen uno solo. La transmision de ordenes es muy inferior a una comunicacion electronica, pueden acceder a telemetria y ordenar con precision que hacer,lo mas dificil es el cerebro para coordinarlo.
Si son baratos podrian ser camikazes.
#21 #10 Hay los llamados ataques adversarios imagenes especialmente diseñandas con una red neuronal que las detecten como otra cosas. Por ejemplo, una imagen que a ojos de humanos es un gato, la IA la detecte como una tostadora.
A veces, simplemente la compresion jpg rompe el engaño.
Desde hace años la guerra electronica es muy importante. Hay aviones especificos ¿intruder? para analizar señales y atacar radares o confundirlos. HAbria que añadir otro nivel.
Recordarme este comentario dentro de 40 años
La IA es una máquina de resolver un problema determinado. Lo que la hace especial es que no es necesario enseñarle la manera de resolverlo. De hecho, ha quedado más que comprobado que cuando aprenden de seres humanos su desempeño es peor. Cuando se las deja aprender solas los resultados son increíblemente superiores a otras IAs y a los humanos.
Eso no significa que vaya a ganar todas las batallas aéreas. Sólo significa que va a ganar todas las que se puedan ganar con los conocimientos que tiene. Y si se repite lo que ha ocurrido en otras áreas que se pensaba que eran exclusivamente humanas, ganará prácticamente siempre.
Jugar a juegos de reglas cerradas, como Go, o jugar a un videojuego, como el de la noticia. En todo lo demás, la inteligencia artificial es ciencia ficción.
Porque claro, ¿cómo determinas si no qué es un error y qué no? Una IA no es un humano con sentido común y capacidad de análisis, debes explicarle qué es un fracaso y qué es un acierto.
Multivac.
De hecho hay varios vídeos en YT en los que pilotos profesionales salen derrotados en el DCS por jugadores (muy buenos, pero jugadores).
El avión real no es el simulador, aunque ojo... la IA llegará en nada a ser mejor que los pilotos en el avión real, al final tiene más capacidad de proceso y el mundo de hoy... va de eso, no de habilidad.
Mientras se necesite de la vista y requieran usar análisis de imágenes, las IA están a varias decenas de años de ser capaces de hacer las mismas acciones que un ser humano.
Mientras tengan todos los datos, como en un videojuego, por supuesto.