edición general
20 meneos
29 clics
Israel utilizó IA para identificar 37.000 objetivos de Hamás [ENG]

Israel utilizó IA para identificar 37.000 objetivos de Hamás [ENG]

La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA no revelada anteriormente que en un momento identificó 37.000 objetivos potenciales en función de sus aparentes vínculos con Hamás, según fuentes de inteligencia involucradas en la guerra. Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que los oficiales militares israelíes permitieron que un gran número de civiles palestinos murieran, particularmente durante las primeras s

| etiquetas: israel , ia , hamás , gaza , palestina , objetivos , lavender
  1. Ya vimos como identificaron perfectamente a los integrantes de la ONG de chef José Andrés, civiles desarmados entre los que están mujeres y niños.

    Hace falta alguna prueba más de que es un genocidio sistemático y perfectamente orquestado?

    Pasaremos a la historia por ser la generación que permitió un nuevo exterminio delante de sus narices como el que se permitió a Hitler
  2. "Two sources said that during the early weeks of the war they were permitted to kill 15 or 20 civilians during airstrikes on low-ranking militants. Attacks on such targets were typically carried out using unguided munitions known as “dumb bombs”, the sources said, destroying entire homes and killing all their occupants."

    Que sin duda son más los civiles asesinandos.

    No obstante, esta información es simplemente aberrante.

    Que EEUU, a pesar de la sangre que sabemos que tiene en sus manos, no sea capaz de parar esta matanza, y peor aún, que la UE siga el mandato de EEUU de manera tan repugnante, sólo evidencia la mierda de mundo en el que nos movemos, y la mierda sociedad que estamos dejando a las siguientes generaciones.

    Saber esto y no hacer nada al respecto, de hecho haciendo lo contrario, mercadeando armas con los genocidas y clamando su amistad, sólo nos convierte en cómplices de esta masacre.
  3. If(Palestinean.dead):
        Palestinean.Affiliate = "hamas" 
    Else:
        Palestinean.Affiliate = "hamas" 
  4. Es un sistema perfecto: Si aciertan eligiendo terroristas muy bien, y si fallan... Pues también muy bien, y la culpa es de la IA.
  5. Tan mal cocinan , para considerarse terroristas ?

    Deben echar chorizo a el hummus
  6. Preparandose para echar la culpa del genocidio a lavender.
    "no sabiamos que funcionaba tan mal"
  7. #11 "los oficiales hacen lo que les da la gana"
    "la ia lavender hace lo que le da la gana"
  8. #_1 con la diferencia de que con el de Hitler no había redes sociales informando al momento. Muchas de sus atrocidades se conocieron a posteriori.
  9. #1 Una IA entrenada a propósito con unos objetivos claros es claramente un arma , que pongan esa excusa que no se sustenta por ningún lado.
  10. #4 todo es hamas
  11. #6 antes era un error informático; despué la culpa era del informático; la culpa es de la IA es lo nuevo.
  12. nos convierten en cómplices necesarios y encubridores imprescindibles.
  13. #3 la ia es el resultado de un entrenamiento... no les hace para nada inocentes...
  14. #1 La noticia (es larga, pero merece la pena y te la recomiendo) habla precisamente de que la inteligencia artificial por sí sola sigue sin discriminar. Vamos, que puede recomendar perfectamente matar a alguien por indicios diminutos)
  15. #9 dentro explican que ni siquiera saben cuál es el número de víctimas colaterales. Es una estimación burda seguramente a la baja
  16. si, ya, ahora la culpa es de la "inteligencia artificial". otra mentira más.
  17. Ya es lo que falta, que le echen la culpa al informático del genocidio que están comentiendo. Luego ya solo queda el perro se comió mis papeles de la tregua humanitaria.
  18. #21 que sí, pero que eso los israelíes también lo saben y se la pela, prefieren pecar de exceso
  19. Un modelo con un recall del 100% y precision del 0%
    </nerd>
  20. #12 la inteligencia artificial te da una respuesta cuando se la pides, pero no tiene por que ser correcta.

    pasa con chatgpt, que le dices que se ha equivocado un par de veces y te vuelve a dar la primera respuesta. eso si, se disculpa, que puede considerarse la novedad.
  21. #3 Pues entonces ya les quedan pocos "terroristas" a los que asesinar. La cifra de muertos va por 33.000 aproximadamente. Los más de 60.000 heridos son efectos colaterales. Pero la IA está mejor entrenada y últimamente ya acierta tres de tres. El problema quizá ha sido que en la base de datos de organizaciones terroristas que maneja la IA han metido al "WCK" y probablemente hasta a la "TIA". :troll:
comentarios cerrados

menéame