La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA no revelada anteriormente que en un momento identificó 37.000 objetivos potenciales en función de sus aparentes vínculos con Hamás, según fuentes de inteligencia involucradas en la guerra. Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que los oficiales militares israelíes permitieron que un gran número de civiles palestinos murieran, particularmente durante las primeras s
|
etiquetas: israel , ia , hamás , gaza , palestina , objetivos , lavender
Hace falta alguna prueba más de que es un genocidio sistemático y perfectamente orquestado?
Pasaremos a la historia por ser la generación que permitió un nuevo exterminio delante de sus narices como el que se permitió a Hitler
Que sin duda son más los civiles asesinandos.
No obstante, esta información es simplemente aberrante.
Que EEUU, a pesar de la sangre que sabemos que tiene en sus manos, no sea capaz de parar esta matanza, y peor aún, que la UE siga el mandato de EEUU de manera tan repugnante, sólo evidencia la mierda de mundo en el que nos movemos, y la mierda sociedad que estamos dejando a las siguientes generaciones.
Saber esto y no hacer nada al respecto, de hecho haciendo lo contrario, mercadeando armas con los genocidas y clamando su amistad, sólo nos convierte en cómplices de esta masacre.
Palestinean.Affiliate = "hamas"
Else:
Palestinean.Affiliate = "hamas"
Deben echar chorizo a el hummus
"no sabiamos que funcionaba tan mal"
"la ia lavender hace lo que le da la gana"
</nerd>
pasa con chatgpt, que le dices que se ha equivocado un par de veces y te vuelve a dar la primera respuesta. eso si, se disculpa, que puede considerarse la novedad.