Tecnología, Internet y juegos
5 meneos
55 clics

Por qué Apple abandonó su plan de escanear fotos en iCloud para detectar material de abuso infantil

A fines de 2022, Apple canceló su plan para detectar fotos de abuso sexual infantil almacenadas en iCloud. El plan generó controversia pues podía derivar en una problemática de privacidad inimaginable. Ahora, por primera vez, Apple da explicaciones: consultó con expertos en tecnología, seguridad y derechos humanos, y estudió tecnología de escaneo "desde todo ángulo virtualmente posible". Conclusión: lo que se pretendía era imposible sin concesiones en privacidad. Ni siquiera procesando la información en el iPhone, y no en servidores de iCloud.

| etiquetas: apple , icloud , abuso infantil , pederastia , pedofilia , privacidad , iphone
  1. porqué los niños y niñas de 12 ya se sacan fotos desnudos (sexting) y no es posible saber saber si es el caso o no...
  2. Más info:
    - Wiki: en.wikipedia.org/wiki/ICloud#Privacy
    - 2021: "Apple defiende el escaneo de archivos en el iPhone: "No aceptaremos demandas de gobiernos" ": www.meneame.net/story/apple-defiende-escaneo-archivos-iphone-no-acepta
    - 2021: "Apple estaría trabajando en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios ": www.meneame.net/story/apple-estaria-trabajando-herramienta-detectar-po
    - 2021: "Apple Has Reportedly Been Scanning Your iCloud Mail for Child Abuse Images Since 2019": gizmodo.com/apple-has-reportedly-been-scanning-your-icloud-mail-for-18
    - 2021: "Apple confirms it will begin scanning iCloud Photos for child abuse images": techcrunch.com/2021/08/05/apple-icloud-photos-scanning/
    - 2022: "Apple Kills Its Plan to Scan Your Photos for CSAM. Here’s What’s Next": www.wired.com/story/apple-photo-scanning-csam-communication-safety-mes
    - 2023: "Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy": www.wired.com/story/apple-csam-scanning-heat-initiative-letter/
comentarios cerrados

menéame