edición general
386 meneos
7645 clics

Haciendo ingeniería inversa de la aplicación del COVID-19 de la comunidad de Madrid [Hilo]

Se trata de un test de autoevaluación para el COVID-19 de código abierto que devuelve los mismos resultados que coronamadrid.com pero no almacena tus valiosos datos. La autora lo explica así "me he topado con el enrevesado algoritmo para el que se ha necesitado la colaboración de, al menos, seis multinacionales (según consta en la propia web de la aplicación): Google, Telefónica, Goggo Network, Ferrovial, Carto, Forcemanager y Mendesaltren".

| etiquetas: madrid , coronavirus , código abierto , software
12»
  1. #98 Es que eso en ningún momento se incumple. Los datos los almacena la CAM, por lo que cuando se los cedan a terceros con fines estadísticos se los cederán de forma pseudoanonimizada tal y como obliga la ley.

    Y yo no tengo acceso al código de la aplicación pero si es cierto lo que indica ese medio y no se está anonimizando, está incumpliendo con la LOPD.
    La LOPD no obliga a anonimizar los datos. Sería estúpido. Como he dicho, la persona que ha escrito eso en maldita.es no tiene ni idea ni de informática ni de leyes. Solo esa frase lo deja claro.

    Si los datos está en Europa y no salen, no hay problema, si no existen esas garantías se están incumpliendo con la LOPD en esos términos también.
    Tanto los servidores de Google, como Amazon y Microsoft te permiten configurar por proyecto la localización de los servidores. Si se indica que los datos se guardan en la región europea, los datos en ningún momento dejarán territorio Europeo.

    Pero yo asumo que si un medio de comunicación ha realizado esa labor de investigación y lo publica, es así y por lo tanto incumpliría con la LOPD.
    Mira que yo me solía fiar de maldita.es, pero los dos puntos en los que se basan son falsos. Dice que "no está respetando el principio de minimización de datos" (cosa que es mentira ya que los datos que se piden tienen sentido para la investigación científica y diagnóstico) o "no habla de anonimizar los datos que cedemos, y eso hace que la base de datos que creen sea vulnerable" cosa que es una soberana estupidez desde el punto de vista técnico y legal.
  2. #72 muchos teléfonos tienen USB. Y se les puede poner teclado.

    O puedes correrlo en PC
  3. #44 scanf es pecado usarlo.
    Es un bug en si mismo xD
  4. #103 Bien utilizado no hay ningún problema. De hecho, mal utilizado también printf es problemático.
  5. #72 no, es una aplicación web.
  6. #76 cómo que es intolerable, ¡cómo los van a anonimizar si el objetivo es que si la autoevaluación da positivo te llame alguien para darte unas pautas!

    Si lo anonimizas no puedes llamar a nadie porque no sabes quién ha dado positivo.
  7. #84 es que no entiendo cómo se atreven a afirmar que los datos se almacenan en una base de datos vulnerable, y he llegado a leer que ¡sin cifrar! ¿Cómo narices pueden saberlo si no pueden ver el back-end?
  8. #48 y critica a los demás pero ya empieza mal, porque no puede licenciar el código bajo GPLv3 dado que ha "robado", como bien explica, el código de otra aplicación que no está licenciada como libre.
  9. #93 pues una de las empresas colaboradoras es Carto así que seguro que por detrás están utilizando los datos para hacer análisis geográficos, cosa que me parece bastante lógica, normal y deseable.

    Luego los mismos que ponen el grito en el cielo porque la Comunidad de Madrid recopile estos datos ponen a Corea como ejemplo de cómo se hacen las cosas cuando ellos han hecho sosas mucho más turbias para trazar los casos.
  10. #24 No te molestes: el cuñadismo informático también existe, y a la vista, algunos de los comentarios que pueden leerse
  11. #103 era parte de mi coña. Es el que te enseñan (o enseñaban) cuando empezabas. :-D

    #104 para leer ficheros daba problemas si no recuerdo mal, pero hablo de memoria.
  12. #111 Si la entrada del scanf no era lo esperado, el programa petaba de forma estrepitosa (segfault) y si la entrada estaba mal filtrada/sin filtrar, era un sitio cojonudo para cascar un exploit.

    En muchos entornos seguros/críticos está directamente prohibido usar scanf/printf por esa razón.
  13. #79 claro, en la nube, sin réplica, balanceo, backup, en un solo servidor europeo, que digo español, es más, de Madrid.
    Esos datos están más dispersos que el Covid19 around the world y a saber bajo la supervisión de quién.
    La CAM es un cliente con todo su derecho como usuaria del servicio, pero el propietario físico es el dueño de la infraestructura, nada que ver con los modelos asiáticos de China y Korea
  14. #111 Es que para leer fichero deberías usar fscanf. De todas maneras yo me refería a problemas que puedan comprometer el programa al ser usadas estas funciones incorrectamente, como desbordamientos de buffer o ataques via format string.
  15. #114 me refería a fscanf, perdón. De todos modos, com odice #112, scanf también da problemas. A mí siempre se me aconsejó no utilizarlo.
  16. #84 Gracias por la extensa respuesta! Parece que ya ayer rectificaron.

    #84 #106 Sí pero, en ese caso, no debería poner que solo los compartirán sin anonimizar con los centros de salud con el único propósito, y únicamente por el tiempo que sea necesario, de que se pongan en contacto contigo para hacer un seguimiento? Porque creo que lo que le preocupa a la gente es que se compartan con las empresas colaboradoras.
  17. #116 Es que hay una diferencia muy importante entre ser el propietario de los datos (en este caso la Consejería de Salud de la Comunidad de Madrid) y ceder los datos.
    La CSCM es el propietario de los datos, por tanto ellos pueden, siempre que lo especifiquen en la política de privacidad (cosa que hacen) contactar contigo. Además, en este caso al ser especial (pandemia mundial con consecuencias graves) tengo entendido que también podrían usar esos datos para tales fines sin necesidad de tu consentimiento (dicho de otra forma, si necesitan contactar contigo en una situación de emergencia para salvarte y para ello necesitan usar tus datos de una forma "incorrecta", pueden hacerlo).
    Luego está la cesión de datos a terceros, que es un tema distinto. La cesión de datos está más protegida y solo es válida en ciertas circunstancias. Dichos casos deben estar recogidos en la política de privacidad (tal y cómo se indica) y al momento de la cesión se debe cumplir con las leyes que lo regula (principalmente el GDPR). No es necesario que te digan en la política de privacidad que tus datos van a ser compartidos de una forma anónima (o pseudoanónima), ya que dependiendo del caso y la situación se tendrán que compartir de una forma u otra, como digo, siempre respetando las leyes vigentes. No hay que enumerar todo lo que pueden ceder y lo que no y las condiciones especiales en la política de privacidad porque en tal caso sería un texto casi imposible de leer. Dicho de otra forma, pueden hacer con tus datos lo que quieran siempre que respeten la política de privacidad y las leyes (siendo las leyes evidentemente prioritarias en caso de duda)

    Para ponerte un ejemplo (no digo que esto puedan hacerlo, es un ejemplo que creo que se entenderá mejor), es posible que puedan compartir los datos de nombre y dirección con Amazon ya que diste positivo en el cuestionario y así te pueden enviar un test del COVID a casa, pero no podrán compartir tu edad o los síntomas que has tenido. Sin embargo, si los datos se los ceden a una universidad para hacer una investigación, podrían ceder los datos de síntomas, sexo, edad, pero no podrían ceder datos de dirección o nombre. Lo que pueden y no pueden compartir en cada caso es distinto y está regulado de una forma diferente y no hace falta indicarlo en la política de privacidad. De la misma forma que no hace falta indicar que no usarán tus datos para mandar a un sicario a tu casa, las leyes lo prohiben por tanto se sobreentiende que no lo usarán con esos fines.
12»
comentarios cerrados

menéame