El sistema de control de versiones utilizado por WebKit se corrompió completamente después de que alguien subiese dos PDFs distintos con el mismo SHA1. El problema viene de que el software que gestión de versiones, Apache Subversion (SVN), utiliza SHA1 para hacer seguimiento y combinación de ficheros duplicados. WebKit es el motor de navegadores web utilizando entre otros por Safari.
|
etiquetas: sha1 , webkit , colisión , svn , subversion
¿ Qué clase de sortilegio digno del sabio Frestón es éste?
!Quédome igual leyendo los comentarios otros que no en leyendo nada!
¿Y qué crees que usa Git?
Si creas un blob con el mismo hash que un commit o un tree del repositorio al hacer un push o un clone pasará exactamente lo mismo que en svn: repositorio corrupto.
Yo sin duda prefiero git a svn o hg, pero nunca deja de sorprenderme la cantidad de fanboys de lo que sea que echan pestes sobre otras tecnologías sin saber muy bien por qué.
De todos modos al no ser centralizado como subversión siempre quedará alguna copia sin actualizar.
www.youtube.com/watch?v=cozRkjztWBQ
"Looking through the bug comments and commit log, it seems that the person who checked in the two PDF files did so, not to see what happens in SVN, but because he was creating a testcase for Webkit itself to check whether the SHA1 collision issue couldn't be used for cache poisoning. The test presumably used the two PDF files to generate the behavior needed in the test. It seems he just was a bit careless, not realizing that SVN was also susceptible."
O sea, que querían probar si WebKit se vería afectado por los PDFs con el mismo SHA1 en un escenario de "envenenamiento de caché" y los subieron a SVN sin darse cuenta que SVN también se ve afectado por la misma razón corrompiendo el repositorio.
Vamos, me recuerda a cuando los rusos se pusieron a hacer un test a la central nuclear de Chernobil a ver cuanto aguantaba, ya sabéis como acabó todo...
Y os quejais que os pagan 800€.
Las versiones se guardan en repositorios. Svn usa un repositorio central, en una única máquina, para manejar todas las versiones.
SHA1 es un algoritmo de hash o firma. Hasta ahora, si a un archivo (un conjunto de datos) le aplicabas este algoritmo devolvía un resultado único. Ahora han encontrado que pueden conseguir dos archivos con el mismo resultado.
De este modo, con dos archivos pdf con idéntico hash es posible "corromper" todo un repositorio de miles de archivos.
A no ser que hagas commit+push, que es como trabajar con SVN y al final es lo que la gente hacia.
Que se prepare el lunes ajjaja
Imaginemos que todas las tarjetas de crédito, al pasarlas por un lector de pago del berska ( o como coños se escriba ) aplican un método matemático al número de la tarjeta y lo envían al banco.
Si dos tarjetas distintas, al pasarla por el método matemático, dan el mismo número, tenemos un problema, y estamos pagando con la pasta de otro. ( En este caso, el banco, y el otro, tienen un problema ).
Esto se aplica en este caso al código que envían los programadores a 'la central' de su programa, donde el código de todos se mezcla para dar el resultado final. El problema aquí es que dos 'códigos' distintos dan el mismo resultado, haciendo que 'la central' se vuelva loca.
cc/ #24, ah y cc también a Góngora: #25, sean los hados propicios tal que aquestos ditirambos iluminen la savia de su mente y compartamos su grandeza entrambos.
news.ycombinator.com/item?id=13719368
security.stackexchange.com/questions/67920/how-safe-are-signed-git-tag
Los hash nunca son únicos. Cualquier hash del tamaño que sea tiene repeticiones cuando la cantidad de bits sobre los que aplicas la operación es mayor a la del hash.
Si la distribución es perfecta, para un hash de 160bits tendrías 2 repeticiones al aplicarlo sobre 161 bits y crecería de forma exponencial por cada bit que aumentes.
"Ahora han encontrado que pueden conseguir dos archivos con el mismo resultado."
Lo que han encontrado es una forma para generar es colisiones de forma simple y en un tiempo aceptable.
El aspecto que mencionas no tiene tanto que ver con Git o SVN como con la metodología de trabajo. Los conflictos siempre van a existir. Lo ideal es que cada grupo de gente tocando un bloque común de código tenga su propia rama de integración, y que el orden en que se mezclan esas ramas de integración con la principal sea algo pactado, si no es cierto que "tonto el último".
Y entiendo que tu crees que no hay tal trecho.
Dentro de poco tanto Chrome como firefox van a dejar de aceptar los certificados sha1 como seguros así que esta via de ataque debería quedar limitada.
cc/ #12
Cuando trabajas en una rama una buena costumbre es ir haciendo rebase de cuando en cuando si ves que hay muchos commits en la rama principal, de esta manera los commits en tu rama están siempre por encima de los de la rama principal y cuando toca hacer el merge es un momento.
Un buen workflow implica además que nunca estás escribiendo directamente en master ni haciendo los merges directamente a la rama de producción. Yo la verdad que siempre he trabajado en equipos grandes y dispersos y los problemas que han surgido siempre se han podido resolver con bastante facilidad. Cuando trabajaba con subversion perdí varios repositorios por unos backups que no se hacían y el admin no se había dado cuenta, el disco se jodió y perdimos un montón de cosas, eso con git es imposible.
Lo otro es la comodidad de irte de camping o pasarme una semana navegando y trabajando sin conexión de ningun tipo y con mis commits hechos, eso no tiene precio.
Sigue siendo lo mismo, no saber trabajar en equipo y planificar mal los releases, proyectos con más desarrolladores y con más lineas de código cambiadas al día funcionan a la perfección con Git.
A menos que utilices Emacs, entonces: C-x M-c M-butterfly
www.xkcd.com/378/
Yo creo que la mayor complicación a la hora de mantener los navegadores más que de esas web HTML 3.0 que mencionas viene de la enorme maraña de código ineficiente e inaccesible en la que se ha convertido el 99% de la web, siendo un buen ejemplo el framework jQuery. Yo suelo navegar sin Javascript porque el navegador se ralentiza y a veces incluso se cuelga.
La antítesis de esta librería es la recientemente publicada elementalsjs.com que, sin pretender cambiar el comportamiento de Javascript, aporta una serie de funciones para trabajar de forma más limpia.
Hoy día la web no suele cumplir ninguna recomendación de accesibilidad de la WCAG, y las personas con discapacidad cada vez encuentran más difícil encontrar información.
www.martinfowler.com/articles/continuousIntegration.html
Se puede utilizar GIT o SVN y no integrar el trabajo de todos de forma continua y es un caos. La gracia es que GIT simplifica enormemente esa forma de colaborar en equipo pudiendo trabajar en una rama aislada sin que nadie te pise tu trabajo y luego mergear fácilmente a la rama de integración. Esto en SVN pues es basicamente un dolor de huevos.
¿Es computacionalmente viable hacer una ataque de preimagen al MD5?
Como estas en tu propia rama no te enteras de lo que pasa fuera de tu rama, y como no has terminado no puedes hacer merges continuos con la rama pricipal sin joderla (el señor Fowler no hace muchas cosa fuera de una puzarra, y esas lo aguantan todo).
A ver, si sacamos las ramas a pasear, da igual usar svn o git porque trabajas sin que lo s denas interfieran contigo. Solo notas la diferencia del tiempo del commit porque cambias el acceso a red pir el acceso a disco, pero nada mas. Y si no ysas ramas o compartes la rama, git te hace aislarte de los demas si no haces un commit+push, que es trabajar como en svn, con lo que tardas mas en integrarte con los demas (y Fowler te afeara energicamente tu discola conducta) .
Lo jodido son las colisiones y los merges, y esas te las comes igual uses lo que uses porque el problema es inherente al dsarrollo en equipo.
Miraros el video en el que Linus presenta git, sobre todo el momento en el que reconoce que dentro de una empresa, con una buena red asegurada, se puede trabajar con svn. El kernel necesita un scm distribuido porque, como son voluntarios, no se puede asegurar que todos tengan siempre red o pagar el ancho de banda que requiere que todos los voluntarios del planeta accedan al mismo servidor, pero me estrañaria que nadie de meneame tenga esos problemas, la verdad.
Pero podeis engañaros y pensar que con la metodología de moda todo ira bien... dentro de cinco años os apuntareis a la nueva moda y despreciareis lo que haceis hoy.
Imagínate que tienes varios trenes de mercancías que van por distintas vías, cada uno de estos trenes siempre sale por una vía distinta (distinto hash). ¿Qué probabilidad hay de que alguno de estos trenes salga por la misma vía que otro? (colisión de hash). Una colisión de hash se produce cuando dos entradas o dos valores aleatorios a partir de una función llamada de hash, producen la misma salida.
Por ejemplo uno de los trenes lleva madera y el otro lleva carbón (distinto mensaje o distinto contenido), eso sí pasan por el mismo punto de carga (función de hash) y siempre salen por una vía distinta a la de otros. Pero si por cualquier circunstancia salen por la misma vía habrá lo que se llama colisión de hash. Porque teniendo que una función de hash, a partir de una entrada llamémosle x, y una salida z. Tenemos que H (x) = z si llamamos a los dos trenes a y b, Y a las salidas zn (z1,z2,z3,z4...) se dará que...
Por ejemplo:
Si H (a) = z1 y H (b) = z5 -> No hay colisión:
Si H (a) = z3 y H (b) = z122 -> No hay colisión
Pero:
Si H (a) = z17 y H (b) = z17 -> ¡Se ha producido una colisión! y se da que H (a) = H (b) (¡coinciden los hash!)
Y esto anterior es muy grave, porque aunque las colisiones más tarde o más temprano se dan (aunque son miles de millones de valores no dejan de ser finitos y como encima son aleatorios es más fácil que se den). Pués hace que no te puedas fiar de la autenticidad de un contenido.
Esta busqueda anterior, por diferentes formas de encontrar una colisión, se denomina ataque de colsión de hash o ataque de colisiones. El problema es que si dentro de los muchos valores que hay vamos uno a uno desde el menor al mayor tardaríamos muchísimo en encontrar una posible colisión. Imaginemos los cien mil primeros valores, aquí no hay colisión y si vamos del 1 al 100.000 no habrá colisión, pero imaginemos que se produce una colisión entre los valores 100.001 y 4.996.678. Es más fácil encontrar estos valores si los elegimos al azar que si vamos del primero al último. Obviamente estos valores los he resumido, porque son miles de millones.
Generalmente es imposible que H (a) = H (b) (es decir que el hash de a coincida con el de b). Pero si se encuentra una colisión si de dará que H(a) = H(b) y aquí tendremos el problema que explicamos.
Salu2
Lo del merge automático es para gente que en realidad no aprecia la vida, en sí, o su propio tiempo. Lo de poner un continue al azar mola, pero ¿ y quitarlo al azar ? Son de esos errores lógicos que molan mogollón y se encuentran súper fácil, lo comento porque algún iluminado me hizo esa puñeta en el pasado...
Te cambia la manera de trabajar especialmente en proyectos grandes.
Espero que no los hayas usado todos igual.
Git tiene un sistema de ramas muy superior )los merges, los rebase, la creación y borrado, las ramas locales) , squashing de commits, poder hacer commits parciales de ficheros diferenciando entre git add y git commit y haciendo stash de los cambios que querias mantener...
Esto es de cabeza.
Git es mucho más flexible y potente, lo puedes usar como subversion, pero es un desperdicio.
EDIT: git commit --ammend para ir arreglando los problemas que salgan en review.
rdos.wordpress.com/2009/02/23/usando-la-bola-de-crital-y-el-md5-para-p
Es muy simple, lo que tú llamas "HTML incorrecto y nada accesibles" en su día fue un estándar 100% válido. Puede parecerte muy sencillo llegar y actualizar la página web, pero... ¿Tu crees que todo el mundo tiene tanto tiempo libre como tú? Y eso si no les vuelve a dar por ahí y declaran lo actual como "deprecated", porque si, por fastidiar.
hipertextual.com/2016/02/linux-mint-hackeado
blog.linuxmint.com/?p=2994
Pués tampoco es tan conspiranoia que se pueda modificar un paquete en Debian, digo yo.
Salu2
"Git uses SHA-1 hashes internally; this is a problem because SHA-1 is no longer considered secure. Linus Torvalds has responded that the hash was mostly to guard against accidental corruption, and the security a cryptographically secure hash gives was just an accidental side effect, with the main security being signing elsewhere. Nonetheless, the publication of the first SHA-1 collision attack in 2017 prominently mentioned Git as a possible target for attacks."
en.wikipedia.org/wiki/Git
Toca workaround primero y parcheo cuando sea.
#67 y #86 y el dia de release, cuando tu y tus 50 compañeros hagais todos el merge a release, o el dia anterior cuando todos hagais el merge a develop, te encontraras con que es un "marica el ultimo" porque todo el mundo tendra colisiones co otros 6 o 7. De los 60 ficheros que has cambiado en tu rama, 43 coinciden con los que han cambiado otros miembros, asi que tendras que hacer 43 merges si eres el ultimo en mergear. A quien madruga dios le ayuda.
#72 toda la razon del mundo. Cuanto mas aislado, peor, y tener tu propio repositorio te aisla mas.
Parece que si una página web no ocupa 200 mb de RAM no está bien hecha.
calmad vuestros corceles
pero de ahí a hacer una catástrofe como lo que han hecho con SVN va un trecho
Hay 3 niveles de seguridad en un algoritmo hash. El más difícil es: dado un fichero con un cierto hash, crear otro que tenga el mismo hash, que es lo que se ha conseguido ahora. Pero no a fuerza bruta, sino aprovechando debilidades en el algoritmo que no son evidentes y que ha costado muchos años investigar.
(Disculpa el negativo... el cambio de iconos del interfaz me ha jugado una mala pasada)
Aviso, vulernabilidad gorda.
Si algún sitio web con cuenta usa cloudflare, cambiad contraseña ya.
Repo github con las vulnerabilidades (joder esto es ridículo
github.com/pirate/sites-using-cloudflare
Un repo es un repo, nada más. No veo problema en usar un svn, ni entiendo echarse las manos a la cabeza.
Al final, svn o git solo son herramientas, y svn no es mala. Su concepto de servidor centralizado es el que acaban copiando el 90% de los equipos que usan git.
Un gran repo de svn, por ejemplo, el de WordPress.
Estoy convencido de que muchos equipos usan git como usan Subversion, pero incluso en proyectos y equipos pequeños las posibilidades de git para editar commits y ramas locales sin coste, son muy útiles.
A mí no me ha pasado que el workflow de git nos haya generado más trabajo que resuelto. Al principio la transición, puede costar si no hay nadie que lo entienda. Aparte de que git no impone un workflow.
#114 eso también existe en svn, y los desarrolladores. también lo usamos para cotillear y podernos verdes.
Otra cosa es que tu te lo creas.
Despues puedes preferir uno u otro, o poner un ejemplo de uno mal gestionado contra uno bien llevado o salir con el tipico "es que no sabes trabajar, si haces las cosas con un poco de cuidadito con $MI_OPCION eso no pasa pero si pasa con $TU_OPCION porque asumo que vas a ir a lo loco", como hace #106.
#106 lo que dices esta muy bien, pero es hacer un monton de merges pequeñitos para evitarte un merge grande, cosas que tambien puedes hacer con svn o con cualquier otra cosa. Tu no estas defendiendo git, si no una forma de trabajar (crrecta). Donde si aciertas es en lo del camping, en poder trabajar sin conexion, que es la razon por la que Linus escribio git, porque necesitaba uno que funcionara desconectado, que es una ventaja de git sobre svn, pero cuando vuelvas del camping te espera un merge de una semana porque has dejado de trabajar "bien".
* no te puedes fiar del merge automatico porque lo que haces en un programa al principio (declarar una variable) tiene que ver con lo que haces al final (usarla). Si alguien borra la linea dende se declara, puede que el merge automatico funcione porque se han tocado lienas diferentes, pero el programa no compilara. El que diga que eso no es problema porque se detectara en la compilacion automatica que piense en poner un "continue" de forma aleatoria dentro de un if de algun bucle...