A través de las listas de correo de Linux, Linus Torvalds ha expuesto a los desarrolladores del kernel que no cree “que el hardware de clase i486 siga siendo relevante. Sí, estoy seguro de que existe (Maciej es un ejemplo), pero desde el punto de vista del desarrollo del kernel, no creo que sean realmente relevantes. En algún momento, la gente los tiene como piezas de museo. También podrían ejecutar núcleos de museo”.
|
etiquetas: linux , kernel , 486 , 80486
Todo tiene un límite, el legacy hay que mantenerlo, y llega un momento en el que es absurdo y hay que soltar lastre.
Y también hay veces como dice #15 que el hardware cambia tanto que necesitas una refactorización seria para poder sacarle realmente partido a las nuevas arquitecturas.
A mi me parece bastante razonable.
Los únicos que van por "faena" son los de Apple, se van pelando las retro compatibilidades cada poco y si no te funciona, pues te compras un Mac nuevo, esa es su política, con Catalina se pelaron todo lo que no fuera 64bits.
Ya hicieron el salto de PowerPC a x86, luego se pelaron el x86 para dejar solo los 64bits, y están preparando el salto definitivo a ARM.
¿ Por qué nos íbamos a quedar atascados ?
Lo importante es que se aprovechen las nuevas capacidades del hardware nuevo y eso ya se está haciendo de toda la vida.
nah: www.meneame.net/story/arm-cambia-modelo-comercial-socios-oem-deben-obt
www.listadotren.es/motor/series.php?id=281
No sé si otros sistemas (Indra, Dimetronic ó Siemens...) corren con lo mismo.
PS: Sí, la seguridad del tráfico ferroviario está en parte en manos de #Indra. #troll
en.wikipedia.org/wiki/Sinclair_QL
Pero sí, está claro que ellos miran por sus intereses no por los intereses de los desarrolladores.
Pero con lo que dice #15 no estoy de acuerdo porque la soclución la das tú mismo: hacer una refactorización correcta.
Si no hay una buena arquitectura de software, debe cambiarse para que sea buena.
En el caso del núcleo de línux no hay mucha controversia: la arquitectura es buena, cualquiera puede verlo. Y se hacen las refactorizaciones necesarias cuando se precisa.
Eso no es verdad. Hay una pelea constante por que el núcleo de línux maneje el nuevo hardware en su totalidad y ahí lo determinantees la velocidad a la que sale nuevas funcionalidades en el hardware. La existencia de otro viejo no supone limitación. Como mínimo es así en los módulso de línux que conozco, pero dada la arquitectura del núcleo, supongo que será igual en todas partes.
No obstante estos temas son muy complicados para mí y creo que voy a dejar la conversación en manos de quienes controláis.
Vamos, que como dice #1, el backwards compatibility debería tener un limite (y a partir de este solo recibir parches de seguridad... Como mucho). Porque la arquitectura de las maquinas viejas dicta muchos aspectos del software de hoy, y mantener dos ramas distintas implica muchas horas de trabajo.
En terminos generales, la retrocompatibilidad es una lacra. Yo entiendo que cierto nivel de retrocompatibilidad sea necesario porque no puedes perder soporte despues de 3 años de tener una maquina, pero de eso a 20 años... pues a mi me sobran como 10, almenos. Y a nivel de hardware lo mismo: Si se pudiera hacer algo tipo lo que hicieron los de Apple cuando se migró de PPC a Intel (Rosetta, creo que se llamaba?) y forzar a los fabricantes a ofrecerlo siempre, la evolucion en cuanto a arquitecturas (porque x86 es otra lacra)... existiria, a efectos practicos.