192 meneos
1677 clics
A Linus Torvalds no le preocupa lo que Microsoft está haciendo con Linux: "Estoy bastante feliz"
En octubre del año pasado Microsoft daba un paso decisivo a la hora de dejar tranquila a la comunidad en cuanto a su amor por Linux y el código abierto cuando cedió más de 60.000 patentes para que pudiesen ser utilizadas libremente por los miembros del consorcio Open Invention Network. Microsoft tiende a hacer todo lo necesario para que Linux funcione bien para ellos, reconoce Torvalds, aunque dice que "eso es ser parte de la comunidad"
|
comentarios cerrados
Lo que quiero decir es que a la mayoría le da igual y los usuarios de estas alternativas son pocos relativamente y por eso me da miedo que un día Linus acepte el parche ese que querían meter para integrar systemD a nivel de kernel y adiós.
A mi también me resulta cómodo tirar de los repositorios de Debian (y del "apt"), por eso en las ocasiones que quiero más colorines arranco LMDE. El kernel que compilan para las instalaciones "por defecto" suele tener compilados muchos módulos para hardware diverso (smartphones, cámaras fotográficas...) que los que compilan el de Slackware "por defecto" (incluso el kernel Huge) prefieren dejar en manos de cada usuario, y yo hace tiempo que no tengo ganas de recompilar núcleos; me resulta más operativo tener dos o tres OS instalados (que comparten particiones para datos) y arrancar con el que ese día me venga mejor.
Lo habitual es que no necesite interactuar con otro hardware (más que a nivel básico, como conectarme a Internet a través del 4G) y para eso, me basta Slackware con XFCE.
Ahora mismo escribo este comentario desde ese OS... que va como un tiro y aún con Firefox con una docena de pestañas abiertas y el transmission funcionando, no necesita más de 2GB de RAM.
Este tipo de explicaciones no se dan en forocoches
Lo usé un tiempo más en servidores desatendidos, pero incluso entonces se quedaba muy atrás en kernel y versiones.
No se cuantas personas ayudan ahora a Patrik en el desarrollo de Slackware... imagino que pocas, ya hace algunos años que salió la última versión estable. Así que para mi es más una cuestión romántica (aunque es cierto que me gusta la ligereza y la estabilidad). La primera, la instalé en 1994 y recuerdo que eran unos cuantos floppy y un par de CD.
Yo tuve servidores de impresoras hasta 2005, más o menos
No merece la pena que pierdas el tiempo y la paciencia con los chistecillos y el resto... a mi el touchpad me hace un scroll suave y rápido... de un vistazo encuentro los comentarios que a mi me merece la pena leer (y si acaso, responder), y ya. Del resto paso. No he puesto nunca un negativo a un comentario en casi 8 años. Contribuyo poco a la tontería y los flames (eso lo aprendí en los IRC de mediados de los 90).
#113 Gracias
No he conseguido una invitación para adentrarme en forocoches (creía que se hablaba de coches... me gustan los coches con vocación de históricos) y no puedo opinar.
robertoprevato.github.io/Comparing-Linux-hosted-to-Windows-hosted-ASP-
Más adelante, las memorias permitieron sustituír los cables y los programas empezarona a almacenarse externamente, un programa básico, llamado cargador o como quieras llamarlo, se encargaba de leer ciertas porciones de memoria indicadas de alguna manera y como elementos externos, le pasábamos los datos (quizá leídos desde una tarjeta perforada). Para todas estas acciones, hace falta mecanismos del tipo: "cuando el ordenador arranque, busca el programa de cargar programas en la dirección de memoria 0 y una vez terminado de cargar el programa, empieza a procesarlo en la dirección xx". Esto es todo muy manual.
La complejidad de los ordenadores crece, tienen muchos dispositivos externos, la memoria hay que gestionarla (ya no lo hacen los programas o el usuario, cuando hay muchos programas en memoria y cada uno de su padre y de su madre tiene que haber formas de coexistir). Cada vez es más necesaria la gestión de: memoria, dispositivos, buses, etc. por lo que se diseñan los primeros kernels, cada vez más sofisticados: capaces de procesar muchos programas distintos, de que cada uno acceda a los recursos de forma segura e independiente, que pueda gestionar el uso los programas por parte de varios usuarios, etc.
Pero el kernel sólo gestiona recursos, los ordenadores están "vacíos" si no existe una serie de servicios básicos en la parte de cara al usuario: necestiamos loguearnos, gestionar nuestro espacio de disco, trabajar con ficheros y con datos, etc. La parte de usuario es también muy compleja y ahí entra GNU. Casi toda la parte de usuario son herramientas libres provistas por GNU, portes de aplicaciones de UNIX que garantizan la compatibilidad con estándares POSIX (aparte de las cosas que tiene que hacer el kernel para ser compatible con el estándar, la parte de usuario también tiene mucho que ver en ello), etc.
Así que un kernel linux sin la parte de usuario provista por GNU no hace nada, por eso muchos se empeñan en llamar al sistema completo GNU/Linux.
-¡Es monolítico, no sigue la filosofía Unix de haz una cosa y hazla bien!
Es que en realidad son un montón de binarios que hacen cosas concretas, que son sustituíbles y reemplazables:
systemd-analyze systemd-machine-id-setup
systemd-ask-password systemd-mount
systemd-cat systemd-notify
systemd-cgls systemd-path
systemd-cgtop systemd-resolve
systemd-delta systemd-run
systemd-detect-virt systemd-socket-activate
systemd-escape systemd-stdio-bridge
systemd-gnome-ask-password-agent systemd-sysusers
systemd-hwdb systemd-tmpfiles
systemd-id128 systemd-tty-ask-password-agent
systemd-inhibit systemd-umount
...
Que los fuentes compartan código y los distintos proyectos que conforman y funcionan con systemd compartan alojamiento (mejora la mantenibilidad, elimina duplicidades, elimina errores, etc) no quiere decir que lo que se compile a partir de ellos lo sea.
-¡Va más allá de gestionar el inicio del sistema ya que pasa por caso todos los ámbitos posibles como control de energía, puntos de montaje, cifrado, acceso a la red y un gran número de funciones más que no debería controlar.!
Quizá porque muchos de esos posibles ámbitos se establecen durante el arranque, porque al fin y al cabo son servicios de sistema...
-¡Sus archivos journal están escritos en un binario complicado y hace que sean fáciles de corromper. Esto también genera que los registros del sistema puedan quedar corruptos y no se sepa de dónde viene un posible error del sistema.
Estamos en el siglo XXI, la gestión de la sanidad de ficheros es cosa del sistema de ficheros y existe una cosa llamada backups porque NADA es 100% seguro ni fiable (los ficheros de texto también pueden corromperse y tener pérdidas de datos), que sean binarios ayuda a no necesitar programas externos de análisis de logs para: filtrar y organizar la información, filtrar la salida por programas, servicios, usuarios, etc. generar informes y mucho más. Incluso si quieres, puede generar salida a otros demonios de log y tener tus logs de texto como toda la vida, así que puedes seguir usando tus scripts o programas igualmente...
-Esta es divertida: ¡El tamaño de este componente ha causado que desde 2010 se hayan detectado 9 vulnerabilidades en el software, aspecto importante teniendo en cuenta la gran cantidad de componentes… » ver todo el comentario
Ahí no hay emulación de ningún tipo y el rendimiento es prácticamente el mismo que el de cualquier proceso en el anfitrión.
No hay emulación o virtualización alguna. No hay que arrancar un sistema por completo y virtualizarlo.
Por ese motivo tiene un rendimiento muy superior a la virtualización. El consumo de recursos también es mucho, pero muchísimo menor.
Durante años y años se han ido programando las capacidades de namespaces en los distintos sistemas, memoria, cgroups, red, etc.. hasta llegar al punto en el que se han tenido todos los servicios necesarios para poder correr aplicaciones en namespaces aislados.
Pero solo funciona en Linux porque las capacidades requeridas solo están disponibles en el kernel de Linux.
Windows está a años luz en ese aspecto y muchos otros.
mintguide.org/tools/317-make-a-bootable-flash-drive-from-an-iso-image-
Prueba distintas distros (suelen tener entornos diferentes, unos más parecidos a windows, otros a mac, otros van a su bola, etc). Quédate con lo que más te guste, al fin y al cabo, en linux se trata de poder elegir.
Eso de los kernels era cosa de mainframes y supercomputadores que necesitaban tener soporte multiusuario y por lo tanto alguien que te gestionara las cosas y evitara problemas de seguridad. Y también poner capas para que ningún usuario realizara acceso directo a los dispositivos y todo eso.
Mi actual cliente sólo instala RHEL y yo encantado, la verdad. A pesar de que utiliza systemd hasta para lanzar contenedores debo reconocer que la estabilidad de RHEL, y su ecosistema, no tienen parangón para arquitecturas enterprise.
Pero comparto totalmente tus reservas. Debo reconocer que me decepcionó la actitud de Debian ante un herramienta que se pasa por el forro varios de los principios esenciales que definen a un sistema *nix.
In an August 2014 article published in InfoWorld, Paul Venezia wrote about the systemd controversy and attributed the controversy to violation of the Unix philosophy, and to "enormous egos who firmly believe they can do no wrong". The article also characterizes the architecture of systemd as similar to that of svchost.exe, a critical system component in Microsoft Windows with a broad functional scope.
www.infoworld.com/article/2608798/systemd--harbinger-of-the-linux-apoc
En fin, sobre el diseño de systemd, te recomiendo que leas esto: 0pointer.de/blog/projects/systemd.html
Y por último: 0pointer.de/blog/projects/the-biggest-myths.html