218 meneos
8398 clics
Operación "Abrazo del Oso": el día en que IBM rejuveneció cuanto tenía ya 60 tacos
En esto de llevar las riendas de una empresa, no hay mal que por bien no venga. La prueba es lo que sucedió con IBM en los 90, cuando, después de una pifia de increíbles dimensiones, lograron enderezar el rumbo de la compañía [...]. Habían perdido totalmente el norte. La firma que tuvo en sus manos el control casi absoluto de la industria tecnológica era un barco a la deriva. Sus responsables no anduvieron finos con las predicciones, jugaron la carta equivocada y [...] se olvidaron por completo de lo que pensaban sus clientes.
|
comentarios cerrados
#0 Esta no es del sub de retroinformática, no? (www.meneame.net/m/retrocomp/queue) Es una pendiente más, no?
Los jóvenes ni lo saben.
Posiblemente sin el PC la informática hubiese avanzado a un ritmo mucho mas lento y quizá hoy aún no tendríamos cosa tales como tablets y smartphones.
IBM cometió dos pífias, la primera la superpífia fue elegir a el sistema MS-DOS, algo que ha sido el mas perjudicial cáncer entre todos los fallos y errores cometidos en los desarrollos tecnológicos desde el comienzo de la humanidad. Por dar una idea equivale a que se hubiera impuesto la rueda cuadrada en lugar de la redonda en los albores de la civilización.
El cáncer ha sido tan agresivo que las metástasis del MS-DOS llamadas Windows aún no se han logrado extirpar de la faz de la tierra y aún hay brotes que infectan una y otra vez todo lo que tienen cerca.
La otra fue comparativamente una pifia pequeñita y menos conocida, elegir para el PC el procesador Intel 8088, con su nunca suficientemente maldecida estructura CISC, memoria segmentada y demás serie de despropósitos, pesadilla de ingenieros y programadores hasta el otro extremo del universo, nadie admite ser padre de tal criatura, se sospecha que tal diseño hubo de ser necesariamente fruto del mangoneo entre unos políticos y hasta quizá borrachos, no existe otra explicación posible.
No será para tanto hombre...
Con respecto a lo de Intel, totalmente de acuerdo, de hecho los procesadores modernos x86 transforman las instrucciones CICS a RICS internamente
Nota: yo esto lo veo desde fuera, puesto que como dice #3, a penas llegué a vivirlo.
Mandan huevos y los Ferrari de la época necesitaban ruedas más anchas que los SEAT. No son cosas que se puedan comparar.
Por mucho risc el hecho es que no hay ningun risc que le coma el culo a un core duo ya ni me meto en la nuevos que esos ya no hay nada que les tosa solo en consumo ganan.
Por eso las consolas se pasaron a x86 y apple cambio los risc andan 5 o mas años por detras en potencia bruta.
Tengo que utilizar Lotus Notes y varios productos de Rational en el curro y no hay otro producto de software que odie más que estos.
- CP/M, que fué la primera opción de IBM. Killdal puso un precio que no podía competir con el que puso MS.
- La familia RT-11, que sólo corría bajo arquitectura PDP-11.
- Los sistemas "de juguete" para máquinas de 8 bits (tipo Apple-II y similares)
- Otros sistemas propietarios (HP2100, NOVA, etc...).
Puestos en 1981, la opción PC-DOS/MS-DOS no era mala para nada. Más si te pones en la mentalidad de IBM de la época, en la que veían el PC como un complemento para sus mainframes.
(Si vamos un poco más hacia atrás nos encontramos con sistemas como OS/8 para los PDP-8, posiblemente los primeros ordenadores "personales" viables... y si echamos un vistazo a OS/8 veremos una evolución sin demasiados saltos OS/8 -> TOPS-10 -> RT-11 -> CP/M -> MSDOS).
Por cierto, los POWERx se comen con patatas a los Intel.
Y a ver... Los AMD y los intel por supuesto que son CICS... externatemente. Desde los pentium Pro en el caso de Intel y los K5 en el caso de AMD si mal no recuerdo, lo primero que se hace con una instrucción máquina es dividirla en varias instrucciones mas simples. Esto es así porque el diseño de un procesador segmentado y superescalar es mucho mas simple cuando las intrucciones máquina son simples ( que todas tarden un ciclo de reloj mas o menos, que todas tengan el mismo tamaño de instrucción, etc etc ). Debe de ser un completo dolor de cojones aparte de poco eficiente diseñar una arquitectura superescalar cuando cada instrucción tarda una cosa distinta en ejecutarse
Las consolas y apple ya no usan PowerPC simplemente porque IBM últimamente está mas centrada en los servidores, sus mainframes y demás que el mercado domestico, aparte que por mucho que digan los maqueros, el hecho de poder instalar Windows en un Mac le ha dado bastante empuje a la plataforma
</pedantic mode off>
CP/M y MS/DOS eran "limpios" para su época. Aunque hoy en día separar entre BIOS y kernel nos parece "natural", en su momento fué una auténtica revolución.
El gran error de IBM fue utilizar un procesador claramente diseñado para mantener compatibilidad hacia atrás en un equipo que no la necesitaba.
Por ejemplo, puede haber implementaciones ISA en CICS que se ejecuten más rápido que algunas implementaciones ISA en RISCS.
En CICS cada instrucción tiene un formato distinto, nada homogéneo, y el conjunto de unidades funcionales (UF) puede ser enorme. Una unidad funcional por así decirlo, es un ente lógico, formado por transistores, que hacen progresar una instrucción, calculan un resultado o bifurcan la instrucción por uno u otro lado. Y como para procesar estas instrucciones CISC necesitas muchas UFs distintas, al final gastas muchas transistores en el 'dado'/die del procesador, y claro si gastas transistores (pasta) para UFs en instrucciones que por lo general se usan poco o nada en los programas que se desarrollan, entonces estas desaprovechando recursos del procesador, potencia, eficiencia o incluso gasto energético si esas UFs no hacen nada, ya que generan calor o energía, y no las puedes 'apagar'.
Los DSP, procesadores de señal digital, como usan los MP3s, normalmente son procesadores CICS, pero porque se dedican a pocas tareas dedicadas, como reproducir MP3s, y por eso son tan 'rápidos' para esos menesteres, pero para dispositivos de propósito general, no conviene usar en general procesadores CICS, sino RISC.
¿Por qué RISC? Porque con pocas instrucciones, más simples, puedes tener pocas UFs distintas, pero muchas más de las mismas, ¿qué significa eso? que puedes procesar más instrucciones simultáneas a la vez, etc... y aprovechar mejor esos transistores en el espacio para construir el procesador.
Lo malo de RISC, que entonces necesitas más instrucciones que los programas CISC, pero con las capacidades memorias que tenemos hoy día, es insignificante.
Sobre los ciclos o tiempos que tarda una instrucción, eso viene determinado por la instrucción que requiere más etapas (en el pipeline) para procesarse, y en concreto por el tiempo (nanosegundos) que tarda la Unidad Funcional más lenta en una etapa. Si segmentas más el pipeline, metes más etapas, puedes aumentar por lo general la frecuencia del reloj (Mhz), pero sin embargo metes mayor latencia, por en cada etapa pueda haber bloqueos, como semáfaros, porque otras instrucciones requieran de tal unidad funcional (se ejecutan varias a la vez), y entonces tienes mayor latencia, y puede ser una cagada, ya que no tienes unidades funcionales infinitas (no hay transistores infinitos, y es pasta). Esto de las etapas fue un mal grave del Pentium 4, muchos Mhz, mucha latencia. Y hoy día se busca un equilibrio.
Pero vamos, podría seguir divagando porque este es un mundo de la ostia, y todo está interconectado (teória, práctica) y depende de tal y pascual.
Algún gazapo habré metido, porque un tocho contar es jodido, pero esta la idea del fabuloso mundo de las arquitecturas de computadores.
Se me olvidaba los procesadores actuales de 'sobremesa' x86, como contabas, son RISC, cogen la ISA x86 (CISC) e internamente la desmenuzan en microoperaciones RISC.
www.webdesignerdepot.com/2009/03/operating-system-interface-design-bet
camendesign.com/writing/geos
También hay algo semejante a un UNIX para C64 (hld.c64.org/poldi/lunix/lunix.html) pero eso no quiere decir que sea un sistema serio.
docweb.cns.ufl.edu/docs/d0040/d0040-1.gif
Eso para no recordar que la primera versión de GEOS apareció en 1986, mientras que DOS es de 1981... y CP/M (su antecesor más directo) en 1983.
Windows 2.0 apareció en 1987, por cierto.
BTW, si quieres acelerar un C64 tienes mejores opciones que un cartucho Emularlo,por ejemplo.
Por cierto, dudo que se pueda poner un C64 a 20MHz. Posiblemente lo que haga ese cartucho es tomar el control del bus y suplantar completamente al C64, exceptuando el teclado y parte de la periferia. No creo que la memoria del C64 y sus custom chips puedan ir a 20MHz.
Yo en mi amstrad cpc me hice mi propio procesador de textos porque no existía ninguno que soportara acentos ni los tipos de letra que venían con la impresora. Aunque cambio el cromo si alguien me enseña uno mejor
Sigo haciendo mis pinitos, nuevos entornos, nuevos horizontes, pero añoro muchísimo esa época en la que te sentabas delante de un ordenador (que ni siquiera tenía que ser un PC) y te sentías como un explorador...
Los PC de IBM eran carísimos, ríete de los mac de ahora. Eso si que era elitismo. La revolución informática auténtica la hicieron en Taiwan y en todo el sudeste Asiático, cuando empezaron a fabricar los "clónicos" a precio que si podían comprar las familias españolas, previo ahorro por supuesto.
Parece mentira lo poco que han cambiado las cosas...
#41 El ISPF es una de las herramientas para hacer cosas increíbles, quien las sabe hacer. Todo el Mainframe es así, una puerta de entrada (fea y antigua eso sí, pero funcional y potentísima) para hacer cosas increíbles.
El problema es que hoy en día venden las herramientas por lo bonitas que son, y en la realidad se pueden hacer con ellas un trabajo realmente malo y mediocre (java, por ejemplo) en la que la mayor complicación estriba en trabajar con la herramienta en sí.
Al tema, esta claro que en su dia triunfaron porque era una buena solucion para las maquinas de aquel entonces.
#34 ya... Pero no queria que me saliese un ladrillo, era una idea general. Por otro lado no olvides los compiladores, la idea de los cics era tambien acercar el lenguaje maquina a los lenguajes de alto nivel. Eso hoy en dia esta mas que superado
¿Alguien me puede explicar en que basan actualmente su negocio?
www.ibm.com/developerworks/community/blogs/JoeWinchester/resource/BLOG
Aunque ningún mainframero que se precie usa esas cosas Somos adictos a la pantalla negra con texto verde
#50 Por un lado, servicios. Por otro, su mercado "tradicional" semicautivo: mainframes y servidores de alto rendimiento (POWER), y en software: DB2. IMS, CICS, MQSeries...
Posiblemente seas usuario de IMS sin saberlo
Sufro a IBM continuamente en el trabajo. En cada proyecto que está IBM, se demora 3 veces por su culpa. No importa que a IBM se le asigne una tarea trivial, la van a hacer mal y de la forma mas lenta y burocrática posible... Si no los despiden de todos lados, es porque los gerentes de IBM tienen "muy buena relacion" con los gerentes de otras empresas grandes. Y en las empresas donde despiden a IBM, suele caer un ex-IBMer como nuevo gerente en esa empresa, que oh casualidad, decide volver a recontratar a IBM
No sólo no lo consiguió (creo que sólo EPSON les compró la licencia, mi primer PC fue un 8086 PS/40 de esa marca, cofcof), sino que los fabricantes de clónicos se pusieron de acuerdo para sacar estándares alternativos (primero E-ISA y luego PCI) que acabaron arrinconando y haciendo incompatible en el mercado de periféricos y componentes a los PCs de IBM... y fue prácticamente su sentencia de muerte. La gente seguía comprando clónicos más baratos que eran mucho más fácilmente ampliables (el mío acabó cogiendo polvo como os podéis figurar...).
Eso fue lo que paso que los demas se quedaron estancados y intel iba disparada.
No discuto quien es mas efectivo si no quien iba por delante potencia bruta y buses avanzados.
ARM a duras penas hay soporte para sata 1 y solo usa DDR2 y creo que hace poco ya hay arms capaces de usar ddr3 y creo que en single chanel.
Incluso amd y fabricantes de controladoras sata -> bus pci expres dan pena vs intel sata 3 nativo con diferencias de 100MB/s o mas vs intel que el puerto va a tope.
Ahora mismo ARM esta migrando a duras penas a 20 nm y intel ya esta en 14nm consolidados y eso en la practica machaca a la competencia.
#21 "Solo hay que ver que todo el mundo está deseando a los procesadores ARM de alto rendimiento"
Pero qué casualidad que nunca llegan... y, por tu frase, no es por falta de demanda.
Mientras tanto en CISC ya tenemos instrucciones específicas para AES.
www.youtube.com/watch?v=vNy-7jv0XSc
PD. todo esto porque IBM era "el demonio" aunque ahora viendo lo que es Apple no sé si es peor: vendiéndotelo todo como si fuese muy "guay" pero sin grandes innovaciones
Una pregunta y un comentario:
Pregunta:
Veo que controláis un montón, estoy intentado montar un negocio que lleva tienda web alquilada (por lo de los servicios que conllevan, aunque me da que el SEO que dan es de parvulitos) Esta semana los contratamos.
¿Un registrador de nombres de dominio fiable y rápido, que oculte el nombre del propietario del dominio (.ES. EU . NET. COM..).....?, aparte de Arsys y 1and 1 y parecidas o "famosas"
Los que montan la web /tienda usan los jodios Cpanel, verás que risas nos va dar....
Comentario:
Como creo que IBM al igual de fallar acertó otras veces cuando decidio hacer las tarjetas /cintas perforadas de la época, igual acertó en otras cosas, y no olvidemos que es de las empresas que más patentes del mundo tiene y registra al año. Lo de preguntar a los clientes que necesitas y como lo quieres debería ser de cajón, aunque se haga poco en la vida real. (Preguntemos a Microsoft si preguntó a los usuario si querían Metro)
#50 Servidores y software como servicio. Y algunas cosas más , pero creo que estas dos son el núcleo de facturación.
Llevo meses detrás de un ARM para HTPC por su bajo consumo y al final me he quedado con un Atom que consume un poco más pero al menos funciona bien y tengo todo el stack de software libre sin problemas de drivers ni puñetas. Los ARM que he probado se han quedado todos cortos (y no hablo precisamente de Raspberry Pi).