214 meneos
2841 clics
AMD recupera su microarquitectura ARM, vuelve K12
Espoleada por el éxito del chip M1 de Apple, AMD ha recuperado sus antiguos planes de desarollar SoCs basados en ARM, y revivirá su proyecto K12.
|
comentarios cerrados
Y a ver si Lisa Su consigue petarlo en CPUs por segunda vez.
La tecnología RISC siempre ha sido teóricamente mejor, por el hecho de que el 80-90% de las instrucciones de código máquina son instrucciones básicas. Pero no sé ha beneficiado de las investigación ni los avances tecnológicos que se han ido produciendo más que para dispositivos móviles por asuntos de rendimiento. Al contrario del CISC que ha sido promovido por Intel, y por todos los que han tenido que clonarlo, como AMD, como potencia sin compromisos.
Pero ahora que Apple le ha dado al RISC el cariño que se merece, con tecnologías actuales, los demás están viendo las orejas la lobo.
El M1 es lo mejor para equipos móviles sin demasiados requisitos de rendimiento. Cuando Apple saque el M2 con cores de verdad ( no bigLITTLE) se va a comer toda la tostada.
A menos que los demás ser pongan las pilas en RISC, que es lo que están haciendo.
Al final, el Ryzen 3 ser va a quedar viejo en un año. Intel ahora mismo está perdido y no se va a enganchar al carro en tres o cuatro años.
A ver si pronto sacan algo!
Creo que AMD hizo bien dejando de lado el proyecto para centrarse en ganar terreno a intel. Todos lo agradecemos. Pero viendo como tira el apple M1, creo que hace bien en explorar la vía ARM. A las malas siempre podrían ser procesadores para consolas, móviles, tablets,...
De todas formas, la "noticia" no deja de ser un rumor/filtración.
Ahora hay mucha competencia, si van en serio tendran que espavilar y dedicarle tantos recursos como en sus Zen si quieren crear su propia cpu.
Tambien pueden usar las cpus de Arm (Cortex-X, neoverse, etc) como hace Qualcom, Amazon, Samsung, etc. y sacar algo bueno en un año, aunque lejos del M1 supongo.
Por cierto, en Amazon AWS tienes la opción de montar una máquina virtual sobre ARM. Esas máquinas funcionan igual que las x86?
Lo que si dijimos muchos es que era un timo más, vendiendo una CPU de móvil a precio de laptop de alto rendimiento.
#11
Pero hace tiempo que ARM pege muy fuerte en máquinas de propósito específico, una pequeña parte del mercado de servidores, casi todo el hardware iot y obviamente casi todos los dispositivos Android.
Es decir, ARM estaba ahí y Apple no ha inventado nada. Simplemente ha sido el primero que se lo ha metido a un portátil de gama alta. Porque en la gama baja ya había un montón de dispositivos chinos baratos con arm.
Para empezar, tienes hasta un Windows para ARM. Y hay mucho software que tiene versión o alternativa mobile. Por lo tanto, aunque aun no tuvieras una aplicación de "spotify" para tu windows en pc arm, siempre tendrías el móvil o incluso el navegador web.
Y el software de pago/"profesional" acabará migrando para no morir. Y más si apple ayuda a empujar.
Yo creo que la duda no es si x86 acabará muriendo o no, si no cuándo.
puedes ignorar a apple todo lo que quieras, como buen meneante
pero ahí sigue apple, haciendo que AMD, Microsoft y el resto de la industria se pongan a mover el culo para no quedarse atras
Para empezar, la c7 fue un bulo de junio 2020. Es decir, fake.
Y este nuevo procesador nunca se había anunciado (ya que no se trata del imaginario c7). Así que tampoco es antigua
Este año AMD ha ganado la partida a Intel, pero Apple les está ganando a ambos en un nivel superior.
Yo estoy esperando que Marcan migre el Linux al M1 para poder deshacerme del puto i7 con Spectre y pillar por por primera vez en mi vida lo que salga con M2 o lo que sea.
www.google.com/amp/hardzone.es/tutoriales/rendimiento/dominio-arm-cpu-
Mi conclusión es, al contrario que la del artículo, que en un año Apple va a estar en posición de comerse el terreno de Intel y AMD.
A la izquierda el consumo (más bajo es mejor) a la derecha la potencia (mas grande es mejor) arriba el rendimiento con nº enteros, abajo el rendimiento con decimales,
El rendimiento del chip de un iPhone 12 supera a intel, al resto de ARMs, está cerca del zen3 y el consumo de Intel y AMD no cabe ni en el gráfico
las barras gris punteadas representan los cores de bajo consumo, las grises solidas los cores de alto rendimiento
al ser un movil han limitado el consumo entre un 0,44w y 4,42w, pero con un consumo de un Skylake o un zen3 el rendimiento puede ser extratosférico
Potencia (segun SPEC2006):
AMD R9: 96,04
Apple A14: 83,37
Intel i9: 58,76
Consumo:
Apple A14: 4,86w
AMD R9: 105w
Intel i9: 125w
Precio:
iPhone 12 mini: $699 (todo el teléfono)
Intel i9: $499 (sólo el chip)
AMD R9: $799 (sólo el chip)
Ahora piensa que pasaría si Apple sube el consumo de 5w a volvámonos locos 20w, pues que tienes el M1
y te lo venden con un ordenador alrededor desde $699 el Mac mini en formato torre, o desde $999 el MacBook Air en formato portatil
¿Te está timando Apple vendiendo ordenadores con chips para movil o aquí está pasando algo muy gordo?
Así que repito: ni es antigua (puesto que se anuncia que AMD sigue adelante) y no es errónea puesto que no nombra un procesador fake.
Muestra más respeto y menos orgullo hacia los envíos ajenos poniéndole más empeño en contrastar tu información antes de aseverar votos negativos.
Te diré algo, el iPod no fué una decisión de Apple, lo obligaron. Mientras en Windows estaba todo el mundo descargando discos en MP3 y escuchando con WinAMP, en Mac no había ningún programa bueno, Apple tuvo que desarrollar iTunes.
Luego trató de hacer acuerdos con los fabricantes de reproductores MP3 como el Rio de Diamond, para que se pudiesen usar en Mac, seguramente desembolsando una buena suma, consiguió 2 o 3 modelos compatibles con Mac, lo que forzó que Apple hiciese su propio reproductor, con una tienda de música legal.
Seguramente esperaban tener pérdidas porque no era su área de negocio, no eran Sony, ni Phillips. Hicieron el iPod muy chulo pero muy caro, eso si en los otros cabian 12 canciones en el iPod cabían mil canciones.
La gente se pasó al iPod. Y la industria fué detras, Microsoft con su Zune o mucho más prácticos HP con un iPod de Apple pintado de azul ( www.xataka.com/musica/la-historia-oculta-tras-aquel-ipod-vendido-por-h )
El iPad salió de una organización de médicos que pidieron a Apple que desarrollase un tablet, y del iPad salió el iPhone. Pero los presentaron en orden inverso para que el iPhone no pareciese una versión reducida del iPad.
Lo que menos emocionó del iPhone fué la parte de las apps, que era lo más revolucionario. Y el iPad en su presentación dejó fría a la audiencia porque lo vieron como un iPhone con pantalla grande.
Cada vez que saca un producto hay mas críticas que aplausos, incluso de los fanboys que se decepcionan porque esperaban más. De los ordenadores M1 han criticado que no vengan con un diseño exterior nuevo. Ofrecieron a Intel que hiciese el procesador de los iPhone, Intel lo rechazó, ahora despues de 10 años diseñando sus propios procesadores, han superado a Intel. Se crecen en las dificultades.
Apple va haciendo su trabajo, poco a poco a fuego lento, y muchos con el tiempo se dan cuenta de lo que vale. Aunque sea a través de los productos de otras marcas.
Por cierto, el otro día instalé Windows a un amigo que compró un Asus gaming que cuesta lo mismo que el MacBook con M1, y como 40 minutos me llevó instalar Windows, los drivers, Office, activarselo todo, y ¡plof! el ordenador se apagó, y lo había cargado al 100%. Nos miramos el uno al otro, mi amigo con cara seria, ¿pero eso es lo que aguanta la batería? Nadie se espera que la batería aguante 20 horas pero… ¿ni una hora en bajo rendimiento?. Eso si, cada pulsación del teclado hacía un juego de luces de colores muy chulo.
hardzone.es/noticias/procesadores/intel-amd-cpu-x86-apple-m1-cinebench
Procesadores "Mobile" de AMD ya se merienda en rendimiento multinúcleo al M1 en el Cinebench y eso estando dos nodos por detrás en proceso de fabricación (5nm vs 7nm), imagínate un i9 o un Ryzen 9.
Dejemos de decir tonterías por favor. Apple lo ha hecho muy bien y tiene un producto muy potente a bajo precio, pero no es la referencia en nada y en procesos que requieran fuerza bruta, siempre va a estar muy muy por detrás.
Seamos serios por favor. Tu comentario es un absoluto despropósito.
En los últimos 5 años Intel ha logrado aumentar el rendimiento por hilo un 28%, en el mismo período Apple ha mejorado sus diseños un 198%, o lo que es lo mismo, lo ha multiplicado por 2,98 veces (llamémoslo 3 veces)
aqui el gráfico de Anandtech con la progresión:
.
Desde hace años para las CPU se usa PassMark, CineBench, HandBrake, 3D Mark, 7-zip, Codificacion AES, cuando se hace una review, en cualquier pagina seria lo pasan por un monton de test, y sinceramente hasta ahora no habia visto en ninguna pagina seria el uso del SPEC2006.
Quizás para poner un balanceador de carga, una caché, si que son buenas opciones
Pero al final, tiras de x86 para usar el estándar, no sea que acabes con un software que no compila o un error de arquitectura que nadie ha descubierto aún.
Pero ojo con el marketing que veo a gente comparando el chip de Apple con un ryzen 3 y realmente no están al mismo nivel, lo primero sería no comparar socs con CPUs con test sintéticos pero bueno.
En Youtube tenéis el canal de processingraw que hace una series de pruebas basándose en su flujo de trabajo, comparando un pc con un threadripper, un portátil MSI de 1700, un par de MacBook pro de generación pasadas, un ultrabook LG de generación anterior y un pc de unos 800€ que no me acuerdo que montaba.
Pues lo que mostraba es que el M1 está ni más ni menos en el rango de su precio, el portátil de MSI era más rápido.
También contaba que aún no está del todo optimizado y había tenido cierres de aplicaciones.
Ahora lo que quiero contar con esto es que estos socs ARM van a ser los reyes de la eficiencia, pero dudo que veamos una potencia bruta en corto plazo, que Apple sacará su M2 con aceleración por hardware para lo que interesa que venderá sus equipos como siempre no tengo ninguna duda.
Que llegue al mundo compatible que hay juegos y todo tipo de programas que piden músculo bruto, si llega será a largo plazo.
Puedes comparar el que quieras, que siempre vas a conseguir mayor rendimiento en juegos cuanta más potencia por cpu tenga. Por eso amd hasta ahora se ha comido un mojón en juegos, porq un intel baratucho como el 10600k le daba mil patadas en juegos a casi todos los amds.
ahora con los zen3 la cosa cambia.
Tanto las instrucciones x86 como las ARM se traducen a microinstrucciones RISC (la diferencia es que las instrucciones x86 son de tamaño variable y por lo tanto más complicadas de traducir), así que aunque ahí M1 tiene una ventaja pero por otras razones (decodifica muchas más instrucciones a la vez que cualquier ARM o x86 existente) realmente no es algo tan determinante como comparar RISC y CISC.
Que el M1 es un procesador muy bien hecho y que el rendimiento / vatio es espectacular pero que ni de coña es “el procesador más rápido de portátil” como dijo Apple en su presentación de diapositivas para fanboys en las que nunca da datos técnicos.
Veremos en el futuro y a donde evoluciona todo porque es verdad que el M1 pinta maneras y abre un camino muy interesante donde se va a intentar meter AMD y el resto (y genial, más competencia = más evolución) porque recordemos que Apple “sólo” diseña el procesador, luego se lo fabrican terceros y ya sabemos lo que suele pasar cuando dependes de que una empresa ajena china fabrique tus productos, también partían la pana con cuando empezaron a diseñar los procesadores A* para iPhone y con los años el resto de fabricantes licenciados de ARM se pusieron las pilas y, hoy por hoy, el flagship de Snapdragon es más potente que el Bionic de Apple en términos brutos.
Lo que si es un hecho es que Apple mintió en la presentación y que, a día de hoy, no es el “procesador más rápido en portátiles” y mucho menos en sobremesa. En el futuro ya veremos que pasa con Apple, AMD, Intel, Microsoft, Qualcomm y demás, se vienen tiempos interesantes
Luego miras otros benchmarks (www.phoronix.com/scan.php?page=article&item=apple-mac-m1&num=7) y ves que hay sitios concretos donde pierde por mucho, otros donde pierde dignamente, otros donde empata y muchos donde gana o gana ampliamente. Con software sin optimizar en la mayoría de los casos y en muchas ocasiones, traduciendo directamente software hecho para x86.
Para el uso del día a día, es un procesador fenomenal (y más teniendo en cuenta que se trata de un portátil sin refrigeración activa). Para casos de uso específicos, pues lo de siempre, elige la mejor herramienta y la que más se adapte a tus necesidades...
Sobre las gravitón y demás de AWS, define funcionar igual. Para los casos de uso típicos de un server, si, tiran bastante y son muy competitivas en precio, rendimiento y un consumo muy bajo. Desde luego, a amazon le vienen genial y apura precios con ellas, con lo que a los clientes también les vienen genial. El software es el mismo (una distro linux, con el mismo software que tienes para x86 pero compilado para ARM), así que no hay problema.
Antes del iPhone dominaba blackberry, el iPhone no fué una copia de lo que había, fué mejor. Y ahora nokia, motorola o blackberry están muertos.
No se trata de ser el primero se trata de ser el mejor o al menos saber por donde vienen los tiros. Si tienes éxito y no sabes porqué, estás en problemas.
Spec mide el rendimiento puro del procesador, para compararlo con otros, una utilidad como handbrake mide el rendimiento del ordenador (ram, velocidad de disco) haciendo una tarea específica que usa varios hilos a la vez, por lo que el rendimiento es proporcional a la cantidad de hilos que soporte el procesador.
Cinebech mide mas operaciones con punto flotante en un hilo o en varios. Según lo que quieras medir tendrás un dato.
En 5 años Apple ha sacado una CPU nueva cada año, aumentado el rendimiento de su core un 300%, Intel en el mismo tiempo sólo un 30%. Y eso con un consumo de 5w con lo que tiene mucho margen de mejora hasta llegar al consumo de Intel/AMD. Y la GPU también está con un consumo mínimo rindiendo como una GPU de gama media. Y esto no ha hecho más que empezar.
Y como apple lo petaba con los iPods, parecía buena idea sacar un aparato que juntase iPod+SmartPhone, y ni si quiera fué Apple la primera, lo sacó Motorola, que estaba perdiendo suelo y le pidió a Apple que les dejase meter un iPod en sus teléfonos, y a pesar de la gran campaña publicitaria con Madonna de protagonista el Rokr fué un fracaso, porque era una mierda. En la presentación Jobs lo dejó bien claro.
Y siguieron saliendo teléfonos de muchas compañías importantes, incluso google estaba a punto de sacar uno. Cuando se presentó el iPhone. Y Google tiró el teléfono que iba a sacar a la basura, y compró Android, y empezó a diseñar el teléfono desde cero para acercarse a lo que había hecho Apple, y Sansumg que era socio de Apple, también se subió al carro, porque fabricaba las pantallas las memorias y las CPUs del iPhone, tenía todos los ingredientes, así que empezó a sacar sus teléfonos con mejores piezas que Apple, y Apple se busco nuevos socios.
Y ahora dónde está HTC, dónde está Blackberry, dónde Nokia, dónde Motorola. No importa ser el primero, importa hacerlo bien y continuar haciéndolo bien. Por eso hay un antes y un después del iPhone. Por eso el iPhone definió los smartphones tal y como los conocemos hoy.
Quizá venga otro que revolucione el cotarro, ojalá, cuantas más revoluciones mejor para los usuarios, no me importa quien copia a quien, ojalá estuviese permitido copiar todo ¿dónde habría llegado la tecnología si se pudiese perfeccionar los inventos libremente?.
Apple revolucionó los ordenadores, los sistemas operativos, las impresoras, los reproductores de música, los smartphones, los tablets, ahora los chips…
Seguramente no fueron los primeros en casi nada, pero saben hacer las cosas bien. Por eso toda la industria se fija en lo que hace Apple desde hace muchos años.
Aunque el meneante medio sólo vota las noticias de Apple negativas (muchas bastante sensacionalistas)
Estoy de acuerdo con lo demás que dices salvo que el fabricante creo que es de Taiwán.
"From a high-level perspective, microcode is an interpreter between the user-visible Complex Instruction Set Computer (CISC) Instruction Set Architecture (ISA) and internal hardware based on Reduced Instruction Set Computer (RISC) paradigms"
Y aquí, una perspectiva de cómo se decodifican las instrucciones del ARM M1 de apple (podía haber puesto cualquier arm de al menos un par de décadas hacia ahora, pero esto me salió en búsquedas y me pareció interesante) en microinstrucciones RISC.
www.righto.com/2016/02/reverse-engineering-arm1-processors.html
De hecho, se podría decir que actualmente los ARM a alto nivel son CISC también, porque sus instrucciones son "complejas" (en el caso del M1, se ejecutan de 1 a 4 microinstrucciones por cada instrucción). No son comparables a la complejidad de las x86, pero no son púramente RISC.
Quizá la única arquitectura puramente RISC que haya actualmente es la RISC-V, pero porque está desarrollada con otro enfoque; su cpu sigue siendo minimalista (sólo microinstrucciones) y en lugar de añadir más instrucciones, añade coprocesadores o extensiones o aceleradores que pueden existir o no en cada chip (extensión para procesado vectorial, extensiones multimedia, extensiones de cálculo con matrices, extensiones...). Eso lo hace una arquitectura más estándar, compatible, fácil de soportar, simple y barata.
This article looks at how the ARM1 processor executes instructions. Unexpectedly, the ARM1 uses microcode, executing multiple microinstructions for each instruction. This microcode is stored in the instruction decode PLA, shown below. RISC processors generally don't use microcode, so I was surprised to find microcode at the heart of the ARM1. Unlike most microcoded processors, the microcode in the ARM1 is only a small part of the control circuitry."
Los ARM en realidad no son RISC, sino "CISC ligeros". No lo sabía. Ahora ya lo tengo claro, gracias.
Aquí un auténtico RISC. Una palabra, una instrucción, sin tablas ni traducciones.
www.microchip.com/wwwproducts/en/PIC16F877A
"While ARM processors use similar concepts to micro-coded CPUs (e.g. there is a hardware block that decodes instructions into one or more micro-operations), they are not microcoded in the traditional sense that uses a ROM to store each micro-instruction, nor can these micro-instructions/operations be modified after produced in actual hardware. Indeed, ARM processors use hardwired control in the instruction decoder to generate micro-operations."
Ya es cuestión de opiniones.