El Mac con ARM será una realidad en los próximos meses. Apple ha anunciado todos los detalles sobre la esperada transición desde los procesadores Intel hacia los chips basados en ARM. La idea del Mac con ARM ha sobrevolado durante años la sede de Apple. Sin embargo, no ha sido hasta esta tarde, durante la conferencia inaugural de la WWDC 2020, cuando la empresa norteamericana ha confirmado su adiós a los procesadores de Intel, los cuales serán reemplazados por los chips ARM.
|
etiquetas: apple , arm , rosetta 2 , mac , macbook
Ya se ve como está AMD pasándole la mano por la cara en los últimos años en precio/rendimiento.
Ya saben, para jugar a ser creativos Mac. Para ser creativos de verdad PC.
PD. Se bloqueaba la aplicación cada dos por tres. Creo recordar presumian que el procesador era 2 veces más potente que cualquier portátil medio X86.
Aún así la gran mayoría de los desarrolladores ignoran el macOS como objetivo de sus productos. Ya me dirás lo que va a pasar si además les pones una barrera más como es tener que enfrentarse a una arquitectura completamente diferente.
Y la gente que trabaja con macOS de forma profesional se tiene que estar echando las manos a la cabeza pensando en los drivers que no va a haber para nada. Ya se vivió con PowerPC, nada de drivers, y los que había aún siendo el mismo hardware con un sobreprecio absurdo.
En su día PowerPC partia la pana contra Intel, hasta que llegó el G5 y era una puta estufa tal que era inviable en un MacBook.
Ahora Apple literalmente ha hecho lo contrario: ha usado la arquitectura que menos consume de todas y es capaz de tener un portátil con una duración de dias. No eres consciente de lo que supone eso para la portabilidad, cosa que hoy se exige ya que el trabajo en remoto se presupone como algo de facto.
OSX tiene una interfaz mas bonita, y mas simplicidad y se acabo.
Por no decir que todas las fabs europeas están a años luz, ni Infineon ni STM ni nadie está ni remotamente cerca. En Europa también están algunas de Intel y de GloBalfoundries y la segunda está descolgada ya.
En definitiva, veo un problema geopolítico importante.
Te recuerdo la pregunta:
¿Que % de usuariosde mac usan sus sistemas por la potencia bruta de sus equipos?
Y si la reformulas:
¿Que % de usuariosde PC usan sus sistemas por la potencia bruta de sus equipos?
Efectivamente. En ambos casos la respuesta se va a la sugerencia que hacias de x% de digito simple.
La INMENSA mayoría de los usuarios en ambos casos usan sus sistemas por razones diferentes a la potencia bruta. Unos por la usabilidad (según tu) y otros por el precio. Pocos por la potencia.
lo que cambia son los sobremesas + portátiles
Decir que el chip es el mismo que el de un iPad es tan absurdo como decir que el de un iPad es el mismo que el de un iPhone, cuando el primero le duplica la potencia al segundo (TDP de 7W vs 15W).
O para que lo entiendas mejor, es tan absurdo como decir que el chip de un netbook o un ultrabook es el mismo que el de un PC de sobremesa, solo porque ambos son x86. Cuando el TDP de una CPU de portátil como mucho llega a 30W y la de un sobremasa pasa fácilmente de los 100W
Que compartan juego de instrucciones y diseño del chip no quiere decir que sean igual de potentes.
Me parece a mi que la raza superior PC sobrestimáis al usuario medio.
Qué usen el mismo juego de instrucciones y el mismo diseño del chip no implica que tengan la misma potencia. Un portátil tiene una batería que multiplica varias veces la capacidad de la de un móvil y una tablet, y por lo tanto puedes poner chips mucho más potentes manteniendo la autonomía.
Y aquí hay que recordar que, como dice #46, la supercomputadora más potente del mundo en estos momentos usa chips ARM:
en.wikipedia.org/wiki/TOP500#TOP_500
En la WWDC, mostraron a Maya y a Tomb Rider funcionando en emulación bastante fluidos. Funcionando en el procesador actual de los iPad.
Van a desarrollar procesadores específicos para Mac, que seguramente sean más potentes que los de un iPad. Aunque aseguraron que los iPad actuales ya son superiores a muchos portátiles del mercado.
Veremos las comparativas de rendimiento con los nuevos procesadores y luego quizá Microsoft siga los pasos de Apple.
El salto de PowerPC a x86 hizo que todo el software no sirviese para nada.
Con el salto a Catalina se han pelado todas las aplicaciones que no sean de 64 bits.
Ahora si saltan a ARM, igual que el salto de PowerPC a x86, todo el software a tomar por culo.
Suerte que siempre quedan los iSheeps que compran y no preguntan.
En mi trabajo usamos bastantes instancias EC2 bajo demanda y, literalmente, les cuesta casi el doble realizar algunas tareas, y aún con la diferencia de precio (0,768 vs 0,688 $/h en instancias tipo C con 16 cores y 32GB de ram), perdemos dinero ya que tenemos que lanzar más instancias. Por no hablar de la compatibilidad con algún software que, a pesar de usar Linux, también nos ha tocado, ya que no existe la misma cantidad para arm que para x86_64. Para un servidor web con poca carga saldrá rentable, supongo.
CC #48
wiki.archlinux.org/index.php/Firefox#Hardware_video_acceleration
De todos modos, perdonad que me ría, pero el futuro es RISC-V.
Apple ya pasó del MOS 6502 al Motorola 68000 al pasar del Apple II/III/GS a los Apple Lisa y luego a los Apple Macintosh.
El Apple Lisa y el Macintosh usaban la misma familia de procesadores, pero no eran compatibles entre si.
El Apple Macintosh pasó de usar la familia de Motorola 680x0 a usar procesadores PowerPC de 32 bits. Luego pasó a la versión de 64 bits del PowerPC.
Pasó de los procesadores PowerPC G5 de 64 bits a los Intel Core de 32 bits. Posteriormente pasó a los Intel Core 2 de 64 bits hasta ahora, que pasará a ARM64.
Es la única empresa de informática que ha logrado migrar de arquitectura de forma exitosa, no una, sino 4 veces. Los grandes fabricantes de 8 bits desaparecieron cuando intentaron migrar a 16 o 32 bits. SGI tuvo cierto éxito al migrar desde MC680x0 a MIPS, pero luego fracasó al pasar a Intel64 (los fracasados Itanium) y a x86. Sun tuvo cierto éxito al pasar de MC680x0 a Sparc, pero no pudo evitar ser comprada por Oracle.
www.meneame.net/story/apple-valora-usar-procesadores-amd-futuros-orden
Sobretodo a los cuñados que decían que los procesadores de Apple los diseñaba Arm
Los procesadores PowerPC, sobre el papel eran los mejores, conceptualmente hablando: Arquitectura Harvard, instrucciones RISC, con su doble bus para programas y datos... era perfecto en todo menos en lo económico. Y por eso se pasaron a una CPU conceptualmente inferior, pero pragmáticamente mejor.
Este nuevo cambio les devuelve a la arquitectura hardward. Quiero decir, les devuelve en el PC, porque en los dispositivos móviles hace tiempo que no hay una cpu CISC/Von Newmann.
Yo solo espero que este cambio empuje a una arquitectura puramente Harvard (Intel hace tiempo que se ha ido moviendo silenciosamente a esa direccion adoptando microarquitecturas RISC).
Vamos, me interesa saber si Apple se preocupa aunque sea un mínimo por sus usuarios o directamente van a usar ARM porque es muy cómodo para ellos dejar de tener que usar dos proveedores de cpus y usar sólo uno.
Intel ha evolucionado muy poco en la última década... por no hablar de los parches que ha habido que ponerles... Ya era hora de que todos los portátiles básicos puedan pasarse a refrigeración estática.
No me cabe duda de que Apple podrá hacer la transición sin problemas, y esto dejará sola a Microsoft dependiendo de x86, y a x86 dependiendo de MS. Sin duda no es una buena noticia para ninguno de los dos..
Microsoft en realidad ya no depende de Windows, puede sobrevivir perfectamente solo con Azure, Office y otros productos, aunque sería un golpe muy fuerte al eje de su negocio. Para AMD sería un golpe aún mayor, pero al menos tiene su negocio diversificado con las tarjetas gráficas. Por último, Intel si pierde el mercado de CPUs de escritorio no tiene nada más a que agarrarse, y se va directa a la quiebra..
www.amazon.es/I7-9700KF-3-60GHZ-Graphics-BX80684I79700KF-999DLA/dp/B07
browser.geekbench.com/ios_devices/58
browser.geekbench.com/macs/macbook-pro-13-inch-mid-2020-intel-core-i7-
Puede que tenga algo oxidados mis estudios de estructura de computadores, pero la arquitectura Von Neumann se resumía en:
- Instrucciones y datos en la misma memoria
- Instrucciones secuenciales
Una CPU CISC y una RISC se diferencian en el conjunto de instrucciones, no en la arquitectura Von Neumann, que es la imperante en todos los computadores actuales.
es.wikipedia.org/wiki/Arquitectura_de_Von_Neumann
www.apple.com/es/shop/product/MX572ZM/A/kit-de-ruedas-de-apple-para-el
www.apple.com/es/shop/product/MXNM2ZM/A/kit-de-patas-de-apple-para-el-
www.macnificos.com/apple-pro-stand-display-xdr
Las estaciones SGI usadas en multimedia y pelis fueron barridas por los Pentium2/3 con gráficas VooDoo 3/Nvidia TNT2 con un precio absurdamente más bajo. Y ni te digo si usabas Linux: portabilidad Motif a precio de risa por puesto (y con Lesstif ni eso), junto con optimizaciones y acceso al código para optimizar todo como te saliera de las narices.
Con Intel y ARM en un futuro acabará pasando lo mismo.
Así que si se ponen tontos, en Europa se podrían fabricar procesadores sin demasiados problemas.
Y no solo en supercomputadoras, como dice #48, en los centros de datos de los grandes proveedores de cloud (AWS, Azure, Google, etc) también se están sustituyendo los chips x86 por chips ARM, porque se puede obtener la misma potencia a la vez que ahorras muchísimo en energía, y por lo tanto se aumenta la rentabilidad drásticamente.
Al principio lo que impedía que un CISC pudiera tener instrucciones RISC son las funciones LOAD y STORE. En una máquina Von Newman, por fuerza mayor tienen que estar integradas, ya que solo hay un bus de datos. Esto lo convierte en un sistema memoria-memoria. En la arquitectura harvard están diferenciadas, por lo que puede funcionar registro-a-registro.
En cristiano, las maquinas harvar SI pueden permitirse instrucciones cortas, porque puede utilizar dos buses de datos a la vez.
Este detalle condicionaba cualquier decisión de diseño posterior, ya que los x86 adopotaron un sistema de tareas vliw (instrucciones largas, segmentadas en el tiempo de ensamblador), y los RISC tomaron el camino del superescalar (instrucciones más sencillas que pueden ser priorizadas en tiempo de ejecución)
Con el VLIW venía aparejada la instrucción compleja, que hasta ese momento era la única manera de hacer las cosas. Con la llegada de las maquinas harvard, se dio a llamar su set de instrucciones como RISC, puesto que su set era mas reducido.
Siendo estrictos, hoy ya no hay máquinas Von Newman en el mercado. Casi todo son Modified Harvard Architecture.
Lectura interesante, complementaria de regalo:
ithare.com/modified-harvard-architecture-clarifying-confusion/ (y muy recomendable blog en general).
no se trata de abaratar, comprar chips hechos es mas barato que hacerlos
se trata de mejorar el rendimiento
Porque eso no significa que el procesador vaya a ser mejor. Habrá que ver que tal escalan esos procesador pensados para dispositivos móviles en un sobremesa.
y lo de la aceleracion no creas, hay atoms reproduciendo 4k por cpu.
www.youtube.com/watch?v=4kDTx6G3T7U (al final)
www.omgubuntu.co.uk/2018/10/hardware-acceleration-chrome-linux
firefox:
forums.linuxmint.com/viewtopic.php?f=59&t=303593
Aunque yo he abierto 4K en un Celeron de mi pareja usando QMplayer y HaikuOS sin usar aceleracion 3D para nada.
Por defecto Chrome en LInux pone a las GPU Intel en lista negra.
Firefox tiene un ajuste similar.
shorturl.at/cxKQ9
shorturl.at/uxEVX
affinity.serif.com/es/photo/ipad
Tienen Designer, Photo y Publisher. De lo mejorcito y escrito desde cero. Las Aplicaciones Designer y Photo son equivalentes para escritorio y iPad. Publisher para iPad no tardará mucho.
affinityspotlight.com/article/interview-with-adam-whitehouse-lead-affi
affinity.serif.com/es
Hay áreas creativas donde el 80% de la cuota se hace en Mac OS.
roaringapps.com
Un par de compañías como ejemplo que sacan nuevas aplicaciones para Mac OS (y llevan varios años en el mercado):
affinity.serif.com/es
panic.com
EDIT: claro está que no me refiero en tiempo real siempre, pero sí para acelerar el CAD donde una ligera latencia sea tolerable.
Os recuerdo que la CPU G3 era mejor que un Pentium 2, si, pero es que el salto con un G4 fué muy grande.
Con ARM con Apple acabamos de empezar en un terreno que otros no se habian atrevido. Sí, Linux con RPI3 e incluso con Vulkan y tal, pero aquí es otra liga. Si el OpenArena (que es un quake3 chetado conseguía 100 FPS en VK bajo una RPI3, ni te digo los que conseguiría en una CPU ARM de alta gama de Apple.
Y ojalá esto sirva para que hagan espabilar al resto de proveedores y saquen algo medianamente similar (y con bateria semejante) por parte de los de PinePhone con los PineBook.
Mismo SO; diferente userland y escritorio. Y en MacOS, lanzando cosas de iOS transparentemente a velocidad nativa.
Windows sí con BootCamp. Linux, jodido.
Es que SunOS en Motorola era insufrible. La shell iba con un lag brutal, he visto spectrums más rápido.
Pinebook, 100 eur el basico, 200 el mas caro. Con Linux, pero con XFCE, Chrome, Smplayer, Gimp, Kria y LibreOffice tienes lo basico para la gente.
- Tienen la capacidad
- Intel no está cumpliendo
- Pretenden tener el timón de su propio futuro
- Da lo mismo. Sus clientes compran cualquier cosa con su logo.