Es imposible seguir encogiendo los chips al ritmo de antes, así que la industria necesita encontrar otras vías de mejorar la potencia computacional, que llegará a afectar a los smartphones en unos años.Dentro de un par de años, puede que las empresas tecnológicas tengan que trabajar mucho más duro para proporcionarnos nuevos casos de uso para los ordenadores. La continua acumulación de cada vez más transistores de silicio en los chips, conocida como la ley de Moore, ha sido la materia prima de la exhuberante innovación en la computación.
|
etiquetas: ley moore , supercomputación , informática
es.wikipedia.org/wiki/Supercomputadora
Las 100 primeras instalaciones de HPC del mundo tienen del orden de 100.000 cores cada una (el top 1 tiene 3 millones). Los deseos de unos pocos millones de usuarios de smartphones no es lo determinante para la evolución de la capacidad de cálculo, pues aquí hay una fuerte demanda y la ley de Moore viene determinada por la tecnología actual de fabricación, que como el artículo cuenta, en los móviles está muy por debajo del límite (básicamente porque están diseñados para no tener que utilizar refrigeración).
Donde yo trabajo tenemos un cluster para simulaciones de unos pocos miles de cores que sólo en consumo eléctrico y de aire acondicionado se lleva algunos cientos de miles de euros al año, así que cualquier mejora de rendimiento de un año para otro es bien recibida (ya sea aumentando los FLOP/€ de los cores o reduciendo los W/FLOP, que a igualdad de presupuesto conduce a aumentar la potencia de cálculo ampliando el cluster)
No necesito que mi móvil tenga 3569 procesadores , si no que le dure la batería y que sea fácil de usar...
Fdo. Uno que no tiene ni puta idea.
es.wikipedia.org/wiki/Supercomputadora
Las 100 primeras instalaciones de HPC del mundo tienen del orden de 100.000 cores cada una (el top 1 tiene 3 millones). Los deseos de unos pocos millones de usuarios de smartphones no es lo determinante para la evolución de la capacidad de cálculo, pues aquí hay una fuerte demanda y la ley de Moore viene determinada por la tecnología actual de fabricación, que como el artículo cuenta, en los móviles está muy por debajo del límite (básicamente porque están diseñados para no tener que utilizar refrigeración).
Donde yo trabajo tenemos un cluster para simulaciones de unos pocos miles de cores que sólo en consumo eléctrico y de aire acondicionado se lleva algunos cientos de miles de euros al año, así que cualquier mejora de rendimiento de un año para otro es bien recibida (ya sea aumentando los FLOP/€ de los cores o reduciendo los W/FLOP, que a igualdad de presupuesto conduce a aumentar la potencia de cálculo ampliando el cluster)
Tú lo de entender cuando alguien entiende una broma pero no la sigue sino que da algo más de información ya tal
En la Rusia soviética intentaron un sistema de ¡3! valores: -1, 0 y 1.
www.theverge.com/circuitbreaker/2016/5/19/11716818/google-alphago-hard
Y para un centro de supercomputación, meter más equipos para aumentar la potencia de procesamiento no es un enorme problema. El problema estaría en que para meter más potencia en un móvil, el móvil debería ser más grande, y nadie necesita hoy por hoy tener 18 nucleos en un móvil, ni ahora ni nunca. Van a tener que innovar por otro lado.
Es una tecnología demasiado verde y, por desgracia, los "divulgadores" a veces cometen tantas imprecisiones que hacen creer a la gente cosas que no son. La computación cuántica servirá para realizar algoritmos con un nivel menor de complejidad al que corresponde con el uso de la computación clásica. Pero esos algoritmos, muchos tienen que ser descubiertos, y ya veremos cuántos de ellos se usarán a nivel doméstico (de forma directa).
Aunque Moore solo hablaba de número de transistores.
Es decir, dos años
dle.rae.es/?id=Qe0rxfE
Vale no había leído a #29 y tu explicación en #32
¿?
Si tienes transistores que ocupan menos espacio la electricidad tiene que viajar distancias mas pequeñas con lo que la eficiencia aumenta, cuando se trata de eso, de poco sirve hacer chips mas grandes.
¿A qué me refiero? A qué bastará con que tengamos una conexión a internet de baja latencia y con el suficiente ancho de banda como para enviar lo que necesitamos ver en el monitor (fullhd, 4k ...) porque el proceso puede darse en superservidores remotos. Y ahí hay mucha más facilidad para crecer en potencia. El ancho de banda ya la tenemos de sobra (se puede ver netflix en 4k con una conexión desde 15mb), falta mejorar la latencia. Pero estoy convencido que hacía ahí apunta el futuro del "procesador" ...
Aqui lo explican más formalmente: www.i-ciencias.com/pregunta/11528/cual-es-el-mas-eficiente-sistema-num
Fdo: Un informatico exiliado en UK
Y mientras en el mundo de la CPU... {0x1f422}
- Fabricar chips con mayor area es mas costoso (debido a que el tamaño de una oblea es fijo, si tienes chips con mas area, salen menos chips por oblea, con lo que cada chip es mas caro) $$ --> productos mas caros
- Problemas de disipación W/cm^2 Si el chip crece mucho puede ser difícil enfriarlo
- Mayores distancias a atravesar -> mayores latencias -> tiempo de ciclo menor --> frecuencia menor (aunque esto se puede solucionar haciendo el core pequeño y replicandolo metiendo varios)
PD: Un programa puede estar limitado por capacidad de computo o por ancho de memoria. Y debido a un factor histórico llamado el "Memory Wall" donde la diferencia en rendimiento entre la DRAM y la CPU es cada año mayor, cada vez es menos importante tener una buena CPU, y más, tener una buena jerarquia de memoria.
No se si ve algo en la imagen qeu subo , pero esto es un chip en el que estamos trabajando ahora mismo son aproximadamente 4x4mm . Y cada rectangulo es una memoria. Es mas o menos para que te hagas una idea de lo que hay dentro de estos bichos.
Crecer en si no es un problema. No solamente se puede crecer materialmente. El problema es cuando se crece en detrimento de los más desfavorecidos, como suele ocurrir.
No obstante podría significar un paso mas hacía la perdida de privacidad. (Bueno siempre queda la posibilidad de que los superservidores remotos sean de tu propiedad, y solo tu puedas acceder a ellos)
ARM no es la panacea si no que se oriento de otra forma y ahora ha llegado un momento en el que gracias a los smartphones y las inversiones que se están haciendo esta convergiendo en potencia y usabilidad con la infraestructura X86, pero en gran parte es culpa de intel el principal fabricante de esta estructura que ha orientado su fabriación a meter núcleos y potencia y a ignorado la cuota de mercado que estaba tomando ARM, hasta que ha llegado al punto donde ha fabricantes chinos que te hacen un SoC basado en ARM totalmente factible para multiproposito por un tercio de le que vale un procesador X86 básico. Aquí la cuestión ademas del consumo ha sido el precio que es increiblemente económico.
Vamos el sueño el espionaje industrial o de los grande monopolios donde tu posible competencia te daría sus datos para que los compilaras o procesaras.....
En fin, los fabricantes de procesadores han sabido mejorarlos y mucho, y entre otras cosas gracias a la ley de Moore, pero el chollo se acaba y en el futuro van a tener que buscar otras maneras de aumentar rendimiento. Pero contradiciendo un poco al artículo, no se acaba el mundo ni van a dejar de fabricar procesadores, simplemente se estancan ligeramente. Como dice el refrán, "todo lo que sube, baja".
Y siempre nos queda la esperanza de la Computación cuántica aunque esté un poco verde
De las peores experiencias con un equipo informático de mi vida, volver a eso o a algo parecido sería convertirse en la "putita" del proveedor.
Llevan muchos años intentándolo, cuando lo consigan mejor apagar e irse, lo que creían que microsoft o google hacía monopolio lo fliparian.
Aquí sigo viendo a los "paquitos" en ciertas autoescuelas que los debieron comprar a un precio ridiculo y aprovecharon para "informatizar".
Dudo mucho que se pueda hacer con silicio, solo puede ser hay señal o no, no se pueden ni medir ni regular los voltajes dentro de un chip es un 0 o es un uno, no hay más mientras usemos silico
¿no se supone que cuanto mayor es la base, es decir mas simbolos usamos, la representacion ocuparìa menos espacio porque utilizariamos menos cifras(o digitos no se si esta bien dicho aqui)
por ejemplo un numero en hexadecimal siempre se representara con menos simbolos (cifras) que en binario.
como dice #21 han metido más núcleos y tambien se ha mejorado el rendimiento por ciclo. y lo que tu dices del calor no es en todas las cpus solo en las pensadas para ello, las de gama alta siguen siendo cafeteras que consumen como un pentium 4
De todas formas , y mira que yo siempre eche pestes de x86 por gastar recursos en mantener la compatibilidad, hoy día ya da igual
la arquitectura x86 ya no existe como tal en los chips solo es traducida internamente es como un risc, no se desaprovecha espacio para instrucciones complejas rara vez usadas estas son emuladas(o mas bien desglosadas) por un microcontrolador en el propio chip. yo miro a intel y arm y veo que arm lo único que ha ganado es cuota de mercado, en rendimiento intel ha avanzado muchisimo mas. Un acorn con arm daba vueltas en circulo sobre un pc x86 en los 90, hoy un pc con arm sería mas lento que un x86 de esto se deduce que en rendimiento puro los x86 han avanzado mucho mas que los arm.
En gpu este ultimo salto a sido brutal 1Ghz a 2 Ghz.
Te pongo un ejemplo fuera de las matemáticas, ¿que te parece más eficiente la escritura occidental donde las palabras se forman con un número limitado de símbolos (las letras del abecedario) o la escritura kanji japonesa donde casi cada palabra se representa con un símbolo distinto? Seguramente los mensajes sean más cortos en japonés, pero tienen tal cantidad de símbolos y tienen que ser tan complejos que lo hacen menos eficiente.
Además la distincion cisc , risc ya está obsoleta. El powerpc era un risc de nombre con la cantidad de instrucciones que le fueron añadiendo se alejo de la filosofia risc. Y los cisc como tal ya no existen desde que amd y despues intel comenzaron a decodificar las instruciones cisc en risc en sus procesadores.