Tecnología, Internet y juegos
132 meneos
1954 clics
Graphcore dice tener el procesador más complejo del mundo: un chip con 59.400 millones de transistores y 1472 núcleos

Graphcore dice tener el procesador más complejo del mundo: un chip con 59.400 millones de transistores y 1472 núcleos  

Graphcore puede que no sea tan conocida y popular como otros fabricantes de procesadores como pueden ser Intel o NVIDIA. Esto se debe a que se centran especialmente en el ámbito de la inteligencia artificial. Para mejorar el desarrollo de estas tecnologías ha presentado su nuevo chip GC200. Dicen que se trata del procesador más complejo del mundo. En una arquitectura de 7 nm, el procesador GC200 integra en su interior hasta 1472 núcleos que permiten 8832 hilos paralelos separados. Para ello cuenta con 59.400 millones de transistores.

| etiquetas: graphcore , procesador , gc200 , 1472 núcleos , inteligencia artificial
72 60 2 K 225
72 60 2 K 225
  1. #2 Si está dedicado a trabajar con inteligencia artificial, que le dejen solo a auto-optimizar su propio algoritmo.
    Igual acaba yéndose a la máquina de café en vez de currar, pero es una opción que acabará por llegar.
  2. #2 Ellos no dicen que sea el más rápido, ni el mejor. Dicen que es el más complejo, que ya suena a eufemismo.
  3. Y este tipo de cosas asi a lo bruto... como se lleva con la Ley de Amdahl que dice que es el algoritmo el que marca la mejora de eficiencia y no el paralelismo? porque intuyo que picar para paralelizar 1472 nucleos de forma optima tiene que ser tambien cosa maja... No todo es hierro, optimizarlo es un dolor y el numero en bruto de cores e hilos sin una arquitectura maja no me dice mucho
  4. #10 A mi los saicos tambien me gustan

    www.youtube.com/watch?v=haVaaDLwWvI
  5. #2 Yo lo tengo, le he metido al PC el SO Windows Vista y puedo tener 3 pestañas abiertas en Chrome y usar el Paint simultáneamente sin que me salga una BSOD.
    Lo recomiendo.
  6. #5 Yo estoy deseando el dia que legiones de servidores emprendan un viaje espiritual peregrinando a los laboratorios Bell para encontrarse a si mismos.
  7. #5 Ahí ahí, abriendo la puerta a Skynet. Ya os vale.
  8. #2 Optimizarlo, hasta cierto punto a dia de hoy es sencillo. En el ambito de la IA se suele trabajar con frameworks como Spark. Que hablando muy en plata lo que haces es tener un problema y dividirlo en muchas secciones y luego hacer un reduce de las soluciones.

    Un caso tipico es tener una ingesta de una fuente y dejarlo en un bus de datos. Por ejemplo Kafka. En kafka puedes especificar que un topic tenga N particiones. Luego en Spark levantas N executor y cada executor coge datos de una partición, hace su trabajo y las ponen luego todas en común.

    ¿Es factible de una forma relativamente sencilla? Si. Pero esto no esta enfocado a un solo algoritmo, sino a super ordenadores que vayan a tirar muchos algoritmos muy masivos en el mismo cluster.

    De todas formas yo no le veo sentido, para ser honesto, a dia de hoy las plataformas existentes escalan maravillosamente bien de forma horizontal. Es fácil comprar máquinas con 4 sockets de 40 nucleos cada una, y escalar horizontalmente. Esto te da mejor redundancia y si se te jode una máquina no se te cae tanto procesamiento de golpe.

    Para optimizar ciertos algoritmos a nivel de paralelismo creo que es mejor solución usar una FPGA para casos muy concretos, que siempre van a dar mejor tiempo en ciertas tareas repetitivas facilmente paralelizables.

    De hecho hadoop yarn (El orquestador de hadoop que corre los procesos de spark) ya está en la versión 3.0 contemplando el uso de FPGA's para acelerar los procesos.
  9. #2 supongo que para ciertas tareas si sea eficiente.

    Los procesadores de las tarjetas gráficas se basan en eso precisamente, en renderizar pixeles en paralelo. El machine learning tambien lo aprovecha muy bien.
  10. ¿Pero mueve el Crysis o no? (ya me voy...)
  11. #15 yo he podido poner el crysis en ajustes altos.xD
  12. El número de transistores es lo de menos. Cualquier otra compañía si quisiera también podría hacer procesadores con x100 más transistores, eso sí con chips tan grandes el ratio de fallos es enorme.
    Lo importante está en la optimización de la arquitectura, el nº de transistores no tiene utilidad real.
  13. #18 Yo no haría apuestas, por si acaso.
  14. #2 La "proeza" es un poco como lo que salía en el "Qué apostamos" de meter 200 personas en un Renault-5. No vale para nada porque el R-5 no se va a mover, o si se mueve, irá perdiendo gente por el camino, pero ahí está. Como mucho sirve para batir un récord y salir en la prensa, y ya.
  15. #13 "Comenta la compañía que el sistema está diseñado para encenderlo y comenzar a usarlo. Es decir, que no requiere de configuraciones especialmente complejas para las empresas que deseen adquirirlo y usarlo para sus operaciones. Esto lo consiguen en parte gracias a que también diseñan su propio software y lo integran con otras plataformas para que se pueda utilizar el procesador sin grandes dificultades. "

    Nop, no es "lo mismo pero más rápido" es otra arquitectura y más que el numero bruto que es publi habría que ver como de eficiente es la capa de soppftware que tienen montada
  16. #12 #15 No creo que se le pueda poner Windows directamente a esta máquina, a lo sumo a través de una máquina virtual. Creo que es una arquitectura diferente a los de la familia i586 y a amd64. Creo que este cacharro es para hacer cosas específicas que requieran mucho procesamiento como la inteligencia artificial.
  17. Creéis que este procesador será suficiente para navegar y el uso puntual de Office? O mejor tiro por algo mas potente...
  18. #6 Mientras no se lo pongan a una impresora estamos a salvo.
  19. #6 Yo voté a Kodos.....
  20. Me gustaría hacerme una idea, pero no encuentro el precio (presumiblemente alto) de estos "juguetes" por ningún sitio.
  21. El Fortnite tiene que ir de lujo.
  22. #6 A mí no me mires, que de este tema de la IA ni idea, pero no seré yo el que lo decida. Será un algoritmo.
  23. #9 Yo me conformaba con que trabajasen para mí y me traigan el sueldo a casa.
    Llámame prosaico.
  24. Entro, veo que la barra del bar de ejspertos está a tope, me retiro el palillo de la boca por un instante, digo "son japonudos estos cojoneses", y me piro.
  25. #29 buena observación. Dependiendo del tipo de trabajo que haga los errores son asumibles o no. Por ejemplo, en un procesador para un server, tener un bit de memoria que cambia de valor puede cambiar el resultado completamente. Sin embargo (simplificando un poco), una tarjeta gráfica que da un color de píxel incorrecto en un sólo frame hace que ese error sea imperceptible
    para redes neuronales es similar, de hecho existen nuevos tipos de datos que bajan la precisión porque, al fin y al cabo, están haciendo una predicción y equivocarse un poco no pasa nada
  26. #6: Tú combina un "Battle bot" con un #Aimbot del PUBG o del Fornite o algún juego similar, y me dices qué sale. :-P
    www.youtube.com/watch?v=QY5YqqPzLmI Black dragon vs lockjaw battlebots 2019 episode 15
  27. #21 las tarjetas gráficas no usan procesadores, usan galletas de esas de hacer sándwich helado de tres sabores :shit:
  28. #8 Creo que te refieres a una red neuronal, más que a un algoritmo.
  29. #25 A ver, si desarrollan semejante hardware, imagino que es para que rinda de verdad, y habran desarrollado un excelente software.. Vaya ese sería almenos, parte de mi modelo de negocio.
  30. #2 Las GPUs actuales ya tienen miles de núcleos y procesan el trabajo de forma totalmente paralela, ya que procesar gráficos es una tarea altamente paralelizable. Podrías por ejemplo tener millones de núcleos, cada uno procesando un único pixel y podrían ejecutarse todos completamente en paralelo.

    Así que más que del algoritmo en sí depende de cuán paralelizable es la tarea o el problema en cuestión.
  31. Soy al único al que le huele mal todo en esta noticia? Estamos hablando de un procesador que viene en un equipo en concreto y con el software del desarrollador. No se habla de arquitectura, ni de benchmarks comparativos ni de nada de nada. Parece que están intentando vender humo...
  32. edit.
  33. #24 Ya habia editado el texto, habia malentendido que se referian a CPUs (para lo cual estariamos hablando de cifras relmente astronómicas).
  34. #2 Efectivamente mejorar la eficiencia es cosa del algoritmo. Pero aquí de lo que se trata es de conseguir más velocidad a igualdad de algoritmo. Paralelizar para 500 o 1000 hilos no debe ser muy distinto. En realidad lo que hacen estos procesadores es que operaciones relativamente sencillas (hashes, cálculos de posiciones 3D, etc) se puedan hacer simultáneamente y de ahí la ganancia en velocidad.
  35. Perfecto para alinear genomas
  36. Me pido betatester
  37. ¡Deme diez!
  38. #12 Yo creo que los celeron te celerarán lo suficiente.
  39. #14 Imagino que no habrán desarrollado un software de mierda...
  40. #19 Y el emulador de la N64 también...
  41. #4 has mirado en Aliexpress?
  42. #34 Si lees el artículo verás que la gracia es ahora escalar horizontalmente estos procesadores. La empresa no vende los procesadores, te vende un servidor con su arquitectura y 4 de estos en paralelo con lo que, según ellos, se consigue 1 petaflop. Luego hablan de que se puede escalar horizontalmente hasta 64000 procesadores lo que según ellos daría un rendimiento de 16 exaflops.

    Para que te hagas una idea el superordenador más potente que existe en el mundo ronda los 450 petaflops, por detrás la mayoría están entorno a 100.


    Edit: 64000 procesadores, 16000 servidores, 16 exaflops
  43. Hasta que no le metan el Doom o el Quake, ni caso.
comentarios cerrados

menéame