¿Qué es exactamente? Pues Intel ha creado una CPU óptica creada a base de fotónica con tejido Mesh to Mesh. Intel lleva trabajando con DARPA desde los albores de la tempestad que fue la creación de Internet para su servicio de defensa militar allá por el siglo pasado.
|
etiquetas: intel , cpu , fotonica
Ej. la venganza de la CPU neutrónica
- 66 threads y solo 192 Kb de caché L1 ... no le va a durar ná. Y los 4 MB de L2, menos.
- 32 GB de RAM DDR5 ¿en un servidor? Coño que nosotros llevamos tiempo con el TB de RAM y más.
- 16 sockets con medio TB de RAM.
¿esto es para IA o algo similar? Me salen muchos núcleos con muy poca RAM para que esto sea para computación tradicional.
Esto no es una CPU tradicional, esto es otra cosa.
www.doeeet.com/content/testing-eee-parts/photonic-integrated-circuits-
Uff, entonces va para largo.
Sería interesante saber qué aplicación tiene en el espacio algo tan potente. No sé qué CPU tienen ahora, pero lo que lanzan al espacio es bastante menos potente que cualquier CPU actual de las pochas.
en.wikipedia.org/wiki/RAD5500
Para comprimir datos no necesitas algo con 66 threads por core.
Eso se hace en Tierra. Las naves tienen otro problema que es la energía (dependen de paneles solares o de generadores de radioisótopos) y el calentamiento (bueno, el enfriar las cosas)
Luego están los minutos de terror de amartizar, autónomo y a ver esto para el año que viene: www.nasa.gov/press-release/nasa-selects-intuitive-machines-for-new-lun
Al espacio todo lo que va esta ampliamente probado ya que en la practica no hay posibilidad de reparación. Así que para que lancen estos chips al espacio todavía faltan 10 años.
cc
old.meneame.net/story/zu-chongzhi-posibilidad-computacion-cuantica-uni
#20 Si la velocidad de procesamiento es muy rápida y la capacidad de procesamiento enorme, entonces no necesitas memoria para retener ni los datos que entran ni los datos que salen, sobre todo si es para IA, siempre que puedas enviar y recibir muchos datos a la vez.
Vamos, imagina que la memoria es un sitio de almacenamiento de datos mientras entran y salen del procesador que los convierte. Si el procesador es tan bestia que puede tener la mayoría de los datos en su interior mientras se procesan pues entonces no necesitas tanta memoria: solo la necesaria para ir sacando los que necesites e ir metiendo los nuevos...
Veo que no he sido el único que lo ha pensado.
- La caché, como te digo arriba, es solo la prueba, puesto que no utiliza conectores normales, usa haces de luz para conexión.
- ¿Quién nosotros? En lo que ves es solo de I/O, osease de entrada/salida, no de socket en RAM como tal. ¿Dónde manejas Teras de RAM?
- Es que creo que sigues flipando con lo que hay ahora.
No, es de pruebas para un nuevo tipo de ordenador.
Tras esta aparición es probable que se terminen por ver equis problemas de vulnerabilidades cuyos remedios supondrán en la reducción de un elevado porcentaje de rendimiento. Y así seguiremos hasta que no tengamos comunmente operativa una arquitectura basada en hardware y software libre.
Pero no solo por esas razones, sino porque interesa tener los datos en bruto para poder procesarlo de mil maneras, y que si dentro de 2 años sale una tecnología de procesamiento mejor, puedan volver a reprocesarse.
En astrofoto me ocurre igual. Hace 4 años no había técnicas basadas en IA para el procesado. Ahora, con las técnicas actuales se pueden hacer cosas que no podía antes. Si hubiera guardado sólo mis datos procesados, ahora no podría hacer el reprocesado con las nuevas técnicas, pero al haberlos guardado en bruto, puedo sacar detalles que antes no podría haber sacado ni aunque quisiera.
Ahora que venga alguien que sepa de verdad
Esta diseñado para uso militar, en concreto para usar un programa que se llama HIVE. Con esta arquitectura se busca llegar a la escala del Petabyte de gráficos analíticos , de ahí los 66 hilos por núcleo , 8 núcleos.
HIVE estaba desaprovechando sobre el 80% de los datos en 8b por una mala usabilidad de la caché y como lo que buscaban es hacer funcionar el programa , ajustaron el procesador al HIVE , y no al revés.
Dudo muchísimo que se les ocurra llevar procesadores de 7nm, o que ni siquiera funcionen sin errores en el espacio.
Supongo que el destino será un cazabombardero capaz de pilotarse a sí mismo, analizar el escenario de batalla, destruir al enemigo esté en el aire o en tierra, esquivar las contraofensivas, etc.
Con un arma así.... quién le toserá a los USA? Los chinos podrán estar a la altura? No tienen esa excelencia en la tecnología de chips....
En concreto para análisis de grafos (en la noticia lo traducen malamente como análisis de gráficos). Básicamente lo que a veces se conoce como big data.
Esto, y teniendo en cuenta que son aplicaciones militares... pues jeje, te puedes hacer una idea de que la idea es inteligencia militar. (=no hemos escatimado en gastos)
Aquí un pequeño paper que básicamente cuenta que la problemática del procesamiento de análisis de grafos, que implica falta de capacidad de procesamiento (e intenta dividirlo en subgrafos, pero se pierde un poco el todo).
humming80.github.io/papers/Yan-Vol7-DBS-056.pdf
Es fundamental que los datos estén en bruto para su archivado y reprocesado posterior. Uno sabe que técnicas tiene hoy pero no con las que contará mañana, por lo que en la medida de lo posible imágenes y cualquier otro tipo de datos las necesitamos en bruto.
¿Quiere decir eso que no se beneficiaría la tecnología espacial de procesadores más rápidos? Claro que si. Hemos visto por ejemplo al Ingenuity volar con un procesador comercial más rápido, lo que permite una navegación mejor porque puede trabajar a tiempo real con imágenes más grandes y buscar un sitio de aterrizaje, cosa que con procesadores más lentos sería muy difícil.
Así que quien sabe si veremos en el futuro misiones remotas que no podemos pilotar a tiempo real (básicamente cualquier cosa más allá de la Luna) que sean capaces de tomar decisiones en base a modelos y que se beneficien de una mejor capacidad de procesado para tomar decisiones rápidas y con más datos, ya sea para la navegación, para la elección de objetivos de estudio más interesantes o para otras cuestiones.
"cada SLED tendrá 16 sockets con 16 TB/s de ancho de banda óptico"
Pero todo el funcionamiento interno es eléctrico... esto no es lo que yo llamo una "CPU fotónica".
old.meneame.net/story/ia-crea-primer-procesador-sin-intervencion-human
Por otro lado, los chinos están más avanzados en la mayoría de campos importantes de la ciencia hoy en día:
Australian Strategic Policy Institute lleva un seguimiento de los avances en nuevas tecnologías (China está por delante en 37 de 44 campos más punteros en tecnología)
(bajar en la web para ver la tabla completa)
www.aspi.org.au/report/critical-technology-tracker
Sin embargo, con los nuevos desarrollos que publican advierten de que quieren liderar también ese campo
old.meneame.net/story/ia-crea-primer-procesador-sin-intervencion-human
Los datos en bruto ocupan mucho y tardan más en transmitirse. A mucha distancia las posibilidades de error en la comunicación aumentan, por lo que o se meten muchos códigos de corrección (lo cual aumenta más el tamaño de los datos enviados) o se reduce la cantidad de información a enviar, para que disminuyan esas posibilidades de error/interferencias, etc.
es una CPU electrónica con enlaces entre dies por fibra optica
En fin, hablando desde el desconocimiento y en base a suposiciones, claro.
Y no me extrañaría que haya pegatinas no oficiales con el primer logo (en el que la "e" está un poco más baja y representa una patilla en una PCB) y el siguiente, que es el que digo, y que a mí es el que más me gusta, aunque también valoro el primero porque representa bien la electrónica, las soldaduras con estaño y todo ese rollo.
#31: Exacto, el logo nuevo además es muy estático, no representa para nada la velocidad de proceso como el anterior.
Si queréis profundizar en el tema, os dejo una breve conferencia de Ichiro Mizuki que, como seguro sabéis, tiene mucho que decir sobre la aplicación práctica de la ciencia descrita...
www.youtube.com/watch?v=SsRbI5uDGYE
Edito no había visto a #46
De forma mas mecanica, hay DMD, con espejos microscopicos. En una posicion pueden reflejar la luz y en otra no. Seria otra forma.
Los condensadores almacenar carga estatica, igual que un globo flotado. El primer condensador era una botella.
#37 Hay LDR, que son transistores que controla la electricidad por luz en lugar de por otra corriente/voltaje. Tal vez te refieeres a controlar otro flujo de luz.
Las pantallas LCD, bloquena o desbloquean los pixeles. Es otra opcion.
Que ventajas tiene? Que inconvenientes?
Gracias de antemano. No te positivizo porque estoy por debajo de 6
es.wikipedia.org/wiki/Dispositivo_digital_de_microespejos
es.wikipedia.org/wiki/Fotorresistor
Hay otras formas de haceer computadoras como con burbujas.
www.youtube.com/watch?v=uNg7V3B-91s
Hay un video narrado por Quevedo, pero no lo encuentro.