edición general
184 meneos
6339 clics
Nunca hemos llegado a tener procesadores de terahercios, y estas son las razones

Nunca hemos llegado a tener procesadores de terahercios, y estas son las razones

La Ley de Moore se nos queda corta ante una CPU de tal magnitud, y de hecho apenas sí hemos llegado a contar con procesadores de 5 GHz y llevamos años anclados en esos límites. Así pues, ¿es la CPU a un terahercio posible? Lo cierto es que sí. Durante cierto tiempo la batalla por los "megahercios" dominó la industria del PC. En aquellos tiempos AMD incluso logró ganarle a Intel en la particular carrera por llegar a ofrecer una CPU a 1 GHz, y las mejoras en este ámbito eran constantes.

| etiquetas: terahercios , procesadores
Comentarios destacados:              
#4 #2 bueno... no es del todo incorrecto, solo es una simplificación inmensa.

Es decir, el problema por el que no podemos hacer procesadores mas rápidos es que no tenemos conductores mejores. Como no tenemos conductores mejores, cuando los electrones se mueven dentro del conductor, tienen cierta probabilidad de chocar y generar calor como consecuencia, perdiendo energia en el proceso.

El problema ya no es tanto la energía que pierdes, sino el hecho de que ahora es calor, y el calor hay que moverlo por que sino funde los materiales de los que está fabricado el conductor, que tienen cierto punto de fusión.

Cuanto mas calor, mas díficil moverlo a tiempo de que se funda nada.
  1. ¡Han puesto la palabra grafeno en el artículo! ¡Procesadores de grafeno!
  2. bufff algunas veces, las simplificaciones rozan la mentira, de este artículo me ha dolido especialmente esta:

    Cuantos más transistores, más pequeños son y más electricidad pierden, lo que hace difícil aumentar las frecuencias de reloj.

    ¡Perder electricidad!
  3. #1 todo es mejor con bluetooth grafeno
  4. #2 bueno... no es del todo incorrecto, solo es una simplificación inmensa.

    Es decir, el problema por el que no podemos hacer procesadores mas rápidos es que no tenemos conductores mejores. Como no tenemos conductores mejores, cuando los electrones se mueven dentro del conductor, tienen cierta probabilidad de chocar y generar calor como consecuencia, perdiendo energia en el proceso.

    El problema ya no es tanto la energía que pierdes, sino el hecho de que ahora es calor, y el calor hay que moverlo por que sino funde los materiales de los que está fabricado el conductor, que tienen cierto punto de fusión.

    Cuanto mas calor, mas díficil moverlo a tiempo de que se funda nada.
  5. Si que tenemos procesadores de thz, 0.003 thz :troll:
  6. #4 Eso tenía entendido, buena explicaciòn!
  7. #2 Se refiere al las fugas en dieléctrico que generan calor aparte de la propia conmutación del transistores añade la impedancia/resistencia de las pistas y tendrás fiestas montada ,luego esta las capacidades y tamaño de las puertas de los transistores actúan de barrera en la propia conmutación como mencionan en el articulo.
    De todas se tiran a la piscina con grafeno cuando hay alternativas mejores de implementar y dejar este para pistas conductoras y que ya se están usado como germanio, galio y su derivados.
  8. Y si los tuviéramos, estarían ejecutando NOPs esperando a la memoria.
  9. #4 el problema no son los conductores, sino los semiconductores. Las corrientes y la tensión limitan la velocidad de conmutación, por debajo de cierto límite, los estados se confunden con ruido y por encima generan mucho calor.
    También está el problema del tamaño del canal, que es lo que limita la integración.
    Además, los electrones no se "mueven" por el conductor.
  10. #2 Se refiere a las pérdidas de corriente hacia el sustrato. Por eso se desarrollaron tecnologías de fabricación como SOI: es.wikipedia.org/wiki/Silicio_sobre_aislante
  11. Con overclock y un poco de calorcito es fácil saltarse los terahercios y llegar al petahercio
  12. #4 Pufff sigue estando mal simplificado y creo que se estaría dando como causa del problema algo que es efecto.
    Lo que queremos es transiciones de conducción a no conducción en el semiconductor. No buscamos un material con conducción infinita buscamos uno que pueda hacer esta transición. Esta transición se genera por la generación del campo que provoca la banda de bloqueo y esto requiere tiempo. Mover los huecos y electrones de un estado al otro requiere tiempo y eso es lo que marca la frecuencia. Cuanto menos calor menos colisiones si, pero aunque podamos extraer el calor de ahí, lo cual tiene limite, el calor es un efecto de estas transiciones no la causa.
    Con menos calor mejoraríamos los tiempos pero el limite sigue estando, generar ese campo por el movimiento de electrones y huecos necesita tiempo.

    Ademas habría que tener en cuenta que a esas frecuencias tendrías autenticas antenas, así que habría que tratar las pistas desde el punto de vista de ondas lo cual ya es un follón extra.
  13. Bueno, es que no es solo velocidad del procesador. De hecho para mi la última revolución fueron los discos ssd, que arrancar el ordenador o abrir un programa nuevo ahora es mucho más rápido.
  14. #3 peniflores
  15. #9

    Por pasos... la parte mas fácil de contestar:

    Además, los electrones no se "mueven" por el conductor.

    Si, si se mueven por el conductor. La electricidad consiste en electrones que se mueven de atomo en atomo.
  16. Recuerdo, y lo recuerdo muy bien porque lo viví, fue Intel la que estaba completamente obsesionada por aumentar los Mhz de los procesadores, y AMD, incapaz de competir con el i+d que se requería para aumentar simplemente unos Mhz que eran más marketing que otra cosa, empezó a explorar la via del paralelismo, diversos núcleos, etc., funcionando todo a menos mhz.

    No es nada que no hiciera una década antes Silicon Graphics, con sus espectaculares prestaciones al tener placas diseñadas para trabajar en paralelo con su crossbar switch, algo que creo, no hemos podido igualar hoy en día, ya que no tenemos buses de datos dedicados entre componentes, salvo a la tarjeta de video si me apuras, aunque si se ha avanzado en hacer el bus de datos cada vez más rápido.

    Pero tampoco importa, antiguamente, el software se hacía para exprimir los ordenadores y llevaban el hardware al límite. Hoy en día, hasta un sistema operativo es mediocre si se compara con la exigencia de código que había antes... y eso era lo normal, si querías programar, se tenía que hacer bien. Luego vino el Java de los cojones, a cargárselo todo...

    A veces me pregunto, que serían capaces de hacer hoy en día los programadores de antaño con el hardware de hoy... y es para echarse a llorar. Todos tenemos un Ferrari espacial en el garaje, que usamos para ir a comprar el pan, porque los que nos hacen hoy en día las carreteras no van más allá...
  17. #12

    Mover los huecos y electrones de un estado al otro requiere tiempo y eso es lo que marca la frecuencia

    No, solo es el calor lo que marca la frecuencia. Hay un reloj de cuarzo que marca el ritmo al que se usa el circuito para que no se queme. Ese reloj vibra al ritmo que ese circuito puede soportar con la disipación realista que se le puede hacer.

    De momento no hemos llegado al punto en el que tenemos una limitación física por el tiempo de una reacción. Tenemos una limitación física por la cantidad de energía que podemos disipar, nada mas.

    Te recomiendo leer:

    www.quora.com/Electrical-Engineering-Is-the-switching-speed-of-a-trans

    Currently, the limiting factor on transistor switching speed is thermal energy that must be dissipated. The thermal energy is primarily due to current supplied to a capacitative load, which increases with switching speed. This is mitigated by using smaller conductors and a lower operating voltage.

    El que está confundiendo causa con efecto creo que eres tú.

    Esa reacción requiere un tiempo, por que de hacerla con mas energía, no podríamos disipar su calor. Solución? hacemos el circuíto mas pequeño, el transistor transiciona con menos energía. El limite de esto? el tercer postulado de la mecanica cuantica.

    Es decir, tu ordenador no va mas rápido por que no podemos disipar el calor tan rápido sin que rompa el circuito. Y no podemos usar menos electrones que una cantidad determinada, donde empezar a medir las cosas es imposible.

    Obviamente, existen muchos otros problemas de ingeniería que aparecerían a frequencias mas altas, en eso si estamos 100% de acuerdo. Pero hoy, el factor que limita la velocidad de tu cpu es la capacidad de disipar el calor que se ha generado en un circuito, como consecuencia de las ostias que se han pegado unos electrones. Y eso, es lo que he explicado en mi simplificación y considero que es 100% válida, dentro de la precisión de una simplificación.
  18. #9 me acabo de dar cuenta que quizás lo que has pensado es que yo he sugerido que un electrón entraba por una punta del conductor y salía por la otra. Eso no es lo que sucede, de hecho los electrones se mueven muy lentos. Nos parece que van rápido que están muy cerca unos de otros y reaccionan en cadena, empujando cada uno al de su lado (de nuevo, una simplificación).
  19. #4 y los retrasos, a esas velocidades de reloj la velocidad de propagación de la luz es demasiado lenta, no se puede garantizar la sincronización de las señales
  20. #16 "Luego vino el Java de los cojones, a cargárselo todo..."

    "Todos tenemos un Ferrari espacial en el garaje, que usamos para ir a comprar el pan"

    xD xD xD
  21. #5 He entrado a poner lo mismo, que la noticia es mentira, el mío va a 0.00401 Thz xD
  22. #16 Java tampoco es tan malo... supongo... Hay cosas peores como Python, por ejemplo :-D
  23. #16. El verdadero problema de Java se llama Oracle.
  24. #15 en realidad no se desplazan más allá de unos pocos átomos, hacen una cadena de huecos simplemente.
    Edit: por supuesto se están moviendo todo el tiempo. Me refiero a que una corriente no implica un movimiento de todos los electrones de A a B.

    Edit2: joder lo dices en #18, pido disculpas :-(
  25. #22 Especialmente ahora que les ha dado por la gilipollez de decir que la terminología "maestro - esclavo" es ofensiva.
  26. #18 Pues sí, lo que se mueve a 2/3 c es el potencial eléctrico, los electrones lo hacen a 1mm/s sólamente, así que en el caso de la ac no hay desplazamiento neto.
  27. #17 Justamente, la carga capacitiva es debida al campo interno creado en ambas lados de la barrera, cuanto menos campo (mas pequeño) reordenación mas rápida. Justo eso lo continúan en la siguiente explicación del enlace que has puesto.
    El calor generado por la reordenación es un efecto secundario de los choques al reorganizarse el campo, el tope es la velocidad con que se realiza esa ordenacion, a menos electrones y huecos necesarios para reordenar el campo, menos tiempo se necesita para reorganizarse y menos colisiones por lo que menos temperatura generada.

    Si bajamos la temperatura habrá menos colisiones pero en cualquier caso tenemos que mover esas cargas y eso no es instantáneo, menos en un semiconductor.

    Cuando digo "Mover los huecos y electrones de un estado al otro requiere tiempo y eso es lo que marca la frecuencia" me refiero a la frecuencia máxima a la que el semiconductor alcanzara el equilibrio y por lo tanto la puerta lógica que lo use un valor valido, no del funcionamiento basico de un componente digital.

    Creo que por eso no estamos de acuerdo, tu estas mirando la limitación desde el punto de vista de una arquitectura electrónica, que tienes que mantener una temperatura para que se mantenga operativo y yo desde el punto de vista físico de cual es el limite cuantico de funcionamiento del semiconductor. Yo creo que es mas "causa" la limitacion cuantica de funcionamiento, no de de diseño, pero es como lo veo yo.

    Esa reacción requiere un tiempo, por que de hacerla con mas energía, no podríamos disipar su calor. Solución? hacemos el circuíto mas pequeño, el transistor transiciona con menos energía. El limite de esto? el tercer postulado de la mecanica cuantica.

    Por cierto, te refieres al tercer postulado de termodinámica no al de medición de cuántica, ¿no? Si te refieres al de cuántica no veo en que se relaciona, si es al de termodinámica el problema seria que si afirmas eso no habría cambio de estado, necesitas energía para cambiar el campo y bloquear o dejar pasar la corriente,

    Justo por eso digo que la raíz es la transición no el problema térmico, el limite lo pone la necesidad de esa transición y el tiempo que lleva. Por mucho que disipes esa reordenacion de electrones y huecos llevara tiempo porque no se teletransportan, incluso en una conducción imaginaria perfecta sin disipacion porque no hay choques.
  28. XATAKABASURA y sus articulos de mierda clickbait
  29. #2 #4 hay un simil, que aunque también es impreciso,creo que se entiende mejor. Si consideramos un transistor como un depósito de electrones, y la velocidad del procesador depende de la velocidad a la que se llena el transistor de electrones. Hay dos formas de llenarlos más rápidos, subir el voltaje o hacerlos más pequeños.
  30. #20 de nodejs mejor no hablamos.
  31. #22 se te olvida el php.
  32. #1 se tardo 20 años para conseguir resutados con el silicio y otros 20 para popularizarse. El grafeno seguro que tarda menos, pero va a tardar.
  33. #15 no es lo mismo enlaces metálicos que de valencia.
  34. #4 Por no decir que el efecto es exponencial, porque cuanto más calor en el conductor más probabilidades de chocar y generar más calor.
  35. #27 no hay desplazamiento neto por que van adelante y hacía atrás xD

    Pero obviamente que ha habido desplazamiento, sino, no habría electricidad.
  36. #28 Obviamente que vamos a estar de acuerdo en que esa reacción lleva tiempo, pero lo que te pretendo explicar es que ese tiempo no es el factor que nos está limitando hoy. Si, llegará un día que eso será el limite. Ese día no ha llegado, por que antes de llegar a ese problema tenemos muchos otros problemas.

    El primer problema que ya nos ha frenado ha sido que mucho antes de alcanzar los limites de velocidad de transición del transistor, hemos alcanzado los limites de nuestra capacidad de disipar el calor que se ha generado por llevarle las cargas al transistor para crear el campo, además del calor que se ha generado cuando las cargas han pasado por el semiconductor en su estado de conductor, que aun y así, es una mierda de conductor y genera mucho calor por ejecto joule.

    Entonces, si, el limite teorico de una computadora electrica de lógica booleana es el ritmo de transición del transistor. Pero ese limite en el año 2018 aún está lejos. De momento nuestro problemas mas grande es el calor por ejecto joule.

    Y si, me refería al tercer postulado de la mecánica cuantica, que es lo que nos va a complicar la vida de intentar observar cosas demasiado pequeñas.
  37. #30 wow, ese es un simil muy bueno! Pero no es incompatible con mi explicación, de hecho, es complementaria. Por que alguien me dirá: pues subimos el voltaje. Y no podemos subir el voltaje por el maldito efecto joule. Y no podemos hacerlos mas pequeños por que fabricar cosas tan pequeñas es un problema, además de que teoricamente hay un limite de hacerlas pequeñas, por que el mundo se comporta de formas muy raras cuando las cosas son demasiado pequeñas.
  38. #35 cierto, lo daba por hecho en las formulas pero no había racionalizado la explicación simple. Claro, al estar caliente el conductor está vibrando, lo cual todavía incrementa mas la probabilidad de choque.
  39. #37
    Obviamente que vamos a estar de acuerdo en que esa reacción lleva tiempo, pero lo que te pretendo explicar es que ese tiempo no es el factor que nos está limitando hoy. Si, llegará un día que eso será el limite. Ese día no ha llegado, por que antes de llegar a ese problema tenemos muchos otros problemas..

    Ya tenemos transistores de 7 átomos, esos no están limitados por colisiones evidentemente, están limitados por la transición del campo y por su estabilidad al hacerlos en gran escala.

    Intel tiene una propuesta de procesadores en los que la frecuencia puede subir increíblemente, porque el resultado no es 100% fiable. Esto ocurre porque la unión pn puede verse afectada por interferencias. Estos procesadores tendrían menor tamaño por lo que serian mucho mas susceptibles a interferencias. Una interferencia podría hacer saltar un electrón que a esos tamaños podría cambiar el campo de la unión pn y el resultado de la puerta.

    Y si, me refería al tercer postulado de la mecánica cuántica, que es lo que nos va a complicar la vida de intentar observar cosas demasiado pequeñas.

    El problema no seria que sea demasiado pequeña o su medición, seria su estabilidad. El campo esta totalmente definido, pero un cuanto suelto por ahí, podría hacer saltar un electrón que podría provocar un cambio del campo y hacer que una pn que no conduce conduzca, y cambiamos el resultado de la puerta.

    El efecto cuántico que nos limita es el efecto túnel.

    Entiendo tu punto de vista, pero creo que ahora somos esclavos de los limites físicos de los átomos y los electrones de los semiconductores, no los térmicos por sus colisiones.
  40. #39 Has definido lo que muchas veces es un problema de la Universidad.
  41. El futuro de la computación está en el procesamiento en paralelo.
    Tenemos que aprender mucho de la naturaleza. La información circula por un cerebro a una velocidad bajísima en comparación con nuestra informática actual. Si embargo el enorme paralelismo (y muchas otras cosas que seguro que desconocemos) nos permiten realizar tareas que ningún ordenador puede llevar a cabo actualmente, y además con un consumo de sólo unos 20 vatios.

    La actual inteligencia artificial ya utiliza el procesamiento en paralelo, con miles de procesadores entrenando redes neuronales, pero ahí no está la solución. La verdadera inteligencia artificial surgirá de conocer los principios de funcionamiento de un cerebro. Poner nuestras esperanzas en el simple aumento de la potencia computacional es un callejón sin salida
    m.xataka.com/componentes/nunca-hemos-llegado-a-tener-procesadores-tera
  42. #4 A mi me sorprende que no se hable de la electroerosion, algo muy importante cuando quieres hacer transistores mas pequeños y rapidos
  43. #4 Desde la ignorancia te pregunto, acabas de decir que al moverse los electrones tienen ciertas posibilidades de chocar y generar calor, ¿eso tiene algo que ver con la transacción en si? O sea, ¿si la transacción sale bien a la primera no chocan y si hay que repetirla si lo hace?
    La pregunta más bien es, ¿Si tengo un trebol de 7 hojas y una suerte del copón, podría darse el caso de que durante 3 segundos no chocara ningún electrón dentro del procesador y no se generara calor, o es físicamente imposible?
    Aunque no lo parezca es una pregunta seria.
  44. #44

    Esa es una pregunta increiblemente profunda. Tan profunda que me pregunto si la has hecho al tuntun, o sabes muy bien lo que estás preguntando, por que has dado en el clavo de la pregunta del siglo :-)

    Es decir, el calor que se genera en un conductor cuando pasa una corriente electrica por el es algo que sabemos que sucede por que lo hemos observado. Pero contestar al por que pasa es mucho mas complicado. La explicación de los electrones chocando se llama modelo de Drude, y no es mas que la explicación mas razonable dado el modelo de la física clásica.

    En realidad, hay otras explicaciones de por que esto pasa, en la mecánica cuantica. De hecho, si aceptas teoría de cuerdas, esto está pasando por una razón muy distinta. Y si aceptas teoría de automatas de Hooft, esto pasa al final por otras razones muy muy distintas.

    Pero, alguien podría argumentar que si bien distintos modelos para explicar la realidad tienen reglas esenciales distintas, el fenomeno en si tiene una explicación concreta, y que lo que cambia si cambiamos de modelo no es la explicación del fenomeno en si, sino explicaciones mas profundas.

    Pero, el problema es que la pregunta que has hecho no es baladí, has preguntado si el comportamiento del sistema en si es probabilístico o es determinista. Es decir, independientemente del ejecto joule en si, si el funacionamiento final y ultimo va a ser probabilistico o determinista.

    Y aquí nadie se pone de acuerdo.

    Existen distintas interpretaciones para expresar este tipo de fenomenos a bajo nivel, y la mas extendida es la interpretación de copenague:

    en.wikipedia.org/wiki/Copenhagen_interpretation

    El axioma fundamental de la interpretación de Copenhague es el "postulado de la cuántica" que dice que los acontecimientos subatómicos son sólo perceptibles como transiciones indeterministas físicamente discontinuas entre estados estacionarios discretos. Varias consecuencias se deducen de este postulado de la discontinuidad física impredecible.

    Es decir, esta interpretación dice que el universo no es determinista y que es una máquina de probabilidades.

    Eso es algo que no fué aceptado por muchos, como Einstein, que decía que dios no juega a los dados. Muchas cientificos pensaban que si tu ves un fenomeno como probabilistico, es por que te falta una variable, la famosa "hidden variable".

    Esta gente que veía un problema en entender el universo como una máquina probabilística, y veían problemas en la…   » ver todo el comentario
  45. #19 En alta frecuencia se imponen límites en el tamaño de los circuitos, es decir, la distancia al generador de reloj. Eso ya se tiene en cuenta al diseñar.
  46. #44

    "¿Si tengo un trebol de 7 hojas y una suerte del copón, podría darse el caso de que durante 3 segundos no chocara ningún electrón dentro del procesador y no se generara calor, o es físicamente imposible?"

    Vamos a hacer un pequeño cálculo.

    Los procesadores actuales van típicamente a 1 GHz o más... Eso significa 1000 millones de ciclos por segundo.
    Por tanto, en 3 segundos serían 3000 millones de ciclos.

    Cada ciclo sería un mínimo tiempo, algo así como el tiempo que dura un "semáforo" en el tráfico de electrones, como si fuesen coches circulando.

    Pero el procesador tiene muchos transistores, muchos "semáforos" en el símil del tránstito de coches. Concretamente, del orden de miles de millones de transistores por los que van circulando los electrones.
    Esto significa que en 3 segundos hay 3000 000 000 de ciclos, y en cada ciclo más de 1000 000 000 de "viajes" de electrones. Esto serían 3*10^18 "viajes" en 3 segundos. Pero no hay un electron en cada transistor... con el tamaño de transistores actual, que creo que todavía tienen más de 100 átomos cada uno, serían bastantes más de 3*10^20 electrones que han circulado en 3 segundos.

    Lo que has preguntado, para que te hagas una idea, es similar a decir que si es posible que 100 mil millones de coches circulen encontrándose unos 100 en cada semáforo y que después de pasar 3000 millones de semáforos no haya ningún despieste, ningún choque, ningún pequeño roce. Bueno, en teoría quizá sí, pero en la práctica creo que te puedes hacer una idea de que es muy improbable.
    Si cada semáforo dura un minuto, esos 3000 millones de 'semáforos' serían unos 5700 años. Que después de haber circulado 5700 años unos 100 000 millones de coches no haya ni un solo accidente...
    La probabilidad de que ocurriese eso es ridículamente pequeña. Y esto en la "práctica", en lenguaje llano se dice "eso no va a ocurrir"... Como si dijeses que si puede tocarte la lotería primitiva 1000 veces seguidas, o algo así... eso no va a ocurrirte, aunque lo intentases durante 13000 millones de años, que se estima como la 'edad del universo'.
    Aunque para un matemático o purista podría decir que, bueno, totalmente totalmente imposible no sería en teoría.
  47. #47 Muchas gracias por la respuesta. Me queda más claro que el problema es de magnitudes enormes en vez de "suerte".
  48. #45 Todo esto tengo que leermelo con calma. Que no me esperaba ese nivel de respuesta, ahora me siento un ignorante en mayúsculas.
    Y la respuesta es no, era una pregunta desde la ignorancia.

    Por cierto, gracias por la respuesta.
  49. #33 Por desgracia, para la generación de twitter todo lo que tarde más de 3 meses en anunciar fecha de salida es humo.
  50. #46 pero en analógico diseñas funciones de transferencia conocidas y se pueden dimensionar esos desfases, no?
  51. #45 Vale, ya lo he leído todo, muchísimas gracias por instruirme de esa manera, más de la mitad de las cosas no las he entendido, supongo que por mi bajo nivel de matemáticas, pero me queda claro que la respuesta a mi pregunta es puramente teórica ya que físicamente si se produce calor al encender un microprocesador.
    O sea, que conocemos las consecuencias pero no el proceso a nivel atómico.
  52. #51 En analógico no hay señal de reloj. La señal de reloj sirve para sincronizar los circuitos digitales y que la salida no produzca glitches.
  53. #24 Perdona que discrepe, pero Java es en su mismo origen un paso atrás en la programación:
    - Que el programador no tenga que gestionar y liberar la memoria = malos programadores
    - Que el código se ejecute en cualquier máquina siendo el mismo = mala eficiencia

    Java no fue un paso adelante, no aportó nada que no existiera antes, simplemente estropeó dos asuntos que eran serios. De hecho, no empezó a ser útil hasta que el hardware no fue capaz de mover con soltura su máquina virtual, que era un monstruo engorroso devorador de recursos (lo sigue siendo, pero hoy en día es que hay tantos recursos... que no se nota).
  54. #54. Perdona que discrepe yo también. Java está pensado para resolver problemas desde un punto abstracto y del mundo real. Otros lenguajes como el Ansi C están pensados para hablar lo más directamente al hardware que un compilador universal como el Ansi C permite con la complejidad añadida en cuanto programación que ello conlleva y con las ventajas evidentes en cuanto a rendimiento con un código correcto y optimizado. El C++ pretende ser un paso entre ambos mundos. Se trata de elegir lo que más convenga para cada problema.

    Como bien apuntas con el hardware actual (incluso con máquinas PCs decentes de hace 10 años) y con una programación correcta y optimizada en Java se pueden conseguir auténticas virgerias como emuladores de mítico Commodore 64 y otras máquinas en tiempo real.
    (CC #24)
    www.z64k.com/  media
  55. (Edit #55 #24) Para #54 Quise decir : 'auténticas virguerías'.
  56. #11 Sí, te aseguro que si subes mucho llegan a petar fijo.
  57. #16 Pues tendríamos programas eficientísimos, que sólo funcionarían en el i5 en el que los has diseñado. ¿Quieres usarlo en un i3? Uy, no se puede, porque le faltan tres instrucciones especiales que sólo tiene el i5. ¿Y aprovechas las características de un i7? Uy, no, porque entonces no funcionaría en un i5. Y espera, que dentro de tres meses sale la siguiente generación de i3/i5/i7, y va a haber que reescribir todo el código. ¿AMD? Uf, no, ahí no funcionan, tienen instrucciones diferentes.

    Espera, ¿y si programamos las cosas un pelín a más alto nivel, y que sea el compilador el que se encargue de traducir a las instrucciones de cada procesador en concreto? ¿Y si ya puestos lo hacemos en abstracto, y así el mismo código se puede ejecutar en cualquier máquina, independientemente de la arquitectura? No, hombre, que entonces acabamos con el java de los cojones, cargándoselo todo :-D
  58. #54 Que el programador tenga que gestionar y liberar la memoria el mismo = más cuelgues por todas partes ante el más mínimo descuido
    Que el código se ejecute en cualquier máquina siendo el mismo = mucho más tiempo para programar funcionalidades reales, en vez de pasarse el día reescribiendo el código para diferentes arquitecturas

    Todo es relativo. Y, de hecho, en determinadas situaciones el código Java puede ser más rápido que el compilado, básicamente porque la máquina virtual compila al momento y puede aprovechar todas las características de la CPU en la que se ejecute, mientras que el código muchas veces se compila para una CPU "conservadora" que funcione en cualquier CPU, y por tanto no aprovecha las extensiones que pueda tener un procesador concreto.
comentarios cerrados

menéame