edición general
ErMijita

ErMijita

En menéame desde marzo de 2020

9,34 Karma
2.280 Ranking
23 Enviadas
3 Publicadas
1.030 Comentarios
1 Notas

Ser tratado por médicas supone menores tasas de mortalidad y reingresos [43]

  1. #10 ¿Los médicos tienen capacidad empática? Pocos médicos conoces. Las enfermeras sí.
  1. #10 Pues conozco a unas cuantas que no les tocó nada al nacer.

Análisis de Yuval Noah Harari sobre conflicto palestino-israelí [7]

  1. Por si no funciona el enlace de #1 como a mí. Aquí se puede leer

    archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internaciona
  1. #1 muchas gracias por el aporte.

Estados Unidos toma una decisión histórica para eliminar los peligrosos "químicos eternos" del agua potable [9]

  1. #3 Mira los enlaces de #1. Igual que los microplásticos ya están en todas partes.

    #4 A partir del año que viene van a intentar reducir su concentración en el agua del grifo.

    El año pasado hubo una propuesta de la UE para prohibir el uso de más de 10.000 químicos permanentes pero creo que al final se rajaron.

Paga 14.000 euros por 10 horas de trabajo a un artista que utiliza IA y se emociona al asegurar que "nadie está a su nivel" [12]

  1. #2 la noticia dice 14.000€ cada mes

Cyberpunk 2077: ¿Qué te hace humano? El Dilema de los Humanos Máquina [9]

  1. #6 "errare humanum est", al final lo arreglaron bastante y jugarlo ha sido entretenido.

El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué [281]

  1. #136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.

    En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
  1. #2 ... y que, tarde o temprano, se nos acabará yendo de las manos.
  1. #168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro ;)

    Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
  1. #2 tanto racionalismo científico moderno y al final desembocáis en lo mismo que el oscurantismo religioso xD

    la historia es cíclica
  1. #135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
  1. #110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
    Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor :-)
  1. #135 Pruebo a hacerle preguntas que un niño de 7 años responde con lógica y ChatGPT es incapaz de hacerlo.

    No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.
  1. #120 No no los entienden. Solo procesan.

    si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
    Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.

    Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".

    No, no hay cambios en su fusiología.
  1. #120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.

    El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
  1. #2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.

    Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
  1. #19 Eso no tiene ninguna clase de sentido.
  1. #2 Y como va a hacerlo si no cambia fisiológicamente o si los cambios son específicos y pensados?
  1. #2 La consciencia no "emerge". Es una función cerebral predeterminada biológicamente, con sus zonas dedicadas en el cerebro.
  1. #18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
  1. #2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
    Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
  1. #2 #25 #35 #38 #43 #7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.
« anterior1234534

menéame