#136#135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
#2#25#35#38#43#7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.