167 meneos
3600 clics
![El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué](cache/3b/d0/media_thumb-link-3919961.webp?1710804966)
El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué
Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes
|
comentarios cerrados
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
Así que si no hay nadie al volante, no lo hay para nadie, ni nada. Personas o IA.
La pregunta de Ruzarrin no es retórica, sino concreta y honesta.
Y la pregunta es completamente relevante, también en el ámbito de la IA. Cuando el input es complejo y heterogeneo, las relaciones entre sus componentes y, por lo tanto, su razonamiento no están claros; ni en los humanos, ni en las máquinas.
Y que no está claro en las máquinas no lo digo yo, lo dice Ilya Sutskever, cuando dijo en 2015 que el… » ver todo el comentario
YO estoy al volante
Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
por fin entiendo porque perro sanxe gana las elecciones: al menos es muy guapete...
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón… » ver todo el comentario
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por… » ver todo el comentario
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
Tampoco creo que los animales funcionen de un modo muy distinto, a no ser que seamos extraterrestres, que lo dudo mucho. Lo que si cambia, es la complejidad... del mismo modo que no puedo comparar mi vista con un halcón, o mi olfato con el de un… » ver todo el comentario
La consciencia no es otra cosa. Una rata lo hace de puta madre.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como… » ver todo el comentario
Existen programas que se reprogramasn así mismos desde la época del Spectrum.
En cualquier máquina de Turing puedes reescribir la cinta.
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más… » ver todo el comentario
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle… » ver todo el comentario
Si, es un gusto debatir así contigo. :)))
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
No hay ningún motivo por la que deba "surgir" sólo porque sí.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y… » ver todo el comentario
la historia es cíclica
De hecho es la misma persona que envio al Prestige a alta mar cuando era muy evidente que eso era lo que no se debía hacer. No he dicho evidente "a posteriori" sino evidente en ese momento.
POR ESO que esa desgracia sucedió en España, porque en otros paises no ponen de ministro a un analfabeto.
Damos por hecho el instinto de supervivencia en cualquier cosa que haya evolucionado, pero no es el caso aquí.
Buen ejemplo, es la misma clase de esperanza basada en la magia.
Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
Lee el artículo, en serio, léelo está muy bien.
El ordenador, en una milesima de segundo, toma control de todas las bolsas y cuentas bancarias, todas las bases con misiles nucleares del mundo, las centrales electricas y de comunicacion y contesta:
"Ahora, yo soy dios"
Un científico investiga y soldadito solo manda a callar a los demas y defiende lo que ya está demostrado. Tu cual de esos eres? Ta claro no?
Dame tu opinión de que es la consciencia a ver si te animas. Solo te pido una opinion, no creo que seas capaz de opinar por ti mismo.
Por lo demás, ok y gracias.
Yo diría más bien habilidades cognitivas.
Si fuéramos capaz de hacer debug del camino que ha seguido el código diríamos “ah coño, por eso!”
Hacía años que no disfrutaba leyendo comentarios juntos de tanta gente, sin odio, sin payasadas (algún chistecillo hay pero bien hecho).
Esto es el meneame que hubo paralelamente a Barrapunto, que pena no sea así siempre.
Ahora falta que debajo de la linea lleguen los trolls:
--------
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
Por cierto, el modelo ese de realidad que dices que crean 'para tomar decisiones', ¿dónde lo crean?
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
Vamos a ver porque parece que no te has enterado de nada: el modelo no copia nada de ninguna base de datos de 700GB, esto es el tamaño del repositorio con el que se le ha entrenado para escribir código, pero los modelos de Deep Learning no guardan una representación del dataset con el que se entrenan, sino que aprenden a extraer patrones… » ver todo el comentario
Amén de mucho código para asm z80/6502 que o se reescribía en memoria o a cascarla.
Porque el 6502 no daba para mucho.
Mira los juegos de la Atari...
Mientras tanto y en el mundo real (hace un año): www.xataka.com/aplicaciones/copilot-escribe-40-codigo-lenguajes-como-j
Ni siquiera me creo que no utilices Copilot a escondidas.
De hecho, es que el cerebro no hace eso, porque lo que cambia es el hardware, por lo que sería como si los chips se reconfiguraran.
web.archive.org/web/20220530143751/https://folk.idi.ntnu.no/agnar/it27
Creatures from primordial silicon.
Tal vez no… » ver todo el comentario
Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.
Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia… » ver todo el comentario
Esto lo digo porque lo que se ha intentado con "visión artificial" era lo mismo, intentar que un programa "vea" como pensamos que "ve" una persona. Los enfoques básicos pretendían detectar líneas, figuras, o detectar un rostro como la suma de sus partes.
Esto es lo que ocurre con las redes neuronales de gran tamaño, que hacen cosas inesperadas por parte de… » ver todo el comentario
Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,… » ver todo el comentario
La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.… » ver todo el comentario
Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al… » ver todo el comentario
Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.