167 meneos
3596 clics
El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué
Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes
|
comentarios cerrados
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
Así que si no hay nadie al volante, no lo hay para nadie, ni nada. Personas o IA.
La pregunta de Ruzarrin no es retórica, sino concreta y honesta.
Y la pregunta es completamente relevante, también en el ámbito de la IA. Cuando el input es complejo y heterogeneo, las relaciones entre sus componentes y, por lo tanto, su razonamiento no están claros; ni en los humanos, ni en las máquinas.
Y que no está claro en las máquinas no lo digo yo, lo dice Ilya Sutskever, cuando dijo en 2015 que el… » ver todo el comentario
YO estoy al volante
Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
por fin entiendo porque perro sanxe gana las elecciones: al menos es muy guapete...
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón… » ver todo el comentario
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por… » ver todo el comentario
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
Si la conciencia humana no radica en el sistema nervioso, ¿qué alternativa postulas?
¿Y en los animales? ¿Crees que funciona diferente?
Tampoco creo que los animales funcionen de un modo muy distinto, a no ser que seamos extraterrestres, que lo dudo mucho. Lo que si cambia, es la complejidad... del mismo modo que no puedo comparar mi vista con un halcón, o mi olfato con el de un… » ver todo el comentario
La consciencia no es otra cosa. Una rata lo hace de puta madre.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como… » ver todo el comentario
Existen programas que se reprogramasn así mismos desde la época del Spectrum.
En cualquier máquina de Turing puedes reescribir la cinta.
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más… » ver todo el comentario
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle… » ver todo el comentario
Si, es un gusto debatir así contigo. :)))
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
No hay ningún motivo por la que deba "surgir" sólo porque sí.
Por cierto, el modelo ese de realidad que dices que crean 'para tomar decisiones', ¿dónde lo crean?
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y… » ver todo el comentario
la historia es cíclica
De hecho es la misma persona que envio al Prestige a alta mar cuando era muy evidente que eso era lo que no se debía hacer. No he dicho evidente "a posteriori" sino evidente en ese momento.
POR ESO que esa desgracia sucedió en España, porque en otros paises no ponen de ministro a un analfabeto.
Pues anda que no se hacen experimentos al respecto, y el resultado es siempre una risa.
Algunos os flipáis cosa mala.
Para empezar, copiar algoritmos de una fuente de 700Gb de código documentado no es programar. Programar implica entender qué te están pidiendo y razonar una solución. Y el actual paradigma de IA no es capaz de hacer ninguna de esas dos cosas.
Y para terminar, tu propio enlace explica que:
a) sólo un tercio de las soluciones dadas por la IA resolvían… » ver todo el comentario
Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
Cómo os flipáis algunos.
Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú,… » ver todo el comentario
Damos por hecho el instinto de supervivencia en cualquier cosa que haya evolucionado, pero no es el caso aquí.
Está esto lleno de magufos que creen que por el simple hecho de aumentar la potencia de las IA éstas van a desarrollar instintos y capacidades biológicas.
Es como creer que conforme los coches se fabriquen más rápidos mágicamente desarrollarán el instinto de huir.
Buen ejemplo, es la misma clase de esperanza basada en la magia.
Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
Lee el artículo, en serio, léelo está muy bien.
Es la definición exacta del actual paradigma de IA, sólo te ha faltado añadir la retroalimentación. Por mucho que algunos queráis imaginar magia y ciencia ficción.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
El ordenador, en una milesima de segundo, toma control de todas las bolsas y cuentas bancarias, todas las bases con misiles nucleares del mundo, las centrales electricas y de comunicacion y contesta:
"Ahora, yo soy dios"
Un científico investiga y soldadito solo manda a callar a los demas y defiende lo que ya está demostrado. Tu cual de esos eres? Ta claro no?
Dame tu opinión de que es la consciencia a ver si te animas. Solo te pido una opinion, no creo que seas capaz de opinar por ti mismo.
Otra cosa es que tú no lo sepas y escribas quilométricas tesis pajilleras basadas en esa ignorancia o en algún caso anecdótico, al más puro estilo magufo.
Por lo demás, ok y gracias.
Yo diría más bien habilidades cognitivas.
Que los magufos usen gratuitamente la palabra ”cuántica” para intentar dar empaque a cualquier flipada sin base no significa que eso tenga nada de científico, mi querida ilusa.
Tú misma estás metiendo la cuántica en un tema que no tiene absolutamente nada que ver, para intentar rebatir un comentario que tampoco tiene nada que ver. Muy ”científico” todo.
Mi definición de conciencia la he puesto en otro comentario por aquí, por cierto. La buscas y la lees, no voy a repetirme porque tú vayas de sobrada y tengas ganas de faltar.
Si fuéramos capaz de hacer debug del camino que ha seguido el código diríamos “ah coño, por eso!”
Hacía años que no disfrutaba leyendo comentarios juntos de tanta gente, sin odio, sin payasadas (algún chistecillo hay pero bien hecho).
Esto es el meneame que hubo paralelamente a Barrapunto, que pena no sea así siempre.
Ahora falta que debajo de la linea lleguen los trolls:
--------
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
Vamos a ver porque parece que no te has enterado de nada: el modelo no copia nada de ninguna base de datos de 700GB, esto es el tamaño del repositorio con el que se le ha entrenado para escribir código, pero los modelos de Deep Learning no guardan una representación del dataset con el que se entrenan, sino que aprenden a extraer patrones… » ver todo el comentario
Asustadísimo estoy, oches. Cuando en mi empresa empezaron a leer a papanatas ignorantes como tú, yo mismo les hice la demo de ”programación” con Copilot para que viesen el ”status quo” de la tecnología y lo absolutamente inútil que es para resolver cualquier problema de programación, especialmente si requiere más de dos líneas. Todavía nos estamos riendo.
Mientras tanto y en el mundo real (hace un año): www.xataka.com/aplicaciones/copilot-escribe-40-codigo-lenguajes-como-j
¿Pero tú ves en qué basura te basas? ¿De verdad crees que estás hablando del pulso del mundo de la programación, mi querido e ignorante ”flipao”?
No tienes ni puñetera idea. Empezando por que tres cuartas partes de Github son forks del cuarto restante, sin una sola línea de código propia. Y más de la mitad del… » ver todo el comentario
Amén de mucho código para asm z80/6502 que o se reescribía en memoria o a cascarla.
Porque el 6502 no daba para mucho.
Mira los juegos de la Atari...
Ni siquiera me creo que no utilices Copilot a escondidas.
Ninguno de tus enlaces dice nada de lo que dices tú. No eres más que un borrico embustero.
”Ni siquiera me creo que no utilices Copilot a escondidas”.
Teniendo en cuenta que tú mismo has aportado un flamante estudio que demuestra que el código generado por IA es inusable cuatro de cada cinco veces... muy a escondidas lo tendría que utilizar, porque esos apabullantes ”resultados” serían despido instantáneo hasta para un basurero.
Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.
En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se… » ver todo el comentario
De hecho, es que el cerebro no hace eso, porque lo que cambia es el hardware, por lo que sería como si los chips se reconfiguraran.
web.archive.org/web/20220530143751/https://folk.idi.ntnu.no/agnar/it27
Creatures from primordial silicon.
Tal vez no… » ver todo el comentario
Qué pedazo de cateto. Ya no es sólo que tus enlaces nunca dicen lo que dices tú, es que hasta copias el texto para dejar bien bien claro que ni siquiera entiendes lo escrito.
SAP es un software analítico y de procesos, claro que usa IA para analizar big data. Pero el software no lo programa ninguna IA, burro, eso te lo imaginas tú por
… » ver todo el comentario
Te lo aclaro porque pareces creer que has aportado algo aquí.
Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.
Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia… » ver todo el comentario
Esto lo digo porque lo que se ha intentado con "visión artificial" era lo mismo, intentar que un programa "vea" como pensamos que "ve" una persona. Los enfoques básicos pretendían detectar líneas, figuras, o detectar un rostro como la suma de sus partes.
Esto es lo que ocurre con las redes neuronales de gran tamaño, que hacen cosas inesperadas por parte de… » ver todo el comentario
Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,… » ver todo el comentario
La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.… » ver todo el comentario
Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al… » ver todo el comentario
Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.