167 meneos
3596 clics
El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué
Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes
|
comentarios cerrados
Damos por hecho el instinto de supervivencia en cualquier cosa que haya evolucionado, pero no es el caso aquí.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y… » ver todo el comentario
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por… » ver todo el comentario
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
Veo en #165 que basas la conciencia no en la abstracción mental de la realidad percibida, sino en la capacidad mental de hacer una representación abstracta de la realidad. Y no veo por qué. Y obviamente no es lo mismo.
De hecho tú mismo no paras de hablar de símbolos, de ideas no presentes en lo percibido, e incluso de metafunción semántica (que ni siquiera es un concepto cognitivo sino… » ver todo el comentario
Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
Una máquina ha sido construida. No ha evolucionado para sobrevivir, que es la única forma posible de adquirir el instinto de supervivencia. A lo mejor sería posible programárselo a propósito, pero eso es otro problema distinto del todo. Lo que no tiene sentido es esperar que "surja" sólo porque sí.
Me veo con frecuencia respondiendo a afirmaciones mágicas sobre máquinas que hacen algún truquito, que no es más que eso. Por favor, bajad de la nube un ratito y mirad la realidad.
Este es un apartado de opiniones y opino lo que le da la gana!!!
Pura magia irrealista. Sin base, sin sentido y sin ningún sostén racional. Es un deseo iluso, nada más.
No haces más que demostrar que eres una magufa de manual inventándose paridas. Y eso tiene poco de respetable, es ridículo y punto. Por más que te empeñes (vete a saber por qué) en que tu ignorancia te convierte en un ariete precursor del conocimiento.
La realidad científica raramente es opinable. Por mucho que alguna gente alucine pretendiendo que cualquier idea mágica es posible si le pones al lado palabras como ”caos” o ”cuántica”.
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
Por mucho que intentes orientarlo hacia la diferencia, resulta trivial obtener de una IA un calco exacto de una obra conocida.
Me parece incluso obvio que la intención al aportar una enorme cantidad de datos no es generar diferencia, sino similitud.
neurophysics.ucsd.edu/courses/physics_171/Buzsaki G. Rhythms of the br
Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
Esto es lo que responde ChatGPT a la pregunta: "Sé lo que sé porque fui entrenado en un vasto conjunto de datos que incluye libros, sitios web, artículos científicos, y otros recursos de información hasta abril de 2023. Mi entrenamiento se realizó utilizando técnicas de aprendizaje profundo, específicamente mediante modelos de lenguaje grande, como GPT-4, que me permiten generar respuestas basadas en los patrones, conocimientos y estructuras lingüísticas que aprendí durante ese proceso."
Dime las diferencias estructurales entre esa respuesta y la que me darías tú. Te pregunto: ¿Por qué sabes lo que sabes?
La pregunta es demasiado ámplia, pero dado el tema nos podemos centrar un poco.
Yo leo cosas y las comprendo. Les encuentro una justificación dentro de la lógica. Veo que coinciden con otras cosas bien establecidas
No me creo nada sólo por leerlo. He leido miles de tonterías. Rechazo cualquier explicación del tipo "porque sí" o por magia.
Cualquier cosa que yo sepa podría resultar ser falsa, pero para eso habrá que contradecir los… » ver todo el comentario
YO estoy al volante
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
La consciencia no es otra cosa. Una rata lo hace de puta madre.
Yo diría más bien habilidades cognitivas.
El conocimiento, si no lo restringimos al razonamiento, incluye toda la experiencia de un ser vivo. Ahí no me atrevería a postular que radica únicamente en el cerebro, ya que un acto motor reflejo que no sea puramente instintivo (p.ej. apartar la mano del fuego) también puede considerarse conocimiento adquirido.
No creo que la experiencia de los "qualia" se pueda fundamentar en la complejidad de un algoritmo. Dicho de otro modo, no hay nada en las distintas longitudes de onda de la luz visible y su procesamiento, por complejo que este sea, que nos permita deducir ni lejanamente la existencia de la experiencia del color rojo.
Pues claro. Como todo lo demás. Eso es una perogrullada.
No hay nada que tú seas capaz de ver, imaginar o recordar que no tenga un soporte biológico.
nos permita deducir ni lejanamente la existencia de la experiencia del color rojo
Se han hecho experimentos bajo al pregunta de si todo el mundo, cuando ve el color rojo, ve lo mismo. ¿No puede ser que otro lo vea en realidad amarillo pero lo llame rojo… » ver todo el comentario
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
No tiene ni la más mínima dificultad. Lo que pasa es que hay mucho alucinado flipando metafísica.
Lo del Penrose no tiene ni el más mínimo sentido. Ni el propio tipo es capaz de decir dos frases articuladas seguidas sobre el tema. Mirale las entrevistas en youtube. Es penosísimo.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.
Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia… » ver todo el comentario
En cuanto a la conciencia, estoy de acuerdo contigo. De hecho, si teorías como la de la reducción orquestada de la coherencia cuántica en microtúbulos cerebrales, de Hameroff y Penrose son correctas (precisamente esta se ha visto hace poco que tiene pocas probabilidades), va a ser muy difícil que la IA desarrolle una conciencia como tal. al menos hasta que no se desarrolle más la computación cuántica y lo mismo, ni por esas.
Y no, no es una perogrullada. Un soporte de silicio en el que solo se almacenan datos no es un soporte biológico.
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como… » ver todo el comentario
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
Y no creo que implique la flipada humanocéntrica que te montas. Un gato mismo tiene autoconciencia también. Los humanos la hemos sofisticado más, pero la autoconciencia en sí es algo más sencillito.
”la necesidad de poder crear items o simbolos que no existen en el "mundo" percibido”
”soy este ser, estos sentimientos, en este momento estoy asi, en otro momento estoy asau”
¿Te parece a ti que eso no son flipadas humanocéntricas? ¿Y de veras te parece que son necesarias para la autoconciencia de un animal?
Yo creo que al escribir ese hilo de razonamiento te has flipado un poquito pensando en las capacidades humanas, no en la autoconciencia. Nada más.
Obviamente lo que quieres es una imagen parecida, o en el estilo de, pero que sea diferente. Por supuesto que puede hacer un calco de una obra conocida, pero para eso no necesitas entrenar una IA, podrías hacer una foto de una ilustración, por ejemplo.
Si entrenas una IA es para que "genere" diferencia, variedad, llámalo como quieras, no algo "igual" al input.
Por supuesto yo no soy experto en IA, solo me interesa el tema, a lo mejor tú tienes más conocimientos en el campo, pero me ha dado la sensación de que me estabas trolleando un poco a la hora de interpretar mi mensaje.
Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.
En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se… » ver todo el comentario
Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú,… » ver todo el comentario
Y en mi opinión no hay para tanto. Un gato enterrando sus heces para que no le encuentren por el olor también es un ejemplo de autoconciencia. O cualquier mascota pidiendo mimos, por ejemplo.
La autoconciencia es una simple sofisticación de la conciencia, evolutiva y natural. Hasta me cuesta imaginar un animal con plena conciencia de su entorno que no sea también consciente de su propia existencia en dicho entorno.
Y sí, hay papers de que hay cierta comunicación, pero eso no indica ni que haya inteligencia, ni que haya conocimiento, ni mucho menos consciencia, ni nada. Mi termómetro 'me comunica' la temperatura.... supongo que es inteligentísimo.
Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,… » ver todo el comentario
La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.… » ver todo el comentario
Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al… » ver todo el comentario
Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
Si, hablo de simbolos o ideas intermedias, digamos no existentes ( no tiene porque ser muy complejo pero a la vez pienso que si es un salto cualitativo, crear conceptos o ideas para modelar conocimiento del Yo ).
En cuanto a que un gato marque terreno... eso de que sea por consciencia y extrapolacion de lo que el ve/hace... hay cosas que se hacen por insitinto ( evolucion, los que lo hacian tenian mas descendencia - no me preguntes por que cadena de acciones o factores… » ver todo el comentario
Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.