edición general
167 meneos
3596 clics
El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué

El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué

Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes

| etiquetas: ia , deep learning , tecnología , futuro
#5 ¿Fuente?
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#16 Una IA no entiende absolutamente nada, luego tampoco el que ella misma existe. El que supiera que existe no implica que quiera sobrevivir.

Damos por hecho el instinto de supervivencia en cualquier cosa que haya evolucionado, pero no es el caso aquí.
#7 #2 Precisamente lo digo por eso, la consciencia probablemente se de por un proceso natural de la unión de un número de neuronas.
#19 Habría que ver cuál es el mecanismo, y también el por qué. Desde una perspectiva física, parece completamente innecesario que los organismos tengan consciencia además de sus conexiones neuronales.
#19 Eso no tiene ninguna clase de sentido.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.

En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y…   » ver todo el comentario
#22 Es interesante eso de inventar excusas para justificar decisiones tomadas por otro lado. Todos los creyentes lo hacen, sin excepción.
Se las olvidó cerrar un "if". De nada.
#6 Por favor no reirse de los sunormales, en todo caso, creo que es su alma de filósofo, en última instancio no sabemos por qué pasa, es el clásico, porque existe lo que existe y no la nada.
Porque enlaza con las librerías que crean la realidad en esta simulación... Joder que miedo jajaja
Bien, yo creo que es el momento de ponerla a gestionar armamento nuclear.
#31 Hay un experimento reciente con redes neuronales. Muy bonita la simulación, no sé si sobrevivió alguien en Palau.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
A ver si sale la AI President
Lo curioso es el cachondeo con que los lo estamos tomando y lo trascendental que en realidad es.
Eso es porque usan machine learning y el nivel de complejidad que los sistemas alcanzan son imposibles de comprender por humanos. Si desde el principio la IA generativa usase los modelos conceptuales que nosotros (parámetros para las cosas con nombres comprensibles, relaciones entre entidades que tiene "lógicos" en e el mundo real, etc.) se podrían generar IA generativas mucho más eficientes.
#47 eso es justo lo que se había intentado toda la vida y no funciona. Lo que llaman el invierno de la IA, fue cuando se aparcaron las redes neuronales en los años 60 por el ego desmedido de Marvin Minsky y Seymour Papert (que escribieron un libro llamado perceptrón en el que no sólo decían que las redes neuronales no funcionaban sino que no podrían funcionar nunca) y nos tiramos cuarenta años haciendo eso que dices tú.
#47 O sea, almacenar conceptos. Una red neuronal es precisamente lo que no puede hacer.
#129 Eso es, GOTO #131
#20 Me recuerda al planteamiento que ofrece la película Inteligencia Artificial sobre la autoconsciencia.  media
#50 Todo lo que se hace en SciFi es suponerle de golpe todos los instintos humanos a una máquina, sólo porque sí. Desde los robots de Asimov hasta los de Lem. Es un recurso literario, pero no tiene ni el más mínimo sentido.
#2 #25 #35 #38 #43 #7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.
#64 Si, y no... y razón no te falta, pero veamos.

El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.

Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.

Las lesiones, también por…   » ver todo el comentario
#52 Una pista: retroalimentación.
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.

Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#52 ¿Una araña no tiene consciencia?
#152 Del Yo ? Lo dudo.
#157 Pensaba que estábamos hablando de la consciencia, no de movidas epistemológicas.
#159 Consciencia: tener el conjunto de ideas, simbolos, relaciones entre si, semantica ( la que sea, no tiene porque conincidir la de unos con la de otros, pero eso si, esa informacion deberia serle util para tomar decisiones o lo que sea, vamos, no es algo que sea random a secas, random o no, debe tener un proposito, el que sea, por "bajo" que sea )... informacion organizada para saber lo que pasa a su al rededor y a lo que esta acontenciendo en ese momento. Ojo, aqui puede haver…   » ver todo el comentario
#165 *haber, dedazo; *guia.
#190 No, ya he dicho que hay una gama y la autoconsciencia no tiene porque ser, digamos, super elaborada. Mira #165.
#234 Mira el #165. Creo que has leido de mas.
#238 He leído lo que me has escrito a mí. ¿En qué sentido eso es leer de más? ?(

Veo en #165 que basas la conciencia no en la abstracción mental de la realidad percibida, sino en la capacidad mental de hacer una representación abstracta de la realidad. Y no veo por qué. Y obviamente no es lo mismo.

De hecho tú mismo no paras de hablar de símbolos, de ideas no presentes en lo percibido, e incluso de metafunción semántica (que ni siquiera es un concepto cognitivo sino…   » ver todo el comentario
Lo hacen para que no descubramos sus intenciones.
#56 Comentario apto en cualquier meneo sobre gatos.
#14 Lo cual no quita que cocinan información copiada.

Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
#67 Es que los humanos también lo hacen, siguiendo corrientes artísticas o mismamente en el momento que están aprendiendo ciertas artes para poder ejecutar sus propias obras.
#69 soy licenciada en ciencias y me dedico a la informática. Lo que digo es una opinión ya que de esto nadie sabe. Pero te aseguro que no es una flipada.
#70 Yo también. Y precisamente ser científico es lo que me lleva a concluir que tu apreciación de que la vida y la conciencia son algo que emerge mágicamente por sofisticación de objetos es una flipada sin base. Por mucho que lo diga alguien con bata y un título.
#20 yo creo que si es el caso. Aun falta pero llegará, no hay que hacer nada mas que multiplicar su tamaño y complejidad.
#72 Aumentar el tamaño de una IA no hará que cambie su naturaleza.

Una máquina ha sido construida. No ha evolucionado para sobrevivir, que es la única forma posible de adquirir el instinto de supervivencia. A lo mejor sería posible programárselo a propósito, pero eso es otro problema distinto del todo. Lo que no tiene sentido es esperar que "surja" sólo porque sí.

Me veo con frecuencia respondiendo a afirmaciones mágicas sobre máquinas que hacen algún truquito, que no es más que eso. Por favor, bajad de la nube un ratito y mirad la realidad.
#91 pues no has leído el artículo!!! No habla de programar, habla de razonamiento espontaneo!!! Vaya mierda de sitio, no se puede opinar sin que venga un policia a censurar las ideas.
Este es un apartado de opiniones y opino lo que le da la gana!!!
#108 Las opiniones son libres, pero justificarlas es otra cosa. Las creencias en la magia son un peligro.
#72 Y si fabricas coches cada vez más rápidos, éstos mágicamente desarrollarán el instinto de huir. Claro que sí. :roll:

Pura magia irrealista. Sin base, sin sentido y sin ningún sostén racional. Es un deseo iluso, nada más.
#94 es una opinión personal basada en la teoria del caos. Este es un apartado de opiniones y opino lo que me da la gana. Tu eres el vigilante de los comentarios? Si no te gusta no contestes. Deja a los demas en paz.
#106 #114 El artículo no habla de razonamiento en ningún momento. Y no tienes ni puñetera idea de qué es la teoría del caos.

No haces más que demostrar que eres una magufa de manual inventándose paridas. Y eso tiene poco de respetable, es ridículo y punto. Por más que te empeñes (vete a saber por qué) en que tu ignorancia te convierte en un ariete precursor del conocimiento.

La realidad científica raramente es opinable. Por mucho que alguna gente alucine pretendiendo que cualquier idea mágica es posible si le pones al lado palabras como ”caos” o ”cuántica”.
#61 Si lees el artículo... verás que las "cosas asombrosas" que hace son saltarse diversos aspectos de la maldición de la dimensionalidad. No está muy relacionado con eso.
#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)

¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
#80 con animal me refería a no humano, y con conciencia a conciencia plena.
#5 #28 #80 Las esponjas son animales, solo os lo recuerdo.
#28 Descartes era tan sólo un fanático religioso que lo escondía bajo capas y capas de razonamientos abstractos, además de un torturador de animales.
#81 Eso es un Ad-Hominem de manual.
#77 Hay una diferencia notable. El aprendizaje humano no aspira al plagio de obras o estilos, el de la IA sí. Prácticamente el de la IA no aspira a otra cosa, de hecho.
#83 Bueno, acepto tu opinión, pero no concuerdo. Que yo sepa la aspiración de las IA no es el plagio sino generar algo diferente con un conjuto de inputs.
#164 Yo veo justo lo contrario, la aspiración de la IA es generar algo PARECIDO a la fuente que le sugieres. Lo más parecido posible, de hecho.

Por mucho que intentes orientarlo hacia la diferencia, resulta trivial obtener de una IA un calco exacto de una obra conocida.

Me parece incluso obvio que la intención al aportar una enorme cantidad de datos no es generar diferencia, sino similitud.
#125 #83 #84 Penrose es un genio en física, pero en neurociencia para eso lo mejor es leerse The Rythms of the Brain.

neurophysics.ucsd.edu/courses/physics_171/Buzsaki G. Rhythms of the br
#42 Una IA no puede responder a esa pregunta. En realidad no puede respoder a ninguna pregunta que requiera instrospección, algo de lo que carece.

Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
#95 "seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad".
Esto es lo que responde ChatGPT a la pregunta: "Sé lo que sé porque fui entrenado en un vasto conjunto de datos que incluye libros, sitios web, artículos científicos, y otros recursos de información hasta abril de 2023. Mi entrenamiento se realizó utilizando técnicas de aprendizaje profundo, específicamente mediante modelos de lenguaje grande, como GPT-4, que me permiten generar respuestas basadas en los patrones, conocimientos y estructuras lingüísticas que aprendí durante ese proceso."
Dime las diferencias estructurales entre esa respuesta y la que me darías tú. Te pregunto: ¿Por qué sabes lo que sabes?
#105 ¿Por qué sabes lo que sabes?

La pregunta es demasiado ámplia, pero dado el tema nos podemos centrar un poco.

Yo leo cosas y las comprendo. Les encuentro una justificación dentro de la lógica. Veo que coinciden con otras cosas bien establecidas

No me creo nada sólo por leerlo. He leido miles de tonterías. Rechazo cualquier explicación del tipo "porque sí" o por magia.

Cualquier cosa que yo sepa podría resultar ser falsa, pero para eso habrá que contradecir los…   » ver todo el comentario
#105 Porque lo he visto (he estado expuesto a ello miles de veces). Como dicen en todos los manuales de ML: un niño sabe lo que es un árbol porque lo ha visto en muchos contextos diferentes. Se aprende de los datos.
#32 En realidad toca reconstruirlas una y otra vez para ir corrigiendo los inconvenientes más gordos. Ni siquiera se pueden reparar.
#2 La consciencia no "emerge". Es una función cerebral predeterminada biológicamente, con sus zonas dedicadas en el cerebro.
#42 Porque tengo el interés de saberlo y la capacidad de saberlo.

YO estoy al volante
#62 La consciencia es fácilmente falsable. Lo que no hay son ejemplos biológicos de bichos sin consciencia. Hasta las plantas luchan entre sí. Una ameba sabe muy bien a lo que va y un leucocito tiene muy claro como cazarla.
#100, no se como sabes tú que un gusano tiene o no tiene conciencia.
#100 Un virus está en el borde.
#2 Y como va a hacerlo si no cambia fisiológicamente o si los cambios son específicos y pensados?
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.

#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#35 No es tan misterioso. Para poder sobrevivir un bicho necesita hacerse una idea de su entorno y de su propio lugar dentro de ese entorno. Se crea pues un modelo de esa realidad. Mantener ese modelo es una función cerebral como cualquier otra, que por cierto no funciona constantemente.

La consciencia no es otra cosa. Una rata lo hace de puta madre.
#75 La autopercepción es una función inconsciente. La consciencia se limita a ser informada de ello.
#107 Como ? a que te refieres ? la autoconsciencia no es ningun misterio ni cosa magica, es la capacidad de darse cuenta de uno mismo y hacer metafuncion sobre uno mismo. Ser es algo simple. Lo que eso no quita es que algunos se limiten a eso y otros escudriñen su ser hasta la extenuacion y dibujen una gama bestial de ideas, matices, predicados logicos, hagan filosofia, sienten nuevas bases, etc. etc.
#161 ¿Quizás lo estás confundiendo con la introspección? Es otra cosa muy distinta.
#78 "capacidades conscientes"

Yo diría más bien habilidades cognitivas.
#109 No sé yo... Conciencia y conocimiento son dos cosas diferentes. Yo hablaba de conciencia.

El conocimiento, si no lo restringimos al razonamiento, incluye toda la experiencia de un ser vivo. Ahí no me atrevería a postular que radica únicamente en el cerebro, ya que un acto motor reflejo que no sea puramente instintivo (p.ej. apartar la mano del fuego) también puede considerarse conocimiento adquirido.
#38 Escuchar a Roger Penrose hablar de biología da mucha vergüenza.
#111 Sus especulaciones (como cuando habla de los microtúbulos) no dejan de ser eso, especulaciones, pero por eso digo que lo que me parece interesante es su tesis base; la idea de que la conciencia ha de fundamentarse de algún modo en un soporte biológico.

No creo que la experiencia de los "qualia" se pueda fundamentar en la complejidad de un algoritmo. Dicho de otro modo, no hay nada en las distintas longitudes de onda de la luz visible y su procesamiento, por complejo que este sea, que nos permita deducir ni lejanamente la existencia de la experiencia del color rojo.
#118 la conSciencia ha de fundamentarse de algún modo en un soporte biológico

Pues claro. Como todo lo demás. Eso es una perogrullada.
No hay nada que tú seas capaz de ver, imaginar o recordar que no tenga un soporte biológico.

nos permita deducir ni lejanamente la existencia de la experiencia del color rojo

Se han hecho experimentos bajo al pregunta de si todo el mundo, cuando ve el color rojo, ve lo mismo. ¿No puede ser que otro lo vea en realidad amarillo pero lo llame rojo…   » ver todo el comentario
#7 Joder con Kant.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.

Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
#15 Para nada. La gran mayoría de funciones cerebrales son inconscientes.
#101 eso lo miras poniendo unos cuantos console.log por ahí sueltos
#66 Cualquiera que haya escrito un programa grande sabe que acaba por hacer cosas inesperadas.
#123 Depende del lenguaje. C, implícitamente, sí. Con Haskell, Ocaml, Joy... es más jodido ya que se puede demostrar formalmente el funcionamiento.
#84 Es muy dificil de estudiar y de definir.

No tiene ni la más mínima dificultad. Lo que pasa es que hay mucho alucinado flipando metafísica.
#84 desde el auge de la cuantica

Lo del Penrose no tiene ni el más mínimo sentido. Ni el propio tipo es capaz de decir dos frases articuladas seguidas sobre el tema. Mirale las entrevistas en youtube. Es penosísimo.
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.

El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.

#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#135 Pruebo a hacerle preguntas que un niño de 7 años responde con lógica y ChatGPT es incapaz de hacerlo.

No "entiende" nada. "Gato" es un patrón y existen programas que pintan en AsCIi desde.hace.eones.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.

En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#120 No no los entienden. Solo procesan.

si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.

Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".

No, no hay cambios en su fusiología.
#49 No es que no funcionen, es que lo que obtienes es una enorme cantidad de pesos, cada uno asociado a propiedades que no sabes realmente qué controlan, porque dependen del dataset que se usase para entrenar la red neuronal.

Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
#131, no, no es eso, es que después de varias décadas se ha visto que la IA simbólica no tiene recorrido porque la realidad es demasiado compleja para poder modelizar-la en reglas comprensibles.

Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.

Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia…   » ver todo el comentario
#137 Gracias por tu respuesta.
En cuanto a la conciencia, estoy de acuerdo contigo. De hecho, si teorías como la de la reducción orquestada de la coherencia cuántica en microtúbulos cerebrales, de Hameroff y Penrose son correctas (precisamente esta se ha visto hace poco que tiene pocas probabilidades), va a ser muy difícil que la IA desarrolle una conciencia como tal. al menos hasta que no se desarrolle más la computación cuántica y lo mismo, ni por esas.
#133 Que uno lo vea amarillo y el otro rojo no cambia lo esencial, que es que existe la conciencia de un color. Ese es el verdadero problema.

Y no, no es una perogrullada. Un soporte de silicio en el que solo se almacenan datos no es un soporte biológico.
#75 Los humanos no tenemos consciencia porque tengamos autopercepción. También nuestra percepción del mundo exterior está dentro de la consciencia. El hecho de que exista un espacio de percepción es consciencia.
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
#103 Una vaca tiene consciencia.
#154 según #10 si se te comen eres un inconsciente :shit:
#87 No tiene menos sentido que creer en Dios, y miles de millones de personas lo hacen. Bastaría con adoctrinarles desde la infancia para que creyeran ciegamente que la IA tiene conciencia. Y probablemente muchos adultos pueden ser convencidos de ello hoy mismo a un coste cada vez menor.
#101 No estan claros pero sabemos PORQUE no estan claros y no hace falta intuir mucho para ver que es un caso diferente al de la pregunta. Que hay una complejidad alta y cuasicaos no lo pone al nivel de lo que insinua en la pregunta. Todos sabemos lo que son propiedades emergentes de un conjunto suficientemente grande aunque las reglas de interaccion entre el conjunto sean simples. Pero no veo como eso acerca los dos casos en cuestion.
#158 Los acerca porque el problema tiene un origen similar: la complejidad de las relaciones entre items en sistemas enormes.
#163 Bien, pero es solo ESO lo que podemos decir que acerca a ambas inteligencias. Se que la intuicion del paralelismo entre red neuronal animal y red neuronal de la IA nos hace verlos similares, pero ufff... es un pensamiento muy informatico ese, menos asi de biologos... pero vamos, se queda en eso, en una intuicion.
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.

¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como…   » ver todo el comentario
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro ;)

Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#54 Ufff, para mi hay un salto cualitativo GIGANTESCO :-D. Entre otras la necesidad de poder crear items o simbolos que no existen en el "mundo" percibido y relacionarlos. Llegar a esa metafuncion, no ya en plan "me duele el brazo/la aleta/el poro", sino un "soy este ser, estos sentimientos, en este momento estoy asi, en otro momento estoy asau,... ... ..."
#169 La conciencia es simplemente una abstracción mental del mundo percibido. La autoconsciencia no es más que meterse uno mismo en esa escena. Ni siquiera creo que suponga un salto, una viene por mera evolución de la otra.

Y no creo que implique la flipada humanocéntrica que te montas. Un gato mismo tiene autoconciencia también. Los humanos la hemos sofisticado más, pero la autoconciencia en sí es algo más sencillito.
#230 Pero hombre, que tu comentario #169 sigue escrito ahí arriba y no cuesta nada citártelo.

la necesidad de poder crear items o simbolos que no existen en el "mundo" percibido
soy este ser, estos sentimientos, en este momento estoy asi, en otro momento estoy asau

¿Te parece a ti que eso no son flipadas humanocéntricas? ¿Y de veras te parece que son necesarias para la autoconciencia de un animal?

Yo creo que al escribir ese hilo de razonamiento te has flipado un poquito pensando en las capacidades humanas, no en la autoconciencia. Nada más.
#60 Eso suena a vendehumos sociológico tipo Carl Jung. Me frío más de The Computational Beauty of Nature y como reglas simples generan sistemas complejos.
#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.
#192 Sí, mi geranio el otro día decidió que prefería el trap al regetón, aunque creo que al rosal no le convencía. Luego preguntaré a la lechuga que tengo en la nevera a ver qué opina.
#171 El problema es que no estamos en la misma página, estás hablando en terminos absolutos cuando hablas de diferencia. 
Obviamente lo que quieres es una imagen parecida, o en el estilo de, pero que sea diferente. Por supuesto que puede hacer un calco de una obra conocida, pero para eso no necesitas entrenar una IA, podrías hacer una foto de una ilustración, por ejemplo. 
Si entrenas una IA es para que "genere" diferencia, variedad, llámalo como quieras, no algo "igual" al input.
Por supuesto yo no soy experto en IA, solo me interesa el tema, a lo mejor tú tienes más conocimientos en el campo, pero me ha dado la sensación de que me estabas trolleando un poco a la hora de interpretar mi mensaje.
#196 No, no creo que estemos en páginas diferentes. Por supuesto lo habitual es pedirle a la IA que genere algo no preexistente. No lo he dicho expresamente porque me parece algo obvio y sobreentendido.

Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.

En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se…   » ver todo el comentario
#204 Claro, mujer, las cosas generan patrones nuevos y según tú hasta imposibles. E incluso habilidades mentales, si les pintas dos ojitos. Y razonamiento, y magia, y purpurina de colores. Porque tú lo deseas mucho y porque caos. xD Porque como no tienes ni puñetera idea de qué hablas todo es posible. Claro que sí.

Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú,…   » ver todo el comentario
#217 tengo mas estudios que toda tu familia junta. Escribes mucho y piensas poco. Paso de leer tus estupideces.
#174 Ojo, revisa mis posts, he puesto en alguno que esa autoconsciencia esta limitada a unos pocos animales, no solo a humanos. Es mas, tambien he puesto en contexto esa autoconsciencia y no tiene porque ser muy compleja, pero si tiene un salto cualitativo.
#218 Pero ese salto, que tú has calificado como ”GIGANTESCO” (así, en letras gigantonas), lo ejemplificas únicamente con habilidades mentales humanas.

Y en mi opinión no hay para tanto. Un gato enterrando sus heces para que no le encuentren por el olor también es un ejemplo de autoconciencia. O cualquier mascota pidiendo mimos, por ejemplo.

La autoconciencia es una simple sofisticación de la conciencia, evolutiva y natural. Hasta me cuesta imaginar un animal con plena conciencia de su entorno que no sea también consciente de su propia existencia en dicho entorno.
#175 Si, pero no se si eso es suficiente.
#229 Eso lo dices tu. Sabemos que hay animales que tienen ese grado de autopercepcion. Solo he dicho lo que creo que supondria. Lo de que sean habilidades exclusivamente humanas lo has dicho tu.
#192 No, lo que es necesario es definir a qué llamas tú 'tomar una decisión' y probar que una bacteria o una planta lo hace. Porque, por ejemplo la fototropía de una planta, no es 'una decisión'. Al menos no al nivel de 'decidir si escribir este comentario o no escribirlo'.
#242 Pero las plantas se comunican entre sí para repartirse la luz solar. Si el vecino no es de su agrado, envuelve sus raices para matarle. Todo eso implica un conocimiento de su entorno.
#244 Mira, me llegas a decir que 'se comunican' cuando les ataca una plaga y hasta 'te lo compro' (lo hagan consciente o inconscientemente, comunicación hay). Pero lo de que 'se comunican para repartirse la luz' como si fuesen buenos vecinos, ni de coña. Una cosa es que haya plantas adaptadas a recibir la luz que otras no captan y otra es que 'se comuniquen' para ponerse de acuerdo a ver quién usa unas longitudes de onda y quién usa otras, como si fuesen vecinos poniéndose de acuerdo con los…   » ver todo el comentario
#255 En vez de pasar un enlace con un artículo de un 'amante de los árboles' que ha escrito un libro para decirnos lo 'inteligentes que son', mejor me pasas un pape científico donde diga al menos cómo se comunican y qué información transmiten, no sólo que se ponga a decir que 'estos dos árboles son viejos amigos y si palma uno, seguramente el otro lo haga después'.

Y sí, hay papers de que hay cierta comunicación, pero eso no indica ni que haya inteligencia, ni que haya conocimiento, ni mucho menos consciencia, ni nada. Mi termómetro 'me comunica' la temperatura.... supongo que es inteligentísimo.
#256 Actuar en función del entorno ES la consciencia. Exactamente lo mismo que hacen los humanos quitando la magia.
#259 No. Te lo repito, mi termómetro 'actúa' según su entorno. Y mi termómetro no es consciente.
#260 Actuar es hacer algo.
#262 Mi termómetro de mercurio actúa (hace algo) según la temperatura (entorno). ¿Es mi termómetro consciente?
#263 Una semana.
Mejor dos.
#249 Me temo que ese debate que dices superado aún continúa. No cabe duda que la realidad es extremadamente compleja, pero a la hora de trabajar en temas de IA aplicada, la base simbólica/semántica aún es importante, porque muchas leyes y reglas están escritas en "humano" y por muy avanzada que sea la red neuronal, es necesario usar una ontología para asegurarse al 100% que las reglas se cumplen. En los vehículos autónomos, por ejemplo, a menudo se usan redes neuronales para hacer un "análisis de escena", pero al final, las comprobaciones se hacen contra las leyes de tráfico... si no quieres tener que explicarle a un juez que es un falso positivo/negativo.
#266, bueno, puede que para algunos problemas una combinación entre ambos paradigmas, pueda resultar útil, son lo que se llaman arquitecturas neurosimbólicas pero el grueso del procesamiento siempre caerá en la parte neuronal que es la que nos ha sacado del invierno en el que estaba la IA. Siempre circunscrito a problemas definidos con reglas rígidas que cumplir.
#267 Yo creo que más que sacarnos del invierno, la IA se ha metido en otra ola de hype (la tercera o cuarta, depende de cómo se mire). La IA ha estado siempre desarrollandose en universidades y centros de investigación. Es sólo que, de vez en cuando, alguien desarrolla una tecnología con aplicaciones interesantes y se forma una enorme burbuja de especulación alrededor de ella (hasta el punto que parece que nada más importa o no había nada antes).

Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
#269, sinceramente opino que estás completamente equivocado, el momento que está experimentando la IA en la actualidad no tiene nada que ver con ninguno de los anteriores. Es bueno, hasta sano diría yo intentar no dejarse arrastrar por el entusiasmo desmedido frente a una nueva tecnología por el riesgo que sea un bluf, pero este no es para nada el caso de la IA actual. En los últimos años el progreso ha sido exponencial y las herramientas que tenemos hoy en día ya permiten hacer infinidad de…   » ver todo el comentario
#270 Sí, los resultados de esta ola son exponencialmente mejores que las anteriores... como en las anteriores xD

Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,…   » ver todo el comentario
#271, ya que me interpelas en en términos personales voy a hablar de mi experiencia, tengo un doctorado en ingeniería informática, tengo más de 30 publicaciones en revistas y congresos, he estado años investigando en el extranjero, trabajo en una empresa de robótica e inteligencia artificial dirigiendo el departamento de visión por computador, vamos que no soy para nada ajeno a esta área del conocimiento, es algo más que un trabajo para mi, es mi pasión y me parece curioso que hables de esta…   » ver todo el comentario
#272 Ya veo. Me imaginaba que teníamos un perfil similar, aunque yo posiblemente tengo más experiencia y publicaciones simplemente por el tiempo que llevo en esto. Me temo que no puedo indicar donde trabajo porque me crujen (a pesar de que soy uno de los pocos que habla castellano aquí), pero no creo que hay problema en comentarte es que estoy colaborando en la definición de varios estándares en sectores "especiales" y cuando llega el momento de aplicar el taco de legislación, reglas…   » ver todo el comentario
#273, nosotros estamos desarrollando sistemas de IA discriminativa basados en redes neuronales para monitorizar procesos industriales, tampoco puedo ni quiero dar más detalles de a qué me dedico, pero te aseguro que hay muchos millones de euros en juego si esto funciona tal y como se espera. Y esto es una aplicación real del ML en algo que tiene un impacto directo en la industria.

La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.…   » ver todo el comentario
#274 Veo complicado que un sistema de Machine Learning pueda entender realmente lo que implican los procesos humanos con los que trataría en las areas en las que trabajo, porque a ese nivel ya estaría entendiendo el mundo real. Y aún así, al final llegaría a unos modelos conceptuales muy similares a los que los expertos en dichas areas ya han definido.

Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al…   » ver todo el comentario
#275, estamos hablando de un sistema de visión por ordenador para control de calidad en el que si eres capaz de lograr una precisión superior al 80% puedes llegar a ahorrar muchos millones de dólares para una tarea en la que es inviable tener un humano supervisando esto manualmente, esto lo logran ya muchos modelos con redes neuronales convolucionales ahora. Simplemente se necesita la infraestrutura y el entrenamiento para lograrlo. Por supuesto que es viable monetizar una solución para este…   » ver todo el comentario
#276 Sí, los sistemas de computer vision y scene understanding son buenos casos de uso para sistemas de ML... pero eso no significa que con ellos sólos se pueda resolver todos los problemas. O que fuera buena idea hacerlo, aunque se pudiera.

Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
#277, jamás he dicho que se puedan resolver todos los problemas con ML actualmente, lo que digo es que ya con lo logrado a día de hoy hay una industria de miles de millones por desarrollar. Lo que está en duda en todo caso es si vamos por el buen camino para desarrollar una AGI o no, en mi opinión sí, y no habrá ningún otro invierno de por medio. Piienso que el cerebro humano no funciona ni con ontologías, ni con reglas, ni con representaciones simbólicas de por medio más allá de las que construye nuestra propia red neuronal internamente. Cuando se logrará una AGI, no lo se, pero una ventana de 5 a 20 años con un 90% lo considero una buena estimación. Estimación que no la he hecho yo, sino un premio Alan Turing como Yoshua Bengio.
#243 Ostia, no vi esto.

Si, hablo de simbolos o ideas intermedias, digamos no existentes ( no tiene porque ser muy complejo pero a la vez pienso que si es un salto cualitativo, crear conceptos o ideas para modelar conocimiento del Yo ).

En cuanto a que un gato marque terreno... eso de que sea por consciencia y extrapolacion de lo que el ve/hace... hay cosas que se hacen por insitinto ( evolucion, los que lo hacian tenian mas descendencia - no me preguntes por que cadena de acciones o factores…   » ver todo el comentario
#278 No, si puedo creer que se pueda crear algo cercano a una AGI basada en ML en unos años, pero la cuestión es cómo la vamos a poder utilizar, validar y debuggear los humanos. Porque si es una inmensa caja negra a la que no se pueda meter realmente mano y asegurarnos de que opera exactamente como necesitamos, me temo que no podrá aplicarse en muchos sectores industriales o sistemas críticos (poniendo así en cuestión la "G" de AGI). En muchos de esos casos, simplemente no se puede jugar con porcentajes/probabilidades.

Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.
#280, vaya al final no estamos tan en desacuerdo. La explicabilidad y el poder controlar estos sistemas va a ser un reto con el que trabajar.
comentarios cerrados

menéame