edición general
276 meneos
3828 clics
Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.

| etiquetas: descubrimiento , despido , sam altman , openai
Se fué porque había creado un monstruo y no queria acabar como el doctor Frankenstein.
#1 Al revés, lo echaron para frenar el avance en IA porque les entró miedo.
Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.
#1 O el jovencito Frankainstain  media
#1 la junta de accionistas lo echo porque "no confiaban en el"

Creo que ahora hay nueva junta de accionistas.
#1 No se fue, lo echaron...
#3 entonces podemos decir que se ha creado algo que el humano no entiende?
#9 Un ejemplo sencillo de que no es tan raro son, por ejemplo, las lentes: se han usado desde hace mucho sin tener conocimiento de los principios que subyacen, la gente sólo sabía, por experimentación, que funcionaban, y ya.

De hecho, diría que, hasta no hace mucho, era la forma habitual de hacer: usar lo que conoces por experimentación, sin necesidad de saber los principios que subyacen. El fuego, sin ir más lejos.

cc #4
#4 Las redes de neuronas artificiales, aunque sepamos como funcionan, son una "caja negra" en el sentido de que no sabemos exactamente qué operaciones están realizando con los datos (técnicamente, cómo dividen el espacio N-dimensional que determinan los parámetros de entrada). Las entrenamos diciéndoles qué respuesta es correcta y cuál incorrecta y les damos un método para que se adapten y aprendan. Pero el resultado de este entrenamiento no podemos analizarlo a simple vista.

Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.
#4 Por supuesto. Y no es tan raro.
#2 Una serendipia es un descubrimiento que puede llegar a ser bueno o valioso de manera accidental o casual, al momento de estar buscando una cosa diferente a la sucedida.[1] De igual forma puede referirse a la habilidad de un sujeto para reconocer que ha hecho un descubrimiento importante aunque no tenga relación con lo que busca.
es.m.wikipedia.org/wiki/Serendipia
No digo que sea el caso, solo que me encanta la palabra.
#8 Yo la prefiero como chiripa.
#13 osti! Nunca me había parado a pensar en el parecido de ambas palabras, lo que me hace preguntarme si no es casualidad, seguramente una viene de la otra
#8 ya te entiendo, a la plancha con salsita de ajo y aceite... mmmmmm

{0x1f61b}
#9 ok. Entonces podemos decir que sabemos que herramientas usa para aprender, pero no como lo hace, es decir que en algún momento aprenda a usar una herramienta que no se la ha proporcionado.
Perdona por las preguntas pero es algo que me llama mucho la atención y nadie suele responder mis preguntas más allá de ambigüedades
#6 Pero es un mecanismo que hay que programar.
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.

Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con…   » ver todo el comentario
#12 Todas las partes fundamentales del proceso de aprendizaje y razonamiento son conocidas y entendibles. Cada una de las partes individuales fundamentales.
Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.

De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y…   » ver todo el comentario
#12 yo lo entiendo como los ordenadores que juegan al ajedrez, tú les das las normas y se ponen a pensar millones de jugadas hasta que dan con la buena. El resultado es el que queremos, pero no te pongas a investigar los millones de intentos que ha realizado para obtenerla.
#2 No son excluyentes.
¿Alguien sabe de algún podcast o video que resuma un poco fielmente u objetivamente lo que ha ocurrido con este tío?

Gracias :-)
#22 Básicamente:
-Altman oculta cosas a la junta directiva y la junta se entera.
-La junta se mosquea por la ocultación de la información.
-La junta echa a Altman de CEO.
-El presidente de la junta, amigo y socio fundador, renuncia como medida de protesta por el despido.
-Microsoft, que posee el 49% de la empresa y ve vital el tema de la IA en windows 12, bing y otros servicios como copilot, apoya a Altman y lo contrata directamente.
-MS deja abierta la puerta a contratar a la totalidad de los…   » ver todo el comentario
#22 En YouTube " dot csv" lo intentaba recientemente www.youtube.com/live/F6DTEcjpuEU?si=w3gcJSV0EGByZX1V
Descubrimiento revolucionario y te echan a la calle? No sé Rick, algo no me cuadra
#23 La patada viene por las discusiones sobre como usar ese descubrimiento. Etica y dineros
#23 Por ocultarselo. Es su deber mantener a la junta directiva informada.
#2 Un invento es casi siempre un descubrimiento.
Lastima que el hilo no dará para más pero se ha aportado un montón de explicaciones mascaditas que me han ayudado a entender un poco mejor el tema de las IA aparte de unos datos extra que no sabía sobre la penicilina.... En vuestra opinión cual podría ser ese "descubrimiento" ¿Este es el tipo que se pasea con una mochila que dice que es para desactivar la IA? ¿Todo este jaleo podría ser por la mochilita de marras?..... Ay que sinvivir... gracias
#31 Según el artículo, tiene que ver con un avance importante en la capacidad de comprensión y resolución de lógica matemática para la IA, lo cuál es uno de sus mayores puntos débiles en la actualidad. Difícil de decir hasta qué punto es algo revolucionario o solo un pequeño paso más hacia la inteligencia artificial general.
#26 Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan

Por supuesto. Pero es como decir que comprendemos el cerebro porque sabemos como funcionan las neuronas.

lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo

Ese es el punto. Que podemos estar orgullosos de haber creado un sistema que aprende por sí mismo. Pero no más que eso. La inteligencia es mucho más que un conjunto de neuronas, y eso no lo hemos hecho nosotros. Sólo proporcionamos la herramienta para que se haga sola y esperamos a ver el resultado.
#32, no es exactamente lo que te quería decir #26. Una recta de regresión puede ser un algoritmo de machine learning y entendemos perfectamente lo que es, no solo como se entrena sino qué criterios pondera para realizar sus predicciones. Con el deep learning se nos escapa.
#32 pero solo pasa con las redes neuronales.
Lo demás se entiende más o menos
#34 Eso parece el chiste de "¿Cuantos funcionarios hacen falta para cambiar una bombilla?"

Pues aquí lo mismo ¿Cuántas neuronas hacen falta para que una inteligencia sea autoconsciente? Tomando como ejemplo el mundo animal y que solo 3 de ellos (aparte de los humanos) han pasado la prueba del espejo yo diría que hacen falta... un huevo de neuronas.
#39 no es tanto el numero (las ballenas y elefantes tienen más), si no la proporción tamaño del cuerpo, número de conexiones, etc. Y algo más parece que hay, porque los cuervos o los pulpos han resultado ser la hostia de inteligentes.
#16 Muy bien explicado.

Y es por eso que, mientras esto siga así, nadie (salvo los ignorantes o mentirosos) puede llamar a la metodología "Inteligencia General Artificial (AGI)".
#3 como no se va a entender si está programado por humanos...
#55 Continuando lo que dice #77. las IAs no están programadas por humanos. Están construídas por humanos, y les son dados un puñado de mecanismos para autoconfigurarse, y miles de millones de entradas (el equivalente a nuestros sentidos, nervios, etc).
Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en…   » ver todo el comentario
#55, es que no está programado por humanos. Los ingenieros diseñan la arquitectura, el algoritmo de aprendizaje y la forma en cómo se va a entrenar, pero el modelo aprende "sólo". Dada la descomunal cantidad de parámetros involucrados es imposible saber qué clase de razonamiento utiliza para llegar a la solución deseada, lo que sí podemos evaluar es quan buenas son las soluciones que da.
#6 El tema más bien, es que las consecuencias de una IA, no se programan en si mismas... digamos que lo que se programa, es "metodología de aprendizaje" y en buena parte, dicha metodología, es autoaprendida por la propia IA.

Realmente, en mi mente cuñada, tiene bastante analogía con la "vida". Es como si en biología, resulta que provocando interacciones y reacciones químicas entre aminoácidos y proteinas... al final dicho cóctel, elevado a la enésima potencia, genera un…   » ver todo el comentario
#44 yo creo que los de Netflix necesitan sauce para una nueva serie basada en hechos reales.
xD
Bromas aparte, gracias por el resumen :hug:
#59 bueno, ya han hecho peli del zakerberg, o como se escriba, y dos de Jobs. Como esto de la IA acabe en revolución, no dudo que Altman pueda tener peli.
#24 si yo creo que es lo mismo... No sé sabe de donde viene la lluvia o al viento...
#63 Mira el video ;)
#57 la verdad es que #63 te lo explica súper bien (está siendo un placer leer comentarios tan bien razonados), pero quería añadir algo: a lo que gana una maquina a cualquier ser humano es a hacer cálculos muy rápidos Y YA. Eso es lo único que hacer cualquier ordenador jamás construido y cualquier tarea que le veas hacer se reduce a eso. Como bien explica #63 los seres humanos cada vez hemos ido averiguando nuevas tareas que se pueden hacer sólo a base de cálculos (como conducir un coche) y que…   » ver todo el comentario
#47 uf, cuantas respuestas y cuantas preguntas me surgen a todos vosotros.
Entonces es como si tu le enseñas a hacer una operación, le enseñas a "razonar" y luego que se busque la vida.
Pero por ejemplo, hay cosas que hace la IA que no entendemos porque lo hace, pero hay algún motivo que podríamos llegar a desentrañar no. No tanto como ha llegado hasta el, que deberíamos, sino el porqué funciona de esa manera.
No existe ninguna manera de intentar averiguar porqué hacen según qué cosas, aunque sea a una escala específica. Es decir, sabemos porque el cuerpo tiene ciertas reacciones, se activa X o Y, pero con la IA de momento estos es posible o no?
#66 Bueno, tampoco podemos con el cerebro. Podemos tener una idea de qué hacen determinadas señales químicas, y la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro.

Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales…   » ver todo el comentario
#66 Los intentos de usar redes neuronales para explicar como funciona otra red neuronal generan informes demasiado complejos.
#11 La fama rota?
Pero si están todavía en la cresta.
#68 Que el consejo de administración no sepa lo que hace no es estar en la cresta.
#64 puede ser, la verdad es que no recuerdo el término usado en el artículo, aunque llego a portada ayer o anteayer
#70 vamos no se como será la estructura de OpenAI, pero normalmente es algo así … la junta de accionistas se reune una vez al año … y luelen decidir bien poco… más que nada si apruevan la gentión del consejo o no y si no, cambiarlo.
#65 pero no queda constancia del proceso me refiero, creemos que aprenden a fuerza de ensayo y berros pero con una capacidad superior a la nuestra. Pero no queda reflejado cuáles son los errores. Quizás se pueda indagar por ahi
La rumorología esta abierta. Al final va a quedar como una publicidad gratuita todo el tema de Sam Altman.
#6 Supongo que será algo así como patrones de aprendizaje. Como dices, no le dejas todo y le dices "ale, aprende"
#86 entonces podemos decir que la IA llege un momento que se autoentrene, a partir de sus resultados y se autoconfigure y vaya mejorando o no es posible. Me refiero puede pasar de x cálculos simple a xy cálculos complejos
#95 Una red neuronal se puede autoentrenar. Por ejemplo, así se consiguió que ganara al GO.

Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.

Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.
#95 Soy un profano, pero me atrevería a decir que eso es básicamente lo que hace, e incluso se ponen a competir varios procesos de aprendizaje entre sí que se retroalimentan. El problema es la capacidad de cómputo. Como es finita, tenemos que ver cómo le sacamos más provecho a lo que tenemos. Como si tuvieras un 486 y consiguieras resultados mejorables, luego tuvieras un ordenador actual con una GPU, y consiguieras cosas decentes, y ahora te tocase ver cómo mejoras lo que tienes para poder sacar más del ordenador actual.
#85 Fronkensteen
#98 Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.

Eso no lo sabemos, a menos que te refieras a que el Sol resuelve el problema del agua dulce con la evaporación.
#100, es un buen ejemplo de cómo se está resolviendo un problema sin consciencia. La única diferencia es que a los modelos de IA les podemos definir qué problemas queremos que resuelvan. Eso es lo que las convierte en una herramienta.
#103 Pero reconocemos una diferencia entre que el Sol evapore agua y acabe en los ríos a construir una desaladora y bombear agua hacia los ciudadanos.

El ser humano ha conseguido ese objetivo teniendo consciencia.

La IA la estamos dirigiendo por ese camino hacia ese segundo escenario, la aparición de consciencia podría formar parte de ese camino, de hecho podría no solo formar parte sino ser imprescindible para alcanzar ese objetivo. Lo desconocemos.
#104, el propósito se lo damos nosotros la IA se limita a lograr lo que nosotros le pedimos, no veo que esto lleve implicito que aparezca una conciencia. De todas formas llegará un punto en el que no tendremos forma de determinar si una IA es consciente o no, porque será indistinguible de un ser humano desde fuera.
#104 Por algún extraño motivo, muchos parecemos intuir que es ya solamente una cuestión de cantidad, y quizá un mínimo cambio de enfoque, entre sistemas con solamente una entrada y una salida, y sistemas que tengan residente en memoria una IA a la que se le permita tener algo de iniciativa ( voluntad, aunque comience siendo forzada [ ¿ no lo es la nuestra también ? ] ) e interactuar con su entorno y estímulos.

Que no es que sepamos cómo programar algo para que sea autoconsciente, como no lo…   » ver todo el comentario
#126 #120, perdonad que me meta.

El problema no es que consigamos una respuesta lo más parecida a una respuesta a humana. Incluso aunque consiguiéramos hacer un fake muy conseguido, no sería un problema por sí mismo.

El asunto es que una cantidad determinada de cómputo, sometida a estímulos, y con capacidad de tener cierta iniciativa - aunque fuera forzada en inicio - combinado con una gran capacidad de cómputo, podría resultar en una consciencia por pura consecuencia ( lo explico mejor en…   » ver todo el comentario
#126, #173, perdona pero no estoy de acuerdo, si a día de hoy no podemos tener ninguna prueba material de que los demás seres humanos tienen conciencia, no se como afirmas tan rotundamente que no tendremos la menor duda cuando una IA la desarrolle.

Por otro lado olvidáis que una red neuronal artificial es un momento muy simplificado de una red neuronal natural, el cerebro tiene cientos de elementos que no están representados en nuestra simulación, hormonas, enzimas, proteínas, múltiples…   » ver todo el comentario
#174 No he dicho que tengamos una prueba irrefutable de forma científica, pero sí del mismo nivel con el que tú mismo determinas que la persona que tienes al lado tiene conciencia.

No olvido para nada todo lo que separa un cerebro humano de una inteligencia artificial, en absoluto. Soy plenamente consciente de ello ( en la medida en que yo lo puedo conocer o intuir ), pero también entiendo que no tiene por qué ser determinante, y me explico un poco más a fondo:

Todo lo que el cuerpo necesita…   » ver todo el comentario
#199 Todo lo que el cuerpo necesita para que un ojo pueda recibir información visual del entorno no está presente en una simple cámara. Una cámara es infinitamente más sencilla que un cuerpo humano completo, y que un ojo.

La cámara es fruto del diseño inteligente mientras que el ojo es fruto de un proceso evolutivo.

La cámara tiene las piezas mínimas que necesita tener para cumplir con su función y cada una de sus partes está diseñada para contribuir al resultado y no interferir…   » ver todo el comentario
definitivamente con las matemáticas hemos topado
#53 De hecho hasta cierto punto #46 Casi, definió la consciencia en la definición de IA.
#111 de verdad crees que a eso se reduce la consciencia?
#112 Añades conceptos de difícil definición, ahora añades "propósito". ¿Qué o quién le da propósito a una persona? ¿Él mismo? ¿Su familia? ¿La sociedad? ¿No tiene propósito?

Puedes argumentar que las personas se limitan a lograr lo que la sociedad les pide. ¿Demostraría eso que no tienen consciencia?

no veo que esto lleve implicito que aparezca una conciencia.

Ni excluye que la tenga, ni excluye que la necesite para conseguir el propósito que se le pida. Lo desconocemos.



…   » ver todo el comentario
#114, no añado nada, sino que contesto tu comentario en el que dices "El ser humano ha conseguido ese objetivo teniendo consciencia" y yo entiendo que conseguir este objetivo es sinónimo de cumplir un propósito.

Y lo otro es lo que te estoy diciendo todo el rato, no tenemos ninguna forma de validar que tenga conciencia o no, tampoco sabemos cómo se produce. Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma…   » ver todo el comentario
#113 Si. De echo actualmente todos los imputs serían datos computables.
#116 pues te recomiendo que investigues un poco más sobre neurociencia :-)
#120 Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma espontánea, yo lo dudo enormemente.

No creo que le falte el alma, si es a eso a lo que te refieres con ser "suficiente". Hemos diseñado un modelo inspirado en la biología al cual entrenamos con la cultura humana para que consiga aportar a los retos que los humanos nos hemos marcado. Para evaluar sus capacidades lo juzgamos los humanos en función de cuán…   » ver todo el comentario
#126, "como la única forma que tenemos de afirmar que algo tenga consciencia es que la muestre pues el camino"

Te equivocas, no hay ninguna forma de afirmar que una IA tiene conciencia igual que no tienes ninguna forma de afirmar que yo la tengo. Como ya te he dicho la única prueba que tenemos hoy por hoy de que la conciencia existe es nuestra experiencia subjetiva y por extrapolación asumimos que los demás la deben tener porque están hechos de las mismas piezas que nosotros.…   » ver todo el comentario
#122 Pero eso no nos dice nada, solo que si hay autoconsciencia su origen sería diferente.
#127 pensar que un algoritmo puede tener autoconsciencia es ir un poco en contra de los postulados de la computabilidad, pero yo que sé ya.
#128 el método científico necesita pruebas para afirmar cosas tan rotundas como que algo artificial tiene conciencia.

Es que no hablamos del método científico, es falso que mediante el método científico hayamos determinado que el ser humano tiene conciencia.

Si nos permitimos afirmar que el ser humano tiene conciencia sin disponer de evidencia científica de ello es tramposo exigir evidencia científica para afirmarlo para la inteligencia artificial.

La conciencia es una característica emergente que le atribuimos con nuestro criterio a terceros y ese es el marco honesto en el que englobar la discusión.

¿Utilizamos nosotros la conciencia para jugar al ajedrez? Sí.

¿Puedes demostrar que la usamos para jugar al ajedrez?
#129, puedes demostrar tú que usamos la conciencia para algo?
#117 Muchas gracias, si la versión que estáis usando es la 3.5 y le estáis sacando rendimiento, sin duda deberíais pasaros a la de pago, o al menos hacer la prueba a ver que os parece, hay un buen salto, yo pagué la versión plus solo por probar y no vuelvo atrás ni de coña, al menos mientras me siga ayudando con los proyectos que tengo entre manos.
#130 sin duda lo probaré porque desde luego curiosidad me has generado ;)
#131 No.

De hecho existe una hipótesis que la conciencia no la usamos para tomar decisiones, que la conciencia es un proceso posterior a las decisiones que usamos para explicarnos lo ocurrido. Hay experimentos en los que personas que tienen los dos hemisferios cerebrales sin conexión uno de los hemisferios actúa por su cuenta y el otro hemisferio, el que tiene capacidad de lenguaje, explica lo ocurrido como si hubiera sido una decisión suya.

Y otros experimentos en los que a la persona se le…   » ver todo el comentario
#132, no se si te das cuenta que esto refuerza mi argumento, porque estás diciendo que para tomar decisiones no hace falta utilizar la auto-conciencia. Lo que tu llamas "proceso posterior a las decisiones que usamos para explicarnos lo ocurrido" es lo que yo he llamado "los mecanismos de recompensa asociados a los neurotransmisores". Al final la conciencia actúa como algo similar a la función de coste de una red neuronal artificial, algo que nos permite hacer…   » ver todo el comentario
#62 ha solucionado problemas matemáticos de nivel de primaria sin proporcionarle ninguna herramienta matemática, es decir, el bicho ha razonado y creado sus propias herramientas matemáticas para dar con la solución.

Es un grandisimo paso, por ahora solo es a nivel de primaria, pero espera a que llegue a la mayoría de edad y veras..
#133 Algún enlace a eso que dices? más allá de sus declaraciones quiero decir
#155 No sé dónde lo leí esta mañana, pero aquí tienes un enlace que toca el tema
www.heraldo.es/noticias/sociedad/2023/11/23/que-es-misterioso-proyecto
#168 Reuters no pudo verificar independientemente las capacidades de Q* afirmadas por los investigadores.

Gracias de todas formas
#118 pues básicamente que me da la respuesta de manera directa a la pregunta, por lo que me ahorra un paso a la hora de buscar información y filtrarla (ojo que esto no quita que conlleve otros problemas y es que la IA pueda desarrollar algun sesgo y me lo coma con patatas).

También tiene cierta capacidad de razonamiento que se puede explotar para hacer búsquedas más específicas, por ejemplo una que le he hecho hoy acerca de la hora a la que amanecería y atardecería en Bilbao si no se cambiara…   » ver todo el comentario
#135 esto refuerza mi argumento, porque estás diciendo que para tomar decisiones no hace falta utilizar la auto-conciencia.

Es que no hablamos meramente de "tomar decisiones" sino de tomar decisiones en el sentido y con las consecuencias equiparables a como lo hace el ser humano, por que es sobre esos resultados en base a los que se entrenan las IA, esa es la vara de medir.

Que la conciencia pueda ser un proceso posterior a la decisión no implica que no pueda estar formando…   » ver todo el comentario
#137, cuando digo que le viene dado a través de su diseño, me refiero a que es el algoritmo de entrenamiento el que actúa como mecanismo de evaluación y recompensa. No hace falta que "desarrolle" internamente algo extra para saber si lo está haciendo bien a la hora de aproximarse a la solución que tiene que encontrar. Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si nos sirve a los seres humanos para reforzar el instinto de conservación.
#83 Relacionando conceptos chatgpt supera a muuuchos humanos ya
#94 El tema es que de la complejidad emerge la consciencia.

Ahí va un cuestinario sobre criaturas que tienen cerebro, unas son conscientes, otras no, dónde poner el límite, no lo sé, pero claramente la complejidad del cerebro hace que emerja de consciencia.

Una medusa es consciente?
Un saltamontes es consciente?
Un pez es consciente?
Un ratón es consciente?
Un perro es consciente?
Un chimpancé es consciente?
#118 Creo que el quid de la cuestión es que estamos ante un modelo de lenguaje que abre la puerta la la creación de modelos de matemáticas u modelos de fisica, estos si que serian terriblemente útiles.
#101 Qué podría salir mal... :troll:
#145 Pues... Realmente sabemos poco sobre la inteligencia, pero al menos en lo que podemos observar en la naturaleza, cuanto más inteligente es un ser, más empático y bondadoso es. Piensa en las personas que conoces por ejemplo. A no ser que sean psicópatas, la gente inteligente es la que siempre se preocupa por los demás mientras que los más tontos son los que abusan y son violentos. Hay un dicho que dice "la violencia es el recurso del incompetente".

Pero no sólo entre los humanos.…   » ver todo el comentario
#176 ok, pero la especie más inteligente del planeta ha puesto su propio interés por encima de todo y esclaviza al resto de especies. Ese es el riesgo que tenemos cuando ya no seamos la especie dominante.

Es verdad que las personas, cuanto más inteligentes son más empáticas excepto si son psicópatas, y ahí está el peligro. La IA será una inteligencia alienígena, con su propia forma de entender el universo, que puede no tener nada que ver con la nuestra.

Debatir sobre estos temas es muy interesante y da para mucho. :hug:
#179 pero la especie más inteligente del planeta ha puesto su propio interés por encima de todo y esclaviza al resto de especies

El simple hecho de que eso te parezca malo demuestra que la inteligencia tiende más hacia la bondad.

cuando ya no seamos la especie dominante
Lo de especie dominante es discutible. Depende del criterio que uses. Hay quién diría que las bacterias son más dominantes. O las hormigas.

Pero bueno, es cierto que "usamos" otras especies, porque…   » ver todo el comentario
No estamos cerca de la Inteligencia Artificial General ni de coña. Estamos lejísimos.

Estos descubrimientos son interesantes. Una forma adecuada de describirlos es: Maneras de hacer cosas para las que hasta ahora se creía que hacía falta usar inteligencia, pero resulta que se puede hacer de otra manera.
#102 la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro

Esteeee, no. Nada que ver. Además ni se parecen.
#147 No a nivel interno, sino como red conectada enfocada a resolver un problema. Por pura lógica natural, hay bastante probabilidad de que existan coincidencias en la organización, especialización, topología y arquitectura de ambos sistemas, y viendo uno en pequeñito, podemos extrapolar algunas cosas que podrían ser similares en el cerebro.

Incluso sin IA de por medio, el mero hecho de todo lo que conocemos de los ordenadores, nos sirve para tener un corpus conceptual y una base terminológica que nos ayuda a realizar analogías y comprender mejor los procesos cerebrales, y aunque parezca una tontería todo eso ayuda mucho.
#47 No existen las neuronas artificiales, al menos que yo sepa.
#3 el cerebro humano: conocemos las neuronas

Nadie tiene ni la más mínima idea de qué hace una neurona, mucho menos el cómo.
#151 Exageras. Se sabe bastante de las neuronas (individualmente).
#177 Sobre cómo funcionan, no.
#181 Claro que sí. Si hasta se ha medido neuronas individuales y hasta se les ha "enseñado" cosas (cuando circulan impulsos van reforzando el camino que siguen).
#184 Eso es observar el comportamiento desde fuera, que está muy bien, pero yo hablaba de los mecanismos internos.
#189 pero yo hablaba de los mecanismos internos.

Bueno, depende de cuántos detalles quieras conocer. Pero por lo pronto te digo que visto desde afuera, las neuronas de una inteligencia artificial funcionan exactamente igual. Así que no es raro que la IA se esté acercando tanto al pensamiento humano.
#190 Las redes neuronales no están ni cerca ni lejos del pensamiento humano. No juegan en esa liga. Lo que sí que han demostrado es que se pueden obtener resultados interesantes a base de fuerza bruta.

No tiene nada que ver una neurona biológica con el almacenamiento de pesos en los nodos de una red neuronal. Las neuronas biológicas transmiten mensajes.
#193 Las redes neuronales no están ni cerca ni lejos del pensamiento humano.

Pues a Sam Altman lo despidieron por ocultar a la junta directiva que ya tienen una inteligencia artificial que puede razonar problemas matemáticos como un humano. Así que sí que están muchísimo más cerca de lo que nos imaginábamos.

han demostrado es que se pueden obtener resultados interesantes a base de fuerza bruta.

De fuerza bruta nada. Una IA como chatgpt tiene una capacidad ínfima comparada con un cerebro humano, y ya razona al nivel, como mínimo, de un niño de unos 10 años.
#195 Una red neuronal no puede razonar. Ni poco ni mucho.

razonar problemas matemáticos como un humano

E incluso mejor. math.microsoft.com/en
#196 Una red neuronal no puede razonar. Ni poco ni mucho.

Tomando en cuenta que nosotros también somos redes neurales, me atrevería a decir que sí. De hecho es el avance revolucionario que Sam Altman le ocultó a la junta directiva.
#197 Es imposible debido a su estructura interna.

No seguiré contestando. Todo lo que es necesario decir ya lo he dicho.
#177 Mira por ejemplo este video. (muy corto)

Solo que

La señales entre neuronas no son eléctricas
La transmisión no es instantánea.
Las neuronas se "disparan" regularmente, todas ellas juntas formando oleadas, dentro de una red en forma de cuadrícula.
Las señales entre neuronas no son eventos binarios, sino que consisten en trenes de impulsos mecánicos modulados por su frecuencia.

A pesar de haberlo dicho todo mal, podrás observar que no se dice ni una sola palabra sobre cómo una neurona guarda la información ni cómo toma sus decisiones. Porque nadie sabe eso.
#182 La señales entre neuronas no son eléctricas
Son electroquímicas: entran eléctricas, eso desencadena una respuesta química, que produce otra eléctrica.

La transmisión no es instantánea.
Claro, porque las reacciones químicas son lentas.

A ver, lo que sabemos es más o menos así: una neurona recibe impulsos de varias entradas y produce una salida. Esa salida depende de las entradas pero cada una tiene diferente "peso". A demás el uso repetido cuando produce una salida, refuerza el peso de esa entrada.
#185 1 - Las señales entre neuronas tienen una parte eléctrica y otra mecánica. Ambas observadas, por lo que eso no es ningún misterio ni hay discusión posible. La respuesta química que existe es parte del mecanismo de la neurona, pero no hay señales químicas que se transmitan. Hay una corriente eléctrica y hay un impulso mecánico. Ambos se transmiten a lo largo del axón.

Luego aquí lo interesante es ver cual de los dos (o ambos) son los que transmiten la información.

Hay indicios de que la…   » ver todo el comentario
#188 Específicamente el que los campos magnéticos no tienen influencia en el funcionamiento del cerebro.

¿Qué? ¡No me digas que no conoces los experimentos en los que se aplican pulsos magnéticos en el cerebro para desactivar partes de él momentáneamente! Busca "estimulación magnética transcraneal".

youtube.com/shorts/e6ZoDZsqtYI
#191 Te has confundido de tema. Sí que se puede estimular alguna zona del cerebro. Es mucho más eficaz si se usa directamente una corriente eléctrica.
en.wikipedia.org/wiki/Transcranial_direct-current_stimulation
Algo usable para estudiar. Hay una empresa que vende el cacharrito.

Lo que no tiene absolutamente nada que ver con lo que yo decía.

Si las neuronas se comunicaran entre sí mediante electricidad, un campo magnético crearía corrientes eléctricas anormales que como mínimo las confundirían, impidiendo su funcionamiento. No sucede nada de eso.

Son afirmaciones completamente distintas.
#192 Si las neuronas se comunicaran entre sí mediante electricidad, un campo magnético crearía corrientes eléctricas anormales que como mínimo las confundirían,

Exactamente eso es lo que pasa con la estimulación magnética transcraneal. De hecho hay un interesante experimento en el que se convierte temporalmente a una persona en psicópata. Se le hacen las típicas preguntas del dilema del tren o alguna equivalente, donde un psicópata usa la fría lógica eligiendo salvar la mayor cantidad…   » ver todo el comentario
#69 Chat GPT no puede ser autoconsciente entre otras cosas porque solo responde a un prompt

Esa es una de las limitaciones que lo impiden, pero hay más.

Por otra parte habría que definir eso de la consciencia.
#43 Con los pulpos se está exagerando un poco.
#154 sí, sí, pero joer, pero la relación nº de neuronas/inteligencia sigue siendo brutal, eh?
#2 si la inteligencia no es sólo propia de los seres vivos sería un descubrimiento, sino invento
#16 el cerebro humano, que es maravilloso, tiene límites, pero la IA no, ese es el "problema"
#156 No hace falta que "desarrolle" internamente algo extra para saber si lo está haciendo bien a la hora de aproximarse a la solución que tiene que encontrar.

Si queremos que muestre respuestas lo más humanas posibles en una charla donde interactúa con humanos claro que todos los mecanismos que tienen los humanos le pueden ser útiles en ese objetivo. Y ese es el objetivo para el que se la entrena.

Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si

…   » ver todo el comentario
#159, Si queremos que muestre respuestas lo más humanas posibles en una charla donde interactúa con humanos claro que todos los mecanismos que tienen los humanos le pueden ser útiles en ese objetivo. Y ese es el objetivo para el que se la entrena.

¿Supongo que entonces opinas que Deep Blue desarrolló conciencia para lograr derrotar a Kasparov hace más de 20 años, no? Y si no es así, dónde pones la frontera de qué clase de problemas necesitan de conciencia y qué clase de problemas no, para poder superar el desempeño humano.
#160 Estamos hablando de IAs que se están entrenando para interactuar con lenguaje natural con el ser humano, de la forma más humana posible, ese es el contexto.
#161, me sigue pareciendo un criterio arbitrario. ¿Qué opinas de los modelos que dibujan? Solo se entrenan con imágenes, así que en teoría no tienen acceso a los textos que deberían permitir replicar la conciencia humana, sin embargo son capaces de dibujar cosas para los que los humanos siempre hemos considerado que se necesita introspección, inspiración, creatividad y sentimientos.

Para mi no hay ninguna prueba de que con un número suficiente de operaciones matemáticas, no se pueda lograr un uso del lenguaje similar al de los humanos, así como se puede dibujar un paisaje bucólico que nadie haya imaginado jamás antes.
#162 ¿Qué opinas de los modelos que dibujan? Solo se entrenan con imágenes, así que en teoría no tienen acceso a los textos

Claro que tienen acceso a los textos, de lo contrario no podrían dibujar lo que se les pide en lenguaje natural.
#163, error mío, después de escribir el comentario me di cuenta. De todas formas deberías poder entender lo que te quiero decir, la cantidad y calidad de los textos a los que tienen acceso es bastante más limitada que los que han tenido los LLM. Se basan solamente en las descripciones de las imágenes. Si piensas que esto basta para agarrarse a la teoría de que ha logrado adquirir cierto grado de conciencia a partir de lo que ha leído, pues bueno, que le vamos hacer. Entraremos en un bucle infinito en el que yo diré que no y tú dirás que sí, sin que podamos probar nada de nada, porque la existencia de conciencia porque a día de hoy, como ya te te dicho, es imposible de demostrar.
#141 te veo tratando de ligar con una máquina de refrescos tras escuchar “aquí tiene su bebida, gracias “. Hay que tener algo de conocimiento sobre un tema para hacer afirmaciones tan arriesgadas.
#166 Haces afirmaciones categóricas, propias de alguien de palillo y barra de bar, no sé si merece la pena contestarte, pero te voy a dar el beneficio de la duda. Probablemente me arrepienta.

Por supuesto que a día de hoy no es autoconsciente la IA, por 3 motivos principalmente.

- Es reactiva, es decir, sólo hace cosas que le pides con un prompt. Una de las características de la consciencia es el bucle consciente. Ya ha habido algunas pruebas en este sentido usando al propio chatgpt y con…   » ver todo el comentario
#167 a ver, yo soy programador y también trabajo a diario con chatGPT y no, no creo que razone, lo que pasa que se tira el pisto muy bien. Es “fácil” ver qué hace para conseguirlo: cuando le entrenaban y le daban feedback, las respuestas que parecían más seguras se puntuaban mejor. A veces te está soltando una bula como una casa y lo suelta segurísimo de sí mismo. Le indicas el error y si no tiene definida una ruta alternativa, sigue insistiendo en ello tras disculparse y reconocer el error.…   » ver todo el comentario
#118 yo lo uso a diario como asistente para todo: desde la receta de las tortitas con nata hasta resúmenes del código técnico de la edificación
#16 ¿Por qué Q* de OpenAI supone un riesgo para la humanidad?
Que una inteligencia artificial pueda resolver problemas matemáticos puede no sonar demasiado impactante, pero en realidad es un avance importantísimo, ya que los expertos de este sector consideran las matemáticas como la frontera en el desarrollo de la IA generativa.

¿Por qué? Actualmente, la IA generativa es buena en escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, sin embargo, la manera de…   » ver todo el comentario
#183 que se convierta en una máquina ‘demasiado’ inteligente, es decir, que pueda ‘pensar’ de forma autónoma. Eso deja la puerta abierta a que esta IA pueda decidir que la destrucción de la humanidad es de su interés.

1) Como ya he explicado, por lo observado en los pocos animales con inteligencia avanzada que hay en el planeta, cuanto más inteligentes más empáticos y amigables con otras especies

2) Y si la destrucción fuera "de su interés", tampoco significa que pueda…   » ver todo el comentario
#186 Nosotros somos hasta ahora la especie mas "inteligente" del planeta y no somos nada empáticos ni amigable con el resto de especies, hemos extinguido o esclavizado a la mayor parte de las especies del planeta, ademas de ser la especie mas peligrosa para una extinción del planeta, es normal que tengamos miedo a una especie superior.
#200 Estoy completamente de acuerdo, pero era simplemente un símil entre la complejidad necesaria de ambos sistemas, y que si nos basamos únicamente en la función, podemos llegar por varios caminos distintos sin requerir la totalidad de la complejidad del ojo.

Ya como offtopic, el tema de la complejidad del ojo y de compararlo con una cámara, se sale del rango de la discusión, porque el ojo no es solamente el ojo, nosotros vemos con el cerebro, y no es sólo el post-procesado que…   » ver todo el comentario
comentarios cerrados

menéame