edición general
276 meneos
3828 clics
Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

Descubrimiento revolucionario en IA detrás del despido de Sam Altman en OpenAI [EN]

La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.

| etiquetas: descubrimiento , despido , sam altman , openai
«123
  1. #6 Pero es un mecanismo que hay que programar.
    #12
    Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.

    Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con la IA: Lo que programaron son una serie de reglas relativamente sencillas y fáciles de entender. Lo maravilloso es que esas reglas repetidas miles de millones de veces generan un resultado tan complejo que nadie podría comprender.
    De hecho, el analizar lo que la IA hace para procesar los datos ha ayudado a comprender mejor como funciona el cerebro humano. Se ha descubierto que surgen neuronas especializadas en determinadas partes de la información, como que la red aprende conceptos básicos.

    Tienes que ver la IA como si fuera una planilla de cálculos llena de fórmulas todas iguales pero con varios números que se pueden cambiar. Al principio el resultado las fórmulas no es el que quieres, pero sería imposible que una persona ajustara los valores a mano. Entonces otro programa que no es muy complicado, los va modificando automáticamente para que poco a poco se vaya pareciendo más y más a lo que quieres obtener. Después de miles de intentos el resultado es suficientemente bueno.

    Tu después te pones a mirar las fórmulas y tienen valores que ninguna persona habría podido deducir. De hecho, no tienes ni idea de por qué con esos números el resultado funciona y con otros no. Los cálculos no son complejos pero se calculan valores que no sabes por qué están ahí. Bueno, sí, están ahí porque así funciona y punto. Y nadie los puso ahí: fue un proceso automatizado. Si después alguien te preguntara si tu hiciste esa planilla, para ser sincero tendrías que decir que no, que tu hiciste un programa sencillo que después de mucho trabajo hizo la planilla. Nunca habrías podido hacerla tu mismo. Indirectamente es el creador? pues sí... tanto como el que creó los chips de tu ordenador. Pero él tampoco podría adjudicarse el mérito por la planilla...
  2. #22 Básicamente:
    -Altman oculta cosas a la junta directiva y la junta se entera.
    -La junta se mosquea por la ocultación de la información.
    -La junta echa a Altman de CEO.
    -El presidente de la junta, amigo y socio fundador, renuncia como medida de protesta por el despido.
    -Microsoft, que posee el 49% de la empresa y ve vital el tema de la IA en windows 12, bing y otros servicios como copilot, apoya a Altman y lo contrata directamente.
    -MS deja abierta la puerta a contratar a la totalidad de los empleados de la empresa y el 90% firman una carta diciendo que se van, en una especie de OPA encubierta a la totalidad de la compañía.
    -La junta se acojona porque MS se lo va a llevar todo, readmiten a Altman y dimite parte del grupo de la junta que lo echó.

    Lo que ocultó Altman no se sabe. Si es un tema económico, de visión de proyecto, de plazos o, como se especula ahora, de tecnología. Pero está claro que había desavenencias éticas y económicas en cómo explotar comercialmente la empresa con Microsoft de por medio.

    Yo no estoy muy convencido de que Altman sea la víctima en todo esto, estando los de Redmond de por medio, que ya sabemos cómo se las gastan. Y desde luego nunca se puede ocultar información relevante de forma intencionada a tu Junta. Es motivo justo de despido.
  3. ¿Descubrimiento o invento? A los periodistas les cuesta entender la diferencia.
  4. #2 Sería discutible... Recuerda que en IA lo que se crea es una especie de "lienzo en blanco" y es la propia máquina la que se enseña a sí misma a hacer las cosas. Nosotros solo proporcionamos el mecanismo de aprendizaje pero en realidad no comprendemos cómo funciona por dentro.

    O sea, sabemos bien lo que lo compone, pero es como con el cerebro humano: conocemos las neuronas pero sus interacciones son demasiado complejas. Lo mismo con la IA: conocemos las funciones matemáticas con las que funciona, pero el conjunto es demasiado complicado para entenderlo.
  5. #9 Un ejemplo sencillo de que no es tan raro son, por ejemplo, las lentes: se han usado desde hace mucho sin tener conocimiento de los principios que subyacen, la gente sólo sabía, por experimentación, que funcionaban, y ya.

    De hecho, diría que, hasta no hace mucho, era la forma habitual de hacer: usar lo que conoces por experimentación, sin necesidad de saber los principios que subyacen. El fuego, sin ir más lejos.

    cc #4
  6. #7 La penicilina existía antes de que Fleming se diese cuenta de que tenía efecto antibiótico. Por tanto, fué un descubrimiento. En todo caso, se puede "inventar" un sistema para producirla a gran escala.
  7. #3 Pero es un mecanismo que hay que programar. No te lo encuentras debajo de una piedra, no es una ley natural. Mientras no lo implemente alguien, no existe.

    CC #5
  8. #57 No hace falta la conciencia para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva.

    No sabemos qué es necesario para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva, por lo que afirmar que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.

    Es más, el concepto de "tarea cognitiva" no tiene una definición suficientemente precisa. Por ejemplo para obtener agua dulce del océano el ser humano ha hecho varias tareas cognitivas que se han concretado en una desaladora, ese mismo objetivo lo consigue el Sol evaporando agua que genera lluvias y éstas fluyen por un río. No creo que nadie vaya a afirmar que el Sol supera al ser humano en esa "tarea cognitiva".

    Ese es un caso extremo pero entre ambos casos hay un montón de ejemplos que van creando una región gris en la que no está nada claro si lo que ocurre es o no es una "tarea cognitiva". Muchos defenderán que conducir un coche ya no es una tarea cognitiva dado que han visto a coches que lo hacen y por lo tanto si lo hace una máquina no es una tarea cognitiva. Aunque si esa pregunta se hiciera hace un siglo posiblemente nadie dudaría del requisito de llevar a cabo una tarea cognitiva para conducir un coche.
  9. #34 ¿a qué te refieres con que se ha desinflado bastante? La capacidad de razonamiento, síntesis, comprensión lectora, creatividad de GPT-4 fueron un salto increíble con respecto a GPT-3.5. Ahora es capaz de comprender imágenes como input, lo que amplifica sus capacidades aún más. Personalmente la uso todos los días en mi trabajo (soy informático) y en mi vida privada (apenas busco ya en Google).

    Para mí ha sido un cambio bastante disruptivo y para nada veo un desinflamiento/estancamiento.
  10. #10 Exacto, los efectos del Penicillium se conocen desde hace al menos 5000 años. Lo que hizo Fleming fue descubrir y aislar la molécula en 1928, aunque la producción a gran escala no se inició hasta 1941.
    Los antiguos métodos de administración eran atroces, como untar una hoja de cuchillo con el moho e introducirla en la herida, o en el caso de parturientas, comer pan mohoso como único remedio a las fiebres puerperales.
  11. #6 Depende (sí, aquí el gallego). El descubrimiento de la penicilina ¿fue tal o un invento? Porque fue algo no esperado, y puede que te hayas preparado y diseñado un algoritmo para hacer X y resulta que hace otras cosas que no esperabas. Eso para mí es más un descubrimiento que un invento en sí.
  12. #39 no es tanto el numero (las ballenas y elefantes tienen más), si no la proporción tamaño del cuerpo, número de conexiones, etc. Y algo más parece que hay, porque los cuervos o los pulpos han resultado ser la hostia de inteligentes.
  13. #2 los teoremas, metodos y aplicaciones generales de las matematicas se suelen considerar descubrimientos.
  14. #3 Como reza el dicho: "si nuestro cerebro fuera tan sencillo que pudiéramos comprenderlo, no tendríamos la inteligencia suficiente para entneder qué hacemos en Menéame"
  15. #29 La IA se reprograma. Si fuera un autómata sería un sistema experto, un conjunto de reglas que se aplican y ya, como el Mycin (o algo así, uno de los primeros sistemas expertos que salieron para medicina, era muy listo pero no aprendía). Las IAs aprenden, si no, no son IAs (y nos venden muchas cosas como IAs que en realidad no lo son, pero eso es otra historia).
  16. #29 no, no es como el cerebro humano.

    Se parece muchísimo. Tanto que ha servido para comprender mejor el cerebro.

    El cerebro humano no lo es (pues se autoreprograma).

    Las IAs también. Nosotros sólo comprendemos las neuronas de la IA. Le proporcionamos la base pero la IA se hace a sí misma en el proceso que se llama entrenamiento.
  17. #4 Las redes de neuronas artificiales, aunque sepamos como funcionan, son una "caja negra" en el sentido de que no sabemos exactamente qué operaciones están realizando con los datos (técnicamente, cómo dividen el espacio N-dimensional que determinan los parámetros de entrada). Las entrenamos diciéndoles qué respuesta es correcta y cuál incorrecta y les damos un método para que se adapten y aprendan. Pero el resultado de este entrenamiento no podemos analizarlo a simple vista.

    Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.
  18. #40 Con todos los respetos, creo que no acabas de comprender como funciona una IA, pero tu mismo la estas explicando. No sabemos como las conexiones neuronales convierten unos pensamientos en otros, pero sabemos que esta basado en un mecanismo de neuronas con diferentes pequeñas funciones cada una que, sumadas, hacen algo llamado "pensamiento" o "inteligencia"

    La IA es exactamente eso. miles de pequeños mini programitas (neuronas) que se "autoprograman" en base a unas entradas para obtener una salida. Nadie sabe como interaccionan entre ellas, pero consiguen un resultado similar a lo que haria un humano,

    No tienen nada que ver con una molecula de ADN. ¿Porque dices eso?
  19. #34 Chat GPT no puede ser autoconsciente entre otras cosas porque solo responde a un prompt, entre prompts no está viva ni razona, que yo sepa.
    No obstante no me parece que Chat-GPT sea algo solo medianamente aceptable, a mí hace no tantos años me dicen que para la fecha actual iba a existir algo así y no me lo creo, y se ha desinflado muy entre comillas, que sigue teniendo más de 100 millones de usuarios diarios. No sé si habrás tenido la oportunidad de usar Chat-GPT plus, que va con GPT-4-turbo, DALL-E, visión de imágenes, o la posibilidad de subirle un documento de hasta 300 páginas y que trabaje con esos datos, es una pasada y ha mejorado muchísimo con respecto al chat-gpt de enero, yo lo uso a diario para mil cosas ¿Que no es autoconsciente? Obviamente no, pero me da la sensación de que, igual que mucha gente se pasa atribuyéndole capacidades, mucha gente trata de minusvalorarlo, y yo creo que es el software más increíble que ha surgido en los últimos años, y además es que no deja de evolucionar a un ritmo bastante acelerado.
  20. #66 Bueno, tampoco podemos con el cerebro. Podemos tener una idea de qué hacen determinadas señales químicas, y la investigación en Redes de Neuronas Artificiales nos ha facilitado comprender muchísimo que hacen las redes de neuronas reales que hay en nuestro cerebro.

    Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales como ChatGPT o Midjourney/StableDiffusion/Walle, vienen por esta técnica de las Redes de Neuronas Artificiales.

    En el modelo estandar ("perceptrón multicapa", que es más sencillo que lo actual y tiene algunas décadas), tienes M neuronas de entrada, otras N en una capa intermedia, y finalmente O de salida. Hay interconexiones entre todas las neuronas de la primera capa y las de la segunda, y entre las de esta y la de salida. Y el "peso" de estas conexiones se van ajustando a medida que se entrena a la red de neuronas.

    Para hacerte a la idea, podemos entrenar a una red de neuronas de estas para que reconozca las letras del abecedario, cosa que sería horrenda de programar en un algoritmo "lineal" clásico; al entrenar a la red de neuronas sabemos cómo funciona el método por el que lo hacemos, pero cuando conseguimos que las reconozca no sabemos exáctamente qué está mirando para distinguirlas porque es demasiado complejo; lo que hacemos es ajustar la cantidad de neuronas en cada capa, quizá el método de entrenamiento o las funciones de activación, para facilitar que obtenga una solución mejor y en menos tiempo. Y si tenemos un montón de tipos de letra distintos, alimentamos a la red con ellos. Con esto, además, será capaz de entender tipos de letra que aún no haya visto, igual que lo haríamos nosotros.

    es.wikipedia.org/wiki/Perceptrón_multicapa
  21. #79 Lo que describes me recuerda mucho al concepto darwiniano de evolución.

    Por supuesto. Es algo similar. Mediante purebas sucesivas se va aproximando al resultado que se busca.

    Por eso lo complicado de entrenar una inteligencia artificial son los datos de entrenamiento. Por ejemplo si quieres que una IA entienda lo que se ve en una foto, necesitas millones de fotos con una descripción escrita. Si quieres que entienda lenguaje hablado, necesitas millones de grabaciones con su transcripción a texto. Como entrada le das el sonido. Esos datos, que son simplemente números, pasan por una serie de cálculos matemáticos. Al final esos cálculos dan otros números que traducimos a letras. Si las letras no son las que corresponden a la palabra hablada del sonido, se hace el cálculo a la inversa reajustando los valores hasta llegar al inicio y se repite. Eso se hace para miles de ejemplos.
  22. #23 La patada viene por las discusiones sobre como usar ese descubrimiento. Etica y dineros
  23. #22 En YouTube " dot csv" lo intentaba recientemente www.youtube.com/live/F6DTEcjpuEU?si=w3gcJSV0EGByZX1V
  24. #46 Si es que ese debate me parece muy filosófico ¿qué es la consciencia? ¿son los animales autoconscientes? ¿cómo lo sabemos? Y, de manera análoga a tu pregunta, ¿cómo va a ser autoconsciente una planta química que funciona en base a transmisiones de productos químicos e impulsos eléctricos?
  25. #12 Todas las partes fundamentales del proceso de aprendizaje y razonamiento son conocidas y entendibles. Cada una de las partes individuales fundamentales.
    Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.

    De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y capacidades tan complejas de una forma casi automática. Casi automática, porque cuando se entrena una IA, y le pedimos algo, sólo le proporcionamos una "nota" o "evaluación" o "puntuación". La IA se reconfigura internamente (siguiendo unas reglas fundamentales conocidas, pero llevadas a un nivel de convolución inmenso) que hace que obtenga más puntuación, y más, y más, hasta que siempre obtiene una alta puntuación.

    Cómo han cambiado esos valores internos para llegar a ese punto? Las reglas fundamentales son sencillas de explicar, pero no se puede explicar de forma sencilla la evolución iterativa de miles de millones de valores de una manera por así decirlo "macroscopica" de forma obvia.
    Otra forma de decirlo es que puedes observar esos valores internos evolucionar desde el principio, o ver su estado final, y ser incapaz de ver un "algoritmo" claramente definido. Símplemente, funciona.
  26. #31 Según el artículo, tiene que ver con un avance importante en la capacidad de comprensión y resolución de lógica matemática para la IA, lo cuál es uno de sus mayores puntos débiles en la actualidad. Difícil de decir hasta qué punto es algo revolucionario o solo un pequeño paso más hacia la inteligencia artificial general.
  27. #3 no, no es como el cerebro humano. Tal y como dice #6, en este caso hay que programarlo y la IA no se puede salir de esa programación, pues sigue siendo un autómata. El cerebro humano no lo es (pues se autoreprograma).
  28. #55 Continuando lo que dice #77. las IAs no están programadas por humanos. Están construídas por humanos, y les son dados un puñado de mecanismos para autoconfigurarse, y miles de millones de entradas (el equivalente a nuestros sentidos, nervios, etc).
    Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en hacer ese algo.
    Entonces, a base de evolucionar y evolucionar durante miles o millones de iteraciones y reconfiguraciones intentando maximizar esa aptitud, la IA aprende por sí sola.

    No hay un programa o algoritmos, en el sentido clásico del término. Símplemente valores de entrada, las mismas operaciones combinadas miles de millones de veces puestas de alguna manera por la IA misma, y una salida que cumple las expectativas de lo que sea que fuera el objetivo que la IA debía cumplir.
  29. ¿Hype para intentar reparar la fama rota de OpenAI?
  30. #12 yo lo entiendo como los ordenadores que juegan al ajedrez, tú les das las normas y se ponen a pensar millones de jugadas hasta que dan con la buena. El resultado es el que queremos, pero no te pongas a investigar los millones de intentos que ha realizado para obtenerla.
  31. #3 eso que dices es aplicable al deep learning.
    Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan. De hecho, la mayoría de las matemáticas de la IA son bastante claras e intuitivas

    Edit: a ver, los algoritmos los entendemos, con el deep learning lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo, lo cual impide la comprensión del sistema pero no del algoritmo. No sé si me explico
  32. Para que quede constancia yo nunca he tratado mal ni siquiera a un tostador. A veces le di un par de golpes a un mando antes de darme cuenta que no tenía pilas. Queda dicho.
  33. #32, no es exactamente lo que te quería decir #26. Una recta de regresión puede ser un algoritmo de machine learning y entendemos perfectamente lo que es, no solo como se entrena sino qué criterios pondera para realizar sus predicciones. Con el deep learning se nos escapa.
  34. #83, yo el debate sobre la conciencia trato de eludirlo porque añade más ruido que otra cosa y da alas a los que dicen que la IA es un bluf, además creo que no aporta demasiado, primero, porque no entendemos bien qué mecanismo la produce y segundo porque no tenemos ninguna forma empírica de evaluar que existe más allá de nuestra propia experiencia subjetiva. Hay académicos como Geoffrey Hinton, al cual le tengo una enorme admiración que afirman que es probable que a medida que escalen las redes neuronales, desarrollen una conciencia parecida a la de los seres humanos, pero yo no lo termino de ver, la verdad.

    A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar. Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia. Ahora escalemos el problema a una red mucho más grande, pero pequeña al lado de chatGPT, como una ResNet50 capaz de clasificar imágenes de perros y gatos. Crees que ha desarrollado un grado de conciencia para ello? Yo creo que no hace falta ya que mediante puras operaciones matemáticas es suficiente para poder extraer las caracteristicas que definen a cada imagen. Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia. Y si no es así, dónde está la frontera y por qué? Por qué es necesaria la autoconciencia para poder escribir correctamente? Yo no lo veo de ninguna manera, aunque resulte contra-intuitivo pensar que cualquier problema intelectual pueda ser reducido a una combinación de operaciones matemáticas sencillas si se escala lo suficiente, pienso que es así.
  35. #94 yo el debate sobre la conciencia trato de eludirlo

    Este comentario tuyo al que respondo no es un buen ejemplo de ello xD

    A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar.

    Ahora piensa en un rotífero1 que tiene entre 6 y 11 neuronas cerebrales2 (foto adjunta al final). Que son capaces de alimentarse, sobrevivir y perpetuarse.

    Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia.

    Ahora escalemos el problema a una red mucho más grande, un cerebro humano.

    Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia.

    Esa hipótesis también te permitiría concluir que el ser humano podría resolver cualquier problema sin tener consciencia. Pero sería solo eso, una hipótesis. La realidad es que sí afirmamos que el ser humano tiene consciencia, una consciencia que no sabemos cómo surge y por lo tanto no podemos afirmar que no va a surgir, o que no ha surgido ya, en una red neuronal de una IA.

    1 es.wikipedia.org/wiki/Rotifera
    2 link.springer.com/chapter/10.1007/978-94-011-4782-8_20

     media
  36. #20 JAJAJAJAJA el giro final me ha molado, pero tomándolo en serio, el cerebro se está estudiando a sí mismo. Da qué pensar.
  37. #16 en el caso de chatGPT por ejemplo se tardó dos años de prueba y error hasta conseguir algo medianamente aceptable y tras el furor inicial la cosa se ha desinflado bastante. Que no digo que no tenga mérito, eh? Pero de ahí a estar a un paso de IA autoconscientes como muchos aseguran…
  38. #34 Se ha desinflado como se desinflan todas las innovaciones tecnológicas. La gente siempre piensa que es más de lo que es, hasta que de pronto nos damos cuenta y han cambiado los procesos de manera que ni imaginábamos. No sé si serán autoconscientes, no tengo muy claro qué significa ser autoconsciente de hecho, pero son una revolución importantísima y en 10 años pensaremos eso de "antes, ¿cómo hacíamos esto?"
  39. Arnold calienta que sales...
  40. #34, las AGI no son entidades auto-conscientes, si no entendemos esto, mal vamos. No hace falta la conciencia para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva.
  41. #63 Mira el video ;)
  42. #57 la verdad es que #63 te lo explica súper bien (está siendo un placer leer comentarios tan bien razonados), pero quería añadir algo: a lo que gana una maquina a cualquier ser humano es a hacer cálculos muy rápidos Y YA. Eso es lo único que hacer cualquier ordenador jamás construido y cualquier tarea que le veas hacer se reduce a eso. Como bien explica #63 los seres humanos cada vez hemos ido averiguando nuevas tareas que se pueden hacer sólo a base de cálculos (como conducir un coche) y que han pasado a poder hacer las máquinas, pero eso no significa que la definición de “computable” haya cambiado: los ordenadores siguen siendo igual ahora que hace 60 años. Un cerebro humano no es computable, pero hay tareas mucho más sencillas que tampoco lo son y que, por lo tanto, nunca podrán hacer las maquinas :-)
  43. #33 como se va a parecer muchísimo, hombre? Creo que no sabemos hasta qué punto desconocemos el cerebro humano. No se sabe ni como se enruta las señales neuronales entre los trilllones de caminos que hay en el cerebro. No es que no sepamos como surgen los pensamientos o el amor, es que no sabemos como esas señales se convierten en imágenes en la zona de procesamiento de imágenes del cerebro. Quiero decir, usa matrices? Ni idea. Ni siquiera las llamadas “redes neuronales “ se parecen un pimiento al cerebro, imagínate una IA que es un árbol de posibilidades. Para que te hagas una idea, una IA imita a una molécula de ADN. Así de lejos del cerebro está.
  44. #43 Es que seria mas preciso decir, cuantas neuronas dedicadas a problemas generales. Esos bichos tienen mas neuronas simplemente porque tienen un cuerpo mayor, con lo que se necesitan mas neuronas para gestionar ese cuerpo, pero las neuronas dedicadas a problemas generales son pocas porque en su ambiente no necesitan mas. A los bichos pequeños les pasa parecido, parecen la ostia de inteligentes porque aunque tengan menos neuronas, tienen muchas mas en proporción para problemas generales.
  45. #53 no se sabe lo que es la consciencia, pero si se sabe que el cerebro no es una maquina de Turing (un automata). Las IA sí lo son.
  46. #49 exacto, perfectamente resumido :-)
  47. #48 con todos los respetos, soy informático y por eso estoy aquí, porque hay muchos malentendidos que yo sí conozco. No, las IA no se reprograman, su código no cambia, añaden variables a su árbol de posibilidades. Hace años la gente flipaba con el Aquinator y se basa en el mismo principio que chatGPT, no se ha inventado nada nuevo: se ha invertido mucho más tiempo y las maquinas son lo suficientemente potentes para que sea mejor.

    pero consiguen un resultado similar a lo que haria un humano,
    Poco has usado tú chatGPT, hijo.
  48. #127 pensar que un algoritmo puede tener autoconsciencia es ir un poco en contra de los postulados de la computabilidad, pero yo que sé ya.
  49. #199 Todo lo que el cuerpo necesita para que un ojo pueda recibir información visual del entorno no está presente en una simple cámara. Una cámara es infinitamente más sencilla que un cuerpo humano completo, y que un ojo.

    La cámara es fruto del diseño inteligente mientras que el ojo es fruto de un proceso evolutivo.

    La cámara tiene las piezas mínimas que necesita tener para cumplir con su función y cada una de sus partes está diseñada para contribuir al resultado y no interferir negativamente en el resultado.

    El ojo tiene piezas que podrían ser sobrantes y procesos innecesariamente complejos pero que en conjunto dan un resultado suficiente, tiene elementos mal puestos que tapan parte de la visión y tiene muchas limitaciones que se cubren con el postprocesado que hace posteriormente el cerebro. A su vez está mal ubicado, una parte relevante está tapada por la nariz pero el cerebro se encarga de borrar esa información innecesaria y no somos conscientes de ello.

    La cámara, como unidad de captación de imágenes, le da mil vueltas al ojo. Pero la cámara suele tener detrás un cerebro como sí lo tiene el ojo, no suele tener un postprocesado que aprovecha al máximo lo que se recibe de ella borrando las imperfecciones y usando movimientos rápidos para reconstruir la imagen continuamente en base a la poca zona enfocada que muestra el ojo.

    Cuando hablamos de la IA hablamos de proceso evolutivo, la IA sí puede usar la información de la cámara y aplicarle los filtros y criterios que el cerebro le aplica al ojo.
  50. #1 Al revés, lo echaron para frenar el avance en IA porque les entró miedo.
    Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.
  51. #69 pues mira, tienes toda la razón y te voto positivo porque me lo has hecho ver. No he tenido la posibilidad de usar la versión PRO (estamos barajando la posibilidad de pedir a la empresa que lo compre durante un tiempo porque la versión gratuita ha cambiado mi forma de currar por completo), y es verdad que hace nada algo así era impensable y por supuesto que es el software más avanzado e increíble que se haya programado jamás, pero ya. No es ni por asomo autoconsciente y que haya tanta gente que me lo discuta me hace darme cuenta del problema que va a suponer la aparición de robots humanoides. Es un placer leer comentarios tan bien razonados como el tuyo por aquí de vez en cuando ;)
  52. #21 Como el viento o la lluvia, que no se sabe de donde vienen pero los utilizamos.
  53. #1 O el jovencito Frankainstain  media
  54. #4 Por supuesto. Y no es tan raro.
  55. Sam Altman parece que tiene principios
  56. #46 Cómo va a ser autoconsciente una amalgama de células que se conectan entre sí y que reenvían pequeñas corrientes eléctricas?
  57. #95 Una red neuronal se puede autoentrenar. Por ejemplo, así se consiguió que ganara al GO.

    Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.

    Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.
  58. #66 Los intentos de usar redes neuronales para explicar como funciona otra red neuronal generan informes demasiado complejos.
  59. #204 sí, árboles de decisión y clasificaciones, exacto.
  60. #2 Conste que te he votado positivo, pero no sería la primera vez que se argumenta que, el algoritmo en cuestión, ya estaba ahí antes de que el programador de turno "lo descubriera".
  61. #19 si si eso estoy de acuerdo, es como la anestesia se sabe que funciona pero no se sabe que proceso fisiológico desarrolla para estar en ese estado, pero el tema de la IA creía que había algo más que lo hiciera funcionar.
  62. #52 sera la consejo de administración ("board or directors"), la junta de accionistas no puede cambiar a no ser que cambie la composición accionarial de la empresa, que no creo que lo haya hecho en tan poco tiempo. Pero los accionistas, sobre todo los mayoritarios, si pueden cambiar la composición del consejo o el consejo mismo cambiarse a si mismo.

    es.wikipedia.org/wiki/Consejo_de_administración
    es.wikipedia.org/wiki/Junta_general_de_accionistas
  63. #41 son una revolución impresionante, eso no lo pongo en duda, pero como va a ser autoconsciente un árbol de posibilidades basado en reglas que se autoreplican? Es un simple algoritmo, no nos vengamos arriba. No me quiero ni imaginar la que se va a liar cuando salga el primer humanoide que imite más o menos bien cuatro cosas de los humanos.
  64. #3 No, no es tan complicado. Se basa en algoritmos programados por humanos, que saben lo que hacen exactamente.

    Hay mucha gente que se piensa que la IA es algo mágico y que de verdad hay una inteligencia detrás. No la hay, no dejan de ser cálculos matemáticos y ordenamiento de datos.
  65. #16, #6, creo que teneis un poco de razón los dos. Seguramente inventaron algo, por ejemplo una nueva arquitectura o una nueva forma de entrenar estas redes y luego descubrieron que era más potente de lo que pensaban.
  66. #1 la junta de accionistas lo echo porque "no confiaban en el"

    Creo que ahora hay nueva junta de accionistas.
  67. Me recuerda esto al episodio final de Silicon Valley
  68. #83 Fe de erratas: por lo que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.
  69. #16 Lo que describes me recuerda mucho al concepto darwiniano de evolución.
  70. #97 Es un invento.

    Digamos que hemos inventado un mecanismo que crea inteligencia automáticamente sin nuestra intervención directa.
  71. #23 Por ocultarselo. Es su deber mantener a la junta directiva informada.
  72. #38 claro que son automatatas, las IAs siguen siendo maquinas de Turing. Si se hubiera conseguido programar añgo que hubiera dejado de ser un autómata hubiera sido el invento del siglo. Las IAs “aprenden”, pero no se reprograman. Cuando un humano aprende, se reprograma.
  73. #38, técnicamente no está tan claro, porque la definición de lo que es IA se ha ido moviendo. Los algoritmos que aprenden en realidad son algoritmos de machine learning, un subcampo dentro de la IA. Pero en los años 90 y principios de los 2000 los sistemas expertos basados en reglas se consideraban IAs por derecho propio. El caso es que el machine learning ha barrido del mapa todo lo demás en pocos años porque su desempeño está a años luz.
  74. #45, spoiler, el deep learning ya es el invento del siglo.
  75. #32 pero solo pasa con las redes neuronales.
    Lo demás se entiende más o menos
  76. #55, es que no está programado por humanos. Los ingenieros diseñan la arquitectura, el algoritmo de aprendizaje y la forma en cómo se va a entrenar, pero el modelo aprende "sólo". Dada la descomunal cantidad de parámetros involucrados es imposible saber qué clase de razonamiento utiliza para llegar a la solución deseada, lo que sí podemos evaluar es quan buenas son las soluciones que da.
  77. #74 eso es. Es que me he explicado fatal!
    Gracias por la aclaración
  78. #96, hablé de la conciencia respondiendo un comentario de otro usuario, no empezando una discusión sobre el tema.

    Y precisamente el ejemplo que tú pones ilustra bastante bien la diferencia entre una red neuronal artificial y una natural. Dado que no estamos dentro del gusano o de la red neuronal artificial no sabemos qué experiencia subjetiva tiene cada una de estas entidades, pero intuyo que ya a este nivel, el gusano tiene una experiencia subjetiva de lo que sería una red artificial tan pequeña. Repito, hablo desde la intuición, porque igual que tú, no hay forma objetiva de medir la conciencia y tampoco sabemos exactamente cómo se origina. Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.
  79. #100, es un buen ejemplo de cómo se está resolviendo un problema sin consciencia. La única diferencia es que a los modelos de IA les podemos definir qué problemas queremos que resuelvan. Eso es lo que las convierte en una herramienta.
  80. #68 Que el consejo de administración no sepa lo que hace no es estar en la cresta.
  81. #104, el propósito se lo damos nosotros la IA se limita a lograr lo que nosotros le pedimos, no veo que esto lleve implicito que aparezca una conciencia. De todas formas llegará un punto en el que no tendremos forma de determinar si una IA es consciente o no, porque será indistinguible de un ser humano desde fuera.
  82. #111 de verdad crees que a eso se reduce la consciencia?
  83. #72 sí, pero no al nivel que sería poder programar algo que no fuera un automata.
  84. #114, no añado nada, sino que contesto tu comentario en el que dices "El ser humano ha conseguido ese objetivo teniendo consciencia" y yo entiendo que conseguir este objetivo es sinónimo de cumplir un propósito.

    Y lo otro es lo que te estoy diciendo todo el rato, no tenemos ninguna forma de validar que tenga conciencia o no, tampoco sabemos cómo se produce. Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma espontánea, yo lo dudo enormemente. Pero en todo caso, lo único que podemos hacer con esta tecnología por ahora es seguir desarrollándola y evaluándola en función del desempeño que tiene a la hora de resolver problemas, yo de momento seguiré pensando que no se necesita más conciencia para pintar un cuadro que para realizar una suma, basta con un conjunto lo suficientemente complejo de operaciones matemáticas para ello.

    Mi impresión es que la conciencia apareció como un accidente evolutivo para reforzar el instinto de conservación y los mecanismos de recompensa asociados a los neurotransmisores, no para resolver problemas. Por eso no pienso que sea probable que aparezca de forma natural en las redes neuronales artificiales ya que están diseñadas fundamentalmente para resolver problemas.
  85. #54 en mi trabajo (soy informático) también ha supuesto un cambio bastante importante, pero se ha desinflado a nivel del publico general (esto lo ha dicho la propia openIA) y no ha tenido el impacto que se esperaba (se hablaba de que iba a sustituir Google y, aunque sea tu caso, no ha sido el de la inmensa mayoría).
  86. #116 pues te recomiendo que investigues un poco más sobre neurociencia :-)
  87. #126, "como la única forma que tenemos de afirmar que algo tenga consciencia es que la muestre pues el camino"

    Te equivocas, no hay ninguna forma de afirmar que una IA tiene conciencia igual que no tienes ninguna forma de afirmar que yo la tengo. Como ya te he dicho la única prueba que tenemos hoy por hoy de que la conciencia existe es nuestra experiencia subjetiva y por extrapolación asumimos que los demás la deben tener porque están hechos de las mismas piezas que nosotros. No tiene nada que ver con el alma sino dónde están situadas las fronteras del conocimiento, aunque parezca mentida, en pleno 2023 hay muchos fenómenos naturales que observamos y nuestros modelos no son capaces de explicar. En el pasado, estos espacios de ignorancia, se rellenaban con fe y religión, hoy se sabe que lo que hay que hacer es intentar empujar las fronteras del conocimiento a base del método científico y el método científico necesita pruebas para afirmar cosas tan rotundas como que algo artificial tiene conciencia.

    Lo cual perfectamente podría ocurrir también en una IA, tanto la aparición de un instinto de conservación como la aparición del "accidente evolutivo" de la consciencia.

    Podría ocurrir o no, el caso es que los humanos, como cualquier organismo vivo, tenemos marcado a fuego en nuestro mecanismo evolutivo, que tenemos que sobrevivir, la IA no necesariamente.

    Están diseñadas para obtener respuestas lo más humanas posibles, tanto en cuanto a resolución de problemas como en interacciones. Y la forma más eficaz de conseguir ese objetivo es teniendo las mismas piezas "intelectuales" que el ser humano, como son el instinto de conservación o la consciencia, entre otros.

    Que nosotros utilicemos la conciencia para algo, no significa que sea la única forma de hacerlo.

    Piensa en este ejemplo. ¿Utilizamos nosotros la conciencia para jugar al ajedrez? Sí. ¿Es necesaria la conciencia para jugar mejor que cualquier ser humano al ajedrez? No. A no ser que opines que un simple árbol de decisión como el que derrotó a Kasparov el 97, ya había desarrollado alguna clase de conciencia para ello.
  88. #129, puedes demostrar tú que usamos la conciencia para algo?
  89. #119, estás seguro que lo único en lo que gana una IA al ser humano es en eso? Yo apostaría a que chatGPT programa en Python mejor que mi madre (y que unos cuantos desarrolladores que conozco, para que engañarnos), sabe identificar mejor una cardiopatía mejor que yo o puede hacer una disquisición sobre los supuestos más comunes en los que se manumetía a los esclavos durante el imperio romano o puede dibujar una réplica de la mona lisa con pelo afro mejor que el 100% de los meneantes que están aquí, Vamos, que esta afirmación de que las IA solo son capaces de "hacer cálculos" mejor que los seres humanos, sin especificar que "solo haciendo cálculos" podemos programar, diagnosticar enfermedades, dibujar, escribir tratados sobre historia o explicar como arreglar un lavabo a partir de una fotografia, se queda un poco coja.

    Lo cierto es que los modelos de IA no han parado de mejorar a lo largo de los años y los últimos 5 años han acelerado enormemente el ritmo al que se produce esta mejora. Pensar que ya estamos cerca del límite de lo que pueden hacer es un poco gratuito y yo diría que podría llegar a resultar frustrante para quienes esperan o piensan que en unos años habrá algo que los humanos podamos hacer mejor que una IA y que no sea altamente subjetivo el criterio por el que se define cuan bueno es. Pero bueno, ahí queda, yo te auguro que en los próximos meses no vamos a parar de ver cosas más y más sorprendentes en terrenos relativamente poco explorados, como la generación de música y video o la comprensión de videos, así como mejoras en los actuales modelos de lenguaje. Y también te apuesto que de aquí un año seguiremos en la misma discusión de hasta dónde llegan y hasta dónde no llegan estos modelos por el hecho de que no tengan una percepción subjetiva del mundo como la nuestra.
  90. #132, no se si te das cuenta que esto refuerza mi argumento, porque estás diciendo que para tomar decisiones no hace falta utilizar la auto-conciencia. Lo que tu llamas "proceso posterior a las decisiones que usamos para explicarnos lo ocurrido" es lo que yo he llamado "los mecanismos de recompensa asociados a los neurotransmisores". Al final la conciencia actúa como algo similar a la función de coste de una red neuronal artificial, algo que nos permite hacer introspección y re-entrenar nuestro propio cerebro en base a las experiencias que vivimos. Una red neuronal artificial no necesita de esto porque ya le viene dado a través de su diseño. Dicho esto y repitiendo lo que he dicho al principio, estamos en un terreno altamente especulativo en el cual hay mucho camino que recorrer para encontrar la forma de validar cualquier hipótesis que se haga sobre ello.
  91. #134 yo no he dicho que las IA hayan alcanzado el límite ni mucho menos, he dicho que cualquier ordenador y software que corra sobre ellos lo único que hacen es hacer cálculos muy rápidos, no saben hacer otra cosa. Sobre todo lo demás que comentas no sé, pero chatGPT no genera imágenes (otras IA sí) y programar, programar, tampoco. Resuelve problemas muy específicos a gran velocidad y programa alguno cosa genérica desde cero. Ahora pásale una aplicación existente y que te cree una funcionalidad nueva en ella, ya verás ya.
  92. #130 sin duda lo probaré porque desde luego curiosidad me has generado ;)
  93. #137, cuando digo que le viene dado a través de su diseño, me refiero a que es el algoritmo de entrenamiento el que actúa como mecanismo de evaluación y recompensa. No hace falta que "desarrolle" internamente algo extra para saber si lo está haciendo bien a la hora de aproximarse a la solución que tiene que encontrar. Tampoco le sirve para nada tener auto-conciencia de si misma, algo que si nos sirve a los seres humanos para reforzar el instinto de conservación.
  94. #159, Si queremos que muestre respuestas lo más humanas posibles en una charla donde interactúa con humanos claro que todos los mecanismos que tienen los humanos le pueden ser útiles en ese objetivo. Y ese es el objetivo para el que se la entrena.

    ¿Supongo que entonces opinas que Deep Blue desarrolló conciencia para lograr derrotar a Kasparov hace más de 20 años, no? Y si no es así, dónde pones la frontera de qué clase de problemas necesitan de conciencia y qué clase de problemas no, para poder superar el desempeño humano.
  95. #161, me sigue pareciendo un criterio arbitrario. ¿Qué opinas de los modelos que dibujan? Solo se entrenan con imágenes, así que en teoría no tienen acceso a los textos que deberían permitir replicar la conciencia humana, sin embargo son capaces de dibujar cosas para los que los humanos siempre hemos considerado que se necesita introspección, inspiración, creatividad y sentimientos.

    Para mi no hay ninguna prueba de que con un número suficiente de operaciones matemáticas, no se pueda lograr un uso del lenguaje similar al de los humanos, así como se puede dibujar un paisaje bucólico que nadie haya imaginado jamás antes.
«123
comentarios cerrados

menéame