La ocultación de un descubrimiento clave en OpenAI, liderado por el proyecto Q*, parece ser, según Reuters, el motivo que provocó el despido de Sam Altman en OpenAI. Este descubrimiento marca un avance significativo hacia la Inteligencia General Artificial (AGI). Q*, aunque solo resuelve problemas matemáticos a nivel de primaria, muestra una capacidad de razonamiento prometedora, un paso crucial más allá de las habilidades lingüísticas y de traducción de la IA actual.
|
etiquetas: descubrimiento , despido , sam altman , openai
#12
Míralo de esta forma: imagina que haces un programa que crea laberintos. Pero lo ejecutas con suficiente memoria para generar un laberinto del tamaño de un planeta entero. Para una persona no le alcanzaría la vida para resolverlo, e incluso si por alguna capacidad saliera, no sería porque lo comprende del todo sino porque tuvo suerte.
Las instrucciones para crear un laberinto son sencillas, pero el laberinto en sí no. Lo mismo pasa con la IA: Lo que programaron son una serie de reglas relativamente sencillas y fáciles de entender. Lo maravilloso es que esas reglas repetidas miles de millones de veces generan un resultado tan complejo que nadie podría comprender.
De hecho, el analizar lo que la IA hace para procesar los datos ha ayudado a comprender mejor como funciona el cerebro humano. Se ha descubierto que surgen neuronas especializadas en determinadas partes de la información, como que la red aprende conceptos básicos.
Tienes que ver la IA como si fuera una planilla de cálculos llena de fórmulas todas iguales pero con varios números que se pueden cambiar. Al principio el resultado las fórmulas no es el que quieres, pero sería imposible que una persona ajustara los valores a mano. Entonces otro programa que no es muy complicado, los va modificando automáticamente para que poco a poco se vaya pareciendo más y más a lo que quieres obtener. Después de miles de intentos el resultado es suficientemente bueno.
Tu después te pones a mirar las fórmulas y tienen valores que ninguna persona habría podido deducir. De hecho, no tienes ni idea de por qué con esos números el resultado funciona y con otros no. Los cálculos no son complejos pero se calculan valores que no sabes por qué están ahí. Bueno, sí, están ahí porque así funciona y punto. Y nadie los puso ahí: fue un proceso automatizado. Si después alguien te preguntara si tu hiciste esa planilla, para ser sincero tendrías que decir que no, que tu hiciste un programa sencillo que después de mucho trabajo hizo la planilla. Nunca habrías podido hacerla tu mismo. Indirectamente es el creador? pues sí... tanto como el que creó los chips de tu ordenador. Pero él tampoco podría adjudicarse el mérito por la planilla...
-Altman oculta cosas a la junta directiva y la junta se entera.
-La junta se mosquea por la ocultación de la información.
-La junta echa a Altman de CEO.
-El presidente de la junta, amigo y socio fundador, renuncia como medida de protesta por el despido.
-Microsoft, que posee el 49% de la empresa y ve vital el tema de la IA en windows 12, bing y otros servicios como copilot, apoya a Altman y lo contrata directamente.
-MS deja abierta la puerta a contratar a la totalidad de los empleados de la empresa y el 90% firman una carta diciendo que se van, en una especie de OPA encubierta a la totalidad de la compañía.
-La junta se acojona porque MS se lo va a llevar todo, readmiten a Altman y dimite parte del grupo de la junta que lo echó.
Lo que ocultó Altman no se sabe. Si es un tema económico, de visión de proyecto, de plazos o, como se especula ahora, de tecnología. Pero está claro que había desavenencias éticas y económicas en cómo explotar comercialmente la empresa con Microsoft de por medio.
Yo no estoy muy convencido de que Altman sea la víctima en todo esto, estando los de Redmond de por medio, que ya sabemos cómo se las gastan. Y desde luego nunca se puede ocultar información relevante de forma intencionada a tu Junta. Es motivo justo de despido.
O sea, sabemos bien lo que lo compone, pero es como con el cerebro humano: conocemos las neuronas pero sus interacciones son demasiado complejas. Lo mismo con la IA: conocemos las funciones matemáticas con las que funciona, pero el conjunto es demasiado complicado para entenderlo.
De hecho, diría que, hasta no hace mucho, era la forma habitual de hacer: usar lo que conoces por experimentación, sin necesidad de saber los principios que subyacen. El fuego, sin ir más lejos.
cc #4
CC #5
No sabemos qué es necesario para superar la inteligencia humana en el desempeño de cualquier tarea cognitiva, por lo que afirmar que no podemos afirmar que no haga falta consciencia o que la consciencia no surja en paralelo a ello.
Es más, el concepto de "tarea cognitiva" no tiene una definición suficientemente precisa. Por ejemplo para obtener agua dulce del océano el ser humano ha hecho varias tareas cognitivas que se han concretado en una desaladora, ese mismo objetivo lo consigue el Sol evaporando agua que genera lluvias y éstas fluyen por un río. No creo que nadie vaya a afirmar que el Sol supera al ser humano en esa "tarea cognitiva".
Ese es un caso extremo pero entre ambos casos hay un montón de ejemplos que van creando una región gris en la que no está nada claro si lo que ocurre es o no es una "tarea cognitiva". Muchos defenderán que conducir un coche ya no es una tarea cognitiva dado que han visto a coches que lo hacen y por lo tanto si lo hace una máquina no es una tarea cognitiva. Aunque si esa pregunta se hiciera hace un siglo posiblemente nadie dudaría del requisito de llevar a cabo una tarea cognitiva para conducir un coche.
Para mí ha sido un cambio bastante disruptivo y para nada veo un desinflamiento/estancamiento.
Los antiguos métodos de administración eran atroces, como untar una hoja de cuchillo con el moho e introducirla en la herida, o en el caso de parturientas, comer pan mohoso como único remedio a las fiebres puerperales.
Se parece muchísimo. Tanto que ha servido para comprender mejor el cerebro.
El cerebro humano no lo es (pues se autoreprograma).
Las IAs también. Nosotros sólo comprendemos las neuronas de la IA. Le proporcionamos la base pero la IA se hace a sí misma en el proceso que se llama entrenamiento.
Que en realidad es lo mismo que sucede en las redes de neuronas naturales, tampoco podemos ver un cerebro humano y saber lo que pasa más que a grandes rasgos, por mucho que analizáramos los neurotransmisores.
La IA es exactamente eso. miles de pequeños mini programitas (neuronas) que se "autoprograman" en base a unas entradas para obtener una salida. Nadie sabe como interaccionan entre ellas, pero consiguen un resultado similar a lo que haria un humano,
No tienen nada que ver con una molecula de ADN. ¿Porque dices eso?
No obstante no me parece que Chat-GPT sea algo solo medianamente aceptable, a mí hace no tantos años me dicen que para la fecha actual iba a existir algo así y no me lo creo, y se ha desinflado muy entre comillas, que sigue teniendo más de 100 millones de usuarios diarios. No sé si habrás tenido la oportunidad de usar Chat-GPT plus, que va con GPT-4-turbo, DALL-E, visión de imágenes, o la posibilidad de subirle un documento de hasta 300 páginas y que trabaje con esos datos, es una pasada y ha mejorado muchísimo con respecto al chat-gpt de enero, yo lo uso a diario para mil cosas ¿Que no es autoconsciente? Obviamente no, pero me da la sensación de que, igual que mucha gente se pasa atribuyéndole capacidades, mucha gente trata de minusvalorarlo, y yo creo que es el software más increíble que ha surgido en los últimos años, y además es que no deja de evolucionar a un ritmo bastante acelerado.
Resulta que al transformar su actividad en un modelo matemático e imitarlas, hemos visto que podemos resolver problemas de un modo que no podríamos con algoritmos normales. Y de hecho todos estos avances espectaculares actuales como ChatGPT o Midjourney/StableDiffusion/Walle, vienen por esta técnica de las Redes de Neuronas Artificiales.
En el modelo estandar ("perceptrón multicapa", que es más sencillo que lo actual y tiene algunas décadas), tienes M neuronas de entrada, otras N en una capa intermedia, y finalmente O de salida. Hay interconexiones entre todas las neuronas de la primera capa y las de la segunda, y entre las de esta y la de salida. Y el "peso" de estas conexiones se van ajustando a medida que se entrena a la red de neuronas.
Para hacerte a la idea, podemos entrenar a una red de neuronas de estas para que reconozca las letras del abecedario, cosa que sería horrenda de programar en un algoritmo "lineal" clásico; al entrenar a la red de neuronas sabemos cómo funciona el método por el que lo hacemos, pero cuando conseguimos que las reconozca no sabemos exáctamente qué está mirando para distinguirlas porque es demasiado complejo; lo que hacemos es ajustar la cantidad de neuronas en cada capa, quizá el método de entrenamiento o las funciones de activación, para facilitar que obtenga una solución mejor y en menos tiempo. Y si tenemos un montón de tipos de letra distintos, alimentamos a la red con ellos. Con esto, además, será capaz de entender tipos de letra que aún no haya visto, igual que lo haríamos nosotros.
es.wikipedia.org/wiki/Perceptrón_multicapa
Por supuesto. Es algo similar. Mediante purebas sucesivas se va aproximando al resultado que se busca.
Por eso lo complicado de entrenar una inteligencia artificial son los datos de entrenamiento. Por ejemplo si quieres que una IA entienda lo que se ve en una foto, necesitas millones de fotos con una descripción escrita. Si quieres que entienda lenguaje hablado, necesitas millones de grabaciones con su transcripción a texto. Como entrada le das el sonido. Esos datos, que son simplemente números, pasan por una serie de cálculos matemáticos. Al final esos cálculos dan otros números que traducimos a letras. Si las letras no son las que corresponden a la palabra hablada del sonido, se hace el cálculo a la inversa reajustando los valores hasta llegar al inicio y se repite. Eso se hace para miles de ejemplos.
Ahora bien, cuando se combinan estas reglas minúsculas miles de millones de veces, empiezan a surgir flujos de información e inferencia que no eran obvios a priori.
De ahí que la IA resulte a veces sorprendente, porque nadie se espera (o esperaba) que de componentes y reglas tan simples se pueda formar algo con comportamientos y capacidades tan complejas de una forma casi automática. Casi automática, porque cuando se entrena una IA, y le pedimos algo, sólo le proporcionamos una "nota" o "evaluación" o "puntuación". La IA se reconfigura internamente (siguiendo unas reglas fundamentales conocidas, pero llevadas a un nivel de convolución inmenso) que hace que obtenga más puntuación, y más, y más, hasta que siempre obtiene una alta puntuación.
Cómo han cambiado esos valores internos para llegar a ese punto? Las reglas fundamentales son sencillas de explicar, pero no se puede explicar de forma sencilla la evolución iterativa de miles de millones de valores de una manera por así decirlo "macroscopica" de forma obvia.
Otra forma de decirlo es que puedes observar esos valores internos evolucionar desde el principio, o ver su estado final, y ser incapaz de ver un "algoritmo" claramente definido. Símplemente, funciona.
Esos mecanismos básicamente son un objetivo que cumplir lo mejor posible (que en términos evolutivos sería algo en lo que tiene que ser lo más apto posible), y un mecanismo de evolución para reconfigurarse e intentar aumentar cuán apta es en hacer ese algo.
Entonces, a base de evolucionar y evolucionar durante miles o millones de iteraciones y reconfiguraciones intentando maximizar esa aptitud, la IA aprende por sí sola.
No hay un programa o algoritmos, en el sentido clásico del término. Símplemente valores de entrada, las mismas operaciones combinadas miles de millones de veces puestas de alguna manera por la IA misma, y una salida que cumple las expectativas de lo que sea que fuera el objetivo que la IA debía cumplir.
Hay muchos algoritmos de machine learning que sabemos perfectamente como funcionan. De hecho, la mayoría de las matemáticas de la IA son bastante claras e intuitivas
Edit: a ver, los algoritmos los entendemos, con el deep learning lo que pasa es que no tenemos mucha idea de cómo se monta el sistema a partir del entrenamiento por ser muy complejo, lo cual impide la comprensión del sistema pero no del algoritmo. No sé si me explico
A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar. Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia. Ahora escalemos el problema a una red mucho más grande, pero pequeña al lado de chatGPT, como una ResNet50 capaz de clasificar imágenes de perros y gatos. Crees que ha desarrollado un grado de conciencia para ello? Yo creo que no hace falta ya que mediante puras operaciones matemáticas es suficiente para poder extraer las caracteristicas que definen a cada imagen. Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia. Y si no es así, dónde está la frontera y por qué? Por qué es necesaria la autoconciencia para poder escribir correctamente? Yo no lo veo de ninguna manera, aunque resulte contra-intuitivo pensar que cualquier problema intelectual pueda ser reducido a una combinación de operaciones matemáticas sencillas si se escala lo suficiente, pienso que es así.
Este comentario tuyo al que respondo no es un buen ejemplo de ello
A modo de ejemplo piensa en una red neuronal super-sencilla con dos neuronas de entrada y una de salida que haya aprendido a sumar.
Ahora piensa en un rotífero1 que tiene entre 6 y 11 neuronas cerebrales2 (foto adjunta al final). Que son capaces de alimentarse, sobrevivir y perpetuarse.
Convendremos que a pesar de que ll haga muy bien, no ha desarrollado ninguna clase de conciencia.
Ahora escalemos el problema a una red mucho más grande, un cerebro humano.
Podemos subir de complejidad del problema todo lo que quieras, porque al cualquier problema podrá ser resuelto con un número suficiente de operaciones matemáticas en las cuales no es necesario implicar la conciencia.
Esa hipótesis también te permitiría concluir que el ser humano podría resolver cualquier problema sin tener consciencia. Pero sería solo eso, una hipótesis. La realidad es que sí afirmamos que el ser humano tiene consciencia, una consciencia que no sabemos cómo surge y por lo tanto no podemos afirmar que no va a surgir, o que no ha surgido ya, en una red neuronal de una IA.
1 es.wikipedia.org/wiki/Rotifera
2 link.springer.com/chapter/10.1007/978-94-011-4782-8_20
pero consiguen un resultado similar a lo que haria un humano,
Poco has usado tú chatGPT, hijo.
La cámara es fruto del diseño inteligente mientras que el ojo es fruto de un proceso evolutivo.
La cámara tiene las piezas mínimas que necesita tener para cumplir con su función y cada una de sus partes está diseñada para contribuir al resultado y no interferir negativamente en el resultado.
El ojo tiene piezas que podrían ser sobrantes y procesos innecesariamente complejos pero que en conjunto dan un resultado suficiente, tiene elementos mal puestos que tapan parte de la visión y tiene muchas limitaciones que se cubren con el postprocesado que hace posteriormente el cerebro. A su vez está mal ubicado, una parte relevante está tapada por la nariz pero el cerebro se encarga de borrar esa información innecesaria y no somos conscientes de ello.
La cámara, como unidad de captación de imágenes, le da mil vueltas al ojo. Pero la cámara suele tener detrás un cerebro como sí lo tiene el ojo, no suele tener un postprocesado que aprovecha al máximo lo que se recibe de ella borrando las imperfecciones y usando movimientos rápidos para reconstruir la imagen continuamente en base a la poca zona enfocada que muestra el ojo.
Cuando hablamos de la IA hablamos de proceso evolutivo, la IA sí puede usar la información de la cámara y aplicarle los filtros y criterios que el cerebro le aplica al ojo.
Lo han rescatado porque tienen más miedo a que la empresa quiebre sin sus trabajadores.
m.youtube.com/watch?v=Bv0MGs_bgKA
Pero lo que no puede hacer son cálculos. Para eso hace falta otra cosa.
Escribir algoritmos para que calculen cosas está más que resuelto. Hay apps para moviles que te resuelven cualquier problema de mates a nivel de bachillerato y te dan los pasos a seguir.
es.wikipedia.org/wiki/Consejo_de_administración
es.wikipedia.org/wiki/Junta_general_de_accionistas
Hay mucha gente que se piensa que la IA es algo mágico y que de verdad hay una inteligencia detrás. No la hay, no dejan de ser cálculos matemáticos y ordenamiento de datos.
Creo que ahora hay nueva junta de accionistas.
Digamos que hemos inventado un mecanismo que crea inteligencia automáticamente sin nuestra intervención directa.
Lo demás se entiende más o menos
Gracias por la aclaración
Y precisamente el ejemplo que tú pones ilustra bastante bien la diferencia entre una red neuronal artificial y una natural. Dado que no estamos dentro del gusano o de la red neuronal artificial no sabemos qué experiencia subjetiva tiene cada una de estas entidades, pero intuyo que ya a este nivel, el gusano tiene una experiencia subjetiva de lo que sería una red artificial tan pequeña. Repito, hablo desde la intuición, porque igual que tú, no hay forma objetiva de medir la conciencia y tampoco sabemos exactamente cómo se origina. Lo que si sabemos es que se puede resolver problemas sin necesidad de ser consciente de ello.
Y lo otro es lo que te estoy diciendo todo el rato, no tenemos ninguna forma de validar que tenga conciencia o no, tampoco sabemos cómo se produce. Tu creo que piensas que podría ser que el modelo de una red neuronal artificial es suficiente para que emerja de forma espontánea, yo lo dudo enormemente. Pero en todo caso, lo único que podemos hacer con esta tecnología por ahora es seguir desarrollándola y evaluándola en función del desempeño que tiene a la hora de resolver problemas, yo de momento seguiré pensando que no se necesita más conciencia para pintar un cuadro que para realizar una suma, basta con un conjunto lo suficientemente complejo de operaciones matemáticas para ello.
Mi impresión es que la conciencia apareció como un accidente evolutivo para reforzar el instinto de conservación y los mecanismos de recompensa asociados a los neurotransmisores, no para resolver problemas. Por eso no pienso que sea probable que aparezca de forma natural en las redes neuronales artificiales ya que están diseñadas fundamentalmente para resolver problemas.
Te equivocas, no hay ninguna forma de afirmar que una IA tiene conciencia igual que no tienes ninguna forma de afirmar que yo la tengo. Como ya te he dicho la única prueba que tenemos hoy por hoy de que la conciencia existe es nuestra experiencia subjetiva y por extrapolación asumimos que los demás la deben tener porque están hechos de las mismas piezas que nosotros. No tiene nada que ver con el alma sino dónde están situadas las fronteras del conocimiento, aunque parezca mentida, en pleno 2023 hay muchos fenómenos naturales que observamos y nuestros modelos no son capaces de explicar. En el pasado, estos espacios de ignorancia, se rellenaban con fe y religión, hoy se sabe que lo que hay que hacer es intentar empujar las fronteras del conocimiento a base del método científico y el método científico necesita pruebas para afirmar cosas tan rotundas como que algo artificial tiene conciencia.
Lo cual perfectamente podría ocurrir también en una IA, tanto la aparición de un instinto de conservación como la aparición del "accidente evolutivo" de la consciencia.
Podría ocurrir o no, el caso es que los humanos, como cualquier organismo vivo, tenemos marcado a fuego en nuestro mecanismo evolutivo, que tenemos que sobrevivir, la IA no necesariamente.
Están diseñadas para obtener respuestas lo más humanas posibles, tanto en cuanto a resolución de problemas como en interacciones. Y la forma más eficaz de conseguir ese objetivo es teniendo las mismas piezas "intelectuales" que el ser humano, como son el instinto de conservación o la consciencia, entre otros.
Que nosotros utilicemos la conciencia para algo, no significa que sea la única forma de hacerlo.
Piensa en este ejemplo. ¿Utilizamos nosotros la conciencia para jugar al ajedrez? Sí. ¿Es necesaria la conciencia para jugar mejor que cualquier ser humano al ajedrez? No. A no ser que opines que un simple árbol de decisión como el que derrotó a Kasparov el 97, ya había desarrollado alguna clase de conciencia para ello.
Lo cierto es que los modelos de IA no han parado de mejorar a lo largo de los años y los últimos 5 años han acelerado enormemente el ritmo al que se produce esta mejora. Pensar que ya estamos cerca del límite de lo que pueden hacer es un poco gratuito y yo diría que podría llegar a resultar frustrante para quienes esperan o piensan que en unos años habrá algo que los humanos podamos hacer mejor que una IA y que no sea altamente subjetivo el criterio por el que se define cuan bueno es. Pero bueno, ahí queda, yo te auguro que en los próximos meses no vamos a parar de ver cosas más y más sorprendentes en terrenos relativamente poco explorados, como la generación de música y video o la comprensión de videos, así como mejoras en los actuales modelos de lenguaje. Y también te apuesto que de aquí un año seguiremos en la misma discusión de hasta dónde llegan y hasta dónde no llegan estos modelos por el hecho de que no tengan una percepción subjetiva del mundo como la nuestra.
¿Supongo que entonces opinas que Deep Blue desarrolló conciencia para lograr derrotar a Kasparov hace más de 20 años, no? Y si no es así, dónde pones la frontera de qué clase de problemas necesitan de conciencia y qué clase de problemas no, para poder superar el desempeño humano.
Para mi no hay ninguna prueba de que con un número suficiente de operaciones matemáticas, no se pueda lograr un uso del lenguaje similar al de los humanos, así como se puede dibujar un paisaje bucólico que nadie haya imaginado jamás antes.