Un nuevo estudio de investigadores de la Universidad Northeastern, en colaboración con científicos del MIT y la Universidad de Glasgow, investigó qué sucedió cuando a un grupo de aves domesticadas se les enseñó a llamarse entre sí en tabletas y teléfonos inteligentes. Los resultados sugieren que las videollamadas podrían ayudar a los loros a aproximarse a la comunicación de las aves en la naturaleza, mejorando su comportamiento y, probablemente, su bienestar en los hogares de sus dueños.
|
etiquetas: loros , videollamadas , smart
www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo
But the software also fails in a manner similar to other AI chatbots, with the bot often confidently presenting false or invented information as fact. As some AI researchers explain it, this is because such chatbots are essentially “stochastic parrots” — that is, their knowledge is derived only from statistical regularities in their training data, rather than any human-like understanding of the world as a complex and abstract system.
Para mi, en este contexto y como ingeniero, entender quiere decir por ejemplo que si le preguntas sobre que opina de que un loro aprenda a hacer videollamadas, no va a tener ni puñetera idea ni de lo que es un loro, ni de lo que es hacer una videollamada, simplemente va a buscar entre sus datos del resultado del entrenamiento las palabras relacionadas con "loro", "hacer" y "videollamada" y te va a soltar una ristra de palabras relacionadas con un orden concreto, y tú como humano vas a decir "hostia, pues su respuesta tiene sentido" y vas a pensar que el ordenador te ha entendido y que por ello es muy inteligente, cuando realmente su respuesta tiene sentido porque es una mezcla de todos sus datos de entrenamiento relacionados con el input de la pregunta, no porque haya entendido la pregunta ni porque sepa razonar la respuesta.
Lo importante es el output del modelo y todo lo demás tal y como tu dices es filosofía, más específicamente su rama más inútil, la metafísica.
Es decir, tenemos las palabras clave "loro", "hacer" y "videollamada" y cogemos lo que conocemos de esas tres palabras clave y le damos la respuesta que consideramos.
Porque, la diferencia es, "comprender". ¿Qué significa comprender?. Si la IA es capaz de analizar correctamente el sentido de la pregunta, y hacia donde darte la respuesta, no se podría considerar que comprende la pregunta?
Podría chatGPT: Sí.
¿Va quedando clara la diferencia o todavía no?
Un ejemplo bastante claro que he visto con GPT-4 es que si le preguntas por ejemplo de donde bajar cosas con copyright dice que: "no puede contestar", "que eso es ilegal..."
Pero si reformulas la pregunta... te responde sin problema
Pero lo más interesante viene cuando piensas en por qué debería el ser humano ser el extremo complejo de esa definición.... y no solo un escalón más.
Por suerte encontré alternativas y están en la lista que te ha dado.
#_24
I Understood That Reference:
I Robot, Will Smith
Pero ChatGPT ya te puede crear una historia de la nada. Vale que es un batiburrillo de otras cosas que ha "leído" o asimilado durante el entrenamiento.... Pero me puedes asegurar que en el caso de un humano no es prácticamente lo mismo?
Quizás en un futuro poniendo un componente aleatorio en alguna versión del modelo se soluciona eso de la falta de originalidad....
Supongo que depende de la estrategia evolutiva de cada uno y por lo que se ve, el loro es muy social
- Mamá mamá ¿los limones cantan?
- Noooo hijo mío, no cantan
- Pues creo que he exprimido al canario
EDITO: vaya, ya habían hecho el chiste justo un comentario más abajo
¿En este caso dónde está este nuevo conocimiento que permite predecir el pliegue de proteínas, si no es en la red neuronal inentendible para nosotros?
Lo mismo se puede aplicar a cualquier otro tipo de IA, por ejemplo a las IAs de generación de imágenes. Las imágenes que crea son innegablemente nuevas, no hay otra igual, pero no dejan de ser batiburrillos de las imágenes que usa en su proceso de entrenamiento, que a su vez son imágenes creadas por humanos o directamente fotografías del mundo real. Por lo tanto si a partir de ahora solo generasemos imágenes mediante IA, no aparecerían nuevos estilos de pintura o fotografia. Es más, si a partir del siglo XV solo se hubiesen creado imágenes por IA, no tendríamos el realismo, el impresionismo, el surrealismo, etc, etc.. porque estos estilos son creaciones humanas. Dicho de otra forma, le puedes decir a una IA que te haga un nuevo cuadro de un caballo con estilo impresionista, pero no le puedes decir a una IA que te cree un nuevo estilo.
old.meneame.net/story/como-grandes-modelos-linguisticos-destruyen-nues
cc #17
Segundo estás subestimando la inteligencia de los loros, los loros no solo imitan, sino que en muchas ocasiones entienden el significado de la palabra que imitan, relacionandola con un premio o con una acción, por ejemplo una pipa, coger la bicicleta o meter la moneda en un bote, y en este sentido son infinitamente más inteligentes que ChatGPT o cualquier otra IA conversacional existente o futura siempre que esté basada en modelos estadísticos.
Entiendo tu argumento de que algo en el progreso humano ha ido añadiendo "algo nuevo" en cada iteración de "historias nuevas" (y por tanto el origen de la "primera historia"). Pero es lo que te he escrito antes, una semilla aleatoria dentro de un modelo IA podría hacer esa misma función. En tu hipotético ejemplo donde el arte se hiciera solo con IA desde el siglo XV, estás aleatoriedades generarían evolución artística. Habría que ver como serian las corrientes artísticas (mediante interacción entre distintas IAs??), pero evolución podría haber sin problema.
En segundo lugar podemos seguir así hasta el infinito. Te lo voy a repetir, si una IA sabe componer un poema sobre un contexto con el que no se ha entrenado es que sabe cuando y cómo utilizar las palabras que ha aprendido sobre durante su entrenamiento. Lo mismo cuando aplica la metodología que toca a un problema de física que no ha visto nunca antes.
Subestimar las capacidades de estas herramientas es la receta perfecta para hacer nada frente a los cambios disruptivos que van a venir.
En cuanto a lo de "añadir una semilla aleatoria", todas las IAs que están de moda, como ChatGTP o Dall-E, ya tienen aleatoriedad, si no la tuviesen siempre generarían el mismo output para cada input. Además esto no tiene nada que ver con generar nuevo conocimiento, te pongo un ejemplo simple: por mucha aleatoriedad que le metas, si los datos de entrenamiento son Harry Potter y Spiderman, las historias resultantes siempre serán una mezcla de estas dos, cada vez diferentes tomando partes aleatorias de cada una de ellas, pero siempre una mezcla de estas dos al fin y al cabo. No hay generación de historias nuevas.
(y desde luego que un loro, cognitivamente hablando, sí que está haciendo uso de una inteligencia que en las IA sólo aparece en el nombre, y ya)
" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"
Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.
Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).
Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.
Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.
Sin intención de hacer una falacia de autoridad ni nada parecido, soy ingeniero informático y por ello estudié hace no mucho todos los modelos de inteligencia artificial, incluido los modelos en que se basa ChatGPT, concretamente machine learning y más concretamente redes neuronales. Lo primero de todo es que igual que cualquier otra red neuronal o cualquier otro modelo de machine learning, ChatGPT no se reentrena con su uso, sino que requiere otro proceso de aprendizaje totalmente nuevo (De ahí que en el footer te ponga la versión con la fecha en que ha sido entrenado), añadiendo nuevos datos de entrenamiento o cambiando parametros en el modelo. Pensar que una IA se reentrena automáticamente durante su uso es un error común que comete quien no las ha estudiado. Todavía no existe una IA capaz de hacer esto, precisamente por lo que te he explicado en el comentario anterior, porque eso llevaría a que se incluyan errores en sus datos de entrenamiento. Para evitar esto, los datos de entrenamiento son elegidos y tratados cuidadosamente, o deberían serlo, por un ingeniero de datos, si lo automatizas te cargas la base de un buen entrenamiento.
Dicho esto, que ChatGPT tenga conversaciones consigo mismo es totalmente absurdo, pues para que eso tenga sentido primero debería usar un nuevo modelo con autoentrenamiento, el cual repito no existe, y segundo estaría creando un circulo vicioso de meter datos de entrenamiento erróneos. No debes creerte todo lo que lees en los medios, porque en el 99% de los casos está escrito por "periodistas" que no tienen ni puñetera idea del tema sobre el que están escribiendo, incluso aunque sean "periodistas" aficionados a la materia, como por ejemplo los periodistas del motor o los de webs de tecnología estilo Xataka.
Por ultimo, el ejemplo de Harry Potter y Spiderman es una simplificación para que entiendas el concepto, si sustituyes estas dos historias por todas las obras de literatura existentes el punto es el mismo, por mucho que cada respuesta sea aleatoria, al final siempre será un batiburrillo de sus datos de entrenamiento, nunca creará nada totalmente nuevo.
A grandes rasgos te diré que el problema del pliegue de las proteínas es un problema fundamental de la biología, al resolverse permite a los biólogos moleculares acelerar sus investigaciones relacionadas con ellas muchísimo. Se sabe que la forma en que se pliegan viene determinada por la secuencia de aminoácidos que la conforman pero es un sistema demasiado complejo para que ningún modelo hasta ahora haya sido capaz de predecir su forma basándose en simulaciones físicas de como interactúan las moléculas que constituyen los aminoácidos que las conforman. La única manera efectiva de determinar su forma era cristalizandolas y midiendo sus propiedades con instrumentos muy específicos pero era un proceso extremadamente caro y delicado. Por eso solo se conocía una pequeñísima parte de la forma del conjunto total de proteínas.
Los investigadores de Google decidieron aproximarse al problema de otra manera, en lugar de intentar saber como interactúan los aminoacidos directamente, decidieron entrenar un modelo de aprendizaje profundo para que lo aprendiera a partir de los pocos miles de proteínas cuya forma era conocida. Para convertir los datos tridimensionales el números construyeron una matriz de distancias entre cada uno de los aminoácidos. Así el modelo recibía un vector (secuencia de aminoácidos) y devolvía una matriz de coste entre cada aminoácido. A partir de esta matriz y mediante el método estadístico podían reconstruir la forma tridimensional de la proteína.
Se comprobó que funcionaba bien para cualquier cadena de aminoácidos y el problema abierto de la predicción de la forma de las proteínas quedó resuelto con una precisión jamás lograda por ningún equipo de investigación.
¿Problema? Que el modelo que recibe el vector y lo convierte en una matriz es una caja negra imposible de descifrar pero que contiene el conocimiento necesario para resolver el problema del pliegue de proteínas.
Es un problema complejo, pero he intentado explicarlo de la forma más entendible posible. En internet tienes cientos de artículos que hablan sobre ello en profundidad.
es.m.wikipedia.org/wiki/AlphaFold
- Aquí la policía. Cálmese y cuénteme que sucede.
- El gato del vecino ha entrado en casa.
- Caballero, que somos la policía y estamos para cosas serias.
- Es que soy el loro y me tiene acojonado.
¿Eso te hace tan inteligente como un loro?
¿Has compuesto todas las que conoces?
¿Te sabes la tabla de multiplicar del cinco?
¿La descubriste o "Simplemente" repites?
Si te pregunto que es un ESP32, me contestarás "algo" que has aprendido de otros o inventarás algo o dirás que no lo sabes. Mismas opciones que tendría una IA o un loro (si su dueño es fan de la tecnología).
En alrededor de dos tercios de las proteínas, AlphaFold 2 obtuvo una puntuación superior a 90 en la prueba de distancia global (GDT), que compara las predicciones de los programas con las estructuras determinadas experimentalmente; una puntuación de 100 denota una coincidencia completa.
Vamos, que ni siquiera es capaz de acertar con todas las proteínas que cuya estructura ha sido determinada manualmente.
Ponerme a discutir contigo en plan cuñao sobre lo relevante que ha sido AlphaFold en la biología molecular empieza a ser bastante ridículo. Así que te cito algunas fuentes importantes y me retiro.
‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures
www.nature.com/articles/d41586-020-03348-4
AlphaFold: a solution to a 50-year-old grand challenge in biology
www.deepmind.com/blog/alphafold-a-solution-to-a-50-year-old-grand-chal
DeepMind’s AlphaFold2 Solves the Long-Stood Protein-Folding Problem
www.analyticsinsight.net/deepminds-alphafold2-solves-the-long-stood-pr
One of the Biggest Problems in Biology Has Finally Been Solved
www.scientificamerican.com/article/one-of-the-biggest-problems-in-biol
Se podrian poner en punto distantes comunicados o en los acuarios, aunque a lo mejor les cuenta como viven en acuarios y deciden vengarse.
Los loros y los corvidos son los pajaros mas inteligente. A lo mejor el planeta de los simios, se vuelve el planeta de los loros.
#23 Ademas no tenemos una prueba para detectar la conciencia o algo que se comporta como ella. No podemos hacernos la prueba a nosotros mismo. A lo mejor la conciencia es una ilusion irreal.
Es como si construyes una máquina que es capaz de tirar una moneda al aire y que siempre salga lo que predice. ¿es conocimiento?
DeepMind unveils first AI to discover faster matrix multiplication algorithms
venturebeat.com/ai/deepmind-unveils-first-ai-to-discover-faster-matrix
Así es como la IA nos está ayudando a superar uno de los mayores desafíos de la fusión nuclear
www.xataka.com/energia/asi-como-ia-nos-esta-ayudando-a-superar-uno-may
Respecto al bengalí, un 0.023% del entrenamiento de ChatGPT no es precisamente un corpus pequeño en términos absolutos.
Lo del bengalí lo mismo, los propios investigadores de google no se lo terminan de explicar. El caso es que ha aprendido a generalizar los conceptos en otros idiomas y si le pides como se hace una tortilla de patatas en bengalí sabe juntar lo que aprendió en español con lo que aprendió en bengalí. No se limita a buscar en ninguna base de datos como hacer una tortilla de patatas en bengalí y lo copia. Y hay que tener en cuenta que no se la entrenó para traducir es una habilidad que ha desarrollado por si mismo para poder realizar mejor la predicción de texto.
Y así hay miles y miles de ejemplos que demuestran que no solo se dedica a juntar textos literales que había leído, sino que tiene cierto grado de comprensión de lo que dice. El problema es que la gente atropomorfiza estas palabras y cuando alguien habla de comprensión automáticamente lo relacionan con la auto-conciencia.