Hoy en día, nuestros avances supuestamente revolucionarios en inteligencia artificial son, de hecho, motivo tanto de preocupación como de optimismo. Optimismo porque la inteligencia es el medio por el que resolvemos los problemas. Preocupación porque tememos que la variedad más popular y de moda de la Inteligencia Artificial -el aprendizaje automático- degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y del conocimiento.
|
etiquetas: chatgpt , inteligencia artificial , chomsky
Y en línea con lo anterior, he echado de menos que en el artículo se indicara, en algún punto, que la IA no puede existir sin revisores y correctores humanos, a los que se paga dos duros y se suele explotar para que hagan lo que las IA no pueden hacer, revisando y corrigiendo contenidos, y expuestos a cosas inenarrables que hacen que muchos acaben afectados mentalmente o con síndrome de estrés postraumático.
(se envió otro artículo en este sentido por aquí hace poco, creo recordar... y en su momento también fue muy llamativo que robots repartidores que se vendían como totalmente autónomos en realidad estuvieran supervisados por trabajadores desde latinoamérica, cobrando nada y menos...)
Resumiendo: estos modelos son útiles, pero no justifican las inversiones y las expectativas sobre la AGI o sobre el conocimiento de la mente humana.
Son avances brillantes, pero cómo bien señala Chomsky, es otro campo.
Si Asimov levantase la cabeza...
edoras.sdsu.edu/~vinge/misc/singularity.html
Este artículo no tiene mucho recorrido desde el momento en que todos los ejemplos que ponen de cosas donde supuestamente los modelos de lenguaje fallan, resulta que los pruebas y aciertan.
Aquí hay un hilo donde lo muestran (había alguno aún mejor, pero ya fue hace unos días en Twitter y no lo encuentro ahora mismo... pero éste da una idea):
twitter.com/jayelmnop/status/1633635146263052288
Es importante señalar que las teorías de Chomsky se centran en la estructura gramatical del lenguaje y la capacidad innata del cerebro humano para adquirir un lenguaje complejo. Aunque estas teorías son interesantes e importantes en el campo de la lingüística, el enfoque actual en el procesamiento del lenguaje natural se centra en técnicas de aprendizaje automático y estadísticas para entrenar modelos de lenguaje, que no dependen necesariamente de la estructura gramatical profunda de un lenguaje.
En resumen, aunque el trabajo de Noam Chomsky ha sido importante en el campo de la lingüística, mi diseño y funcionamiento como modelo de lenguaje se basan en una variedad de técnicas de aprendizaje automático y no en sus teorías específicas sobre la estructura gramatical del lenguaje.
Lo último no deja de ser un sistema en pañales que se complementa en base a trabajo humano. Eso no es representativo de nada.
Realmente, si pongo en perspectiva un día mío, sumo tantas interacciones con IAs que yo mismo me sorprendo. Creo que nos quedamos en la anécdota o intentamos entender lo que está pasando con los marcos mentales del pasado. Esto va por un lado muy diferente, y está yendo muy rápido. No vamos a tener al equivalente del Yo Robot de Asimov, pero vamos a tener asistentes en casi cada faceta de nuestra vida. Y repito, eso va muy rápido.
Es cómo decir que con un avión se puede llegar a otras galaxias.
Chomsky ya está señalando que se está construyendo aviación, no astronáutica.
en.wikipedia.org/wiki/AlphaGo
hypernoir.com/el-enmierdamiento-de-tiktok/
Si todos los libros y publicaciones de física estuvieran digitalizados y se pudiera buscar por cadenas de texto de forma ágil, eso sí sería muy útil para toda la humanidad, no sólo para una ia. El día que se auditen las fuentes de datos que utilicen las ias, habrá buenas multas por infracción de copyright.
Google se descarga copias de internet y hace búsquedas en dichas copias. Así que si un libro con la información que buscas está en las fuentes de chatgpt pero no en internet, ahí tienes tu respuesta.
Las expectativas sobre la agi no las veo relevantes, no es necesario llegar a una agi para que tengan sentido y utilidad.
Generación de código, generación de contanido, bots conversacionales, automatización de tareas, creación de cuaquier cosa que tenga base de lenguaje (descripciones, resumenes, traductores, ideas para arte...).
Yo le daría una vuelta.
Por otra parte, su teoría es muy buena. Por qué no prueba a codificarla y se comprueba si es cierta o no? Que pasa, que no es falsable? Si no se puede comprobar, no es ciencia, es ideología... Mmmm
Sobre todo cuando no le das un conjunto de datos finito sobre los que explorar para generarte la respuesta.
fuente: Soy programador y la he estado usando últimamente para hacer pruebas de concepto en una app famosa... mi novia además trabaja en procesado de lenguaje natural y conoce bastante bien este tema y me lleva advirtiendo un tiempo del mal uso que se le va a dar o se le esta dando ya.
Eso puede verse como un objetivo último de la inteligencia artificial, pero todo lo que se desarrolla por el camino también es inteligencia artificial.
Lo contrario sería como decir que si los médicos no consiguen curar todas las enfermedades y hacernos inmortales, lo que hacen no es medicina.
- No son capaces de resolver juegos tontos de lógica, ya que no poseen un modelo interno lógico que permita (eso en IA que llamamos meta-aprendizaje) y sin esa parte yo creo que llega a su límite pronto. Y en ese punto es en el que incide Chomsky, él lo comenta por la parte del lenguaje, pero no es solo en ese punto.
- No son de fiar, puesto que su prioridad es sonar razonables, aunque te mientan en la cara (ya he visto compañeros investigadores a los que les han pedido papers que no han escrito porque el ChatGPT se los ha inventado, o inventarse librerías inexistentes para programar). Y eso no me parece correcto, debería de estar más claro ya que habrá usuarios que no lo sepa. Yo espero que creen modelos aprendidos únicamente de fuentes algo más fiables para poder usarlo de forma segura (y a poder ser disponibles de verdad, como Stable Diffusion).
Los predictores de texto como ChatGPT son inteligencia artifical, no confundir con lo que familiarmente llamamos inteligencia.
#11
Me gustaría saber qué opina @sorrillo sobre el tema...
Yo no debo demostrar que no es una Inteligencia Artificial, es el creador quien tienen que demostrar mediante el test Turing o lo que sea.
El objetivo último de la homeopatía es curar, ¿Es por ello medicina?
El objetivo último de la alquimia es transformar la materia ¿Es por ello química?
Sus objetivos no son prueba de nada porque la metodología es dudosa.
Chomsky hace lo mismo, señala que la metodología (Basada mayormente en estadística) es dudosa porque señala que la inteligencia funciona de manera diferente.
Inteligencia Artificial será cuando sean autónomas y tengan sentido crítico.
Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a los que tienen un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad. Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Sólo negocian con probabilidades que cambian con el tiempo.
Es charlatanería barata. Está hablando del alma aunque no la cite, está diciendo que nosotros tenemos una característica que nos hace especiales y que ChatGPT (y versiones posteriores) no pueden tenerla. Típico discurso en el que se basan las religiones.
Si hay algo en el artículo que tenga más sustancia que lo que he citado indícalo y lo comentamos.
¿Qué fue de la España de ABC y El país?, dos prismas de la realidad, dos maneras de contar lo que pasa, dando el foco a unos temas sobre otros, así como obviando una gran parte.
Pues las IAs como chatgpt están haciendo eso mismo. Filtran la información existente y generan respuestas adaptándose a lo que hay en internet. ¿Qué pasa si una fuente errónea gana prioridad sobre otra fidedigna? La IA dará información incorrecta, será inútil hasta que el revisor humano detecte el error y alguien lo corrija, probablemente un programador humano. Para algunas personas chatgpt será marxista y para otra puede que facha. ¿Aceptará alguien de derechas que se llame inteligencia artificial a algo que genere información que no sea de su cuerda?
Pese a que el foco está en chatgpt, hay muchos tipos de IAs que están ayudando en muchos campos. Optimizar procesos, encontrar patrones y realizar predicciones en base a modelos son algunas tareas en las que una IA puede ayudar a la humanidad.
Ahora mismo hay dos límites claros que delimitan las capacidades de una IA: las fuentes de datos y la capacidad de procesamiento.
En cuanto a los trabajos "básicos", como cuidar de ancianos o limpiar en residencias, dudo mucho que se pueda encomendar dichas tareas a una IA. Hay demasiadas cosas a tener en cuenta. ¿Cómo funcionaría chatgpt en modo voz con alguien con demencia?, ¿cómo funcionaría un robot con IA en una situación que requiere el uso de la fuerza porque un residente se pone agresivo?, ¿y cómo detectaría una mentira como decir que ya ha tomado una medicación o que no la ha tomado todavía?
“Escribe una carta a mi pareja diciendole que me siento mal por sus celos excesivos”
“Escribe una carta a mi comunidad de vecinos por los ruidos molestos de las cañerías”.
“Escribe una carta al ayuntamiento quejandote del estado del pavimiento de mi calle”
“Escribe una carta entusiasta a mis empleados invitandoles a un fin de semana a toledo y propon un itinerario de viernes a domingo”
Etc
Felicidades
Con qué no estás de acuerdo exactamente?
Señala un par de cosas
En lugar de hablar del olor de las nubes, que te parece erróneo en la exposición de Chomski?
Ya se ve en la Wikipedia inglesa cómo todavía no hay consenso: en.wikipedia.org/wiki/Artificial_intelligence#Defining_artificial_inte
Aunque el Test de Turing es una prueba importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial. Hay muchas otras formas de definir y medir la inteligencia artificial, incluyendo la capacidad de aprendizaje automático, el procesamiento del lenguaje natural, la toma de decisiones y la resolución de problemas.
Además, aunque una máquina que supere el Test de Turing se consideraría una forma de inteligencia artificial, no significa necesariamente que esa máquina tenga una inteligencia o conciencia similar a la de los seres humanos. La capacidad de una máquina para superar el Test de Turing se basa en su capacidad para simular comportamientos humanos, pero no necesariamente en su capacidad para comprender el mundo de la misma manera que lo hacen los seres humanos.
En resumen, si bien superar el Test de Turing es una medida importante para evaluar la capacidad de una máquina para simular el comportamiento humano, no es la única medida de la inteligencia artificial y no necesariamente implica una comprensión completa del mundo y una conciencia similar a la de los seres humanos.
Respuestas inmediatas de las cuales no hay nada directo en google. No existen páginas dedicadas a esos temas en concreto.
Y no. No está hablando del alma, aunque sea tu obsesión. Y si te parece charlatanería, podrás rebatirlo sin problemas. Puedes usar chatGPT para ello....
Y desde luego si alguien sabe de lo que habla cuando se trata de lenguaje es Chomski
Cita lo que te parezca interesante y quizá creas que no compartiría y lo comentamos.
Por otro lado, no veo yo, a corto plazo, que podamos tener IAs entrenadas para cada faceta de nuestra vida. Las IAs siguen siendo entrenadas para tareas muy especificas.
Y lo mas importante, aún veo muy muy lejano el momento en que una entienda lo que hace. Por resumirlo con un ejemplo sencillo, una IA la entrenas con las tablas de multiplicar, pero no sabe lo que es multiplicar, no entiende el concepto. Es mas, dado que no entiende el concepto, en cuanto le presentas un dato que no entra dentro de lo esperado, se va a la mierda. Volviendo al caso de multiplicar, tú a la IA le enseñas las tablas de multiplicar, todas menos cuanto es 2x5 y joder, que bien va cuando le pido 2x5, no lo entiende pero me da la respuesta correcta, a pesar de que no le enseñe ese valor en concreto. Pero aquí llego yo y como ella no sabe ni siquiera sumar o restar o si quiera que es un número, nadie le enseñó ni nunca entendió lo que hacia (que en realidad no es mas que ciertos casos específicos de la suma), y le digo que quiero saber cuanto es -2x5 o 32x1 y explota. La realidad es que ni siquiera entiende lo que es un número, no sabe lo que es ese signo -. Para ella solo existían 10 posibles representaciones de entrada (0 a 9) ¿Qué coño es eso de 32? Cuando no pase eso es cuando yo creo que podemos, de verdad, empezar a hablar de IA. Y luego quedará el siguiente gran paso, que sean capaces de proponer ideas nuevas o deducir cosa nuevas según lo que ya conocen, eso ya sería la hostia.
Y a mí me sirve para señalar que la página de la wikipedia que me han presentado es una memez, porque según esa falacia un algoritmo de esos que ponen en los móviles para sacar mejores fotos (Si, esos que anuncian cómo IA) es IA. Cuando solo es un algoritmo. Complejo, pero un algoritmo años luz de incluso ChatGPT 1.0.
¿Crees que ChatGPT es capaz de diferenciar lo posible de lo imposible ?
Por eso siempre primero compruebo lo que me dice. Una vez que ya tengo una solución es mucho más sencillo verificiarla que intentar buscar la solución desde cero.
Por eso cuando le pides que te escriba un script que haga algo por lo general ese código no contiene peticiones imposibles al sistema ni a la realidad, en ocasiones puede ocurrir, se le hace notar el error, se disculpa y lo corrige.
Igual el turco tienen más enanos ajedrecistas dentro de lo que parece.
Tendrían que buscar un ejemplo equivalente al de Chomsky, no hacerle la misma pregunta.
Pues hay extractos de conversaciones que demuestran que no...
Ya buscaré alguna.
En cuanto a la racionalidad, basta con observar y experimentar por ti mismo de diversas formas para saber que la tierra es redonda. La ia no hará eso, se basa en fuentes en las que busca valores estadísticos para determinar la respuesta, por lo que puede decir que la tierra es plana, hueca, triangular y que está sobre una tortuga gigante o que la luna está hecha de queso.
Teniendo en cuenta que un 30% de la población mundial practica el cristianismo, una ia podría optar por negar la evolución de las especies y decir que el ser humano nació del barro, ya que estadísticamente podría ser la respuesta con el valor más alto.
Simplemente hay variedad suficiente para que haya de todo.
A mí también en temas de física me lo ha hecho. Y cuando le digo que está usando una ecuación incorrecta, es capaz de decirme que no, que la suya es más general y que la que yo le digo solo sirve para casos particulares, cuando es completamente falso.
Pero por ejemplo en temas más sencillos, si le pido una explicación sobre la fauna y flora del ecosistema del bosque mediterráneo, me da una respuesta excelente. Y por ahora, es eso para lo que sirve.
Hay muchos humanos que no experimentarán para saber si la tierra es redonda, algunos incluso afirmarán que no lo es. Si existen humanos con esas características no veo por qué debemos exigir a la IA que no actúe nunca de esa forma.
A todo ello existen las religiones, en las cuales el ser humano con sus observaciones y experimentaciones aún tiene una ingente cantidad de población que sufre de esos delirios constantemente.
A la IA la entrenamos para que se parezca lo más posible a los humanos en sus respuestas, eso incluye lo anterior. Si pretendemos exigirle la perfección estamos haciendo una comparación deshonesta.
El día que auditen las fuentes que utiliza chatgpt lo mismo nos llevamos una sorpresa. Ya que ese tipo de información tan concreta suele ser de pago.
Me parece a mí que si la autoridad más conocida en materia de lingüística es incapaz de formular una crítica comprensible a los LLM, quizás es que desde ese ámbito no hay tanto que criticar.
ChatGPT, con sus fallos es capaz de hacer la mayoría de cosas mejor que la media de los humanos.
Como anécdota, existen personas que si, efectivamente no entienden lo que hacen, incluido yo mismo en algunos casos. Estudié informática y el primer año tuve un compañero que se aprendió de memoria los algoritmos de ordenación, pero jamás los entendió. Al llegar al segundo curso (con bastantes pendientes del primero) y le explicaron que íbamos a mejorar esos algoritmos le explotó la cabeza y lo dejó.
Y entono el mea culpa, he estado años haciendo integrales indefinidas sin entender (hasta hace relativamente poco) que era exactamente una integral o por que funciona hacerlas por partes, o haciendo distribuciones de Poisson sin entender un carajo
ChatGPT: 717 multiplicado por 41 es igual a 29,397. Por lo tanto, el resultado de la operación es 29,397.
Es posible que le hayan pasado una tabla de multiplicar inmensa como parte del entrenamiento, pero en este caso considero más probable que haya inferido las reglas de multiplicación. Aún así, con números grandes podría haber problemas debido al componente de aleatoriedad, y en operaciones complejas que requieren múltiples pasos también hay problemas.
twitter.com/SebastienBubeck/status/1634009568341622784
Yo siempre he pensado que la la inteligencia humana tiene una fuerte base en el lenguaje. Debe hecho es una de las argumentaciones de chomsky.
Dentro de sus defectos, gpt interioriza una estructura del conocimiento de los textos con los que lo alimentas. Ya desde la tokenización inicial, con los embeddings, se está representando relaciones semánticas. El modelo está entendiendo la relación entre lexemas a un nivel profundo. Y eso ser vuelve a aplicar a un nivel más general (frases). El modelo aprende a enteder la relación semántica de conceptos muy elaborados. Y eso es la hostia.
Aplicarlo a un bot conversacional que contrasta según determinado comportamiento es solo una forma de usarlo. Creo que hay conceptos alucinantes detrás. Y si no al tiempo. Este mes vienen noticias gordas.