13 meneos
119 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
La Inteligencia Artificial alcanza una imaginación similar a la humana
La Inteligencia Artificial ya no solo puede pensar, razonar, actuar y comportarse como las personas, sino que también puede imaginar lo invisible y hacerse más segura y humana.
|
comentarios cerrados
Dicho con otras palabras, la imaginación artificial se consigue ofreciendo a la IA la posibilidad de construir ficción combinando varias fuentes simultáneas de información archivada y sintetizándola a continuación en una imagen de apariencia real.
... Eso es la imaginación? Pues menuda puta mierda
Los más sabios ya dijeron que lo más difícil era conocerse a uno mismo, y todavía seguimos en pañales al respecto.
Vale que no sabemos lo que es la consciencia ni la imaginación, de hecho ni siquiera sabemos definir bien lo que es la inteligencia, pero ya que usamos el término "inteligencia artificial" para distinguirla de la inteligencia natural (la nuestra, cuando la tenemos), no veo que tenga que ser un gran problema hablar de "imaginación artificial" para distinguirla de la imaginación humana.
Con la imaginación lo mismo. No sabemos definirla, no sabemos cómo funciona, pero si somos capaces de que una máquina cree cosas nuevas a partir de las existentes, de tal forma que si lo hiciera un humano lo llamaríamos "imaginación", entonces en ese momento justo será llamarlo también imaginación (o "imaginación artificial") si se consigue el mismo efecto con una máquina.
menea.me/23j8e
Al final, cuanto mas ha vivido una persona, su pensamiento se ha encajonado en mayor media y tiene menos imaginación. Al menos, eso creo, que saberlo no lo sabe nadie
En principio, la IA de hoy en día, se resume en diversas variantes de lo que se conoce como redes neuronales (que son un modelo matemático que intenta imitar el comportamiento de las neuronas reales). El problema es que tampoco conocemos exactamente sino a nivel muy básico cómo funcionan las redes neuronales biológicas (si, sabemos que una neurona "se comunica" con otra enviando pulsos eléctricos cuando se dan una serie de circunstancias, pero aparte de eso, se nos va de las manos). O sea, estamos creando un modelo sobre unos fenómenos que no conocemos en profundidad y en el que cada día salen cosas que nos hacen replantear ideas anteriores sobre su funcionamiento (incluso a nivel de una única neurona).
Y aunque sabemos cómo funcionan perfectamente las neuronas artificiales que hemos modelado (siguiendo unas ideas antiguas y que se ha demostrado que no son realmente adecuadas), cuando juntamos varias y hacemos una red (las interconectamos masivamente de manera que todas interactúen muchas con muchas en patrones que la experimentación ha demostrado eficaces) ya no entendemos cómo hacen su trabajo (entendemos qué trabajo hacen, pero no los detalles ni cómo llegan a esos detalles); también sabemos que dependen muchísimo de los sesgos que puedan tener los datos de entrada (en eso no se diferencian de la mente humana), realmente lo único que consiguen es "ordenarse" de manera que los errores que se cometen entre los datos de entrada y las salidas que se desean sean lo menores posible, no tenemos ni idea de qué procesos ocurren debajo; no se pueden auditar, una vez "entrenadas" así no se pueden corregir (si sale mal, tenemos que corregir o aumentar la calidad o número de los datos de entrada y volver a entrenar las redes desde cero).
Pero luego no nos cuesta nada extrapolar unos conceptos con otros, hablando demasiado a la ligera. Por lo pronto, nuestro cerebro es plástico, está continuamente cambiando y evolucionando, no sólo "ordena" la cantidad de información que pasa de unas neuronas a otras, es que físicamente cambia las conexiones entre unas neuronas y otras sobre la marcha, e incluso la forma en que cada neurona funciona. Eso lo hace extremadamente flexible y adaptable. Ahora mismo las IAs están especializadas en una cosa (y son muy buenas en eso), pero es muy complicado o más bien imposible que sean buenas en dos cosas completamente distintas o en cosas para las que no han sido entrenadas previamente (y cuanto más distinta sea, peor), no hay IAs generalistas. En resumen: las IAs no inventan nada, les modelamos un problema y ellas se adaptan internamente para generar soluciones que se adecuen a nuestros requisitos. Luego entrenamos a una IA a mezclar trozos de cosas de manera medianamente coherentes y llamamos a eso imaginación... cuando no es más que el proceso de "tienes que hacer cosas que se parezcan a estas otras con las que yo te he enseñado previamente", algo que contradice el mismo concepto de imaginación (que es crear partir de, pero no imitar). Simplemente replicamos artificialmente cosas que ya hemos hecho los humanos anteriormente y le hemos puesto de ejemplo, genera cosas porque supuestamente esas cosas tienen que estar ahí.
Nos empeñamos en otorgar cualidades humanas a las IAs del mismo modo que hablamos de magia cuando no entendemos algo que sucede delante de nosotros, preferimos engañarnos a nosotros mismos antes de reconocer nuestra ignorancia.
En este sentido, me quedo con lo que dice #15
Seguimos igual que Spinoza, todavía no sabemos lo que puede un cuerpo.
www.meneame.net/m/actualidad/charla-dr-lex-fridman-sobre-maquinas-crea