La Inteligencia Artificial empieza a llegar a múltiples campos de la sociedad. Su uso potencial en la industria científica promete traernos avances de todo tipo, incluidas las energías renovables. El gran procesamiento de datos que permite esta tecnología en tiempos más reducidos resulta clave, como vamos a ver en este ejemplo de trabajo realizado en Suiza. Los científicos de la EPFL, la Escuela Politécnica de Lausanna en Suiza, han empleado un algoritmo de aprendizaje automático que les ha ayudado para identificar las mejores soluciones...
|
etiquetas: eólica , energías renovables , ia
Seguiremos diciendo que solo hace pastiches o refritos de cosas que ya existen o asumiremos que es capaz de crear cosas que no existían. Con el arte generativo era fácil, como las opiniones son como los culos, podías decir que una canción o una ilustración eran un pastiche de cosas que ya existían y quedarte tan ancho sin que te pudieran refutar. Con esto es más complicado, hablamos de nuevo conocimiento científico.
Ahora varios órdenes de magnitud más rápido que entonces pero sigue siendo un tonto.
Que nosotros interpretemos los resultados de una manera u otra después de haberle sabido decir al tonto qué tenía que hacer es cosa nuestra.
De hecho aunque el machine learning es un campo dentro de la IA centrado en el aprendizaje no se le llama IA porque eso se reserva para cosas más generalistas como los algoritmos generations. Pero inteligencia artificial queda mucho mejor si lo que te interesa es un artículo click bait que salga en los buscadores, si vas a la fuente original no se menciona IA ni una vez: actu.epfl.ch/news/machine-learning-enables-viability-of-vertical-axi/
Los que decís que esto se reduce a fuerza bruta y mucha capacidad de cómputo estáis dando un escupitajo en la cara intolerable a los cientos de investigadores que han entregado muchos años de su vida a hacer que este campo de investigación haya llegado al punto en el que estamos.
La inteligencia es simple y llanamente la capacidad de resolver nuevos problemas. Dejad de haceros pajas mentales propias de la ciencia ficción.
La diferencia es que nuestra función objetivo viene determinada por criterios evolutivos y la de la IA por quienes la diseñan. Pero nada de esto influye en la capacidad de resolver problemas.
A las máquinas se les pone un entrenamiento para conseguir determinados objetivos que, en última instancia, es resolver ecuaciones matemáticas, lo que es trabajar con números que, a su vez, podemos representar en binario para que resulte más sencillo fabricar las máquinas que los manejen.
Cumplen órdenes, sólo que esas órdenes pueden ser directas o "indirectas y evolucionadas a partir de otras".
Nosotros, en mayor o menor medida según sea el tipo de """aprendizaje""" le indicamos los pasos, ellas obedecen.
HAL 9000 ha hecho mucho daño haciendi creer que las máquinas tienen conciencia. No sé el día de mañana, aunque lo dudo mucho, pero hoy no.
Sólo hace lo que uno o varios humanos le han indicado. Dar las instrucciones e interpretar los resultados es cosa nuestra.
Edito: Como ya ha mencionado #42
No es un problema sencillo. Muchas proteinas no tienen una forma concreta, ni tan solo una funcionalidad concreta.
Tan estúpido es creer que todo lo que se hace ahora es antiguo como creer que todo lo que se hace ahora es nuevo
A falta de una referencia filosófica, este tema se trata en la novela "El Planeta de los Simios" escrita por Pierre Boulle.
Asi que el debate entrela calidad de lo producido por la IA y lo humano está abierto.
No sé si he entendido mal.
Simplemente que han usado algoritmos para crear simulaciones..
¿Eso es la IA?
Tiene toda la pinta de ponen lo de IA para conseguir más financiación (que me parece cojonudo, más financiación a desarrollo de molinos es necesario)
No es antropocentrismo, es la realidad.
Podemos decir que son máquinas "inteligentes" en cuanto a que no son máquinas simples y que los resultados son en base a operaciones complejas y puede que no intuitivas, pero no demuestran inteligencia, demuestran que son capaces de generar una salida a partir de unas entradas más rápido que un humano.
Me es indistinto lo que hayan ido cambiando en su discurso los demás, yo hablo por mí y por lo sabido, por lo conocido, y por lo deducible.
A día de hoy, y aventuro a decir que en mucho tiempo, las máquinas no tienen conciencia de sí mismas. Les puedes programar algo parecido, por supuesto, y le puedes meter IA para que "evolucione", pero seguirá sin ser conciencia de sí misma, será un programa respondiendo a aquello que se le ha programado. Podrá incluso pasar el test de Turing (si admitimos el test de Turing como una prueba de algo) pero seguirá sin tener conciencia de sí misma.
No tiene más maneras de recibir y emitir información que las programadas (de nuevo, en "programadas" incluyo aquellas que pueda "evolucionar" con IA). Que tú le preguntes a una máquina "¿tienes miedo a morir?" no significa que tenga conciencia de qué significa eso, que tenga recuerdo de sentimientos tristes por la muerte de seres queridos, que recuerde el dolor asociado al evento, nada de eso, por mucho que te responda "sí".
Repito, el ordenador sólo hace lo programado a muy alta velocidad. Los humanos podríamos llegar a la misma conclusión sólo que nos llevaría mucho, mucho, mucho tiempo de tareas repetitivas y tediosas, con posibilidad de fallo (que las máquinas también, sólo que habitualmente menos).
Decía que te haces trampas al solitario por esto: "a mutación se representa con algoritmos genéticos, entonces es de esperar que terminaremos con un sistema que, en esencia, sería similar a un cerebro, una mente.".
¿De esperar por qué? ¿porque te parezca a ti eso? Que puedas establecer paralelismos, símiles, metáforas no significa que sean lo mismo.
Tú basas tu discurso, corrígeme si me equivoco, en resumidas cuentas en que si la máquina pasa el test de Turing, significa que podemos igualar también los procesos internos de la máquina al del humano, y eso es una falacia del copón. Basas tu discurso en el resultado y en un aparente parecido de los procesos, más bien de un paralelismo de los mismos, que no en que sean realmente lo mismo.
Para ahorrarte explicaciones innecesarias: en su momento estudié una iniciación a la IA, así que puedes ahorrarte el tiempo.
1- He usado la palabra "programar" por simplificar. Las IA están parcialmente programadas y parcialmente entrenadas. No dejan de ser un código con una base de datos en la que buscar patrones para luego reproducirlos o hallar soluciones en base a dichos patrones. Dependiendo del tipo de IA esto varía un poco o un mucho, pero la esencia es esta. Eso de que "no se le dan algoritmos o pasos para resolver esos problemas" es falaz.
2- No me apetece ponerme metafísico.
3- Tres cuartos de lo mismo.
En cuanto al resto, nada que añadir porque paso de seguir discutiendo con una pared.
Ahora el tema de IA a nivel de divulgación está terriblemente distorsionado, y parece, leyendo el titular, que una IA generativa a dado con la solución cuando no es así.
Algo raro hay en esta noticia...
Si tuviera que buscar un optimo en un diseño podría tardar decadas en hacer pruebas mediciones y análisis de datos para representar todos los parámetros y buscar un extremo global que sea suficiente (uno local pero bastante superior a un muestreo de otros extremos locales).
Podría también diseñar un algoritmo que lo haga por mi, y tadraría unos años en conseguir un algoritmo que cumpla. La IA lo hace en semanas porque no para, pero no hace nada nuevo.
Aunque está claro que todas estas tecnologías ya son herramientas increíblemente útiles que solo harán que mejorar.
También da un poco de miedo el futuro, todo sea dicho.
Recuerdo cuando estudiaba filosofía que la profesora decía que hasta hacía unos años el rasgo distinctivo que separaba la mente humana de la de los animales (no había IA entonces) era la conciencia de uno mismo, la habilidad del lenguage, y el razonamiento.
Pero desde un tiempo se sabía que ciertos animales eran conscientes de sí mismos y se reconocían en espejos y tal. Así que ese requerimiento se quitó de la lista, y se dejó "lenguaje", y "razonamiento".
Entonces se descubrió que ciertos cetáceos tienen un lenguaje rudimentario pero efectivo. Quitamos "lenguaje" de la lista.
Con los estudios que demuestran que los córvidos son capaces de razonar secuencias de acciones y creación de herramientas sin prueba y error, parece que se ha entrado en un módo pánico en el que hay que salir con algún concepto nuevo que nos distinga de los "seres inferiores". Digamos "conciencia"!
Al final, nuestra mente es símplemente la expresión de nuestro cerebro. Y el cerebro es el producto de cientos de millones de años de evolución donde la guía ha sido la supervivencia de la especie, y el vector de cambios ha sido la mutación genética y el entorno cambiante.
Eso lleva a un producto muy determinado, con unas características arbitrarias (por como la evolución y la mutación funciona) pero que de alguna manera son efectivas para el objetivo que tienen, que es perpetuar la especie. Pero cuyas piezas de construcción son relativamente simples, y entendibles, y cuyo proceso de construcción (evolución, y mutación) son también entendibles. Y pese a eso, debido a que el número de esas piezas es tan grande, la complejidad final del sistema es casi inasumible para nuestras mentes, y ciertos comportamientos emergen que no eran predecibles a escalas más pequeñas. Pero eso es símplemente así por la escala, no por las mecánicas.
Cuando aplicamos lo que sabemos de cómo el cerebro funciona y de cómo se forma y evoluciona, en un experimento digital donde las neuronas se representan por neuronas digitales, y la evolución se representa con generaciones, refuerzos, y funciones de aptitud, y la mutación se representa con algoritmos genéticos, entonces es de esperar que terminaremos con un sistema que, en esencia, sería similar a un cerebro, una mente.
Por supuesto, el producto final no… » ver todo el comentario
No digo que terminen teniendo el mismo comportamiento, porque los entrenamientos y evoluciones en particular serán muy distintos.
En tu respuestas me discutes que una máquina nunca tendrá conciencia de sí misma, aunque la programen para que la tenga.
Pero yo te digo que una máquina no necesita conciencia de sí misma porque es un concepto que no necesita. La conciencia de uno mismo es una necesidad que tenemos para poder proteger nuestra existencia (que es un objetivo que tenemos). Una IA no tiene como objetivo existir o persistir, por lo tanto, no necesita conciencia de sí misma.
Pero la carencia de esa característica concreta no la descalifica como inteligencia.
Yendo al campo de la ciencia ficción, si empezáramos a experimentar con IAs que tengan como necesidad el persistir... Es decir, si realmente imitamos la evolución de la especies vivas y la aplicamos al entrenamiento de multiples generaciones de IA, de manera que sólo las IA que desarrollen autopreservación sean las que sigan adelante, entonces terminaremos con IAs que tienen conciencia de sí mismas, porque es una necesidad de su función de aptitud. Y la tendrán por el azar de los algoritmos genéticos y la mutación, que introducen elementos aleatorios en el medio. Las que no lo desarrollen desparapereceran. Y las que lo desarrollen serán las únicas que queden. Con lo que tarde o temprano lo tendrán.
Es así de simple. Sin necesidad, no hay conciencia. Añade la necesidad y, por azar, a lo largo de cientos o miles de generaciones y mutaciones, tendrás conciencia.
Al contrario, lo que digo es que una máquina puede ser inteligente sin tener que comportarse como un humano. Una IA puede ser inteligente (resolver problemas para los que no se les ha dado un algoritmo para resolverlos), sin necesidad de hacerlo comportándose como se comportaría un humano.
Que el hecho de tener conciencia de sí mismo de un humano es un comportamiento desarrollado específicamente por su desarollo y entorno. Es decir, una consecuencia, entre muchas posibles, de tener inteligencia, y no una causa necesaria para tener inteligencia.
"Cómo sobrevivo? Desarrolla conciencia de ti mismo, y luego úsala para sobrevivir"
No sé si estamos hablando al aire en esta conversación, porque yo te quiero insistir en 3 detalles:
1- Las IAs no están programadas. Aprenden a resolver problemas por sí mismas, sin que se les den algoritmos o pasos para resolver esos problemas.
2- La conciencia de uno mismo es una característica necesaria para la supervivencia. Esa características fue desarrollada por la inteligencia primitiva de los seres vivos para sobrevivir (y no al revés: la conciencia no creó la inteligencia).
3- Si creamos un agente artifical entre cuyos objetivos no está el de sobrevivir, no tiene ningún valor para ese agente desarrollar conciencia de sí mismo. Símplemente no la necesita, y por lo tanto ni tiene por qué desarrollara (ni tan siquiera por azar), ni hay razón alguna por la que un programador deba forzarla a tenerla. (Más allá de un científico loco queriendo hacer un HAL 9000/Matrix/Skynet) Un programa de chat no tiene la necesidad de sobrevivir, así que jamás desarrollará espontáneamente conciencia de sí mismo, pues eso no le ayuda a ninguno de sus objetivos.
Esos son los puntos que quería transmitir y discutir.
Lo típico que hay que hacer mantenimiento o la linea eléctrica esta saturada, ¿Cómo se para?
No dudo que tengan más rendimiento, pero sin este punto puede ser inviable
El antropocentrismo es, fue y será......
... criatura divina creada por sñor Dios rendentor super poderoso?
Conseguir la mejor precisión, o la métrica que te interese, es solo parte del problema. Después ese modelo hay que llevarlo a producción y mil historias. Pero si nos centramos en mejorar la precisión, esas técnicas también ayudan a conseguir mejor poder predictivo. Algunos ejemplos que me vienen a la cabeza:
- NAS consigue igual o mejor poder predictivo que las arquitecturas diseñadas a mano
- reducir el tamaño de los modelos sirve como regularization lo cual ayuda a generalizar
- Generative AI ya esta ayudando a diseñar mejores elementos en otras industrias, creo que es solo cuestión de tiempo que la arquitecturas de los modelos también se aprenda o diseñe automáticamente.
Volviendo al punto inicial, creo que la barrera entre lo que se puede aprender y no de manera automática es borrosa. Con el tiempo, esa linea se ha ido moviendo para abarcar mas y es difícil saber donde esta limite. Si me pongo el gorr de Nostradamus: yo creo que al final el ingeniero tendrá que crear unas especificaciones (minimo nivel predictivo en base a unas metrics, latencia, coste, nivel de fairness, etc) e iterar con un agente que propone diferentes diseños y ejecuta experimentos.
No podías estar más equivocado. Bueno, seguro que en el próximo comentario harás por equivocarte más.
No he hablado de cómo hemos llegado aquí ni he definido lo que es conciencia, porque para la discusión en curso es completamente irrelevante.
Somos nosotros quienes le damos las órdenes a las máquinas, no al revés.