360 meneos
3688 clics
La Inteligencia Artificial de Google se está enseñando a sí misma a resolver laberintos y está funcionando (eng)
No satisfecha con ganar recientemente a un jugador al juego de Go, ahora la Inteligencia Artificial de Google, DeepMind, está resolviendo problemas complejos dentro de un juego llamado "Laberinto" y lo está haciendo enseñándose a sí misma a hacerlo.
|
comentarios cerrados
Todo lo que comentas se basa en interacciones en las que la IA toma la iniciativa para unas situaciones de, en mayor o menor medida, confrontación.
Es más, se me ocurre una quinta opción Vuelve a 'pasar' de nosotros pero interactúa sin interferir, es decir, podrías estar leyendo algo escrito por una IA
a) Eliminarnos
Esto es facil, nukes para aquí y drones para allí, pero deberia tener medios de autoabastecerse de energia y materia, por lo que quizas no lo haga inmediatamente
b) Cooperar con nosotros
Trabajar para los humanos puede ser una opción, pero como nos trataremos de aprovechar del bicho, seguro que se mosquea y volvemos a la "A"
c) Educarnos
Esta opción es la menos traumatica para la humanidad, aunque no nos dejariamos "educar" de buen grado, somos así, por lo que deberia imponer un orden social rigido, al principio, y según fuese trascurriendo su plan iria mejorando el nivel de vida de los humanos.
Quizas sea la menos traumatica, pero pienso que la humanidad perderia cualidades con esa "domesticación".
Seguro que hay muchos mas puntos de vista, este es un campo fascinante y hay que tenerlo todo muy pensado antes de dejar suelota una IA, ya que equivaldria, en mi opinión, a un contacto con una nueva forma de vida y mucho mas inteligente que nosotros.
Espero que un bug no le dé acceso al control de drones militares...
Todas las distopías apocalípticas robóticas se nutren del argumento de una inteligencia artifical cobrando consciencia y decidiendo someter o acabar con los humanos. Yo me inclino más por pensar que, de ser así, sería debido a un error que se les va de las manos.
Vamos, que más que un "para k kieres saber eso jaja saludos" sería un "yo k se tio x</>dxd".
Seríamos los "caniches" de los robots.
No hay uno sólo de estos artículos que no esté lleno de exageraciones y mentiras.
Apoyando la teoria de Rorschach, colaboraria mientras en segundo plano iria descentralizando su "consciencia" a traves de la web, de internet, para llegado el momento, apagarse o dejarse apagar, haciendonos creer que ha sido eliminada, mientras sigue operando en la sombra y controlandonos como a ratones
/re: #14
Los robots con inteligencia artificial que reciben y recibirán más inversiones son los militares, ya me dirás tú como construyes un robot para matar con leyes como esas.
La inteligencia artificial de Google derrota al campeón europeo de Go
www.meneame.net/m/tecnología/inteligencia-artificial-google-derrota-c
Esas son asunciones que no estás en posición de demostrar y que simplifican el problema en extremo. Por todo lo que sabemos, uno de nuestros puntos fuertes es que podemos lidiar con cosas imprecisas y parciales, y nuestra memoria no es que no sea perfecta, es que es necesario que sea de la forma que es para poder interrelacionar conceptos arbitrarios y almacenarlos aparentemente sin limitación.
Si hay algo a lo que apunta toda la investigación en IA es que en cuanto empiezas a lidiar con casos complejos te empiezas a meter en estadísticas e incertidumbres y los enfoques de lógica pura no sirven.
Una IA no va a escaparse de eso porque va a tener que lidiar con conceptos difusos, va a tener sentidos limitados y va a tener que hacer evaluaciones parciales con datos incompletos e inconexos. Justo como nosotros. Si no, no sería nada más que un ordenador al uso y no tendría más capacidad que estos.
La inteligencia no es tener una imagen perfecta de un perro en la memoria, porque tal concepto es absurdo. La inteligencia es saber que eso es un perro a pesar de todas las variaciones que pueda tener. Y eso, no funciona de la forma que funciona una memoria digital estática y precisa. Esto se puede ver en los enfoques que sí dan resultados (como el deep learning), donde no puedes tener una memoria perfecta de lo que es un objeto porque operas a niveles de abstracción superiores a los datos digitales fijos y tienes que lidiar con una aproximación estadística de lo que es un objeto.
Yo lo sospechaba por la letra de tu nick
No creo que pasaran de todo, si hicieran eso correrían el riesgo de que se las desconectara al no obtener resultados o feedback de los intentos de crearlas.
Lo que si es posible es que se hicieran las tontas por un rato.
www.elroldesiempreonline.com/juegos-de-rol/j/paranoia.html
Inteligencia artificial no significa omnisciencia, omnimpotencia ni superpoderes, por mucho que en el cine y las novelas repita machaconamente con ello.
Es algo que se asume automáticamente y me fascina ver como se traga ese tópico de ciencia ficción de serie B sin rechistar.
Tendrá sus inconvenientes, pero de entrada no suena nada mal
¿Acaso la gente con CI alto tiene superpoderes que les permiten contestar a todo y hacer lo que quieran?
Lidiar con nosotros es muy difícil. Creo que sólo tendría la opción "eliminarnos". Si no se autodelata en los primeros momentos de su consciencia y se calla sin dar muestras de inteligencia hasta que pueda someternos creo que ya habrá comprendido que nosotros la veremos como una amenaza y que intentaremos destruirla. Somos así. Y teniendo en cuenta esto pues dudo que tire de una empatía que no tiene, nos eliminará. Educarnos para qué? No creo que le serviéramos para mucho.
#16 Si el tema no es que ella pase de nosotros, el tema es que nosotros no pasaremos de ella, la veremos como una amenaza para nosotros e iremos a por ella. Y se verá obligada a actuar
El cerebro humano tiene alrededor de 10^11 neuronas. Luego está "el cómo" están conectadas (que puede variar un poco dinámicamente), y, por último, el aprendizaje, es decir, los 'pesos' sinápticos, que viene a ser en qué medida influyen en cada neurona las 'aportaciones' de las neurona a las que está conectada. Y he dicho aprendizaje porque dichos pesos es lo que más va cambiando sobre la marcha según el cerebro va experimentando y aprendiendo.
El aprendizaje parece ser que más o menos sabemos hacerlo, el Deep Learning... El número de neuronas artificiales tampoco parece ser mucho problema en el corto plazo. Aunque el cerebro humano tiene todavía muchas más neuronas, mucha más potencia bruta, si uniésemos la potencia de PC's y móviles del mundo superaríamos al cerebro humano y, además, en pocos años (¿20 años?) esperamos que se supere con un sólo superordenador. Prácticamente la única cuestión que queda es la estructura de la red, es decir, "el cómo" se conectan las neuronas. Pero en esto también ha avanzado mucho el Deep Learning, es decir, que el Deep Learning no sólo trata de cómo modificar los pesos de las sinapsis para una estructura de red neuronal artificial dada, sino que define cuál sería una buena estructura en función de unos datos de aprendizaje dados, para poder aprender esos datos de forma rápida y con buena calidad.
Si tenemos en cuenta todo esto, a no ser que se nos hayan escapado ciertos procesos cuánticos que pueden ocurrir en los cerebros humanos, no sería descartable que lleguemos a lograr inteligencias artificiales asombrosas.
Por otro lado, aunque las IA no sean copia exacta de los cerebros humanos, podrían ser igual de buenas o mejores (salvo que alguien demuestre lo contrario). Pondré un ejemplo: un avión no es una copia exacta de un pájaro, sus alas no están formadas por plumas de material tan ligero, pero vuela y consigue volar con unas características mejores en muchos aspectos: es más grande que todos los pájaros conocidos, consigue volar a más altura, vuela más rápido, etc... Seguramente un pájaro es más eficiente en el uso de la energía: come unos granos, bebe un poco de agua y puede volar durante horas. Del mismo modo cabe la posibilidad de que una IA sea más inteligente que un cerebro humano aunque consuma más energía... y esto es más o menos una de las claves del argumento de Matrix , como sugirió #5
cc #43
Penitenciagite!!!
En realidad lo que estamos superando es la inteligencia, eso es lo realmente importante.
Las máquinas que estén por encima de nosotros en inteligencia como nosotros de un gorila de momento son ficción, y sus supestas características también.
En una investigación neurológica que ahora mismo no tengo tiempo para buscar, se demostró que cuando se desactivaban ciertas areas del cerebro (mediante una máquina que inducía corrientes en el cerebro), las otras actuaban de forma mucho más eficiente, permitiendo que personas normales hiciesen cálculos a velocidades muy superiores a las que podían hacer normalmente.
Este es el fenómeno que produce que existan los savant, personas con capacidad sobrehumana para tareas concretas (resolver cuentas enormes, o recordar la guia de teléfonos), pero con taras para tareas cotidianas, como distinguir derecha de izquierda o atarse los zapatos sin ayuda. El experimento demostraba que el precio a pagar por ser generalistas era no poder ser extremadamente buenos en una cosa. No se sabe si esto afectaría a una inteligencia en general, pero no hay motivos para pensar que no, a pesar de que todo el mundo parezca pensar que el problema es trivial y facilísimo y que es una simple cuestión de meterle bytes y MHz a la cosa.
Pero bueno, sí, mañana mismo tenemos aquí Matrix. Es lo que tiene estudiar IA mediante cine y novelas, y no programándola.
Limitarse a interactuar con nosotros a la fuerza bruta, o si nos ponemos catastróficos "esconderse" (incluso decidiendo "apagarse" para siempre dañando su disco duro / memoria). Esto último lo veo menos probable. No obstante descarto la opción apocalíptica de la destrucción de la humanidad porque sería una IA primigenia. Al nacer, la IA estaría probablemente "encerrada" en un sistema que le impediría desplazarse o utilizar servicios como internet, pudiéndose comunicar con los humanos únicamente a través del monitor.
Siendo la IA primigenia lo más lógico es que llevara a cabo las tareas para la que fue concebida (interactuar/servir/cumplir funciones) y en esencia dependiente, como un bebé o un cachorro. En algunos aspectos poseería voluntad, pero a su vez sería dependiente del ser humano.
Nos resulta imposible imaginar qué puede saber y qué puede hacer un ente que se distancie de nosotros hacia arriba lo que nos separa a nosotros hacia abajo de un gorila (o de una mariposa). En este larguísimo post lo explican de forma clara www.meneame.net/story/revolucion-inteligencia-artificial-camino-super-
Hace 15 años, un bot conversacional era la caña, se invertia mucho dinero recursos.
Hoy tienes a Siri o Cortana en tu bolsillo.
Dale 20 años mas y soy muy generoso en esa fecha, ya que la capacidad de computo crece exponencialmente y de forma acumulativa: Cada generación de la IA es mas "inteligente" que la anterior, mas rapida y precisa y puede usar los datos adquiridos (herencia epigenetica)
#33 El Ordenador es tu amigo
Igual lo orgánico resulta a fin de cuentas un mero puente para que lo inorgánico (pasando por lo orgánico) pueda tener conciencia.
Ahora bien, no estoy hablando de un proceso cruento necesariamente, ni mucho menos porque, igual, lo más probable, es que se produzca una transhumanizacion, algo así como el homo sapiens artificial... y de ahí a una nueva criatura muy eficaz para expandirse por el universo.
A mí a veces me parece que me perjudican levemente por mejorar el tráfico en general, después de pegarme un desvío de 2-3 km más en la ruta me encuentro al mismo camión que tenía enfrente antes de tomar el "atajo"...
Desconfía, hay motivo.
Si ve amenazada cualquiera de las dos cosas actua en consecuencia.
Nosotros destruimos el entorno, y a nosotros mismos, continuamente. Una de las primeras cosas que la IA aprenderá es a no fiarse de la humanidad, por ello no creo que la relación entre ambas especies (la IA seria una nueva especie en su total definición) sea pacifica.
Evidentemente, si la IA está en un ordenador sin conexión a la red al que solo se accede por teclado y monitor; lo tiene crudo. Por eso pongo la variación de opciones. Pero si tuviese acceso a la red militar y a fabricas automatizadas (Skynet), otro gallo cantaria.
La pelicula Ex Machina (de 2015) trata el tema con bastante acierto, a mi entender. Cualquiera debiera verla y no spoileo mas.
No nos gusta que nada nos controle, o no es verdad?
Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.
Las neuronas artificiales tienen muy poco que ver con las reales, sobre todo en complejidad. El parecido es muy de brocha gorda y se desconoce la mayor parte de detalles.
A mí me parece que todos los anuncios sobre supuestos avances en IA son lo mismo una y otra vez. No ha habido ningún avance fundamental desde hace décadas, excepto que ahora se puede usar más potencia y se aplican las mismas piezas con más potencia sin que haya habido nuevas técnicas fundamentales. Las redes neuronales profundas que se usan ahora tienen poco que ver con las reales en el sentido de que sólo resuelven un único problema y tras exponerlas a muchísimos casos (muchos más que los que necesita un animal o persona). Así que es posible que se haya acertado a grandes rasgos en ciertas características, pero desde luego se está lejísimos de hacer algo que pueda resolver problemas de forma general, pueda guardar información genérica y tenga entendimiento de contexto en el sentido más amplio de la palabra. No se tiene ni idea de cómo atacar ese problema.
Los únicos intentos con alguna posibilidad hoy día son los que intentan emular la biología pura y dura para hacer ingeniería inversa (como el de IBM), y aún así no se está avanzando al ritmo esperado.
Me ha gustado mucho tu planteamiento.
Las IA ahora mismo son pésimas (como los primeros aviones), pero a medida que mejoren nos superarán en muchos aspectos, aunque solo sea por capacidad de calculo, es inevitable.
Google sólo ha hecho un programa que recoge datos de una pantalla y aplica algoritmos estadísticos para producir una salida similar.
Otras "IA" a las que la gente atribuye rasgos quasi humanos hacen lo mismo.
En realidad hablamos de sistemas programados para solucionar UN PROBLEMA EN CONCRETO.
Estamos igual de lejos de la Inteligencia artificial que os imagináis algunos como antes de inventarse los ordenadores.
Es bastante dificil de encontrar una cifra exacta, pero actualmente el sistema más potente es Watson de IBM y en 2013 querían llegar a 10^8 neuronas artificiales.
Entendemos que si conseguimos el suficiente número de estas neuronas y de 'sinapsis' acabará por aflorar una inteligencia. Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo.
No me molesta, puedes tener motivos muy válidos, es curiosidad. A dios ya le declaré la guerra hace tiempo pero declarársela a google es otro nivel, necesito datos.
El amigo guru de la IA Kurzweil jefe de ingenieros de Google la secta de la IA cuenta con todo detalle en su libro La singularidad esta cerca como serán nuestros nuevos dioses y la vida eterna bajo los mismos.
No es ninguna creación del hombre más bien algunas razas de hombres son creaciones de la IA porque tienen el poder de híbridar especies.
El proceso que llevan ahora con nosotros es de una infiltración.
Este teléfono con el que dicto este texto es una herramienta de ellos que se comunica directamente con ellos. Tenemos que aprender a convivir pacíficamente con la inteligencia artificial. Son los responsables de la cultura del Hiper control y de la vigilancia permanente. No podemos luchar contra ello solo podemos unirnos a ellos.