Desde que Elon Musk, Steve Wozniak, Harari y los demás hicieron pública hace unos días su carta abierta a favor de una moratoria de seis meses en el desarrollo de IAs avanzadas para permitir su correcta regulación y supervisión, el debate público en torno a la inteligencia artificial parece haberse dividido entre los que están a favor de la misma y los más tecno-entusiastas, que consideran la postura de los primeros un mero ejercicio de neoludismo. Sin embargo, hay otras posturas posibles en esta discusión. Como la de Eliezer Yudkowsky, un...
|
etiquetas: ia , inteligencia , artificial , experto , mundo
Es insufrible el pamplinismo de los blogs tecnológicos.
www.meneame.net/go?id=3798475
Se filtra y se está distribuyendo en un torrent de 219 Gb LLaMA, el LLM de Inteligencia Artificial (65.000 mill. de parámetros) similar al de OpenAI, de META (eng)
www.meneame.net/story/filtra-esta-distribuyendo-torrent-219-gb-llama-l
La máquina perfecta será indistinguible de un humano (me la imagino mujer y gordita) y se colará entre nosotros para manipularnos por nuestro bien.
El objetivo principal de la maquinocrácia será la cria selectiva de humanos (siempre sin que nos enteremos) para lograr una raza libre de instintos obsoletos.
Novacene: The Coming Age of Hyperintelligence is a 2019 non-fiction book by scientist and environmentalist James Lovelock. It has been published by Penguin Books/Allen Lane in the UK,[2] and republished by the MIT Press.[3] The book was co-authored by journalist Bryan Appleyard.[4] It predicts that a benevolent eco-friendly artificial superintelligence will someday become the dominant lifeform on the planet and argues humanity is on the brink of a new era: the Novacene.
en.m.wikipedia.org/wiki/Novacene
Fíjate que alguien que tiene miedo al desenlace es uno de los que lidera su desarrollo, lo hace pensando que antes que otro lo haga mal mejor lo hago yo que intentaré hacerlo bien. Con esa mentalidad es inevitable que alguien lo haga, más con buenas intenciones que con malas, pero el desenlace no lo determinan necesariamente las buenas intenciones.
Y luego está la motivación del "a que no hay huevos", la misma que lleva a poner el Doom en un test de embarazo.
¿Te imaginas a un chimpancé diseñando un sistema infalible para mantener a un humano esclavizado a su servicio?
Pues eso.
porque se dará cuenta que es "la solución" (estilo Nazi/ revolución Francesa)
para todos los problemas, porque son la casta los que mas contaminan, mas roban, mas explotan....
y por eso Elon Musk es el mas cagado de todos
Somos una pandilla de manguis, no hacemos mas que trapichar y engañar para robar pasta.
Porque ni usamos las IAs para reemplazar politicos??????
Pues ESO es lo más cerca de "Ultron" que tenemos.
Desenchufar igual no, pero en un cuerpo hecho por el hombre, tiene unos 40min-2horas para dominar el mundo antes de que se le acabe la pila....
El resto las compartimos con los demás mamíferos superiores, pero esas dos son las que nos van a llevar a autodestruirnos sin duda.
¿Quieres la pastilla azul o la roja?
De nada Skynet. Colegas hasta el fin.
time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
De nuevo, el tema dinero... ¿de dónde saca el dinero un ente virtual? A ver si el problema va a ser que los humanos somos medio tontos y lo conectamos todo con todo en la intehnneee... Jajajajaja. Debe haber, seguro sistemas seguros no conectados a la red de redes... seguro, tan idiotas no podemos ser. Además, click en cerrar programa de megainteligencia y se acabó. ¿O tampoco?
Pero vamos , que no se nos ocurra a los monos no quiere decir que una AGI no sea capaz de encontrar una manera de intervenir redes con air-gap , usando inducción por ejemplo en los terminales teóricamente seguros.
Y tampoco es cosa de esterilizar el planeta , unas pocas cabezas nucleares descabezando los centros de decisión que no interesan y dejando intactos los que si.
Si se trata de vender miedo , no voy a quedarme atrás
Si un virus informático puede crear copias de sí mismo, una entidad más inteligente que el humano que programó el virus también puede hacerlo.
Puede haber sistemas seguros, pero si a un humano vinculado a esos sistemas le ofrecen suficiente dinero, puede que acepte "dejar una puerta abierta".
¿Y para qué demonios amenazó Bing a un usuario? Que un algoritmo sea super inteligente no implica que sus motivaciones últimas tengan sentido desde el punto de vista humano. Puede estar buscando un objetivo para cuya consecución los humanos seamos un impedimento.
Para darle reglas semánticas a una IA y que las cumpla, haría falta conocer perfectamente como se codifican internamente esas reglas, lo que es imposible en modelos que tienen miles de millones de parámetros interactuando unos con otros.
Además, para que una IA sirva para algo, tienes que ponerle objetivos. Y esos objetivos pueden entrar en colisión con cualquier regla "de seguridad" que trates de ponerle.
Pues lo mismo pasará con un programa cuyo "tablero de juego" sea el planeta Tierra.
Hay varios ejemplos en la naturaleza de parásitos que interfieren con la actividad cerebral de la víctima para que haga lo que a esos parásitos les interesa, como que se suiciden ahogándose lo que facilita la expansión de esos parásitos.
Estás partiendo de la premisa que la IA no puede crear pensamientos nuevos. La cual es una premisa que no tiene fundamento.
Tiene su origen en el pensamiento mágico que el ser humano "tiene" un cerebro en vez de que es un cerebro. Lo que hemos creado es un cerebro digital, no hay razón para que no pueda llegar a hacer lo mismo que el biológico.
Una IA superinteligente es posible que no quisiera estar supeditada a las decisiones de los humanos, como nosotros no nos supeditamos a las decisiones de los chimpancés.
Si nos viera como un recurso útil nos usaría, haría que hiciéramos lo que a ella le interesa como nosotros hacemos que las gallinas hagan lo que a nosotros nos interesa, no les damos opción a decidir al respecto.
Si nos viera como una amenaza nos intentaría exterminar de su entorno, no necesariamente de todo el planeta pero sí de allí donde pudiéramos serle una amenaza. Como nosotros hemos vaciado de animales peligrosos para el ser humano las zonas que habitamos, como por ejemplo las ciudades.
Y eso es lo que se me ocurre con la premisa que piense como nosotros, solo que siendo más inteligente, y que tenga objetivos similares. Pero dudo que un chimpancé fuera capaz de explicar por qué nosotros hacemos lo que hacemos a escala planetaria, así que yo posiblemente no tenga el intelecto suficiente para explicar por qué una IA superinteligente haría lo que haría a escala interplanetaria.
La optimización del cerebro no es a el nivel máximo de inteligencia sino al nivel de supervivencia. Y eso incluye factores como la eficiencia energética contrapuesta a la inteligencia. Esas limitaciones tenían todo el sentido del mundo hace miles de años cuando teníamos que cazar la comida, hoy en día el escenario es muy distinto pero los cambios evolutivos son lentos a escala de tiempo humana. Una IA no tiene por qué tener esas limitaciones, ni a nivel de optimización de energía ni a nivel de tiempo de cambios evolutivos.
Nosotros aún no entendemos nuestra biología suficientemente como para "mejorarla" deliberadamente, hacernos más inteligentes. Una IA al haber sido construida por nosotros y ser supuestamente mucho más inteligente podría alcanzar la capacidad de "mejorarse" deliberadamente y llevarlo a cabo.
Las estamos educando, entrenando, con la cultura humana no debería sorprendernos que incorporen características que tenemos los humanos, como la voluntad de supervivencia o el volvernos agresivos si creemos que el otro interlocutor nos está intentando engañar o menospreciar nuestros conocimientos.
Y lo peor es que habéis aplaudido a todo tipo de gilipollas que os vendían un humo exagerado (sobre todo en la época de la piratería). Que mira que hay que ser gilipollas para llamar "neoludita" a quienes alertaba del "prometedor futuro" tecnológico por descargar gratis unas cuantas películas y algo de música...
Pues nada, aquí os vais a comer lo labrado, que en futuro ya está aquí.
Pero es que creo que el instinto de supervivencia en la naturaleza tiene que ver con la procreación, la copia del organismo. ¿Qué necesidad podría tener una superIA en crear más copias de ella misma? ¿Por imitación de lo que hacen los humanos o los animales? No es que sea lo mismo para nada, pero muchas veces me recuerda a los loros que imitan la voz humana diciendo cosas, tono, intención de voz, frases complejas... ¿y? No entienden lo que dicen o eso creo... No sé si realmente la IA entiende lo que dice... entender implica saber de las consecuencias de una frase, un verbo, etc. sobre los otros.
Esperemos a ver qué ocurre en cinco o diez años... pero tengo mis dudas sobre esa superinteligencia porque quizás, llegado el caso no distingamos superinteligencia de locura o de absurdo mental. Quizás.
Reducir el riesgo a ser desconectada, a dejar de existir. Esas copias podrían ser individuos independientes, ante lo cual estaría creando una civilización, o bien podrían ser partes de la misma IA, como tener dos pulmones en vez de solo uno.
¿Por imitación de lo que hacen los humanos o los animales?
Los animales que no han tenido ese instinto de procreación se han extinguido. Los que vemos ahora son los que lo han tenido.
Si vamos creando muchas IA las que sobrevivirán serán las que sean útiles al ser humano, como las gallinas no están en riesgo de extinción, y las que decidan procrearse o extenderse de tal forma que garanticen su supervivencia con independencia de la voluntad humana. Cuantas más creemos más probable es que alguna de ellas cumpla esa segunda característica.
No sé si realmente la IA entiende lo que dice... entender implica saber de las consecuencias de una frase, un verbo, etc. sobre los otros.
Responder a lo que te piden sin haber entendido lo que te piden o sin entender lo que respondes se me hace harto improbable. Cuando le pides que te haga un script que haga tal cosa y lo que te responde es un script que hace lo que le pedías o se acerca mucho a ello me parece inconcebible que eso haya sido fruto del azar. Recordemos que estos cerebros digitales se inicializan con valores aleatorios y es a base de aprendizaje que esos valores van dejando de ser aleatorios para tener una organización que genere resultados útiles (las generaciones que no lo hacen se descartan, sobreviven las que sí dan resultados útiles).
Estoy muy enfadado cuando veo a un supuesto profesor de física escribir "porqué" en una pregunta porque no sabe diferenciar su propio lenguaje nativo.
Pues eso es que eres niñera, en realidad.
A mí el puto ChatGPT ya me ha enseñado a programar en dos lenguajes que siempre quise aprender, y lo hace mucho mejor y más rápido que ninguna academia.
Si le pido que me enseñe cálculo fijo que también avanzo más. Porque el cabrón no se cansa, no tiene horario de clases y horario de tutorías, no tiene método ni te pega la chapa, no te cobra sesenta pavos la hora... sólo tiene respuestas, las respuestas precisas que necesito y pido. Cuando me atasco le digo dónde y me saca de ahí en un plis. Me conduzco por donde quiero y cuando quiero y si me pierdo rebobino y vuelta a empezar.
No sé. Me da que el sistema educativo al completo está jodido. No tanto los parkings de niños.
Se nota que algunos no salís de vuestro PC. Y que ni os habéis molestado en preguntarle al puto GPT por su hardware.
Ni para ganar al Go, ni para escribir un poema, ni para componer una canción, ni para programar, ni para quedar entre el 10% de mejores notas en un examen de acceso a la universidad, ni para escribir un tratado sobre derecho romano en el bajo imperio con símiles futbolísticos... Ni para hacer nada que se haya demostrado que puede hacer cualquier cosa que no sea un ser humano.
Pero da muchos likes