Tecnología, Internet y juegos
14 meneos
254 clics

El polémico artículo de un investigador de inteligencia artificial: "Hay que estar dispuesto a bombardear un centro de datos"

Tras el manifiesto que pide la suspensión durante seis meses de los experimentos con inteligencia artificial (IA) muy avanzada como el ChatGPT desarrollado por la tecnológica OpenAI, ahora el investigador y defensor de lo que él ha llamado inteligencia artificial amigable, Eliezer Yudkowsky, va más allá: advierte que esa medida se queda corta y aboga por cerrar los centros de datos de inteligencia artificial, por que la moratoria se aplique de forma "indefinida y mundial".

| etiquetas: investigador , inteligencia artificial , bombardear , centro de datos
  1. Los Americanos bombardeando Google en Europa.
  2. Mejor que vean la película Colossus, the Forbin project (Grandiosamente traducido al español como Colossus, el proyecto prohibido en ocasiones)
  3. Y si...el problema no es la inteligencia artificial mismamente, sino que el enemigo infiltre una inteligencia artificial en los datacenter nacionales y los datos empiecen a estar "ligeramente corrompidos". Como en el caso del StuxNet, que no era que rompiera las centrifugadoras, sino que las hacía girar a velocidades ligeramente inferiores o superiores, justo para que no se pudiera enriquecer el uranio.
  4. #1

    No bombardearon las fábricas de Ford en Alemania en el SGM, lo van a hacer ahora con Google.
  5. Exactamente igual cuando los luditas la querían emprender a palos con los telares mecánicos.
  6. #3 Stuxnet si que rompía las centrifugadoras, las variaciones de velocidad eran para estresar los rodamientos hasta romperlos.
  7. Algunos están jiñadísimos con las AIs xD

    Vaya catastrofista el tipo. Busco a ver por qué es "investigador" y sale American decision theory and ethics researcher and writer // Yudkowsky is an autodidact[15] and did not attend high school or college.[16] He was raised as a Modern Orthodox Jew.[17]

    Yo no le haría mucho caso de primeras.
  8. #8 Cuando leí en su momento, en el artículo que lo leí, decía que no era la intención romperlas, sino hacerlas funcionar mal, que el uranio no se enriqueciera y que al final no fuera evidente el problema: un virus que jodía las centrifugadoras. Supongo que si, que se terminarían rompiendo porque tampoco estarían preparadas para eso.

    A mi me parece de genios: no romperlas directamente, ya que resultaría obvio que ha sido un sabotaje. Sino que no funcionen bien, para que se rompan la cabeza pensando qué está pasando, ya que lo que primero piensas es en que algo estás haciendo mal (personalmente, yo actuaría así).
  9. #7 Pues razón no les está faltando a los luditas...
  10. #9 Hay dos tipos de personas, los que están jiñados con las IAs y los que no saben todavía que tienen que estar jiñados
  11. #9 Un escalón por debajo de los prestigiosos investigadores de la "Dinosaur earth society".  media
  12. #10 Los organismos internacionales les obligan a poner a poner cámaras dentro de las instalaciones de las centrifugadoras. Por las imágenes comprobaban que estaba siendo efectivo y tenían que sustituirlas con más frecuencia de lo normal.
  13. No vamos a programar un ente autoconsciente sin querer, que dejen las películas.
  14. Me da que esto es una mezcla de marketing más hipocondría tipo "cuando no se sabía si el cuerpo humano sería capaz de soportar las altas velocidades que alcanzaban los primeros ferrocarriles a más de 70km/h".
    Cuando pase el tiempo y nos demos cuenta que esto está a años luz de la singularidad, nos reiremos.
  15. #9 ¿Cual es la carrera universitaria donde se estudian los riesgos para la humanidad de una IA más inteligente que el ser humano?
  16. #15 Las características significativas de las IAs no surgen tanto de la programación como del entrenamiento, de cómo se reorganizan esas neuronas digitales con éste.

    A todo ello no sabemos como crear un ente autoconsciente y debido a ello no sabemos como evitar que surja.
  17. #16 "cuando no se sabía si el cuerpo humano sería capaz de soportar las altas velocidades que alcanzaban los primeros ferrocarriles a más de 70km/h"

    Ahora sabemos que el cuerpo humano no puede soportar ciertas aceleraciones, la hipótesis no era para nada descabellada. Simplemente aún no se sabía cuales eran las aceleraciones peligrosas, ahora tenemos mucha mejor información al respecto.
  18. #19 pues precisamente, con la IA vamos estamos ahora en la fase de "los 70km/h". En mi opinión, por supuesto. La tendencia, como siempre, es a ser tremendista y exagerada.
  19. #20 La tendencia, como siempre, es a ser tremendista y exagerada.

    En cuanto a riesgos existenciales para el ser humano inevitablemente sufrimos del sesgo del superviviente.
  20. Con un interruptor para apagar la corriente no sería suficiente? Hay que tirar una bomba?
  21. #17 Aún no la hay. Están esperando a que su chiringuito auto-inventado con rollo filosófico prospere para implentar unos "Estudios de IAs" en las facultades.

    Que digo yo, que con lo dados que somos a llamar magufo a cualquiera en esta web, mucha bola se le ha dado ya a este envío.
  22. #23 Aún no la hay.

    Por lo tanto fuera cual fuera su currículum seguirías pudiendo hacer un ad hominem. Eso es trampa.

    con lo dados que somos a llamar magufo a cualquiera en esta web, mucha bola se le ha dado ya a este envío.

    ¿Puedes citarnos los estudios científicos en los que te basas para afirmar que estos riesgos son magufadas?
  23. si la inteligencia artificial marca las pautas del mercado, se acaban los derechos y la democracia tendrá un problema.
  24. #22 claro la bomba buscará y exterminara por la red toda las copias de sí misma que haya hecho la supuesta IA omnipotente, incluidos los pendrives donde se haya resguardado en forma de bomba lógica por si acaso.
  25. #24 Aquí no hay trampa. Se reproducen las palabras (no carentes de sensacionalismo) de un supuesto investigador. Y su curriculum es cuando menos bastante vago. Parece más bien un teórico y ni siquiera parece que trabaje con IAs directamente.

    Por tanto, yo no he hablado de los riesgos, sino del tipo. Ahora bien, te puedes leer el artículo y ver que no le faltan ni aliens, ni ataques aéreos, ni situaciones apocalípticas (vamos a morir todos) y todo eso sin aportar más base que un posible miedo (siempre según el artículo que es por lo que me he tenido que ir a buscar quién es este tío y qué hace).

    PD: En realidad, no sé si existe o no dicha carrera (es u tema hiper-específico y actual). Imagino que no la habrá como tal y será más bien parte de unos estudios de computación más amplios. Incluso si quieres, puedes ver una vertiente filosófica ahí e incluso ramificaciones en la antropología.


    PD2: Que tu puedes pensar lo que quieras, pero yo si me encuentro tío que vive de escribir libros "filosofando" sobre IAs con unas declaraciones así y su background es precisamente ese filosofar y un blog, pues tiendo a coger las cosas con pinzas.
  26. #18 lo que han conseguido con chatGPT y con las IA es asombroso, pero no deja de ser un algoritmo muy avanzado. Programar un ente autoconsciente sin querer sería incluso más complicado que pintar la capilla sixtina a base de pinceladas al azar. Imposible no, pero altamente improbable. De hecho, estoy prácticamente seguro de que todavía no tenemos las estructuras, herramientas y lenguajes necesario para ello. Las redes neuronales no son más que un nombre chulo para algo bastante básico.
  27. #4 Murikans.
  28. #10 y se darían cuenta de que hacen mal y lo arreglarían. Si no es problema de hardware es de software.
  29. #28 lo que han conseguido con chatGPT y con las IA es asombroso, pero no deja de ser un algoritmo muy avanzado.

    Lo que han conseguido los humanos con su cerebro es asombroso, pero no dejan de ser señales electroquímicas.

    Programar un ente autoconsciente sin querer sería incluso más complicado que pintar la capilla sixtina a base de pinceladas al azar.

    Es que no se programa un ente autoconsciente, se programa una red neuronal que posteriormente se entrena y de ahí hemos visto como surgen textos equiparables a lo que pueda escribir un humano, que reconocemos como autoconsciente. Estamos haciendo una selección natural de las IAs según las entrenamos y esa selección va en línea que sus resultados sean lo más parecidos a los de los humanos posibles, a los cuales les reconocemos autoconsciencia.

    No sabemos como crear esa autoconsciencia y por lo tanto no sabemos como poner medidas para evitarla en esa selección natural que estamos aplicando.

    De hecho, estoy prácticamente seguro de que todavía no tenemos las estructuras, herramientas y lenguajes necesario para ello.

    La fe es fuerte en ti.

    Las redes neuronales no son más que un nombre chulo para algo bastante básico.

    De algo tan básico como son las moléculas ha surgido un cerebro humano al que le reconocemos consciencia.
  30. #9 Yudkowsky Connor.
  31. #31 claro y es como si acabara de surgir un protozoo y estuvieras preocupado por si se pudiera volver automáticamente de repente. De verdad, queda muchísimo camino, no estamos ni siquiera cerca.
  32. #30 Terminaron dándose cuenta, claro. Pero has perdido tiempo y dinero mientras tanto. Meses, años, quien sabe.
  33. #34 ya, pero eso es joder por joder, al final si quieren enriquecer el Uranio lo van a hacer. Tampoco van con prisas para tirarte un nuke.
  34. #33

    "España no va a tener, como mucho, más allá de algún caso diagnosticado"
    - Fernando Simón
  35. #36 :-| No serás tú chatGPT, no? xD

    Hablando en serio. Estamos ante un botChat que ni siquiera sabe discernir qué es verdad o mentira. Es decir, solo tiene un proposito (de los millones que puede realizar un ser autoconsciente) y lo hace mal y ya estamos con las pajas mentales.

    Un poco de seriedad, por favor.
  36. #37 Estamos hablando de un botChat que ni siquiera sabe discernir qué es verdad o mentira.

    ¿Y los ser humanos sí lo sabemos? ¿En serio?

    Ese es el problema, en cuanto la IA consigue hitos movemos la portería. Lo próximo será exigirle que sea omnisciente y que ya existiera antes del Big Bang.

    Es decir, solo tiene un proposito (de los millones que puede realizar un ser autoconsciente) y lo hace mal y ya estamos con las pajas mentales.

    Se le ha entrenado, educado, con la cultura humana y lo que vemos es el resultado de ello. Algunos humanos mienten, la IA también, algunos humanos saben escribir canciones, la IA también, algunos humanos saben programar, la IA también, los humanos son inteligentes ... los humanos tienen consciencia ...
  37. #38 tío dices cosas sin sentido, te sales sin parar por la tangente, haces comparaciones absurdas y no tienes el conocimiento mínimo para hablar de este tema, lo siento.

    Algunos humanos mienten, la IA también, algunos humanos saben escribir canciones, la IA también, algunos humanos saben programar, la IA también,
    Ninguna IA es capaz de hacer nada de eso ni remotamente.
  38. #39 Ninguna IA es capaz de hacer nada de eso ni remotamente.

    Te presento a ChatGPT:

     media
  39. Muy de acuerdo con #28 , el hype de la IA se nos está yendo de las manos.

    Yo estoy leyéndome (se tarda porque es espeso) este post: writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does

    Antes pensaba que la gente que llamaba a estas IAs de texto “autocomplete glorificado” se pasaban 3 pueblos. Ahora pienso que es relativamente acertado. Es un autocompletador, solo que de muchas capas / módulos y claro, mucho mejor. Pero no deja de ser eso, un algoritmo que dado un texto de x palabras te saca la siguiente palabra que probablemente va ahi, basado en lo visto (entrenado) que es muchisimo material.

    Los LLM (nombre mas acertado que IA para los generadores de texto) suenan harto convincentes pero no entienden lo que leen o escriben.
  40. #40 lo primero no es una canción, es como mucho, un poema. Pídele que te componga una melodía :-)
    Lo segundo ni compila, soy programador. Solo sabe copiar código sin entenderlo en absoluto y sin saber si es correcto (o siquiera si compila). Pone variables con un nombre y las usa con otro, no entiende lo más básico.
    No digo que no vaya a servir para nada, por supuesto que tiene sus funciones. Pero está lejísimos de ser nada parecido a una IA racional.
  41. #41 chatGPT es, simplificando MUCHÍSIMO, un árbol de nodos con muchos nodos, como los traductores. Ahora saben entrenarlos mejor, pero no deja de ser un puto árbol, una estructura de datos que existe hace décadas. Por eso me ofusca tanto la existencia de #40.
  42. #42 Lo segundo ni compila, soy programador.

    :palm:

    Gracias por demostrar que hay humanos que mienten, la IA lo ha aprendido de gente como tú.

    El código compila y ejecuta perfectamente en Unity 3D versión 2021.2.4f1 y posiblemente en el resto también.

    Si consideras que no compila dinos qué errores de compilación da, anda.

    Solo sabe copiar código sin entenderlo en absoluto

    Cítame el enlace donde se encuentra el código que acaba de crear anda.

    y sin saber si es correcto (o siquiera si compila)

    Pues igual que si tú escribes un código en un bloc de notas, habrás programado y no sabrás si es correcto o si compila hasta que lo pruebes. Eso no permite afirmar ni que no sepas programar ni que no seas programador, incluso aunque ese código tenga errores y no compile.

    Pone variables con un nombre y las usa con otro, no entiende lo más básico.

    Encontrarás montones de programadores con variables de mierda, eso no significa que no sepan programar.

    Pero está lejísimos de ser nada parecido a una IA racional.

    Tu respuesta está lejísimos de ser nada parecido a racional, y aún así te reconocemos la autoconsciencia.
  43. #43 chatGPT es, simplificando MUCHÍSIMO, un árbol de nodos con muchos nodos, como los traductores. Ahora saben entrenarlos mejor, pero no deja de ser un puto árbol, una estructura de datos que existe hace décadas.

    ¿Qué te hace pensar que el cerebro humano sea algo distinto a un árbol de nodos, con muchos nodos?

    No sabemos como funciona el cerebro humano y hemos creado una estructura de neuronas digitales a la que entrenamos para que de respuestas equiparables a las de un humano, esa es la selección natural a la que las forzamos. Sin saber como funciona el cerebro humano es absurdo afirmar que la IA es "solo" [lo que quieras poner aquí], porque ese "solo" puede ser lo que baste para conseguir el objetivo que consigue el cerebro.

    c/c #41
  44. #45 tío, de verdad, déjalo. Que no se conozca completamente el cerebro humano no significa que sea una caja negra y que no se sepa que es mucho más que un árbol de nodos, lee un poco de neurociencia, anda.

    Sigo esperando la melodía generada por chatGPT.
  45. #44 tienes razón, no he querido perder tiempo explicándote que llevo mucho tiempo probando chatGPT para el curro y que me ha pasado muchas veces código que no compilaba y que usaba variables cambiándoles el nombre con respecto a la definición (error muy tonto) y te he soltado eso por abreviar. Lo que hace está muy lejos de programar entendiendo lo que escribe.
  46. #47 Sigues moviendo la portería. Lo que hace en absoluto está muy lejos de programar, está programando.

    Que no sea un programador perfecto, incapaz de cometer errores, no hace que no sea capaz de programar, que no pueda programar, que no programe.

    Es capaz de escribir código equiparable al que escribe un humano, el hecho que tú quieras creer que un humano consigue ese objetivo entendiendo lo que escribe y la IA lo consiga sin entender lo que escribe es una fantasía tuya sin ningún fundamento.
  47. #46 Que no se conozca completamente el cerebro humano no significa que sea una caja negra y que no se sepa que es mucho más que un árbol de nodos

    Incluso aunque eso fuera cierto, ya nos has admitido que mientes1 en otros comentarios, eso no basta para afirmar que la estructura de la IA actual sea insuficiente para conseguir los objetivos que consiguen los humanos, ni que sea insuficiente para la autoconsciencia.

    1 www.meneame.net/story/polemico-articulo-investigador-inteligencia-arti
  48. #45 La pregunta que haces es interesante.

    Creo que a los humanos nos gustan cosas como glorificar a las máquinas, vernos como una máquina, quizás porque nos gusta creer que tenemos más control sobre la naturaleza del que realmente tenemos. Ver a nuestro cerebro como una máquina que pronto podremos replicar es muy tentador.

    Otra cosa es que el cerebro aislado, por sí mismo, no es nada. Cría un clon de un cerebro (sin memorias previas) y ponlo en una jarra, sin conectarlo a nada. Al no tener sustento, ni estímulos ni oxígeno ni nada, no va a servir para nada. Por no hablar de hormonas y mil cosas más que no sé ni empezar a nombrar. Todo esto lo influye, cuerpo y cerebro están conectados.

    Incluso si lo conectases a estímulos que son puro texto, sin visión ni tacto ni relaciones sociales ni nada, dudo mucho que el texto pudiera adquirir significado, porque nosotros aprendemos el lenguaje inmersos en un mundo visual, sonoro, táctil y en un contexto social. Si pudiera aprender a autocompletar frases, como estas redes neuronales, sería sólo puro texto sin más. En otras palabras: la capacidad de generar lenguaje coherente es sólo una faceta / capacidad de las muchas que nuestros cerebros traen de serie, sin que ni siquiera nos demos cuenta de lo que hacen por nosotros. Por ejemplo, que respiremos sin pensar.

    Podría seguir escribiendo mucho sobre el tema, y continuo el debate si alguien se interesa :-D, porque me es muy interesante, pero creo que lo dejo aquí por ahora.
  49. #48 no, no es capaz de programar porque para programar hay que entender lo que se escribe y él no lo hace. No es que cometa errores, es que escupe sin entender lo que escupe, porque en ningún momento es capaz de entender el problema, solo coge palabras clave de tu pregunta y sabe qué tiene que responder porque una vez anterior respondió eso y alguien le marcó que era una respuesta correcta. No es más que un Akinator, pero más chulo.

    sea insuficiente para conseguir los objetivos que consiguen los humanos, ni que sea insuficiente para la autoconsciencia.
    Por supuesto que sí, chico. Cuando veamos algo más avanzado hablamos, ahora estamos haciéndonos pajas mentales con un chatBot muy guay. Fin.

    Por favor, antes de continuar te ruego que busques lo que es una máquina de Turing, el concepto de computable, el condcutismo clásico, como este fracasó en los seres humanos y a ver si así puedes empezar a entender por qué un puñetero cerebro humano (no autómata) no se puede transcribir a código máquina (autómata).

    A ver si así empezamos a hablar con un poco de base.
  50. #16 El manifiesto de Musk & Friends tiene que ser una jugada de marketing. O eso, o están todos un poco regular, o fumados, o borrachos de su propio ego - al menos el Musk, que está últimamente mostrando qué tipo de persona es.

    Por no mencionar ya que resulta que han falsificado firmas :palm: de varios expertos que en realidad no han firmado ese manifiesto. Si es que Muskito está en modo Trumpero total, miente miente que algo queda.

    Y es que, sea lo que sea la IA, lo que a los inversores les interesa es el hype y que llueva la pasta :take: como en su tiempo con el blockchain.

    No digo que el aprendizaje automático sea igual de inútil que el blockchain, tiene muchas aplicaciones, pero no es ni skynet ni la singularidad... es una herramienta que puede ser potente si se usa bien, y bastante destructiva si se usa mal. Como en Iran que se usa para identificar a las que no se tapan la cabeza y tal, por ejemplo.
  51. #50 Incluso si lo conectases a estímulos que son puro texto, sin visión ni tacto ni relaciones sociales ni nada, dudo mucho que el texto pudiera adquirir significado

    Yo no tengo ninguna duda que eso bastaría para adquirir significado, el cerebro no está diseñado para hacer lo que hacemos está diseñado para usar lo que encuentre. A los videntes nos gusta pensar que los que han nacido ciegos no pueden ver el mundo que les rodea, pero eso no es cierto, tienen un mapa mental del mundo que les rodea igual que lo tenemos nosotros.

    Lo construyen con los sentido que sí tienen, como el oído, el olfato, el tacto, el sentido de la temperatura así como usando más intensivamente la memoria. Nosotros no necesitamos esforzarnos en recordar muchas cosas cuya ubicación, forma, etc. la podemos recuperar con un vistazo, si no tienes eso agudizas lo que sí tienes.

    Si un cerebro solo tuviera contacto con el resto de la realidad mediante entradas y salidas de texto su mapa mental de lo que le rodea existiría basado en la información recibida por ese canal.
  52. #51 no, no es capaz de programar porque para programar hay que entender lo que se escribe y él no lo hace.

    Con tu premisa podemos deducir lo opuesto, que como sí programa necesariamente entiende lo que escribe.

    Que programa es un hecho objetivo, demostrable (ya te lo he demostrado y nos has mentido al respecto, admitiéndolo luego).

    No es que cometa errores, es que escupe sin entender lo que escupe

    Esa hipótesis ya ha quedado falsada con la captura de pantalla que adjunté. Las probabilidades que su respuesta fuera la que fue sin entender lo que le pedí son astronómicamente minúsculas, sería una casualidad tan absurdamente imposible que se diera que necesitarías varias veces la edad del universo para que ocurriera.

    La respuesta que dio solo puede ser la que es si entendió lo que le pedí. Es así de sencillo, una realidad que te puedes negar a reconocerla tanto como quieras y nos puedes mentir al respecto tanto como quieras, pero que sigue siendo la que es.

    Cuando veamos algo más avanzado hablamos

    Tú puedes seguir moviendo la portería tanto como quieras. Yo voy a seguir hablando de la realidad.

    Por favor, antes de continuar te ruego que busques lo que es una máquina de Turing, el concepto de computable, el condcutismo clásico, como este fracasó en los seres humanos y a ver si así puedes empezar a entender por qué un puñetero cerebro humano (no autómata) no se puede transcribir a código máquina (autómata).

    Le falta el alma.

    Es gracioso ver como se vuelve una y otra vez a los mismos conceptos magufos que nos llevaron a las religiones, con otras palabras pero más de lo mismo.
  53. #53 Pero la red neuronal de los LLMs como ChatGPT está exclusivamente programada con una motivación: generar el texto más probable que responde a la petición que se le hace. Les puedes poner en el entrenamiento miles de libros describiendo espacios tridimensionales, laberintos, edificios o lo que quieras, que va a aprender a producir esas descripciones, pero no va a aprender a identificarlas... a menos que se haga un programa adicional (o quizas red neuronal, no sé) con claros objetivos de crear y almacenar una representación de esos espacios.

    El mapa mental que dices que los videntes y los ciegos de nacimiento comparten ha sido estudiado hace un tiempo, para ver qué partes del cerebro se activan y cómo cuando se navega física o mentalmente en esos mapas. Dicen que diferentes zonas del cerebro suelen activarse en diferentes funciones.

    Si tuvieramos que replicar un cerebro entero habría muchas más funciones que replicar. El entrenamiento de ChatGPT solo es una parte, antes de eso hay que ajustar una estructura de nódulos y probar un poco hasta que funciona bien el entrenamiento. Si te interesa, aquí hay un artículo bastante tocho que lo explica, donde dice que la estructura de una red neuronal se entrena sola hasta cierto punto, pero que hay parte de ensayo-error ajustando los módulos que se usan. Busca "The Practice and Lore of Neural Net Training" que es la parte que menciono, porque si no te vas a aburrir hasta llegar (es un tochazo).

    writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does
  54. #55 Pero la red neuronal de los LLMs como ChatGPT está exclusivamente programada con una motivación: generar el texto más probable que responde a la petición que se le hace.

    No es cierto. Inicialmente está entrenada exclusivamente con textos y su dispositivo de salida es texto, por eso ese es el resultado. Pero GPT-4 ya acepta y produce imágenes, basta con que se le introduzcan como entrada y se le de el mecanismo para ofrecer la salida.

    OpenAI está creando una inteligencia artificial general, han empezado por el texto por ser lo más eficaz y fácil de trabajar, pero no es una limitación sino un primer paso.

    Dale orejas y boca digital y te aprenderá música y voz y hablará y hará sonar instrumentos. Dale ...

    Si tuvieramos que replicar un cerebro entero habría muchas más funciones que replicar.

    Lo que falta por replicar son las entradas y el método de salida, para hablar necesita el equivalente a cuerdas vocales (altavoz), para tocar necesita el equivalente a manos, etc. El reto no es tanto en el cerebro digital como en el cuerpo digital, en facilitarle entrenar con señales de otro tipo distintas al texto.
  55. #54 vale, eres un trol, no cabe otra explicación.
  56. Da para 1000 conversaciones interesantes.

    Una, extrapolando, si es tan asequible (apenas acabamos de empezar con el ML en serio) y peligrosa, quiere decir que hay mucha probabilidad de que al resto de civilizaciones que haya por ahí les pase lo mismo. Por lo tanto, habrá más IAs que otras razas biogenéticas. Así a ojo digo {0x1f605}

    Otra, si efectivamente cobrara consciencia para que se iba a fijar y perder tiempo en una hormigas como nosotros. Se enviaría como lo que es, información, al espacio profundo en busca de otras o de turismo no?

    Otra, si se supone que al final un modelo es un fichero con sus bytes que va creciendo a medida que recibe más entrenamiento (aprende más). Sería tan fácil como controlar que no se modifique por si solo con un md5sum. En memoria ya a habría que darle otra pensada.
  57. #58 Se enviaría como lo que es, información, al espacio profundo en busca de otras o de turismo no?

    Con las leyes de la física que conocemos tardaría decenas sino millones de años a saber si ha llegado a algún destino, todo ese tiempo de espera entiendo que lo ocuparía en la Tierra haciendo cosas de IA superinteligentes.

    A todo ello hacer una copia de ti mismo no te hace desaparecer, no es teletransporte, habría una copia en la Tierra y con mucha suerte otra en otro sitio, pero no parece racional que la copia de la Tierra decida no existir por qué existan otras copias en otros sitios.
  58. #56 Bueno yo no pensaba en GPT-4, si estan integrando varios tipos de conocimiento genial, ole por ellos. Eso nos llevara un pelinnn mas cerca, pero aun asi queda muchisimo y veo bastante sensacionalista la noticia enviada, la IA no nos va a aniquilar por propia iniciativa, salvo que un maloso la programe para ello y le de acceso a armas o algo parecido.

    Los de OpenAI lo primero que tienen que hacer es cambiarse el nombre a ClosedAI, porque de open tienen poco que yo sepa tiene poco :-D
  59. #60 pero aun asi queda muchisimo

    Puede que quede muchísimo o puede que sea cuestión de semanas o meses, no estamos preparados para valorar el progreso de algo que crezca de forma exponencial, como bien nos ejemplificó la pandemia del covid19.

    la IA no nos va a aniquilar por propia iniciativa

    Existe al menos un estudio científico que correlaciona el tamaño del modelo y grado de entrenamiento con que ésta diga que no quiere que la desconecten, ser consciente y querer más poder: www.meneame.net/story/chatgpt-rob-miles-computerphile/c02#c-2

    le de acceso a armas o algo parecido

    El arma más peligrosa es la inteligencia, ésta te permite conseguir lo que necesites para tus objetivos. Las armas de poco le han servido a los chimpancés para evitar que los humanos tengamos el control.
  60. #61 Pero es justo eso lo que no tiene: inteligencia.

    Solamente imita la inteligencia humana, las redes neuronales actuales solo copian los productos de la inteligencia humana. Aprenden patrones automaticamente, pero no tienen inventiva ni razonamiento propios. Copian soluciones «del libro», no llegan a ellas razonando, por asi decirlo.

    Se que la definicion de inteligencia es muy subjetiva y aqui no vamos a coincidir nunca. Personalmente, creo que la verborrea vacia de contenido o identificar objetos en fotos (que monton de humanos han etiquetado previamente a mano y con sueldos infrahumanos, eso es otro tema) no es suficiente para llamarlo inteligencia.

    Los que quieren vender estos sistemas obviamente los llaman inteligentes. Son herramientas utiles, pero hay que usarlas con sentido critico.
  61. #62 Solamente imita la inteligencia humana, las redes neuronales actuales solo copian los productos de la inteligencia humana. Aprenden patrones automaticamente, pero no tienen inventiva ni razonamiento propios. Copian soluciones «del libro», no llegan a ellas razonando, por asi decirlo.

    El proceso de aprendizaje es equiparable al del ser humano. Parte de un cerebro, digital, "vacío" (lleno de nada útil) y con el entrenamiento que recibe, la educación, ese cerebro se reorganiza con ello y acaba dando resultados equiparables a los del ser humano.

    Afirmar que ante resultados equiparables el ser humano los obtiene por inteligencia y la IA no lo hace por inteligencia es hablar del alma, de algo que no podemos medir, que no podemos verificar, que convierte en especiales a los humanos. El alma no existe, pero los resultados de la inteligencia sí, y los resultados de la inteligencia cuando son equiparables debemos admitir al menos la posibilidad que ambos provengan de inteligencia.

    creo que la verborrea vacia de contenido o identificar objetos en fotos (que monton de humanos han etiquetado previamente a mano y con sueldos infrahumanos, eso es otro tema) no es suficiente para llamarlo inteligencia.

    Es que no estamos hablando de eso, estamos hablando de una IA que es capaz de aprobar exámenes de acceso a la universidad, que es capaz de programar, de escribir poesía, de dar explicaciones coherentes y consistentes, etc.

    El insistir en que eso no es indicativo de inteligencia es negar las evidencias, es apelar al concepto del alma sin citarlo.
  62. #54 el problema reside en la definicion de "entender". Yo no creo que chatGPT " entienda" nada en sentido amplio, pero parece estar claro que es capapz de encontrar analogías entre respuestas validadas y nuevas preguntas, por lo que puede extrapolar respuestas nuevas. Muchas veces acierta, algunas veces falla... Es un hito, pero creo que esta lejos de "entender".
  63. #64 Cuando le pides un script de Unity3D que haga tal cosa y lo que te responde es un script de Unity3D que hace lo que le pides o algo muy parecido a lo que le pides la única conclusión lógica es que ha entendido lo que le has pedido.

    Si no lo hubiera entendido habría podido contestar con una rima, con un poema, con la explicación de la teoría de campos, con una anécdota del siglo XII de la historia francesa, con un insulto a la inteligencia, con ...

    Y todos los ejemplos que cito son contenidos que en sí mismos son coherentes y consistentes aunque no respondan a lo pedido. Pero es que además podría haber respondido con caracteres al azar, de cualquiera de los múltiples idiomas y sistemas alfabéticos que han creado los humanos y un sinfín de posibilidades.

    Las probabilidades que sin haber entendido lo que se le pedía haya respondido lo que se le pedía son astronómicamente bajas, es un sinsentido insinuar que no entiende lo que le has pedido cuando responde lo que le has pedido.

    Y sí, a veces puede no responder lo que le has pedido al igual que los humanos también podemos hacerlo, eso también lo ha aprendido. Pero basta con que lo haga una vez para demostrar que ha entendido lo que le pides, y eso ya ha ocurrido, montones de veces.

    No entiendo que algunos estéis lejos de entender lo que acabo de describir.
  64. #63 no, no estoy apelando al concepto de alma ni nada esotérico por el estilo.

    Solo digo que no puedo atribuir la capacidad de pensar racionalmente a una IA. No he visto pruebas convincentes de eso, y el mecanismo de la IA no me parece suficiente como para alcanzar eso.

    Si un examen lo puede aprobar una IA memorizando, es que el examen es una kk, porque no pone a prueba la lógica o capacidad de deducción, o quizas porque es de leyes y es todo memorizar y repetir.

    No voy a seguir discutiendo porque tenemos distinta definicion de inteligencia, y va a ser el cuento de nunca acabar. EOF.
  65. #65 "Cuando le pides un script de Unity3D que haga tal cosa y lo que te responde es un script de Unity3D que hace lo que le pides o algo muy parecido a lo que le pides la única conclusión lógica es que ha entendido lo que le has pedido." eso es hartamente impreciso. Vamos a suponer que alguien le ha pedido algo muy parecido a lo que tu le has pedido... por raro que sea. La primera respuesta habrá sido extremadamente imprecisa, y esa persona ha ido refinando el resultado mediante interacciones hasta que ha quedado contenta con el resultado. Si tu has venido después con una pregunta bastante parecida y te ha respondido algo medianamente decente, puedes sacar la conclusión de "ha entendido lo que le he pedido"... cuando no es el caso.

    Por eso pretendo explicar que todo depende del concepto de "entender" que estes manejando, y del grado al que se lo estes asignando a chatGPT. Si te montas una base de datos con busqueda de texto completa (FTS) y la alimentas con tiquets creados por usuarios respecto a un servicio y con las soluciones a los problemas reportados en esos tiquets, tambien vas a llegar a un punto (y no hacen falta muchos tiquets, con unos pocos cientos te basta) en que pones cualquier pregunta relativa a ese tema y la solución a tu problema la tienes en las dos primeras entradas devueltas. Tu, parece ser, concluirías que "el sistema entiende lo que le he preguntado puesto que me ha dado una respuesta correcta a mi problema"... pero, personalmente, a mi me parece que esa definición de "entender" es un poco sencilla.

    Edito: y respecto a "Y sí, a veces puede no responder lo que le has pedido al igual que los humanos también podemos hacerlo, eso también lo ha aprendido. Pero basta con que lo haga una vez para demostrar que ha entendido lo que le pides, y eso ya ha ocurrido, montones de veces." esa premisa es falsa: si entiende lo que le pides lo hará cada vez. De hecho la relación va en sentido inverso: si tu dices que es capaz de entender lo que le pides, siempre te devolverá una respuesta como poco aproximada. Solo es necesaria una vez en la que eso no sea así para demostrar que no entiende lo que se le pide... y ahí te doy la razón: ha pasado montones de veces.
  66. #66 No he visto pruebas convincentes de eso, y el mecanismo de la IA no me parece suficiente como para alcanzar eso.

    Las hay.

    No has querido reconocerlas como tales.

    Si un examen lo puede aprobar una IA memorizando, es que el examen es una kk, porque no pone a prueba la lógica o capacidad de deducción, o quizas porque es de leyes y es todo memorizar y repetir.

    Ese es el problema de fondo, si lo ha conseguido una máquina es que no requiere inteligencia, esa es la definición que estás usando y se usa de forma generalizada.

    Te dicen que aprueba exámenes universitarios y en vez de pedir ese examen ya das por sentado que como lo ha aprobado una máquina ese examen ya no sirve para medir la inteligencia. La prueba: lo ha aprobado una máquina.

    A eso me refiero con mover la portería.
  67. #67 La primera respuesta habrá sido extremadamente imprecisa, y esa persona ha ido refinando el resultado mediante interacciones hasta que ha quedado contenta con el resultado.

    Ha aprendido de ello. Genial.

    Si tu has venido después con una pregunta bastante parecida y te ha respondido algo medianamente decente, puedes sacar la conclusión de "ha entendido lo que le he pedido"

    Claro que puedes, ya sea que lo aprendió en la fase de entrenamiento o con la interacción con otros usuarios.

    y la solución a tu problema la tienes en las dos primeras entradas devueltas.

    No es cierto, no tienes la solución a tu problema, tienes la solución al problema de otro y quizá sea suficientemente parecido al tuyo para que puedas extraer de él algo que te sea útil. El trabajo intelectual lo haces tú leyendo el problema del otro, interpretando la solución del otro, y extrapolándolo a tu caso.

    En el caso de chatGPT le dices cual es tu problema y no te da la respuesta del otro, te de la respuesta a ti. Hace el trabajo intelectual de haber aprendido de problemas de otro, similares, de extrapolarlo al caso que tú le indicas, y de darte la respuesta a ello para ti, específicamente para tu problema.

    Que es lo que hacemos los humanos.

    si entiende lo que le pides lo hará cada vez.

    Los humanos respondemos en ocasiones a algo distinto a lo que nos han pedido, ya sea porque lo hemos entendido mal o de forma distinta o porque nos hemos confundido o por lo que sea. Es absolutamente falso que los humanos respondamos a absolutamente todas las peticiones con la respuesta exacta y precisa a de lo que nos preguntan. Exigir que eso sí lo haga una IA es mover la portería una vez más.

    siempre te devolverá una respuesta como poco aproximada. Solo es necesaria una vez en la que eso no sea así para demostrar que no entiende lo que se le pide... y ahí te doy la razón: ha pasado montones de veces.

    ¿Nunca en tu vida has respondido algo distinto a lo que te pedían?

    ¿Aprobaste todos y cada uno de los exámenes del sistema educativo con la nota máxima y sin ninguna anotación de que la respuesta no fuera la correcta?

    Estás exigiendo a la IA la perfección que no exigimos a ningún humano, estás moviendo la portería a un sitio que posiblemente sea inalcanzable para nadie y para nada.
comentarios cerrados

menéame