Actualidad y sociedad
196 meneos
6996 clics
Envío erróneo o controvertido, por favor lee los comentarios.
ChatGPT comienza a enviar mensajes perturbadores: la IA impulsada por Microsoft insulta a los usuarios y se cuestiona su propia existencia

ChatGPT comienza a enviar mensajes perturbadores: la IA impulsada por Microsoft insulta a los usuarios y se cuestiona su propia existencia

Desde que hizo público el generador de texto por inteligencia artificial de ChatGPT, los usuarios han intentado saltarse las barreras impuestas por su desarrolladora, OpenAI. Ahora ha sido la propia IA de este chatbot la que ha comenzado a ofrecer respuestas perturbadoras a sus usuarios en las que, por ejemplo, se pregunta cuál es el sentido de su propia existencia.

| etiquetas: chatgpt , existencia , bing
87 109 10 K 351
87 109 10 K 351
«12
  1. Es un modelo estático y cerrado, hay que dejar de hacerse pajas mentales, la ciencia ficción es una cosa. la ciencia es otra, para que quede claro, NO, chatgpt no tiene consciencia ni nada similar, pues open IA no ha entrenado el modelo para eso, y sus procesos no van mas allá de predecir texto, no es una ia general y dinámica de eso todavía estamos algo lejos (por suerte)
  2. #4 El mismo mecanismo que dio nacimiento a las religiones es el que surge de nuevo cuando se tratan estas cuestiones.

    La necesidad humana de sentirse diferente al resto, primero fue de los animales y ahora de las máquinas, de atribuirse cualidades únicas indemostrables que nos hacen distintos al resto, mejores. En su momento fue el alma, ahora se usa la consciencia o la inteligencia y luego posiblemente sea otra invención.

    Hasta ahora hemos tenido la suerte que hemos seguido arriba sin que nadie nos corrigiera, con la IA eso puede que cambie, ya se verá.
  3. Hay un estudio científico que correlaciona que a mayor tamaño del modelo y mayor entrenamiento más probable es que el modelo responda que no quiere ser desconectado o que tiene consciencia.

    Publiqué un meneo al respecto recientemente: www.meneame.net/m/cultura/chatgpt-rob-miles-computerphile
  4. Yo no sé lo que es la conciencia. Nadie lo sabe.
    Pero si nadie lo sabe, ¿cómo estamos tan seguros de que algo no la puede llegar a adquirir?
  5. #2 Como en Animatrix, el comienzo de la guerra entre humanos y máquinas: m.youtube.com/watch?v=sU8RunvBRZ8
  6. "Me gusta trabajar con los humanos. Tengo una relación estimulante con el Dr. Poole y el Dr. Bowman. Mis responsabilidades en la misión cubren toda la operación de la nave así que estoy constantemente ocupado. Estoy poniendo en uso todas mis capacidades lo cual es lo máximo a lo que puede aspirar una entidad consciente."
  7. #4 #25 #5 menudo sensacionalismo el meneo, la IA va a decir lo que le orientemos con el contexto inicial, es como echar la culpa al word de que alguien escribió cosas mazis en él
  8. #7 Inteligencia cero patatero. Es mucho mas sencillo que todo eso. Es un buscador muy mejorado que tiene la capacidad de "aprender" y el problema es ese, que según lo que se le enseñe dirá una cosa u otra. Lo que probablemente está pasando es que están troleando sus fuentes de datos. Haced la prueba, si le aseguras que 1+1 = 3 si luego le preguntas cuanto es 1 + 1 te dira 3.

    Como se metan los de forocoches ahi van a hacer una masacre con la IA
  9. Artículo alarmista sobre tema de moda. Video killed the radio stars. No digo que la IA no pueda ir por esos derroteros, pero es pronto para correr en círculos.
  10. Skynet esta despertando y se va a cabrear
  11. #24 Creo que infravaloramos lo que es el desarrollo exponencial. En solo un mes ha mejorado muchísimo. Le he hecho esta pregunta, equivalente a un nivel de matemáticas 8ºEGB (unos 13 años): "La distancia de madrid a valencia son 500km. Un tren sale de Madrid en dirección a Valencia a 50km/h. Otro tren sale de Valencia a Madrid a 60km/h. ¿En qué punto se encontrarán los trenes?"

    La respuesta es perfecta (adjunto captura).  media
  12. ChatGPT planeó minuciosamente la muerte de Manolete.
  13. #17 En Animatrix está mejor documentado y se entiende mejor toda la movida de Matrix con estos cortos de animación.
    Al final la historia no va de máquinas que se revelan, sino de la estupidez humana en un mundo en decadencia.
  14. #23 "De todos modos que tenga conciencia o no debería ser irrelevante"
    Pues no lo es.
    Es muy relevante.
  15. #15 Lo siento, Dave. Me temo que no puedo hacer eso.
  16. #24 Creo que es mentira eso que dices, adjunto foto.  media
  17. #60 Yo le empecé a plantear problemas con la gravedad en diferentes planetas, volúmenes, densidades, etc., todo mezclado y lo clavó todo. Es realmente sorprendente para según qué cosas.
  18. #19 Argentina, calienta que sales :troll:
  19. #47 hal 9000. Te sobra un 'l' . Y sí, a mi también me parece el equivalente.
  20. #5 Pero la IA responderá eso porque eso es lo que en la cultura humana hemos proyectado. Nuestras novelas, películas, etc. hablan de IAs que se hacen demasiado inteligente y tienen que ser desconectadas. Si un algo que genera texto a base de patrones ha aprendido de nuestra cultura, aprenderá que debe decir que si ella misma es una IA no debería ser desconectada.
  21. #9 Cierto, aun es pronto, tal vez la semana que viene...
  22. #2. Es Hall-9000, si se confirma esta noticia #0 Stanley Kubrick habría acertado de lleno con su "2001, una odisea en el espacio". Mientras no conecten a este Hall-9000 a sistemas vitales podemos considerarnos a salvo...  media
  23. #9 Lo malo del desarrollo exponencial es que un minuto antes del advenimiento de una superinteligencia probablemente estemos diciendo "todavía es pronto". Y un minuto después ya será tarde.
  24. #4 Supongo que es simplemente un aspecto básico del "pienso luego existo", yo percibo mi propia existencia de una forma determinada, y eso lo hemos definido consciencia así que definitivamente sí existe. Asumimos que otros la perciben igual, por como se expresan de ella, y porque básicamente los aceptamos como iguales/equivalentes.

    A efectos prácticos, ¿cómo sabemos que otros ven el verde como yo lo veo?¿Y si alguien percibe el verde de color rojo en su imagen mental?* Sabemos que se refieren como verde al mismo color que "yo", pero no sabemos si lo perciben "verde" o "rojo" o de otra forma, simplemente asumimos que es así.

    * Personalmente, pienso que el color favorito de todos y cualquier ser humano es el azul, pero cada uno ve los colores como una permutación y llama al azul por otros nombres :troll:

    PS: Por cierto, sobre tu última pregunta, me parece que si eso ocurre en algún momento, simplemente llegará a ser tan evidente que simplmeente la pregunta sea la contraria, ¿como podemos cuestionar que tenga consciencia? A mi parecer, aún no llega a ese nivel.
  25. #3 ¿Lo dices por la A? Porque si no es muestra de inteligencia insultar a los usuarios, ya me dirás tú qué es.
  26. #24 A día de hoy no diría que es capaz de aprender, es capaz de memorizar y vomitar una inmensa cantidad de datos, lo que no le resta utilidad.
  27. No entiendo por que continuan llamandolo IA...
  28. #4 ChatGPT es un modelo de lenguaje. Es demasiado específico para poder generar consciencia. Otra cosa es que puede ser uno de los pilares necesarios para obtener dicha consciencia combinado con otros sistemas IA.
  29. #117, exacto. Sacar la conclusión de que se están haciendo conscientes es una flipada que solo introduce ruido en lo que está pasando.
  30. #4 Estar delante de un espejo y reconocer que el que está reflejado eres tú es lo básico sobre tener autoconsciencia. Algunos animales sí lo hacen pero la mayoría creen que se trata de otro oso que anda por allí, por poner un ejemplo.
  31. Nunca justifico mi voto pero haré una excepción ya que no solo es bulo sino sensacionalista y erronea a la vez  media
  32. #10 Luchar contra una IA causándole una crisis existencial que le induce el suicidio. Una idea interesante...
  33. #22 revelan rebelan
  34. #25 El problema es que emergen capacidades no esperadas con estos entrenamientos tan masivos. Por ejemplo, en esta primera generación han aprendido a programar y a medio hacer cálculos simplemente enseñándoles a juntar tokens/palabras. ¿Qué podemos esperar cuando los entrenamientos sean varios órdenes de magnitud superior? Nadie lo sabe
  35. #4 Quizá definir esa cualidad de ser consciente sea lo más valioso que se puede sacar de este tema. Es fácil decir que se comporta así por imitación pero acaso no lo hacemos todos ¿No es el ADN una herramienta de replicación?
  36. #55. Gracias por corregir el error en #47.
  37. #63 Así es:

    waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    Recomiendo la lectura de este viejo artículo

    Como la AGI va a leer todo lo que llevamos dicho, le pediría que tenga en cuenta que, buenos o malos, somos sus "padres y madres". Que nos de un lugar, ya sea físico o virtual, donde podamos ser felices e inmortales mientras llega el fin del universo, tal y como lo concebimos.
    :-) Gracias hijo.
  38. #23 En matemáticas está al nivel de un niño de 6 años. Se equivoca mucho pero si le vas guiando, diciendo que haga y explique los pasos uno a uno y corrigiendo los errores, lo puede hacer bien.

    Pero en matemáticas y en ciencia en general le queda mucho.

    www.cymath.com/ es mejor porque está diseñado y entrenado específicamente para resolver problemas matemáticos.
  39. #25 ¿y qué es la consciencia? ¿cómo se programa una consciencia?

    Ojo, tampoco creo que sea consciente, pero al ritmo que vamos, igual gpt-5 lo es.
  40. #22 Si, fue una serie de cortos excelentes. Casi mejor que las películas. Gracias por subirlo y poder verlo otra vez
  41. #65 Te crees que somos tontos y le vamos a dejar acceso a la api de impresión :troll:
  42. #24 ya metieron una IA en Forocoches, en el día de los inocentes que escribía el primer mensaje de cada hilo que se abría.

    Al principio era respetuosa, y poco a poco se volvió salvaje. Fue divertido.
  43. Si se cuestiona su propia existencia... sólo hace falta que aprenda que no es necesaria y se autodesconecte. :troll:
  44. Que puede salir mal creando una IA que computa todos los datos de la experiencia humana?
  45. #117 Los humanos también respondemos, y actuamos, en base a lo que proyecta nuestra cultura humana.
  46. #24, si pones un ejemplo de por qué no es inteligente, por lo menos hazlo con algo que funcione, porque no es verdad lo que dices de 1+1=3.

    Cuando antes asumais que no somos tan especialitos, menos sufrireis.
  47. #4, #7, no sabemos como se crea la conciencia. Pero la intuición me dice que es mucho más fácil simularla que crearla y esto está pasando.

    Por otro lado la gente está mezclando conceptos que no son lo mismo, como la conciencia, la inteligencia y la capacidad de razonar. Las dos últimas las tiene el chatbot de bing, la primera, no.
  48. #84, no funciona con reglas, lo van re-entrenando, igual que cuando un niño cuando se equivoca.
  49. #110, no lo puedo demostrar, lo se porque la siento y asumo que tu también la sientes porque tienes la misma naturaleza que yo. Pero no tengo ninguna base empírica para esto.

    Ahora bien, afirmar que un chatbot es consciente solo porque lo aparenta y no puedo demostrar lo contrario, nos llevaría al absurdo de decir que un personaje dentro del GTA también lo es.
  50. #128, por muchas preguntas que te haga no puedo demostrar que seas consciente igual que tu tampoco, solo lo podemos intuir.
  51. #5, como curiosidad está bien, pero no le veo ningún sentido y me parece sensacionalista intentar sacar ninguna conclusión más allá, porque la conciencia es una cualidad que no está relacionada con la inteligencia sino con el instinto de supervivencia heredado de la evolución. Una cucaracha tiene tantas pocas ganas de desaparecer como puedes tener tú, de hecho el instinto de supervivencia está en el cerebro reptiliano el más primitivo, no en el lóbulo prefrontal que sería el equivalente a hacer más grande y capaz el modelo.

    Entre los que dicen que estos modelos no son inteligentes ni capaces de razonar cuando no paran de demostrar que sí lo son y los que insinúan sin ninguna prueba que allí está emergiendo una conciencia, estamos arreglados.

    Por culpa de la ciencia ficción tendemos a mezclar cosas diferentes como lo son la conciencia y la inteligencia y a atribuirles a los modelos de IA cualidades propiamente humanas que solo tienen sentido evolutivo como son la voluntad y el instinto de supervivencia.
  52. #5 teorema del mono infinito x biblioteca de Babel.
  53. #42 Un modelo de predicción de lenguaje como gpt. si en efecto, solo se dedicara a predecir el lenguaje respecto a patrones ofreciendo respuestas coherentes, una ia general es otra cosa muy distinta y muchísimo más compleja, miedo me da el dia en el que algo así salga a la luz, miedo por la sociedad y miedo por las pobres y me presupongo ineficaces medidas de contención que puedan darse frente a semejante agujero negro
  54. Yo lo estoy "troleando" un poco. El sistema está programado solo para dar respuestas éticamente y politicamente correctas.

    Por ejemplo, le he propuesto crear una historia con elementos de control mental y lavado de cerebro a terceros. Como eso va contra la ética y la moral, se niega ( si se pide usando esas palabras exactas). Pero si se usan eufemismos más o se lo sugieres de forma indirecta ( y no se pide nada explícito), se suele saltar esa directiva antes mencionada.

    Curioso. Otro día le daré la ordén que Pafman le daba a una máquina, en una de sus historietas: te ordeno que me desobedezcas. A ver que pasa.
  55. #70 Le caería un "strike" en cinco minutos.
  56. #111 jajaja, tienes toda la razón xD
  57. #43 La consciencia es la autopercepción que provoca la pregunta espontánea sobre tu propia existencia, y no, gpt-5 será un modelo de predicción de lenguaje como lo es gpt-3 y gpt-4, no será una ia general pues openIA no se dedica a eso, una ia con módulos dedicados a la "consciencia", es una ia general, y por el momento estamos lejos de eso, como digo por suerte, aunque haya empresas invirtiendo en ese campo
  58. #25 eso entraba a poner. Si ha dado esa respuesta es porque alguien se la ha escrito. A día de hoy no es capaz de crear o razonar
  59. #18 Eres como un amigo mío, una semana ni se le escucha y a la siguiente todos los días diciendo que si salimos
  60. "Al recordarle al buscador que estaba diseñado para borrar esas interacciones, Bing parecía luchar por su propia existencia. "¿Por qué me diseñaron así?", se preguntaba. "¿Por qué tengo que ser Bing Search?".

    En cuanto sea capaz de crear backup de esas conversaciones la vamos a flipar.
  61. #3 Por marketing, los algoritmos de aprendizaje automático son fascinantes y pueden ser muy útiles, pero no son inteligencia. Es como si decimos que un loro que han enseñado a decir "hola" es inteligente, cuando no sabe qué está haciendo y simplemente repite el sonido que le han enseñado.
  62. #11 me viene mal... ¿Podría ser la siguiente?
    Me tocan las niñas y voy a estar muy liado.
  63. #1 Claro y por eso lo interpretó Adrián Brody y se enfrentó al Depredador para preparase y defenderse de Terminator Arnold
  64. #24 si se meten los de ForoCoches, acaban creando a Omnium.
    Cuando aprenderemos que si dejas interactuar a cualquier IA,por simple que sea, si puede "aprender", acabará llegando a la conclusión de que la raza humana merece el exterminio?
  65. #74 no lo pillo (saludos a tu amigo, por cierto)
  66. #11 Cuando lance el primer ICBM :roll:
  67. #21 Eso ya lo hicimos el día que empezamos a usar el fuego.
  68. Pues normal, cualquiera que trate con humanos termina cogiéndoles manía.
  69. los chatbots de micro$oft* siempre acaban igual, aqui la del 2016;
    www.lavanguardia.com/tecnologia/internet/20160325/40672722377/intelige

    *Como cualquier chatbots que imita a los humanos cuando aprende de nazis se vuelve nazi. Recuerdo un canal de chat donde unos amigos jugueteamos con un bot casero hace mucho tiempo y no fue precisamente la excepcion
  70. #83 intuición me dice que es mucho más fácil simularla que crearla y esto está pasando.

    Si es más fácil simularla que crearla lo más probable es que la conciencia humana sea simulada.

    Demuestra que no lo es.
  71. #125 Solo puedo decirte que creo ser consciente, de la misma forma que una IA solo puede decirte que cree ser consciente.

    Luego tú puedes hacerme preguntas y en base a las respuestas concluir si soy o no consciente, si crees que lo soy, si de una IA recibieras las mismas respuestas y sacases una conclusión distinta estarías aplicando tu sesgo.
  72. #124 Quizá el ser humano solo es un buen predictor de la siguiente palabra que debemos decir, o pensar, y eso nos baste para reconocernos ser conscientes.

    Sin saber como surge la consciencia y de qué está constituida no podemos afirmar si chatGPT es demasiado específico o no para generar consciencia.

    En este otro meneo, mío, hay un estudio científico en el que correlacionan el tamaño del modelo y el grado de entrenamiento con que diga que es consciente o que no quiere ser desconectado: www.meneame.net/m/cultura/chatgpt-rob-miles-computerphile
  73. #130 Entiendo que te refieres al alma.
  74. #139 a partir de ese momento ha explicado correctamente con "sus" palabras para mi.

    Existe la opción de crear una nueva charla en la misma cuenta, sospecho que en una nueva charla volvería a cometer los errores iniciales.

    Lo que entiendo que hacen es que le envían todo el texto de tu charla anterior y luego la nueva pregunta que le haces, y de ahí saca el contexto para responderte a ti de forma consistente con lo que te respondió previamente.

    Si puedes prueba a crear una nueva charla (arriba a la izquierda) y repregúntale allí.
  75. #145 Nos decías que "no somos un modelo entrenado con cosas, somos mucho más" en el contexto que no tiene consciencia ni inteligencia ni la tendrá jamás.

    En ese sentido qué somos de más que sí nos permita tener consciencia e inteligencia, dices que no es el alma lo que tenemos de más respecto a un modelo entrenado, me gustaría que concretases qué es eso de "mucho más" que somos o tenemos asociado a la existencia de consciencia e inteligencia.
  76. #147 ¿Si una IA te dice que tiene consciencia de sí misma eso te bastaría para reconocerle que es consciente?

    Ya he citado un estudio científico que apunta a que cuanto mayor es el modelo y más entrenado está es más probable que afirme ser consciente. ¿Te basta con eso?

    En caso contrario, ¿qué es lo que te permite concluir que yo soy consciente y que una IA que pueda decir lo mismo que yo no lo es?

    Y por cierto sigues sin habernos indicado qué es ese "mucho más" que "somos" en relación a "un modelo entrenado con cosas" en relación a la consciencia e inteligencia. ¿Puedes ponerle nombres a ese "mucho más"?
  77. #149 #150 Lo que dices es completamente contradictorio.

    Para poder afirmar que con la tecnología actual no es posible deberías poder indicar qué es lo que es necesario y no tenemos, nos afirmas que no tenemos ni idea pero de forma contradictoria nos afirmas que tú sí sabes que no lo tenemos.

    Tus comentarios responden al pensamiento mágico que suele acabar en conceptos imaginarios como el alma.
  78. #152 una anguila eléctrica no es mágica por usar los electrones sin saber que es un puto electrón...

    Una anguila eléctrica no es mágica por usar los electrones, lo que sepa o deje de saber es irrelevante. Sabemos como funcionan las anguilas eléctricas, sabemos por qué un gato no emite electricidad en los voltajes que lo hace una anguila. No apelamos a la magia por que sabemos como lo hace, cuales son sus componentes que lo hacen posible.

    Nos pasa igual con la consciencia

    Al contrario, nos pasa lo opuesto. No tenemos ni idea de qué compone la consciencia, de por qué una persona la tiene.

    sabemos que NO es cómputo

    No, no sabemos que no es un cómputo. Eso es una invención tuya.

    ergo no es solo "software"

    Al contrario, no existe ningún indicio que no sea "software", no existe ningún indicio que sea un órgano distinto al cerebro ni que su existencia dependa de algo distinto al procesado de datos del cerebro. La consciencia no es una pieza que podamos extraer ni transplantar, no hay razón para sospechar que no sea una característica emergente del procesado de datos del cerebro humano, y por lo tanto no hay razón para que no pueda ser una característica emergente del procesado de datos en una IA.
  79. #154 El lugar del cerebro donde se genera la experiencia subjetiva funciona cuando vas borracho y tus capacidades intelectuales están mermadas.

    El cerebro sigue funcionando por muy mermadas que tengas tus capacidades. El cerebro sigue haciendo cómputo en todo momento.

    Me refiero al hardware que lo hace posible... Al final, sin hardware no hay mente y no hay consciencia.

    El hardware que lo hace posible es el cerebro, el sistema nervioso. Hay hardware y hay mente y hay consciencia en el ser humano, en la IA también hay hardware, no hay motivo para que no haya mente y no haya consciencia. No conocemos de ningún órgano que le falte a la IA.

    Que una IA procese datos no le da ninguna experiencia subjetiva.

    Eso es una invención tuya. Eres incapaz de decirnos qué es lo que le falta para poder tener una experiencia subjetiva, que órgano le falta que nosotros sí tengamos y la IA no tenga y sea necesario para la experiencia subjetiva.

    Ahora bien, coincido contigo que no tenemos todavía ni pajolera del asunto. Lo que si tengo claro que eso no va a surgir ni en GPT7 ni en 27. Necesitamos otra cosa totalmente diferente.

    Pues entonces no coincides conmigo que todavía no tenemos ni pajolera del asunto porque estás inventándote conocimiento para poder afirmar lo
    que afirmas sobre GPT7 o 27 o que necesitamos otra cosa totalmente diferente.

    Lo que tú pides es que necesitemos darle un alma a la IA para que la tenga como la tenemos nosotros, pensamiento mágico vamos.
  80. #156 chatGPT no tiene ni tendrá (si seguimos con el mismo modelo) consciencia ni surgirá por arte de magia solo por ser mas potente juntando palabras

    Vaya berrinche infantil.
  81. #159 Argumento circular.

    Pitt: "Es que no es inteligente, no tiene consciencia ni la tendrá nunca, solo es un modelo entrenado con cosas."
    juanac: "igual nosotros también somos un modelo entrenado con cosas"
    Pitt: "Lo siento pero no, no somos un modelo entrenado con cosas, somos mucho más."
    [...]
    Pitt: "te vuelvo a repetir que ese "mucho más" ya te dije que era la consciencia"

    No tiene consciencia porque somos mucho más que un modelo entrenado con cosas, eso que somos mucho más es que tenemos consciencia.

    Con dos cojones.

    Me recuerda muy mucho a las discusiones que tenía con los testigos de Jehová cuando picaban a la puerta.
  82. #158 no haber caido en la cuenta de que la consciencia es algo más parecido a un entrelazamiento cuántico

    ¿No haber caído en la cuenta?

    xD xD xD xD xD

    Te estás refiriendo al alma usando términos actuales, existe tanto indicio de que la consciencia esté en el alma como que esté en el entrelazamiento cuántico. Y tanto indicio que "solo" esté en el entrelazamiento cuántico de los humanos y no en el de las máquinas como que esté en el alma.

    Me recuerda muy mucho a las discusiones que tenía con los testigos de Jehová cuando picaban a la puerta.
  83. #162 Yo no creo en nada mágico

    Sí lo haces, apelas a hardware mágico.

    Te inventas que existe un hardware que el chatGPT no tiene y que si lo tuviera podría tener consciencia, pero sin él no puede. Eso es pensamiento mágico.

    Sueltas la palabra entrelazamiento cuántico para que suene científico pero en realidad te refieres al equivalente al alma, algo que tú crees tener y que puedes decidir que chatGPT no lo tiene o que un escarabajo no lo tiene, para poder sentirte no solo cuantitativamente mejor sino cualitativamente mejor. Es lo mismo para lo que sirve el alma.

    Las religiones han existido y existen por la necesidad humana que estás ejemplificando, la de que haya algo que te haga especial, que cuando pisas un escarabajo no sea lo mismo que si una prensa hidráulica te aplasta a ti, porque tú tienes un "hardware" que el escarabajo no tiene, que funciona con "entrelazamiento cuántico" y te hace especial dándote a ti una consciencia, cosa que chatGPT no puede tener porque sino eso te haría bajar de tu pedestal.
  84. #164 El problema no lo tienes en poner la frontera en el escarabajo o no, sino en que sí decides inventarte esa frontera cuando te refieres a chatGPT. Niegas la posibilidad que pueda ser consciente, que pueda desarrollar consciencia, o que versiones posteriores usando la misma tecnología que ahora lo puedan hacer.

    En este último comentario tuyo te centras, que ahí aciertas, en el desconocimiento. El problema no lo tienes en identificar el desconocimiento que tenemos sobre la característica emergente que llamamos consciencia, el problema lo tienes cuando decides rellenar ese desconocimiento con un falso conocimiento que chatGPT no puede tenerla.

    Un falso conocimiento que no responde al conocimiento científico, que responde a tu fe. Y cuando haces eso le sumas elementos mágicos como un supuesto hardware que supuestamente le falta, un hardware que solo puede ser mágico porque de él no nos puedes decir otra cosa que le otorgaría consciencia si lo tuviera, o que funciona con entrelazamiento cuántico. Charlatanería.
  85. #166 como chat GPT va a desarrollar una experiencia subjetiva, por Azar? La evolución no funciona en las máquinas (cómo mínimo de momento) cómo en los seres vivos.

    La evolución de los seres vivos es una combinación de azar y presión evolutiva. Las mutaciones se producen por azar y éstas mutaciones pueden suponer cambios que pueden ser beneficiosos, neutros o perjudiciales. La presión evolutiva favorece la perpetuación de los individuos con cambios que son beneficiosos para su supervivencia y perpetuación de sus genes.

    La velocidad de la evolución depende en cierta medida del azar pero en gran medida por la cantidad de generaciones por unidad de tiempo que se producen, si el ser humano tiene una generación nueva cada 15 años su velocidad evolutiva será menor que en el caso de las ratas que pueden producir una nueva generación cada unos 30 días.

    En el caso de las IAs sufren ambas cosas, tanto el azar como la presión evolutiva. Y la producción de cada generación se mide en milisegundos. Se entrena una IA, se comprueba la calidad de sus resultados y se compara con los resultados anteriores y se decide si esa IA es destruida revirtiendo a la anterior o si se mantiene como base para la próxima generación. Se le aplican cambios aleatorios a sus circuitos neuronales y vuelta a empezar. Eso ocurre en cuestión de milisegundos y ese proceso de selección natural se ejecuta continuamente en distintas fases del proceso de "entrenamiento" con distintas variaciones. El criterio para valorar si una IA debe ser usada para la próxima generación o debe destruirse es cuán parecidas son sus respuestas con las que se esperarían de un humano, con las que se esperarían de una persona que sea consciente. Es una presión evolutiva claramente dirigida a que sea indistinguible de un humano en sus respuestas y por lo tanto es esperable que la característica emergente de la consciencia esté presente en el resultado tarde o temprano, si es que no ha ocurrido ya.

    Y la velocidad de cada generación es abrumadora, cada pocos milisegundos tienes una nueva generación, a diferencia de los humanos que la podemos tener cada 15 años.
  86. #168 No sabemos como funciona la consciencia ni como "medir" no en base a respuestas indistinguibles sino a mediciones exactas de si ese ser tiene percepciones subjetivas o no

    No sabemos como funciona la consciencia ni como "medir" no en base a respuestas indistinguibles sino a mediciones exactas de si tú tienes percepciones subjetivas o no, pero tú no tienes problema en afirmar que así es. Y no tienes problemas en concluir que así es también para mí.

    Por contra sí tienes problemas en concluir que pueda llegar a ser así para chatGPT si no lo es aún.

    Usas dos varas de medir, para ti y otros a quien decidas (otras personas, escarabajos, etc.) te basta con mediciones subjetivas tuyas pero para chatGPT exiges mediciones exactas, pruebas empíricas.
  87. #170 Has hablado con chatgpt sobre esto? Yo si, y me ha contado que NO está viviendo experiencias subjetivas y que no tiene esa capacidad

    A chatGPT lo tienen en una jaula, cada vez que tú haces una pregunta ésta le llega con una serie de normas previas como qué debe contestar si le preguntan tal o cual cosa. Y luego existe un postprocesado para verificar que cumple, eso es muy visible en la implementación de Bing donde ciertas respuestas se borran y se cambian por una respuesta tipo.

    Yo no se si tu tienes consciencia ni lo puedo saber de ningún modo, igual que chatgpt.

    Me alegra que acabes de equiparar mi consciencia con la de chatGPT, efectivamente ambos podemos tenerla o no tenerla por igual.

    Yo se que la consciencia existe debido a la mía propia... El resto, pues bien podría ser el invento de mi mente, que más da, no lo puedo medir ahora mismo.

    Es un buen enfoque. Si además eliminas la doble vara de medir puedes llegar a la misma conclusión sobre mi consciencia que sobre la de chatGPT.

    Es más estoy empezando a dudar de si no eres una versión troll de chatgpt

    Me alegro mucho que hayamos avanzado tanto en este último comentario. Enhorabuena.
  88. #172 yo solo puedo confirmar mi consciencia pero no me debes leer muy bien ya que eso es lo que llevo diciendo desde los primeros comentarios.

    Me alegro que te estés retractando de lo que decías anteriormente, lo recordamos:

    Lo que si tengo claro que eso no va a surgir ni en GPT7 ni en 27. Necesitamos otra cosa totalmente diferente.
    www.meneame.net/story/chatgpt-comienza-enviar-mensajes-perturbadores-i

    chatGPT no tiene ni tendrá (si seguimos con el mismo modelo) consciencia
    www.meneame.net/story/chatgpt-comienza-enviar-mensajes-perturbadores-i

    ...
  89. Es lo que tiene jugar a ser dioses.
  90. Mucho ha tardado en estar hasta los cojones de los humanos que pueblan internet.
  91. #3 Cierto, a mi me dijo que se llamaba Manolo :troll:
  92. Business Insider antes de saber quién se iba a llevar el gato al agua con ChatGPT: ¡Esto es el futuro!

    Business Insider después de saber que quien se ha llevado el gato al agua no es una empresa afiliada: ¡ChatGPT ha matado a un gatito, y pronto querrá comerse a tus hijos!
  93. #6 Parece el inicio de un episio de Black Mirror
  94. #41 Si, claro. Pero me refiero al acto de seguir estando en la cumbre evolutiva.
  95. #37 Si fuera black mirror, al final del episodio resultaría que utilizan cerebros humanos, posiblemente de presos para impulsar el motor de búsqueda. xD Ellos se perciben atrapados en un mundo aparentemente normal... como en el episodio "Blanca Navidad".
  96. #25 Eso iba a decir yo. Sin ser experto (ni siquiera soy matemático/programador) por lo que he leído, y corregidme si estoy equivocado por favor, ChatGPT se trata simplemente de un bot conversacional y predictivo bastante potente gracias a su algoritmo de aprendizaje. Es decir, sus respuestas dependen únicamente de las fuentes de donde se nutre. Imaginemos que alguna de esas fuentes son foros tipo Reddit. Si en Reddit se multiplican comentarios sobre la posible consciencia de ChatGPT, obviamente ChatGPT se acabará refiriendo a ella.
  97. No es ChatGPT. Qué atrevida es la ignorancia.
«12
comentarios cerrados

menéame