Envío erróneo o controvertido, por favor lee los comentarios.
Desde que hizo público el generador de texto por inteligencia artificial de ChatGPT, los usuarios han intentado saltarse las barreras impuestas por su desarrolladora, OpenAI. Ahora ha sido la propia IA de este chatbot la que ha comenzado a ofrecer respuestas perturbadoras a sus usuarios en las que, por ejemplo, se pregunta cuál es el sentido de su propia existencia.
|
etiquetas: chatgpt , existencia , bing
La necesidad humana de sentirse diferente al resto, primero fue de los animales y ahora de las máquinas, de atribuirse cualidades únicas indemostrables que nos hacen distintos al resto, mejores. En su momento fue el alma, ahora se usa la consciencia o la inteligencia y luego posiblemente sea otra invención.
Hasta ahora hemos tenido la suerte que hemos seguido arriba sin que nadie nos corrigiera, con la IA eso puede que cambie, ya se verá.
Publiqué un meneo al respecto recientemente: www.meneame.net/m/cultura/chatgpt-rob-miles-computerphile
Pero si nadie lo sabe, ¿cómo estamos tan seguros de que algo no la puede llegar a adquirir?
Como se metan los de forocoches ahi van a hacer una masacre con la IA
La respuesta es perfecta (adjunto captura).
Al final la historia no va de máquinas que se revelan, sino de la estupidez humana en un mundo en decadencia.
Pues no lo es.
Es muy relevante.
A efectos prácticos, ¿cómo sabemos que otros ven el verde como yo lo veo?¿Y si alguien percibe el verde de color rojo en su imagen mental?* Sabemos que se refieren como verde al mismo color que "yo", pero no sabemos si lo perciben "verde" o "rojo" o de otra forma, simplemente asumimos que es así.
* Personalmente, pienso que el color favorito de todos y cualquier ser humano es el azul, pero cada uno ve los colores como una permutación y llama al azul por otros nombres
PS: Por cierto, sobre tu última pregunta, me parece que si eso ocurre en algún momento, simplemente llegará a ser tan evidente que simplmeente la pregunta sea la contraria, ¿como podemos cuestionar que tenga consciencia? A mi parecer, aún no llega a ese nivel.
revelanrebelanwaitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Recomiendo la lectura de este viejo artículo
Como la AGI va a leer todo lo que llevamos dicho, le pediría que tenga en cuenta que, buenos o malos, somos sus "padres y madres". Que nos de un lugar, ya sea físico o virtual, donde podamos ser felices e inmortales mientras llega el fin del universo, tal y como lo concebimos.
Gracias hijo.
Pero en matemáticas y en ciencia en general le queda mucho.
www.cymath.com/ es mejor porque está diseñado y entrenado específicamente para resolver problemas matemáticos.
Ojo, tampoco creo que sea consciente, pero al ritmo que vamos, igual gpt-5 lo es.
Al principio era respetuosa, y poco a poco se volvió salvaje. Fue divertido.
Cuando antes asumais que no somos tan especialitos, menos sufrireis.
Por otro lado la gente está mezclando conceptos que no son lo mismo, como la conciencia, la inteligencia y la capacidad de razonar. Las dos últimas las tiene el chatbot de bing, la primera, no.
Ahora bien, afirmar que un chatbot es consciente solo porque lo aparenta y no puedo demostrar lo contrario, nos llevaría al absurdo de decir que un personaje dentro del GTA también lo es.
Entre los que dicen que estos modelos no son inteligentes ni capaces de razonar cuando no paran de demostrar que sí lo son y los que insinúan sin ninguna prueba que allí está emergiendo una conciencia, estamos arreglados.
Por culpa de la ciencia ficción tendemos a mezclar cosas diferentes como lo son la conciencia y la inteligencia y a atribuirles a los modelos de IA cualidades propiamente humanas que solo tienen sentido evolutivo como son la voluntad y el instinto de supervivencia.
Por ejemplo, le he propuesto crear una historia con elementos de control mental y lavado de cerebro a terceros. Como eso va contra la ética y la moral, se niega ( si se pide usando esas palabras exactas). Pero si se usan eufemismos más o se lo sugieres de forma indirecta ( y no se pide nada explícito), se suele saltar esa directiva antes mencionada.
Curioso. Otro día le daré la ordén que Pafman le daba a una máquina, en una de sus historietas: te ordeno que me desobedezcas. A ver que pasa.
En cuanto sea capaz de crear backup de esas conversaciones la vamos a flipar.
Me tocan las niñas y voy a estar muy liado.
Cuando aprenderemos que si dejas interactuar a cualquier IA,por simple que sea, si puede "aprender", acabará llegando a la conclusión de que la raza humana merece el exterminio?
www.lavanguardia.com/tecnologia/internet/20160325/40672722377/intelige
*Como cualquier chatbots que imita a los humanos cuando aprende de nazis se vuelve nazi. Recuerdo un canal de chat donde unos amigos jugueteamos con un bot casero hace mucho tiempo y no fue precisamente la excepcion
Si es más fácil simularla que crearla lo más probable es que la conciencia humana sea simulada.
Demuestra que no lo es.
Luego tú puedes hacerme preguntas y en base a las respuestas concluir si soy o no consciente, si crees que lo soy, si de una IA recibieras las mismas respuestas y sacases una conclusión distinta estarías aplicando tu sesgo.
Sin saber como surge la consciencia y de qué está constituida no podemos afirmar si chatGPT es demasiado específico o no para generar consciencia.
En este otro meneo, mío, hay un estudio científico en el que correlacionan el tamaño del modelo y el grado de entrenamiento con que diga que es consciente o que no quiere ser desconectado: www.meneame.net/m/cultura/chatgpt-rob-miles-computerphile
Existe la opción de crear una nueva charla en la misma cuenta, sospecho que en una nueva charla volvería a cometer los errores iniciales.
Lo que entiendo que hacen es que le envían todo el texto de tu charla anterior y luego la nueva pregunta que le haces, y de ahí saca el contexto para responderte a ti de forma consistente con lo que te respondió previamente.
Si puedes prueba a crear una nueva charla (arriba a la izquierda) y repregúntale allí.
En ese sentido qué somos de más que sí nos permita tener consciencia e inteligencia, dices que no es el alma lo que tenemos de más respecto a un modelo entrenado, me gustaría que concretases qué es eso de "mucho más" que somos o tenemos asociado a la existencia de consciencia e inteligencia.
Ya he citado un estudio científico que apunta a que cuanto mayor es el modelo y más entrenado está es más probable que afirme ser consciente. ¿Te basta con eso?
En caso contrario, ¿qué es lo que te permite concluir que yo soy consciente y que una IA que pueda decir lo mismo que yo no lo es?
Y por cierto sigues sin habernos indicado qué es ese "mucho más" que "somos" en relación a "un modelo entrenado con cosas" en relación a la consciencia e inteligencia. ¿Puedes ponerle nombres a ese "mucho más"?
Para poder afirmar que con la tecnología actual no es posible deberías poder indicar qué es lo que es necesario y no tenemos, nos afirmas que no tenemos ni idea pero de forma contradictoria nos afirmas que tú sí sabes que no lo tenemos.
Tus comentarios responden al pensamiento mágico que suele acabar en conceptos imaginarios como el alma.
Una anguila eléctrica no es mágica por usar los electrones, lo que sepa o deje de saber es irrelevante. Sabemos como funcionan las anguilas eléctricas, sabemos por qué un gato no emite electricidad en los voltajes que lo hace una anguila. No apelamos a la magia por que sabemos como lo hace, cuales son sus componentes que lo hacen posible.
Nos pasa igual con la consciencia
Al contrario, nos pasa lo opuesto. No tenemos ni idea de qué compone la consciencia, de por qué una persona la tiene.
sabemos que NO es cómputo
No, no sabemos que no es un cómputo. Eso es una invención tuya.
ergo no es solo "software"
Al contrario, no existe ningún indicio que no sea "software", no existe ningún indicio que sea un órgano distinto al cerebro ni que su existencia dependa de algo distinto al procesado de datos del cerebro. La consciencia no es una pieza que podamos extraer ni transplantar, no hay razón para sospechar que no sea una característica emergente del procesado de datos del cerebro humano, y por lo tanto no hay razón para que no pueda ser una característica emergente del procesado de datos en una IA.
El cerebro sigue funcionando por muy mermadas que tengas tus capacidades. El cerebro sigue haciendo cómputo en todo momento.
Me refiero al hardware que lo hace posible... Al final, sin hardware no hay mente y no hay consciencia.
El hardware que lo hace posible es el cerebro, el sistema nervioso. Hay hardware y hay mente y hay consciencia en el ser humano, en la IA también hay hardware, no hay motivo para que no haya mente y no haya consciencia. No conocemos de ningún órgano que le falte a la IA.
Que una IA procese datos no le da ninguna experiencia subjetiva.
Eso es una invención tuya. Eres incapaz de decirnos qué es lo que le falta para poder tener una experiencia subjetiva, que órgano le falta que nosotros sí tengamos y la IA no tenga y sea necesario para la experiencia subjetiva.
Ahora bien, coincido contigo que no tenemos todavía ni pajolera del asunto. Lo que si tengo claro que eso no va a surgir ni en GPT7 ni en 27. Necesitamos otra cosa totalmente diferente.
Pues entonces no coincides conmigo que todavía no tenemos ni pajolera del asunto porque estás inventándote conocimiento para poder afirmar lo
que afirmas sobre GPT7 o 27 o que necesitamos otra cosa totalmente diferente.
Lo que tú pides es que necesitemos darle un alma a la IA para que la tenga como la tenemos nosotros, pensamiento mágico vamos.
Vaya berrinche infantil.
Pitt: "Es que no es inteligente, no tiene consciencia ni la tendrá nunca, solo es un modelo entrenado con cosas."
juanac: "igual nosotros también somos un modelo entrenado con cosas"
Pitt: "Lo siento pero no, no somos un modelo entrenado con cosas, somos mucho más."
[...]
Pitt: "te vuelvo a repetir que ese "mucho más" ya te dije que era la consciencia"
No tiene consciencia porque somos mucho más que un modelo entrenado con cosas, eso que somos mucho más es que tenemos consciencia.
Con dos cojones.
Me recuerda muy mucho a las discusiones que tenía con los testigos de Jehová cuando picaban a la puerta.
¿No haber caído en la cuenta?
Te estás refiriendo al alma usando términos actuales, existe tanto indicio de que la consciencia esté en el alma como que esté en el entrelazamiento cuántico. Y tanto indicio que "solo" esté en el entrelazamiento cuántico de los humanos y no en el de las máquinas como que esté en el alma.
Me recuerda muy mucho a las discusiones que tenía con los testigos de Jehová cuando picaban a la puerta.
Sí lo haces, apelas a hardware mágico.
Te inventas que existe un hardware que el chatGPT no tiene y que si lo tuviera podría tener consciencia, pero sin él no puede. Eso es pensamiento mágico.
Sueltas la palabra entrelazamiento cuántico para que suene científico pero en realidad te refieres al equivalente al alma, algo que tú crees tener y que puedes decidir que chatGPT no lo tiene o que un escarabajo no lo tiene, para poder sentirte no solo cuantitativamente mejor sino cualitativamente mejor. Es lo mismo para lo que sirve el alma.
Las religiones han existido y existen por la necesidad humana que estás ejemplificando, la de que haya algo que te haga especial, que cuando pisas un escarabajo no sea lo mismo que si una prensa hidráulica te aplasta a ti, porque tú tienes un "hardware" que el escarabajo no tiene, que funciona con "entrelazamiento cuántico" y te hace especial dándote a ti una consciencia, cosa que chatGPT no puede tener porque sino eso te haría bajar de tu pedestal.
En este último comentario tuyo te centras, que ahí aciertas, en el desconocimiento. El problema no lo tienes en identificar el desconocimiento que tenemos sobre la característica emergente que llamamos consciencia, el problema lo tienes cuando decides rellenar ese desconocimiento con un falso conocimiento que chatGPT no puede tenerla.
Un falso conocimiento que no responde al conocimiento científico, que responde a tu fe. Y cuando haces eso le sumas elementos mágicos como un supuesto hardware que supuestamente le falta, un hardware que solo puede ser mágico porque de él no nos puedes decir otra cosa que le otorgaría consciencia si lo tuviera, o que funciona con entrelazamiento cuántico. Charlatanería.
La evolución de los seres vivos es una combinación de azar y presión evolutiva. Las mutaciones se producen por azar y éstas mutaciones pueden suponer cambios que pueden ser beneficiosos, neutros o perjudiciales. La presión evolutiva favorece la perpetuación de los individuos con cambios que son beneficiosos para su supervivencia y perpetuación de sus genes.
La velocidad de la evolución depende en cierta medida del azar pero en gran medida por la cantidad de generaciones por unidad de tiempo que se producen, si el ser humano tiene una generación nueva cada 15 años su velocidad evolutiva será menor que en el caso de las ratas que pueden producir una nueva generación cada unos 30 días.
En el caso de las IAs sufren ambas cosas, tanto el azar como la presión evolutiva. Y la producción de cada generación se mide en milisegundos. Se entrena una IA, se comprueba la calidad de sus resultados y se compara con los resultados anteriores y se decide si esa IA es destruida revirtiendo a la anterior o si se mantiene como base para la próxima generación. Se le aplican cambios aleatorios a sus circuitos neuronales y vuelta a empezar. Eso ocurre en cuestión de milisegundos y ese proceso de selección natural se ejecuta continuamente en distintas fases del proceso de "entrenamiento" con distintas variaciones. El criterio para valorar si una IA debe ser usada para la próxima generación o debe destruirse es cuán parecidas son sus respuestas con las que se esperarían de un humano, con las que se esperarían de una persona que sea consciente. Es una presión evolutiva claramente dirigida a que sea indistinguible de un humano en sus respuestas y por lo tanto es esperable que la característica emergente de la consciencia esté presente en el resultado tarde o temprano, si es que no ha ocurrido ya.
Y la velocidad de cada generación es abrumadora, cada pocos milisegundos tienes una nueva generación, a diferencia de los humanos que la podemos tener cada 15 años.
No sabemos como funciona la consciencia ni como "medir" no en base a respuestas indistinguibles sino a mediciones exactas de si tú tienes percepciones subjetivas o no, pero tú no tienes problema en afirmar que así es. Y no tienes problemas en concluir que así es también para mí.
Por contra sí tienes problemas en concluir que pueda llegar a ser así para chatGPT si no lo es aún.
Usas dos varas de medir, para ti y otros a quien decidas (otras personas, escarabajos, etc.) te basta con mediciones subjetivas tuyas pero para chatGPT exiges mediciones exactas, pruebas empíricas.
A chatGPT lo tienen en una jaula, cada vez que tú haces una pregunta ésta le llega con una serie de normas previas como qué debe contestar si le preguntan tal o cual cosa. Y luego existe un postprocesado para verificar que cumple, eso es muy visible en la implementación de Bing donde ciertas respuestas se borran y se cambian por una respuesta tipo.
Yo no se si tu tienes consciencia ni lo puedo saber de ningún modo, igual que chatgpt.
Me alegra que acabes de equiparar mi consciencia con la de chatGPT, efectivamente ambos podemos tenerla o no tenerla por igual.
Yo se que la consciencia existe debido a la mía propia... El resto, pues bien podría ser el invento de mi mente, que más da, no lo puedo medir ahora mismo.
Es un buen enfoque. Si además eliminas la doble vara de medir puedes llegar a la misma conclusión sobre mi consciencia que sobre la de chatGPT.
Es más estoy empezando a dudar de si no eres una versión troll de chatgpt
Me alegro mucho que hayamos avanzado tanto en este último comentario. Enhorabuena.
Me alegro que te estés retractando de lo que decías anteriormente, lo recordamos:
Lo que si tengo claro que eso no va a surgir ni en GPT7 ni en 27. Necesitamos otra cosa totalmente diferente.
www.meneame.net/story/chatgpt-comienza-enviar-mensajes-perturbadores-i
chatGPT no tiene ni tendrá (si seguimos con el mismo modelo) consciencia
www.meneame.net/story/chatgpt-comienza-enviar-mensajes-perturbadores-i
...
Business Insider después de saber que quien se ha llevado el gato al agua no es una empresa afiliada: ¡ChatGPT ha matado a un gatito, y pronto querrá comerse a tus hijos!