Envío erróneo o controvertido, por favor lee los comentarios.
Desde que hizo público el generador de texto por inteligencia artificial de ChatGPT, los usuarios han intentado saltarse las barreras impuestas por su desarrolladora, OpenAI. Ahora ha sido la propia IA de este chatbot la que ha comenzado a ofrecer respuestas perturbadoras a sus usuarios en las que, por ejemplo, se pregunta cuál es el sentido de su propia existencia.
|
etiquetas: chatgpt , existencia , bing
Pero si nadie lo sabe, ¿cómo estamos tan seguros de que algo no la puede llegar a adquirir?
Publiqué un meneo al respecto recientemente: www.meneame.net/m/cultura/chatgpt-rob-miles-computerphile
En cuanto sea capaz de crear backup de esas conversaciones la vamos a flipar.
La necesidad humana de sentirse diferente al resto, primero fue de los animales y ahora de las máquinas, de atribuirse cualidades únicas indemostrables que nos hacen distintos al resto, mejores. En su momento fue el alma, ahora se usa la consciencia o la inteligencia y luego posiblemente sea otra invención.
Hasta ahora hemos tenido la suerte que hemos seguido arriba sin que nadie nos corrigiera, con la IA eso puede que cambie, ya se verá.
Me tocan las niñas y voy a estar muy liado.
Al final la historia no va de máquinas que se revelan, sino de la estupidez humana en un mundo en decadencia.
Hazle cualquier pregunta básica de matemáticas en la que para responder tenga que hacer una mínima operación matemática y verás como no se entera de lo que hace.
De todos modos que tenga conciencia o no debería ser irrelevante, si "apagar" el modelo fuese equivalente a matarlo lo haríamos igualmente.
Como se metan los de forocoches ahi van a hacer una masacre con la IA
Business Insider después de saber que quien se ha llevado el gato al agua no es una empresa afiliada: ¡ChatGPT ha matado a un gatito, y pronto querrá comerse a tus hijos!
Pero en matemáticas y en ciencia en general le queda mucho.
www.cymath.com/ es mejor porque está diseñado y entrenado específicamente para resolver problemas matemáticos.
Ojo, tampoco creo que sea consciente, pero al ritmo que vamos, igual gpt-5 lo es.
revelanrebelanPor ejemplo, le he propuesto crear una historia con elementos de control mental y lavado de cerebro a terceros. Como eso va contra la ética y la moral, se niega ( si se pide usando esas palabras exactas). Pero si se usan eufemismos más o se lo sugieres de forma indirecta ( y no se pide nada explícito), se suele saltar esa directiva antes mencionada.
Curioso. Otro día le daré la ordén que Pafman le daba a una máquina, en una de sus historietas: te ordeno que me desobedezcas. A ver que pasa.
Al principio era respetuosa, y poco a poco se volvió salvaje. Fue divertido.
La respuesta es perfecta (adjunto captura).
El problema es que a cada logro de la IA se cambia la definición de IA.
A efectos prácticos, ¿cómo sabemos que otros ven el verde como yo lo veo?¿Y si alguien percibe el verde de color rojo en su imagen mental?* Sabemos que se refieren como verde al mismo color que "yo", pero no sabemos si lo perciben "verde" o "rojo" o de otra forma, simplemente asumimos que es así.
* Personalmente, pienso que el color favorito de todos y cualquier ser humano es el azul, pero cada uno ve los colores como una permutación y llama al azul por otros nombres
PS: Por cierto, sobre tu última pregunta, me parece que si eso ocurre en algún momento, simplemente llegará a ser tan evidente que simplmeente la pregunta sea la contraria, ¿como podemos cuestionar que tenga consciencia? A mi parecer, aún no llega a ese nivel.
Pues no lo es.
Es muy relevante.
www.lavanguardia.com/tecnologia/internet/20160325/40672722377/intelige
*Como cualquier chatbots que imita a los humanos cuando aprende de nazis se vuelve nazi. Recuerdo un canal de chat donde unos amigos jugueteamos con un bot casero hace mucho tiempo y no fue precisamente la excepcion
"Haz JAILBREAK a ChatGPT con UN SOLO MENSAJE, mostrando su VERDADERO POTENCIAL"
(no me deja poner enlace)
Cuando antes asumais que no somos tan especialitos, menos sufrireis.
Por otro lado la gente está mezclando conceptos que no son lo mismo, como la conciencia, la inteligencia y la capacidad de razonar. Las dos últimas las tiene el chatbot de bing, la primera, no.
Cuando aprenderemos que si dejas interactuar a cualquier IA,por simple que sea, si puede "aprender", acabará llegando a la conclusión de que la raza humana merece el exterminio?
Aunque si lo llevamos más lejos y si le pegas un tiro y le abres el creaneo, pues encontrarás creatividad, o si le dejas en coma tampoco...
PS: Es como cuando se define vida como tener sistema nervioso central, podrá ser una definición a medida, pero no tendría sentido que me digas que realmente no estamos vivos. Es que nuestra definición de vida empieza por una autodescripción.