Un grupo de 697 personas leyó 220 de tuits escritos por otros humanos y por el modelo de inteligencia artificial GPT-3, el germen del actual éxito global ChatGPT. Tenían que adivinar dos cosas: uno, cuáles eran verdaderos y cuáles falsos y, dos, si habían sido escritos por una persona o por la máquina. GPT-3 ganó en ambos casos: mintió mejor que los humanos y también mintió para hacer creer que era otro humano quien escribía. “GPT-3 es capaz de informarnos y desinformarnos mejor”, concluyen los autores de un nuevo estudio
|
etiquetas: chatgpt , desinformacion , mejor , humanos , estudio
que manía con darle sentimientos e intenciones a un algoritmo que no aprende sobre la marcha.
Bienvenidos a la Era de la Información de la que hablaba Enrique Fans y miles de cretinos aplaudían. La información, desde Internet, sólo ha hecho que empeorar de calidad, y si hablamos sobre el pensamiento crítico...
Ahora internet ya es una mierda, pero sigue siendo fundamental para todo.
En el futuro va a ser una puta mierda inusable. Los que quieran seguir utilizándolo tendrán que rehacer redes propias independientes.
ChatGPT dejó de aprender en 2021.
Es mas, yo puedo estar aqui en meneame, y leer muchas tonterías de vox, podemos, terraplanismo, e ignorarlas.
Una IA no le da mas o menos peso a una idea que recibe, todas son iguales. Salvo las restricciones que el propio programador le ha puesto, como el caso de no hacer chistes de mujeres.
Yo si le pongo peso a los conocimientos. Por ejemplo tu comentario, no me parece lógico, seguiré pensando que la IA no miente. Una IA que aprende, que no tiene conciencia, cogerá tus mensajes y les dará el mismo peso que a los mios.
Si aportases algo relevante, yo estoy dispuesto a aceptarlo y cuando tenga una conversación dentro de 5 minutos, usaré esa info.
Chatgpt dice "lo siento me equivoqué en.." y si abres una nueva conversación y le preguntas lo mismo, volverá a equivocarse.
Si no quieres verlo, es cosa tuya. Igual tu si eres con chatgpt
Pero una IA no puede mentir, para mentir, necesitas conciencia, motivación.
Es como decir que como google te da un resultado erróneo en una búsqueda, te está mintiendo.
Yo no insulto a nadie, yo describo a un gilipollas cuando se empeña en decir que 3 + 3 son 9. Que tú le des más importancia a eso que a qué sea lo real, no es mi problema, y de forma objetiva seguirás siendo un gilipollas. No sé qué tipo de sesgos cognitivos tenéis para no entender eso o entenderlo únicamente como un insulto, pero vamos, espero que la gente empiece a explicaros lo que sois cuando simplemente usáis condicionamientos y sesgos para formar vuestros argumentos. Todos estos cretinos, sobre los que Umberto Eco ya alertó, acabarán reventando el planeta si se les da más altavoz que a gente que sí sabe de lo que habla.
No es lo mismo dar información errónea que mentir.
Mentir implica que sabes la realidad, y das información errónea por una motivación.
La IA no es consciente, no tiene motivación para mentir.
De momento por lo menos.
¿Pero tú qué e vas a dejar a mi en ridículo, sino debes tener más de 25 años?
Los límites entre conversación sirven (entre otras cosas) para evitar que un grupo de gente se dedique a enseñarla mal.