edición general
32 meneos
160 clics
ChatGPT está inventando artículos que nunca se han publicado

ChatGPT está inventando artículos que nunca se han publicado

ChatGPT está inventándose estudios y artículos que no solo no se han publicado, sino que las referencias y las citas son inventadas. [...] ChatGPT se está inventando artículos completos de The Guardian que, en realidad, nunca se publicaron, algo que, de facto, supone que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir de manera confiable la verdad de la ficción

| etiquetas: chatgpt , inteligencia artificial , bing , desinformación , the guardian
  1. Seguramente, si le preguntas si esta afirmación es cierta, te dirá que es culpa tuya por no corroborar los datos que te da.

    Lo curioso es que ese "disclaimer" no te lo añade al final de cada respuesta, cuando debería ser así siempre.

    Pero claro, entonces le quitan "encanto" al "hype".
  2. #1 ChatGPT may produce inaccurate information about people, places, or facts

    En el pie de página.
  3. Es muy inteligente. Si no hay lo que necesita, se lo inventa.
    Podría estar en el congreso de los diputados
  4. Wow {0x1f62f} esto podría jubilar a Inda. {0x1f610}
  5. En HiperTextual están a la última.
  6. #2 Obviamente no es suficiente esa indicación.

    El personal está haciendo incluso artículos sobre sus "inexactitudes".

    Y la verdad, hacer uso de una fuente de información de la que ya de inicio debes desconfiar el 100%, pues poca utilidad podrá tener.
  7. #6 Ninguna indicación es suficiente si se hace caso omiso de ella.

    ChatGPT es un modelo del lenguaje, no el oráculo que algunos quieren ver. Obviamente, al haber sido entrenado con textos que hacen referencia al mundo real, puede mantener conversaciones verosímiles y, en el mejor de los casos, veraces sobre muchos aspectos. Pero eso no garantiza uqe el contenido sea exacto y veraz.

    El personal está haciendo incluso artículos sobre sus "inexactitudes".

    De hecho, éste es uno de ellos.
  8. Os vais a comer una mierda tan grande en unos años por no haberle dado importancia a la profesionalidad del contenido, y demás historias, que creo que me voy a quedar corto en los vaticinios :troll:. La realidad va a pasar a ser un lastre de la ficción, algo totalmente secundario.
  9. #7 Exacto, a este mismo artículo me estaba refiriendo.

    De ahí que el "disclaimer" que pueda aparecer en algunas respuestas de ChatGPT sobre sus propias "inexactitudes", debería ser un disclaimer que apareciera por defecto en todas sus respuestas, como complemento a la información que estuviera destacando.
  10. Que no hayan sido publicados no implica que no hayan sido escritos...a saber donde rebusca xD
  11. Yo un día lo puse a prueba y da miedo como se inventa lo que quiere y lo suelta con aplomo, a ver si cuela.

    Le pregunte si sabía cómo se afila el hacha en el juego "three weeks in the paradise", del año 1986 y del cual hay mil guías por Internet. Me dijo que buscara la piedra de afilar, objeto que no existe. Cuando le corregí, se inventó otra chorrada.
    Le pregunté si conocía el juego o no, y me dijo que sí. Le dije que me dijera el nombre de 5 objetos que el personaje pudiera recojer, y de nuevo se inventó la respuesta.

    Es una mierda porque simplemente podría haber dicho "no sé la respuesta", pero eso es algo que chatGPT parece no hacer nunca.
  12. ¿Conocías la comunidad |inteligencia ? :-)
    #0
  13. #11 igualito que un psicópata xD
  14. #12 No la conocía. Gracias, me hago seguidor.
  15. #13 A mí me dio consejos para deshacerse de un cuerpo humano:  media
  16. #11 A ver: es una tecnología desarrollada por blancos angloamericanos. ¿Cómo te creías que iba a funcionar?
  17. #11 Al poco de salir muchos hicimos pruebas de ese tipo, y sí, ChatGPT es un enterao y un bocachancla xD

    www.meneame.net/story/chatgpt-comentando-comentarios/c012#c-12

    Y es que como dice #7 es un modelo de lenguaje. Que sí, que puede tener mucha información, pero como su objetivo principal es generar texto, si no la tiene se la inventa o la altera para que encaje mejor en el texto.

    En ChatGPT la forma está por encima del fondo.
  18. #3 O en bar con un palillo en la boca.
  19. #11 Eso fue lo último que adiviné del juego. De casualidad claro. Me pregunto qué estaba pensando Dave Perry cuando programó eso. Del estilo "usa el hueso de rata en la cerradura y atale un globo para que se asuste el pájaro y deje caer el papel con la clave".
  20. #11 acierta siempre el 50% de las veces
  21. Cada vez se parece más a la prensa tradicional :shit:
  22. #19 complicado porque era de las pocas acciones que necesitaban combinar 2 objetos.

    Yo todavía no entiendo lo de la araña y la pecera.
  23. #14 La última noticia enviada es del 2021 :-/
  24. Entonces digamos que miente, no?
  25. Está claro que este titular no es de ChatGPT.

    Gila Vive!
  26. #1 No.

    Se disculpará por el error y se inventará otra frase.... Aunque lo que diga sea cierto.

    xD xD
  27. #26 He hecho la prueba, y no, no se disculpa.

    Directamente niega la mayor (lo cual en sí mismo me parece un error en su "entrenamiento").

    Con el argumento de que no puede "mentir", ya que sólo mezcla palabras que se vaya encontrando por ahí y que aparentemente puedan tener sentido para algunos (aunque en realidad no tengan sentido alguno porque las frases que forma tienen significados inciertos (vamos, que miente más que habla) )

    Y luego al final destaca que si dudas de lo que cuenta, que busques en otras fuentes. :palm:

    Vamos, que te lanza el "disclaimer" que indico en #1 únicamente cuando cuestionas lo que dice, corroborando la poca fiabilidad que indico en #6.

    No obstante, veo positivo y sobre todo necesario este "disclaimer" en todas sus respuestas, y a ser posible en negrita y con letras más grandes que las que usa en la misma respuesta.

    Al menos los desarrolladores mostrarán "buenas intenciones" con este software.

    Bien es sabido por todos que las "condiciones de uso" que se aceptan al usar ciertas herramientas informáticas, el personal se las pasa por el arco del triunfo. Y aunque todos sabemos que este chat es claramente un "beta", la promoción continua que le están haciendo (y a mi modo de ver, a este nivel de madurez de la herramienta, injustificada), no se corresponde con las visibilidad de las obligatorias advertencias de inseguridad que proporciona en cada una de sus respuestas.

    Aún así, la herramienta es prometedora, sin duda.  media
  28. #27 "de otras fuentes confiables" no, cariño mío ChatGPT, en todo caso será "de fuentes confiables" porque tú, bot mentirosa, no lo eres
  29. #7 Claro, es eso lo que venía a decir. Si lo usas para lo que no sirve, normal que no funcione mal. Prueba por ejemplo a que te dé enlaces sobre la afirmación que te acaba de dar. Puede que sea completamente correcta, pero los enlaces serán inventados, pero con un parecido similar a como deberían ser los reales. Por ejemplo si la pregunta era sobre alguna película, te pondrá enlaces inventados en imdb.
  30. #11 Y eso te ha pasado porque es un modelo de lenguaje, diseñado y preparado para responder con las frases que mejor encajen en el contexto del prompt que ha recibido. No miente, en el sentido de que diga algo que no es real. Es que para chatGPT lo único que es real, que existe, es su entrenamiento y sus prompts. No sabe nada del mundo real porque no está entrenado ni diseñado para eso.

    De todas formas, ésta es la respuesta a tu pregunta de GPT4:
    "Three Weeks in Paradise" es un videojuego de plataformas de 1986 desarrollado por Mikro-Gen para ZX Spectrum y Amstrad CPC. No tengo información específica sobre la mecánica de afilar un hacha en este juego, ya que mi conocimiento se basa en datos recopilados hasta septiembre de 2021.

    Dicho esto, es posible que no exista una mecánica de afilar hachas en "Three Weeks in Paradise", ya que es un juego de plataformas con un enfoque en la resolución de acertijos y la recolección de objetos en lugar de combate o mejoras de herramientas. En este juego, los jugadores controlan a Wally Week y su familia, quienes deben resolver acertijos y recolectar objetos para escapar de una isla desierta.

    Si realmente necesitas afilar un hacha en el juego, te recomendaría buscar guías o recursos específicos para "Three Weeks in Paradise" que puedan haber sido creados por la comunidad de jugadores. También es posible que estés confundiendo este juego con otro que sí tenga una mecánica de afilar hachas.



    ¿qué te parece la mejora?

    Y para la otra pregunta:
    En "Three Weeks in Paradise", los jugadores deben recoger y utilizar objetos para resolver acertijos y avanzar en el juego. Algunos de los objetos que se pueden encontrar y usar en el juego incluyen:

    Paraguas: Se puede utilizar para atravesar áreas con agua y evitar caídas dañinas.
    Cuerda: Ayuda a escalar áreas de difícil acceso y a cruzar ciertas secciones del mapa.
    Llave: Se utiliza para desbloquear puertas y acceder a nuevas áreas del juego.
    Bote inflable: Permite a los personajes cruzar cuerpos de agua más grandes.
    Hueso: Se puede usar para distraer a animales peligrosos, como cocodrilos, para pasar de forma segura.
    Estos son solo algunos ejemplos de objetos que se pueden encontrar en "Three Weeks in Paradise". La recolección y el uso correcto de estos objetos son fundamentales para avanzar en el juego y completar la aventura.


    ¿ha mejorado?
  31. #24 No, tan solo hace lo que está programado para hacer: completar textos con la continuación que considera más apropiada. No miente en el sentido de decir cosas que no son reales, porque para GPT lo único real es su entrenamiento y los promps que recibe. No sabe nada sobre el mundo real.
  32. #30 al menos en la primera reconoce no tener información, pero la segunda no ha mejorado. Se ha inventado casi completamente la lista de objetos, de los cuales solo hay una llave.
  33. #27 Pues en mi caso siempre empieza diciendo "disculpa el error" justo antes de inventarse una respuesta nueva..... muchas veces la cosa acaba en un conjunto de respuestas circulares.... xD xD
  34. Algún día un periodista llamará a un contacto para confirmar una noticia, y será una IA suplantando la voz del contacto quién responderá, y estaremos ya perdidos.
  35. #31 ¿Pero no habíamos quedado que no está "programado" y que aprende solito? {0x1f608} {0x1f606}
  36. #31 Digamos entonces que no sabe que miente. Si te preguntan por algo, no sabes la respuesta y te la inventas por responder algo en vez de decir que no lo sabes, eso es mentir. Veo correcto que GPT pueda ser creativo para inventar una historia, un cuento. Pero si le preguntas por un dato, por una respuesta en la que esperas la verdad no veo que bien que se invente cosas. Debería decir "no tengo datos suficientes para responder" o bien señalar explícitamente que se está inventando las fuentes.
  37. #11 Es una mierda porque simplemente podría haber dicho "no sé la respuesta", pero eso es algo que chatGPT parece no hacer nunca.

    Creo que intenta buscar la respuesta más aproximada en todo momento. Es decir, como no se " cómo se afila el hacha en el juego "three weeks in the paradise"", pues busco algo aproximado en sus registros de esa frase, que lo más así sería "cómo se afila el hacha".

    Le pregunté si conocía el juego o no, y me dijo que sí. Le dije que me dijera el nombre de 5 objetos que el personaje pudiera recojer, y de nuevo se inventó la respuesta.

    Entiendo que tendrá registros del juego, y de ahí la primera parte.
    La siguiente, pues no se, conoce el juego > si, conoces la respuesta > no, soluciones aproximadas > buscar lo primero que encuentre.

    NOTA: ¿cómo se puede probar estas cosas? ya me entra la curiosidad de ver si lo rompo. Por favor.
  38. #35 pero tiene que tener un entrenamiento, como cualquier IA, que se le nutre de datos.A partir de ahí, pues ya va elaborando cual es mejor proceso a según que se le pregunte.

    Si le preguntas por "¿Qué es un globo?" y nadie le "enseñado" que es un globo, no te sabrá responder.
    Ahora, si le das datos de globos en cantidad, y luego le preguntas "¿cual es el mejor globo?", ahí te dará una respuesta en base al entrenamiento que haya tenido.
  39. #38 Era coña mía. De todas maneras... si a un humano experto en globos le preguntas cuál es el mejor globo... casi seguro que te pregunta, "¿el mejor globo para qué? ;)
  40. Yo lo he utilizado para ayudarme a escribir artículos de un blog, me gusta citar los artículos científicos que sustentan la información. Cuando le pedía artículos con un resumen de la información, absolutamente todos los autores estaban inventados, el doi no coincidia y era imosible saber si estaba bien. Insistiendo que las referencias estaban mal, me daba unas nuevas y siempre mal... a nivel de citas de artículos científicos me ha sido imposible usarlo.
  41. #35 Correcto, error mío. Donde pone programado debería poner entrenado.
  42. #32 Para lo que funciona fenomenal es precisamente para inventarse cosas:
    Prompt: Crea el argumento de un juego de ordenador, de plataformas 2D, de estilo retro, que contenga elementos que haya que localizar para resolver puzzles.
    Describe el o los personajes, con sus características, habilidades e historia. Describe el lore importante del juego.
    Luego describe cada uno de los niveles: temática, enemigos con sus características y habilidades y el jefe final de cada nivel.
    Finalmente, describe la forma de puntuar, de obtener o perder vida y otras propiedades que quieras que tenga, y las formas de ganar o perder.

    Respuesta:

    Bueno, la respuesta es tan larga que creo que no puedo pegarla en meneame. Que me ha creado toda la temática y todo lo necesario para empezar a ponerse a programar.
  43. #36 Ese es el problema hoy en día, que va mejorando mucho en gpt4, que al no tener noción de la realidad, no existe diferencia entre las preguntas "dime los jugadores del Real Madrid" y la pregunta "dime los hipotéticos jugadores de un supuesto equipo de futbol llamado Real Madrid"
  44. #41 -->#39 Era coña mía. :-)
  45. Hay que regularlo y prohibirlo, hay que encarcelar a los que lo programaron y hay que obligar a sacarse licencias y pagar tasas para todo aquel que quiera volver a probar.

    En España se haría así. Por eso somos punteros en tecnología a nivel mundial.
  46. #3 O en menéame.
  47. #8 ¿Os? ¿Segunda del plural?
  48. #44 ;)

    De todas formas, gracias por la puntualización.
  49. #48 Aunque de todas formas, en el sentido estricto de la palabra, se le programa para aprenda así o así o así... Digo yo, que entiendo poco (nada) del tema. :-)
  50. #49 "para que* aprenda"
comentarios cerrados

menéame