ChatGPT está inventándose estudios y artículos que no solo no se han publicado, sino que las referencias y las citas son inventadas. [...] ChatGPT se está inventando artículos completos de The Guardian que, en realidad, nunca se publicaron, algo que, de facto, supone que ni los usuarios, ni el propio ChatGPT sean capaces de distinguir de manera confiable la verdad de la ficción
|
etiquetas: chatgpt , inteligencia artificial , bing , desinformación , the guardian
Lo curioso es que ese "disclaimer" no te lo añade al final de cada respuesta, cuando debería ser así siempre.
Pero claro, entonces le quitan "encanto" al "hype".
En el pie de página.
Podría estar en el congreso de los diputados
El personal está haciendo incluso artículos sobre sus "inexactitudes".
Y la verdad, hacer uso de una fuente de información de la que ya de inicio debes desconfiar el 100%, pues poca utilidad podrá tener.
ChatGPT es un modelo del lenguaje, no el oráculo que algunos quieren ver. Obviamente, al haber sido entrenado con textos que hacen referencia al mundo real, puede mantener conversaciones verosímiles y, en el mejor de los casos, veraces sobre muchos aspectos. Pero eso no garantiza uqe el contenido sea exacto y veraz.
El personal está haciendo incluso artículos sobre sus "inexactitudes".
De hecho, éste es uno de ellos.
De ahí que el "disclaimer" que pueda aparecer en algunas respuestas de ChatGPT sobre sus propias "inexactitudes", debería ser un disclaimer que apareciera por defecto en todas sus respuestas, como complemento a la información que estuviera destacando.
Le pregunte si sabía cómo se afila el hacha en el juego "three weeks in the paradise", del año 1986 y del cual hay mil guías por Internet. Me dijo que buscara la piedra de afilar, objeto que no existe. Cuando le corregí, se inventó otra chorrada.
Le pregunté si conocía el juego o no, y me dijo que sí. Le dije que me dijera el nombre de 5 objetos que el personaje pudiera recojer, y de nuevo se inventó la respuesta.
Es una mierda porque simplemente podría haber dicho "no sé la respuesta", pero eso es algo que chatGPT parece no hacer nunca.
#0
www.meneame.net/story/chatgpt-comentando-comentarios/c012#c-12
Y es que como dice #7 es un modelo de lenguaje. Que sí, que puede tener mucha información, pero como su objetivo principal es generar texto, si no la tiene se la inventa o la altera para que encaje mejor en el texto.
En ChatGPT la forma está por encima del fondo.
Yo todavía no entiendo lo de la araña y la pecera.
Gila Vive!
Se disculpará por el error y se inventará otra frase.... Aunque lo que diga sea cierto.
Directamente niega la mayor (lo cual en sí mismo me parece un error en su "entrenamiento").
Con el argumento de que no puede "mentir", ya que sólo mezcla palabras que se vaya encontrando por ahí y que aparentemente puedan tener sentido para algunos (aunque en realidad no tengan sentido alguno porque las frases que forma tienen significados inciertos (vamos, que miente más que habla) )
Y luego al final destaca que si dudas de lo que cuenta, que busques en otras fuentes.
Vamos, que te lanza el "disclaimer" que indico en #1 únicamente cuando cuestionas lo que dice, corroborando la poca fiabilidad que indico en #6.
No obstante, veo positivo y sobre todo necesario este "disclaimer" en todas sus respuestas, y a ser posible en negrita y con letras más grandes que las que usa en la misma respuesta.
Al menos los desarrolladores mostrarán "buenas intenciones" con este software.
Bien es sabido por todos que las "condiciones de uso" que se aceptan al usar ciertas herramientas informáticas, el personal se las pasa por el arco del triunfo. Y aunque todos sabemos que este chat es claramente un "beta", la promoción continua que le están haciendo (y a mi modo de ver, a este nivel de madurez de la herramienta, injustificada), no se corresponde con las visibilidad de las obligatorias advertencias de inseguridad que proporciona en cada una de sus respuestas.
Aún así, la herramienta es prometedora, sin duda.
De todas formas, ésta es la respuesta a tu pregunta de GPT4:
"Three Weeks in Paradise" es un videojuego de plataformas de 1986 desarrollado por Mikro-Gen para ZX Spectrum y Amstrad CPC. No tengo información específica sobre la mecánica de afilar un hacha en este juego, ya que mi conocimiento se basa en datos recopilados hasta septiembre de 2021.
Dicho esto, es posible que no exista una mecánica de afilar hachas en "Three Weeks in Paradise", ya que es un juego de plataformas con un enfoque en la resolución de acertijos y la recolección de objetos en lugar de combate o mejoras de herramientas. En este juego, los jugadores controlan a Wally Week y su familia, quienes deben resolver acertijos y recolectar objetos para escapar de una isla desierta.
Si realmente necesitas afilar un hacha en el juego, te recomendaría buscar guías o recursos específicos para "Three Weeks in Paradise" que puedan haber sido creados por la comunidad de jugadores. También es posible que estés confundiendo este juego con otro que sí tenga una mecánica de afilar hachas.
¿qué te parece la mejora?
Y para la otra pregunta:
En "Three Weeks in Paradise", los jugadores deben recoger y utilizar objetos para resolver acertijos y avanzar en el juego. Algunos de los objetos que se pueden encontrar y usar en el juego incluyen:
Paraguas: Se puede utilizar para atravesar áreas con agua y evitar caídas dañinas.
Cuerda: Ayuda a escalar áreas de difícil acceso y a cruzar ciertas secciones del mapa.
Llave: Se utiliza para desbloquear puertas y acceder a nuevas áreas del juego.
Bote inflable: Permite a los personajes cruzar cuerpos de agua más grandes.
Hueso: Se puede usar para distraer a animales peligrosos, como cocodrilos, para pasar de forma segura.
Estos son solo algunos ejemplos de objetos que se pueden encontrar en "Three Weeks in Paradise". La recolección y el uso correcto de estos objetos son fundamentales para avanzar en el juego y completar la aventura.
¿ha mejorado?
Creo que intenta buscar la respuesta más aproximada en todo momento. Es decir, como no se " cómo se afila el hacha en el juego "three weeks in the paradise"", pues busco algo aproximado en sus registros de esa frase, que lo más así sería "cómo se afila el hacha".
Le pregunté si conocía el juego o no, y me dijo que sí. Le dije que me dijera el nombre de 5 objetos que el personaje pudiera recojer, y de nuevo se inventó la respuesta.
Entiendo que tendrá registros del juego, y de ahí la primera parte.
La siguiente, pues no se, conoce el juego > si, conoces la respuesta > no, soluciones aproximadas > buscar lo primero que encuentre.
NOTA: ¿cómo se puede probar estas cosas? ya me entra la curiosidad de ver si lo rompo. Por favor.
Si le preguntas por "¿Qué es un globo?" y nadie le "enseñado" que es un globo, no te sabrá responder.
Ahora, si le das datos de globos en cantidad, y luego le preguntas "¿cual es el mejor globo?", ahí te dará una respuesta en base al entrenamiento que haya tenido.
Prompt: Crea el argumento de un juego de ordenador, de plataformas 2D, de estilo retro, que contenga elementos que haya que localizar para resolver puzzles.
Describe el o los personajes, con sus características, habilidades e historia. Describe el lore importante del juego.
Luego describe cada uno de los niveles: temática, enemigos con sus características y habilidades y el jefe final de cada nivel.
Finalmente, describe la forma de puntuar, de obtener o perder vida y otras propiedades que quieras que tenga, y las formas de ganar o perder.
Respuesta:
Bueno, la respuesta es tan larga que creo que no puedo pegarla en meneame. Que me ha creado toda la temática y todo lo necesario para empezar a ponerse a programar.
En España se haría así. Por eso somos punteros en tecnología a nivel mundial.
De todas formas, gracias por la puntualización.