edición general
247 meneos
2344 clics
Estudio enfrenta a grupos de médicos con ChatGPT4 en procesamiento y razonamiento clínico. La IA superó a todos con una puntuación de 10

Estudio enfrenta a grupos de médicos con ChatGPT4 en procesamiento y razonamiento clínico. La IA superó a todos con una puntuación de 10

Un grupo de investigadores científicos del Centro Médico Beth Israel Deaconess compararon las capacidades de razonamiento de un modelo de lenguaje grande (LLM) directamente con el desempeño humano utilizando estándares desarrollados para evaluar a los médicos. Los resultados arrojaron pocas dudas: ChatGPT-4 superó a los residentes de medicina interna y a los médicos tratantes de dos centros médicos académicos en el procesamiento de datos médicos y la demostración de razonamiento clínico. Al contrario de lo que pueda parecer,es una buena noticia

| etiquetas: ia , chatgpt4 , grupos de médicos , procesamiento y razonamiento clínico
«12
  1. #4 Yo prefiero que me atienda un médico humano, y si además usa una IA como herramienta, pues mejor.
    Pero una IA o una máquina ella sola, sin la supervisión de un médico humano, NO GRACIAS.
  2. Uno de los caminos para solucionar la falta de médicos es la IA, no me cabe duda
  3. #20

    Hay un error de traducción en el artículo meneado.
    Y me parece que es error humano, ya que ese error no es el típico que cometería una máquina.

    He buscado artículos en inglés y dice:
    "a median score of 10 out of 10"

    Eso significa "una mediana de puntuación de 10 sobre 10". (o bien "puntuación mediana")
    El artículo dice "media", que es una traducción incorrecta.

    Efectivamente, una "media" de 10 sobre 10 solo se puede obtener con todo 10, lo que implicaría ningún fallo.
    Sin embargo, puedes tener una mediana de 10 teniendo fallos...

    Ejemplo:

    GPT-4: [6, 6, 10, 10, 10]

    μ = 42/5 = 8.4; Mediana: 10. Fallos: 8

    Médico1: [9, 9, 9, 10, 10]

    μ = 47/5 = 9.4; Mediana: 9. Fallos: 3

    Residente2: [7, 7, 7, 9, 10]

    μ = 8; Mediana: 7; Fallos: 10.

    Media de fallos humanos: 13/2 = 6.5 por cada grupo de 5 pruebas.

    Media de fallos GPT-4: 8

    La máquina tiene más fallos, pero mejor puntuación mediana.


    Nota1: tener una mediana mejor suele indicar que si tomas un examen al azar de cada uno, es más probable que el que tiene mejor mediana supere al otro.

    No sé si lo de usar la mediana es algo así como el procedimiento estándar r-IDEA para evaluar... o bien si es algo un poco arbitrario que han hecho a propósito en ese estudio para que la noticia resulte más impactante, más sensacionalista.

    Nota2: otra posibilidad es que la IA tenga "más errores individuales de razonamiento".
    Los ejercicios NO son solo dar un diagnóstico, en plan "el paciente tiene cáncer de colon", sino además de eso dar un razonamiento. Ejemplo: "El análisis de sangre indica alto nivel de ««bla-bla»» , lo que indica una alta probabilidad de cáncer de colon o de hígado. También el análisis de heces indica presencia de «bla-bla-bla» que indica alta probabilidad de cáncer de colon o de próstata"
    Es posible que GPT haya hecho 2 ó 3 razonamientos incorrectos en cada ejercicio fallido... y que los humanos solo uno en cada ejercicio, de forma que el total de razonamientos incorrectos de GPT sea mayor a pesar de tener mejor nota.
    Desconozco si el sistema de puntuación admite puntuar como correcto un ejercicio que de el diagnóstico acertado usando razonamientos incorrectos. Y en ese caso podría tener una puntuación de 10 con razonamientos incorrectos, solo por haber "acertado" los diagnosticos.


    Cc: #28 #0
  4. #4 Cierto. Y no pasa solo en medicina. En informática ni te cuento. El "Yo no he tocado nada" daría para escribir varios libros.
  5. #15, #39, creo que nos cuesta interiorizar que los modelos de IA que tenemos ahora no solo son los mejores que hemos tenido hasta ahora, sino los peores que tendremos de ahora en adelante. Que hoy se esté discutiendo si es mejor un médico humano o una IA significa que es muy probable que dentro de 10 años no haya debate en favor de la IA.
  6. Brutal la imagen hecha con IA dentro del artículo con esa paciente sin tronco superior... :-D
  7. #11 cuanto daño ha hecho Hollywood
  8. #6 "cuando llegué ya estaba así"
  9. #20 Porque el articulo lo ha escrito una IA.
  10. Pues verás cuando la IA juzgue mejor que los jueces.

    Por lo menos mejor que los españoles, y más rápido.
  11. #21 Si mi bolsillo me lo permite, mi salud es lo primero.
    O sea, que si puedo, prefiero médico humano + IA.
  12. #12 No olvidemos a Ojete Calor: youtu.be/QMgSELBA7kw
  13. #15 es más caro así, un humano vale una pasta. Imagino que la privada lo implantaría así a futuro.

    Si te dicen que solo ia en medicina y que te suman 100 euros al mes a tu renta universal, lo aceptarías?
  14. #52 En apenas un año y pico hemos visto cómo en las IAs que diseñan el discurso que se resiste que empezó tomándolas como un meme gracioso, pasó a hablar de sus fallos (como los muchos dedos) y a medida que se van perfeccionando están pasando al "pero los resultados no tienen alma".

    Un poco como una amante de la literatura que me decía que ChatGPT escribía cosas muy inocentonas y nunca podría ser un gran literato. Ya, sí, eso el ChatGPT 3.5 de 2023.
  15. #60, a medida que van viendo la batalla perdida todo ha terminado por pivotar entorno a la ética del entrenamiento, como si los seres humanos no aprendiesemos a través de ejemplos.
  16. ¿Alguien me puede explicar por qué saca una puntuación de 10 sobre 10, si el mismo artículo dice que la IA se equivoca a significativamente más que las personas? O hay algo que no estoy entendiendo, o no se explica bien, o no puede ser 10 sobre 10.
  17. #3 Muchos medicos no se rompen la cabeza y si hay un diganostico annterior lo asumen sin analizar nada mas y si pides unasegunda opinion es inutil porque no contrastan nada.
    Un chatgpt puede servir para que medicos inutiles pasen mas desapercibidos diciendo a todo que si.

    Las segundas opiniiones deberian ser a ciegas sin mirar el historial o el dignostico del medico anterior, para ver si la conclusion es la misma sin ver la anterior.

    Si a esto le suman la falta de tiempo para dedicar al paciente, coctel perfecto y no descartable que con ChatGPT se pida reducir aun mas el tiempo en consulta.
    Un medico que conozco, por otro lado competentes y muy dedicado al paciente,deberia tener ChatGPt para redactar los informes, porque con los dos deditos se eterniza un poco.

    #2 La automatizacion como los cajeros, puede servir para dejar mas tiempo a los profesionales para atender al cliente/usuario o para reducir costes y empeorar el servicio, porque la automatizacion puede resolver muchos problemas, pero no el 100% y las maquinas pueden hacer tareas concretas mejor incluso que profesionales, pero todavia no son tan versalites como un humano.

    No sé en el resto del mundo desarrollado, pero en España somos unos cutres y se busca lo barato a toda costa y la calidad es muy dificil que sea recompensada.
    old.meneame.net/story/la-ia-de-los-vagos

    #21 Muchas tecnologias no eliminan al humano del todo sino que permiten que puede hacer mas que antes.
    una IA podria hacer la entrevista, porque a veces a los pacientes les cuesta explicarse. Le puede dar el resultado de la entrevista con lo relevante. Incluso podria avanzar un diagnostico o varios.
    Esta primera fase me parece bastante inocua y puede ser una parte que puede ahorrar mucho tiempo al medico.

    #23 El problema es que el ahorro se la quedan empresas. Que es logico si han invertido. Como se pueder repartir el ahorro en tiempo y dinero? Tal vez haya que hacer cooperativas de IA que nos solucionen cosas.
    Tal vez un sindicato de pacientes puede usarlas para seleccionar medicos o avanzar diagnosticos o contrastar los resultados medicos.


    #65 deeplg traduce erroneamente aunque da la alternativa que dices que es correcta.
    www.deepl.com/translator#en/es/"a median score of 10 out of 10"
  18. #30 Me paso al que me dé mejores números, tanto si es médico + IA, como si es IA sola.
    Pero sin conocer los números, confío más, a priori, en médico + IA.
  19. #13, quien no haya cuñadeado nunca que tire la primera piedra. :-D
  20. #30 Eso me recuerda al médico de Subnautica (que ocurre miles de año en el futuro), lamentando que no puede curarse porque "lo único que aprendió en la facultad de medicina era a mentir convincentemente, porque las operaciones quirúrgicas las llevaban a cabo robots".
  21. #2 a mi si, al menos a corto plazo, house lo decía todo el mundo miente, y las ia actuales no detectan o sospechan sobre mentiras te dirán un diagnóstico si o si
  22. #2 Pero el siglo que viene y como los necesitamos a corto plazo, hay que contratar médicos.
  23. #37 "en mi docker funciona"
  24. #66 Toda la razón con la ética del entrenamiento, que además de absurdo como dices (ya que nosotros aprendemos igual) acaba siendo un abrazo reaccionario al Copyright.
  25. Como te den un diagnóistico cuñao.. verás...
  26. #5, de eso va el artículo, o cuñadean menos que los médicos humanos o los exámenes de evaluación están mal planteados.
  27. #18, mucha gente ve los avances en IA como una amenaza, un escenario en el que todo nuestro trabajo pueda ser sustituido por IAs y robots se ve como una distopía, en realidad esto habla muy mal del sistema en que vivimos, que nos ha hecho asumir que hay que vivir encadenados a un trabajo sí o sí para no morirnos de hambre.
  28. #97
    Gracias por mostrarme que las máquinas traducen "median" como "mediana".
    No me lo imaginaba, la verdad, ya que no significa eso y he comprobado en diccionarios que el significado que aparece es "mediana"... aunque un "diccionario" (WordReference) en último lugar (quinto o sexto) dice que a veces se usa con el significado de "media".

    Probé en ChatGPT y me lo tradujo como "puntuación media de 10 sobre 10". Luego le dije que cuál es el significado de "median" y me dijo que es la mediana... Entonces le pregunté por qué en la primera respuesta tradujo "median" como "media" ... Y me contestó que tengo razón, que debería haberlo traducido como "puntuación mediana de 10 sobre 10".


    Cc: #65 #28
  29. #4 Se puede programar una IA para que sopese que se haya dicho una mentira también, usando exactamente los mismos criterios que empujan a un médico a pensar que les están mintiendo.
  30. #15 Que te atienda una IA supondrá, a parte de un porcentaje de acierto en el diagnóstico superior a la media humana, la atención prácticamente inmediata.
    Si actualmente, supongamos que te preocupa un lunar con mala pinta, tendrás que esperar unos 3-5 días para que te den cita en el médico de cabecera, y que luego tras estar esperando una hora en sala de espera, este te atienda y te derive al dermatólogo en 3 meses, quizás 6 meses o más en algunos casos.
    En el caso de la IA en el mismo momento que te preocupe podrías tener diagnóstico, y con la seguridad de que no le vas a pillar cansada, estresada, olvidadiza, etc (como le puede pasar a cualquier profesional humano).
    La necesidad de implementar las IAs en el sistema de salud cada año se verá más urgente.
  31. #21 Si te da un cáncer, quién o qué prefieres que te dé la noticia?

    No olvidemos que la IA se alimenta del conocimiento generado por humanos. Sin ellos, no es nada. Quedarse solo con la IA paralizaría el avance de la ciencia medica y convertiría una enfermedad hoy incurable en permanentemente incurable.

    Como herramienta de apoyo vale, pero como sustituto como que no.
  32. #78 Ya, a mí me pasó igual, desde que le pregunté a mi sobrino de 4 años y no se sabía bien el abecedario decidí que era idiota, ahora tiene 25 y una ingeniería, pero a mí no me engaña, que se le vio el plumero
  33. #1 ChatGPT: este hombre está muerto.
    Médico: espera… (le toma el pulso, le da un golpecito en la rodilla, consulta apuntes) ¡Es cierto!
  34. #1 ¿Dónde habrá visto la IA cuerpos desmembrados?
  35. #2 Bueno En EE. UU. , ya desde el Doctor Watson, no están pensando precisamente en solucionar la falta de médicos, sino en darles una patada en los huevos porque las aseguradoras tienen que pagar auténticas burradas por casos de negligencias médicas.
  36. #1 están haciendo el truco del serrucho xD
  37. #8 No es por pagar las negligencias de los medicos. Es para gastar menos y ganar más dinero.
    Ese tipo de basura subhumana funciona así.
  38. #60 Bueno, y además me puede parecer bien aceptar que los humanos a lo mejor tenemos una creatividad distinta o "alma" a la hora de crear arte subjetivo, pero vamos, es que también es tener unas expectativas absurdas, a mí sinceramente con que sean fiables con las cosas objetivas como las ciencias, en éste caso los diagnósticos médicos, me parece ya un avance brutal
  39. #39 Eso es, s la hora de programar ahorra tiempo, pero como no sepas lo que estás haciendo y le des tú la forma final estás jodido, pues con ésto igual, te sirve de primera aproximación al problema, te ahorra el 90% del tiempo y tiene datos que tú seguramente no tengas o no recuerdes, pero ls Ultima palabra tiene que ser de un profesional
  40. #31 en España no se. En Centroeuropa faltan, y muchos
  41. #8 Y si la negligencia la comete una IA quién paga?
  42. #34 #31 Os confirmo yo que faltan, faltan muchísimos.
  43. #32 A mi me vale cualquier cosa excepto lo de ahora, que te atienda un enfermero o enfermera sin IA , porque no se contratan suficientes medicos.
  44. #2 ¿Seguro que hay falta de médicos? ¿O es más una razón económica?
  45. #9 Entonces es mi comentario el que merece el título de cuñadez xD
  46. #36, entonces tenemos que rehacer la forma en que evaluamos los conocimientos de los estudiantes de medicina.
  47. #54, si la IA saca mejores notas que los seres humanos en los exámenes para evaluar el grado de conocimiento en una área en concreto, o asumimos que estos exámenes no son válidos para evaluar el conocimiento o asumimos que la IA tiene un grado de conocimiento similar al de los expertos en cada campo en que lo logre. No hay muchas más opciones desde el punto de vista científico.
  48. #73, es que un examen que se base en repetir como un loro es una basura de examen. Espero que mi vida nunca dependa de un médico que ha sido evaluado en pruebas que consistan en repetir como un loro y confio que en las facultades de medicina no se hace así. Por eso digo, que fijémonos en cómo se evalua a cada experto de distintas áreas del conocimiento y evaluemos de la misma manera a los modelos de lenguaje y luego comparemos los resultados, si estas pruebas se basan en razonar en lugar de repetir como un loro, si tu tesis de que los LLM no tienen capacidad de razonar deberían sacar un 0. ¿O se te ocurre otra forma mejor de poner a prueba el grado de conocimiento de estos modelos?
  49. #81, lo que a ti te demuestre puede ser muy interesante para tus vivencias subjetivas, pero debemos pensar en algo medible, cuantificable, replicable y comparable para llegar a esta conclusión de forma científica, no crees?
  50. #88, vale, vamos acotando, ahora ya voy entendiendo a qué te refieres. Le he preguntado a GPT-4 y me dice que no. ¿Significa que razona o movemos la portería? :roll:  media
  51. #94, si me dices exactamente qué le preguntaste para que te respondiese esto estaré encantado de probarlo.

    Y cuidado, no digo que no falle, lo que digo es que cada vez falla menos. GPT-4 falla mucho menos que GPT-3 y a la vez falla mucho más de lo que fallará GPT-5, en eso se basa el progreso técnico científico, en lugar de decir "esto falla aquí y por lo tanto es un 0", en intentar hacer cosas cada vez mejores, en el caso de las IAs hacerlas cada vez más inteligentes, por eso necesitamos métodos de evaluación objetivos y comprobables no opiniones personales como la tuya o como la mía que aunque valiosas pueden estar sesgadas.
  52. #90, sí, pero este no es el punto, yo me refiero a si es legítimo o no tener que pedirle permiso al autor de una obra para que se pueda entrenar con ella, eso no tiene nada que ver con el potencial destructor.
  53. #94, por cierto ahí va otra prueba, le he preguntado si es múltiplo de dos números arbitrariamente grandes y lo ha hecho bien. Una de dos, o en el dataset de entrenamiento está la frase literal sobre si es múltiple o no de todos los números imaginables para que pueda copiarla como un loro cuando le haces la pregunta, cosa que es evidentemente absurda o realmente sabe como utilizar el modulo de cálculo para hacer la operación y responder a esta pregunta correctamente. :roll:  media
  54. #102 GPT se entrena con textos de internet y tambien siendo corregido por personas que se dedican a ello. Tal vez a aprendido eso mal de una persona, No se si derivan a especialistas estas cosas, para evitar que cometan errores de persona comun.
  55. #108, el problema es que no te das cuenta de lo diferente que es un programa que está hecho por un programador para realizar una tarea en concreto, de un modelo de lenguaje que puede hacer esto o escribirte un poema sobre como sería un ordenador fabricado en la época romana. No es difícil hacer un programa que sólo está hecho para comprobar si un número es múltiplo de otro, el punto de inflexión es la capacidad de hacer tareas tan distintas y generales, para las cuales no se ha programado explícitamente que exhiben los modelos de lenguaje.
  56. #109, habrá respuestas que tengan lógica y otras no, la cuestión es que cada vez haya menos respuestas sin lógica cuando le hagas preguntas. O es que los seres humanos jamás respondemos cosas ilógicas? Nos echamos a la paperera cuando esto pasa? Pues eso.
  57. Esa misma efectividad para curarnos la tendrá para exterminarnos cuando se descontrole y tome consciencia de si misma.
  58. Al fin las carreras médicas en Estados Unidos bajarán un 90%! (O no?)
  59. #9 Me inclinó por lo segundo. Obtuvieron solo lo que buscaban obtener
  60. Al final el estudio apunta creo que a lo que vemos cuando utilizamos ChatGPT de manera profesional:

    Sin embargo, no todo fue perfecto para la IA. En el estudio se encontró que el chatbot también estaba “simplemente equivocado”: tenía más casos de razonamiento incorrecto en sus respuestas, significativamente más a menudo que los residentes, encontraron los investigadores.
    Dicho de otra forma, el hallazgo subraya la noción de que la IA probablemente será más útil, al menos en el corto plazo, como herramienta para aumentar, no reemplazar, el proceso de razonamiento humano.

    No, no te va a sustituir. A veces va a acertar cojonudamente, pero no lo dejes en sus manos, necesita de un supervisor.

    Programando ha sido genial pasarle un código de 100 líneas para que me haga un resumen e hincarle el diente, y pedirle ayuda para modificarlo o para ver que está mal. Pero como lo dejes solo en sus manos y no sepas qué hacer, no te va a servir de nada.

    En esta línea y en respuesta a #35, si la negligencia la comete una IA tiene que pagar quien debiera haber puesto mecanismos de supervisión.
  61. #45 No, entonces hay que hacer las cosas bien en lugar de operaciones de marketing
  62. #39 Exacto. Tengo la misma experiencia
  63. #52 No, no "se está discutiendo", simplemente hay algunos haciendo márketing
  64. #67 La IA tiene un "grado de conocimiento" 0.

    Repetir como un loro no es conocimiento, aunque se hagan pequeñas variaciones sobre lo repetido.

    Quien tiene un "grado de conocimiento" mayor, tú o la Wikipedia?
  65. #79 No tienen ninguna capacidad de razonamiento. Y me lo demuestran todos los días
  66. #84 No hombre. Algo que te dice que 81 es múltiplo de 8 sin despeinarse, mucho no razona....

    Es obvio que no es una respuesta a una pregunta directa, pero ahí está de todos modos.

    Eso no es una "vivencia subjetiva"

    Si, chatGPT.
  67. #92 No hombre. No es una pregunta directa.

    Simplemente fué parte de su argumentación de la respuesta. Y como eso mil. No tiene ningún problema de decir una cosa y la contraria en la misma frase.

    Tú imagen demuestra que en realidad no "sabe" lo que dice. Es un excelente modelo de lenguaje con una buena base de datos de internet.

    Podrían por lo menos aplicarle un motor de inferencia lógica que existe desde hace 50 años para que no diga estupideces tan a menudo.
  68. #24 no te digo ya cuando gobiernen... Aunque esto nunca lo permitirían.
  69. #89 De todos modos es que lo de "lo que produces con IA no tiene alma" asume que solo le has dado al botón. Yendo al extremo contrario a "darle al botón", si has entrenado LORAs para hacer personajes coherentes con Stable Diffusion y has ido haciendo distintas poses y haciendo yoquesé, un cómic, ¿por qué no iba a tener "alma"?

    Si has pensado una historia y has pedido a ChatGPT un brainstorming de ideas a partir del cual has ido refinando, ¿por qué no iba a tener "alma"?

    Creo que el error es, de nuevo, considerar que el humano está a un lado y la IA al otro.
  70. #98 Uau. Que impresionante. Hace algo que hace cualquier programa desde que se inventó la.programación.

    El problema es que a pesar de eso en otros contextos no hace eso bien. Porque no "sabe" nada.

    Es un modelo de lenguaje
  71. #95 El problema no es que "falle". El problema es que da respuestas sin coherencia lógica
  72. #111 Eso denota que no hay inteligencia detrás. Que las respuestas sean erróneas es "disculpable", que la respuesta no tenga coherencia lógica, no.
  73. #110 Se ha programado el modelo de lenguaje. El lenguaje es la base de todo, y por eso da "sensación" de inteligencia
  74. #1 material para tus pesadillas
  75. Al contrario de lo que pueda parecer,es una buena noticia

    ¿cómo que al contrario de lo que pueda parecer?! :-S :-S :-S
  76. La IA no recomendó la copita de vino en la cena o las galletas con grasa de palma en el desayuno?
  77. #15 Eso mismo dije yo el otro dia.Como apoyo vale, pero no como único recurso y quien toma la decisión....
  78. El elefante en la habitación. Por fin empieza a salir a la luz. Los médicos tienen los días contados (no los cirujanos). ¿Qué hace un médico?

    - Pide pruebas
    - Analiza los resultados
    - Genera un tratamiento.

    Con el tiempo...

    - Más pruebas.
    - Más resultados
    - Continuar/cambiar tratamiento.

    1+1... 7
  79. Titular "jugosito" (como no), luego lees el artículo y ves que no es para tanto.

    Lo malo de todo esto es que mucha gente se queda en los titulares y acaba teniendo una perspectiva del tema que no coincide con la realidad.
    Con este tema y casi que con todos, los medios de información se han convertido en medios de exageración, todo se amplifica en una dirección u otra para poder captar la nula capacidad de atención de su audiencia.

    No queremos informarnos, queremos "sentir algo"
  80. #8 Como si las IA no se equivocaran xD Si todas ponen bien clara la advertencia de que no te tomes muy en serio sus soluciones.
  81. Con el nivel tan bajo que he visto en la medicina española creo que hasta Alexa puede superar el nivel de los médicos que conocido.
  82. #78 para cuñao tu comentario, vaya tela. No te puedes fiar de que te cuente datos históricos porque alucina, pero para el resto de cosas es acojonante.
  83. Yo sigo enganchado al Dr. Sbaitso. Ese sí que sabía.
  84. #22 Si en el futuro los pacientes atendidos por IA mueren/padecen un 25% menos te pasarías a IA?
  85. #3 dale la vuelta, que el que lo que ha hecho la IA es a una persona sin pertenecer superior.
    La IA sería la que diría, a ver el pulso = no hay pulso... respira: no se sabe = no se puede derminar si esta vivo o no, temperatura 35 = hipotermia. Resultado:

    Si una persona no tiene pulso, no se puede determinar si está respirando y su temperatura corporal es de 35ºC, es crucial actuar rápidamente:

    1. Llamar a los servicios de emergencia: Marca el número de emergencia de tu país para solicitar ayuda médica inmediata.
    2. Comenzar la RCP (Reanimación Cardio Pulmonar): Si estás capacitado para hacerlo, inicia la RCP, que incluye compresiones torácicas y ventilaciones. Si no estás capacitado, sigue las instrucciones del operador de emergencias telefónicas.
    3. Abrigar a la persona: Cubre a la persona con mantas u otro material para mantener su temperatura corporal.
    4. Permanece calmado y sigue las instrucciones del operador de emergencias hasta que llegue la ayuda médica.

    Es vital actuar con rapidez y precisión en situaciones de emergencia médica como esta.
  86. #7 En Gaza.
  87. #1 CuñaoGPT4 ahora también sabe de medicina, como no.

    Yo desde que conseguí que me asegurase que el Celta había ganado dos copas del Rey dejé de perder el tiempo con ese tamagochi del siglo XXI.
  88. Errónea o sensacionalista. ChatGPT es un modelo predictivo de lenguaje, no razona de ninguna manera. Sólo te saca la palabra más probable a continuación de la anterior, según su configuración y el contexto.
  89. #83 esta claro puede darte un abanico de opciones...
  90. #85 básicamente he puesto una respuesta de ChatGPT. Asi que si no tiene sentido, apuntaselo a ChatGPT
  91. Iba a pasar esta notícia a mis compañeros, ya que es un tema que me interesa mucho y del que hablamos habitualmente, pero son autores israelíes. Ahora mismo merecen el aislamiento total, y mucho más.
  92. #106 No te puedes fiar de nada en absoluto. Es un auténtico bluf. La tontería de la década. Ya pasará.
  93. #82 Hazle una prueba en la cena de Navidad. Si sale con los chemtrails, qué Perro Sanxe está secando los pantanos, qué los extranjeros vienen a robarnos el pan o no puede ir porque está preocupado con que le okupen la casa es que está al nivel de CuñaoGPT.
  94. #4 si es solución a corto imaginate a medio o largo!
  95. Ahora que lo repitan con CLIPS, ese lenguaje de sistemas expertos :roll:
  96. #29 "Era mi primerito día"
  97. #33 También dramatizaba demasiado porque realmente decía que le habían contratado un poco sin tener en cuenta su formación porque en subnautica parece que hay médicos con conocimientos prácticos y consultores sanitarios que saben de papeleo que es lo que denuncia el tío, que él de leer diagnósticos muy bien pero que los que sabían hacer cosas eran los de la especialidad de al lado.
  98. #24 El problema no está en los jueces o no siempre... Sino en las leyes.
  99. #24 jajaja, eso no lo van a implementar nunca, a no ser que puedan crear una IA Castellón.
«12
comentarios cerrados

menéame