Un grupo de investigadores científicos del Centro Médico Beth Israel Deaconess compararon las capacidades de razonamiento de un modelo de lenguaje grande (LLM) directamente con el desempeño humano utilizando estándares desarrollados para evaluar a los médicos. Los resultados arrojaron pocas dudas: ChatGPT-4 superó a los residentes de medicina interna y a los médicos tratantes de dos centros médicos académicos en el procesamiento de datos médicos y la demostración de razonamiento clínico. Al contrario de lo que pueda parecer,es una buena noticia
|
etiquetas: ia , chatgpt4 , grupos de médicos , procesamiento y razonamiento clínico
Gracias por mostrarme que las máquinas traducen "median" como "mediana".
No me lo imaginaba, la verdad, ya que no significa eso y he comprobado en diccionarios que el significado que aparece es "mediana"... aunque un "diccionario" (WordReference) en último lugar (quinto o sexto) dice que a veces se usa con el significado de "media".
Probé en ChatGPT y me lo tradujo como "puntuación media de 10 sobre 10". Luego le dije que cuál es el significado de "median" y me dijo que es la mediana... Entonces le pregunté por qué en la primera respuesta tradujo "median" como "media" ... Y me contestó que tengo razón, que debería haberlo traducido como "puntuación mediana de 10 sobre 10".
Cc: #65 #28
Si has pensado una historia y has pedido a ChatGPT un brainstorming de ideas a partir del cual has ido refinando, ¿por qué no iba a tener "alma"?
Creo que el error es, de nuevo, considerar que el humano está a un lado y la IA al otro.
El problema es que a pesar de eso en otros contextos no hace eso bien. Porque no "sabe" nada.
Es un modelo de lenguaje