Una investigación revela que los sistemas de inteligencia artificial especializados en tareas lingüísticas como ChatGPT (Chat Generative Pre-trained Transformer) pueden generar artículos académicos fraudulentos que parecen reflejar investigaciones auténticas cuando en realidad se trata de embustes. Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas.
www.jmir.org/2023/1/e46924/
Irrelevante
Tampoco el resultado es el mismo. Si la IA alucina un dato y un humano lo usa, bien por ausencia de comprobación o bien porque pretende mentir intencionadamente... la IA no ha mentido, ha cometido un error o una alucinación. El que te ha mentido ha sido el ser humano utilizando esos datos. Creo que la diferencia es clara, pero no se si la estoy explicando adecuadamente para que se entienda.
Te recuerdo que la relación entre vacunas y autismo se fundamenta en un paper falso que se retracto al que aún siguen haciendo referencia para justificar el bulo.
Que seguro llegará, pero no todavía.
En cualquier caso, se supone que la revisión por pares está precisamente para evitar esto de lo que hablamos...
Me recuerda a mí hablando italiano.
Qué antes hubiese la posibilidad de que un mal científico hiciese algo así, no es comparable a que cualquiera con mala intención, caulquier humano, pueda hacer lo mismo ayudándose de un IA.
Creo que la importancia y la diferencia es sustancial.
Mentir es otra cosa.
Que ya lo que nos faltaba.