El magistrado del caso, P. Kevin Castel, reconoce encontrarse ante "una circunstancia sin precedentes", con un informe legal salpicado de referencias erróneas: "Seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias falsas". The New York Times detalla que ya ha fijado una audiencia para el 8 de junio en la que se discutirán las posibles sanciones.
|
etiquetas: abogado , chatgpt
No entienden que no piensa, que no hay inteligencia, solo un resultado estadístico.
Estoy viendo que la gente no lo hace y luego hay problemas
¡Nunca mais! palabrita del niño Jesús.
Es una buena herramienta para superar el pánico al folio en blanco o para generar código, incluso para desarrollar aplicaciones pequeñas de asistencia para el análisis de datos. Pero hay que verificarlo absolutamente todo. Aún así, es un booster de productividad alucinante.
Es evidente que este abogado, pensar pensar, tampoco ha pensado mucho, no?
Es como querer cruzar el atlántico con el avión de los hermanos Wright.
Yo le mandé hacer una tarea de bases de datos y cada vez que le ponía los errores que había que corregir reescribía el código con nuevos errores. Cuando el profesor dijo que para el examen podiamos usar internet para consultar pero nada de chatgpt, pensé: como alguno sea capaz de usarlo tiene el suspenso asegurado.
La versión del abogado es imposible y las referencias inventadas son 100% suyas.
Hasta que le dices que todo lo que dice es "bullshit" y que no tiene ni zorra idea de lo que escribe.
Entonces ahí te manda al disclaimer de verificar por otras fuentes si lo que dice es cierto.
No sé. Me extraña que el tío este no haya tenido ese disclaimer en ninguna de las respuestas de la IA.
Puedes crear un índice con chorrocientos mil documentos legales y sentencias y luego consultar ese índice con un modelo GPT, dándote resultados mucho más fiables, porque son basados en la infomación que TU le has dado.
Lo bueno es que los profesores tienen más fácil descubrir a los "lumbreras" que intentarán copiar después.
Esto es más como coger el Titanic, un buen barco, pero un exceso de confianza en el te lleva a un fracaso absoluto.
Más bien es como tener un compañero de trabajo con muy buena presencia pero totalmente imbécil al que le tienes que revisar todas las burradas para que la empresa no quede en evidencia.
Para temas "artísticos" (para cierto nivel bajo de criterio) no existe este riesgo y por tanto importa poco. Para conducir, programar o redactar recursos o sentencias, no vale tanto como nos quieren vender.
La prinicipal demostración de esto es que siguen existiendo coches no autónomos, y los programadores siguen programando ellos. Si fuese verdad lo que se promete, ambas profesiones ya apenas existirían en dos meses.
Aún así sigue siendo el primero.
Cuidado que con un 95% de probabilidad ese compañero acabará siendo tu jefe...
Lo que no recuerdo si era el gpt 4 a pelo o usando el plugin del browser.
Una vez entras una pregunta, la respuesta viene dada por esos valores. Lo que pasa es que como hay millones, se nos escapa lo que hace, pero no deja de ser una respuesta a una pregunta a través de una Red entrenada para dar estasisticamente una respuesta correcta.
Igual me puedo algo pero creo que es así.
Pero hablo de memoria, esto lo estudié en la carrera hace 20 años y puedo estar equivocado, tanto en fechas como en la cuestión matemática salvo en que una red neuronal no funciona como un sistema estadístico.