edición general
166 meneos
1558 clics
El primer abogado robot de la historia debutará en un juicio en febrero

El primer abogado robot de la historia debutará en un juicio en febrero

La 'app' de Do Not Pay asesorará a un usuario en tiempo real para defenderse de la acusación, de acuerdo con 'New Sciencist'.

| etiquetas: abogado , robot , juicio
  1. Debutará en un juicio, pero únicamente para recurrir multas de tráfico.
    Vamos que no es para hacer de laudo arbitral entre dos multinacionales, pero es un comienzo.
    Lo ideal sería que fuese el juez el que debutara como bot. Quizás tendriamos una justicia más justa.
  2. Yo preferiría al clásico hiperpollo de provincias.
  3. El abogado que tengo aquí colgado.
  4. #1 """Quizás tendriamos una justicia más justa."""

    No, simplemente diríamos que no funciona.

    Igual que cuando ChatGPT sacó a relucir todas las incoherencias del feminismo español, y simplemente los usuarios de Menéame tiraron la noticia. (Mientras subían chorradas a favor o en contra de Irene Montero de mucha menos calidad.)

    La IA no puede superarnos en nada donde quienes tengamos que evaluar su desempeño seamos los humanos.
  5. #1 te recomiendo leer todo el asunto de algoritmos judiciales de Propublica: www.propublica.org/article/machine-bias-risk-assessments-in-criminal-s
  6. #5 Denis, de verdad que discernir si tus alegaciones acerca de una multa de tráfico son admisibles o no, necesitamos que un tipo estudie un grado de derecho y oposiciones a juez? Creo que te coges la ley y la aplicas, si se ajusta o no, no creo que sea tan difícil. Vamos que tú y yo no somos superdotados y seriamos capaces de hacer esa labor. Al menos en ese tipo de juicios del que estamos hablando.
    Y por cierto, ChatGPT, lo estoy probando y te puedo asegurar que es para conversar y tratar textos, en el momento que usas como base de datos falla. Hasta yo le supero, y no me considero precisamente especial.
  7. #7 Pues habrá de todo, no siempre las cosas son blancas o negras.
  8. #5 xD

    que obsesión
  9. #4 Éste lo tendrá USB. :troll:



    El pendrive :-| .
  10. #4 El abogado que tengo aquí enchufado
  11. #8 se llama jurisprudencia.
  12. #_5 ¿pero qué inventas?
  13. Primero las Real Dolls y luego los abogados, algo tendrán en común
  14. Espero que no lo acusen de Delito de Transbordo, aunque en Menéame conseguimos crearlo. :-P
  15. #1 juraria que una amiga abogada me conto hace muchos años que ya los habia visto funcionar en un juicio......

    i.imgur.com/PTdCNBB.png

    www.larepublica.co/software-de-jpmorgan-reduce-segundos-360000-horas-d
  16. #6 de hace casi 7 añazos... Al ritmo que se desarrolla ésto, es como leer un libro de medicina de hace 70 años.
  17. Me llamo C3-PObogado y el usb lo tengo aquí colgado.
  18. A ver para cuando un traductor texto legal - humano. Ese lo petaría.
  19. No durará nada. Sus sentimientos y empatía la pondrán en desventaja con respecto a los abogados humanos :-D
  20. Todo lo que no sea empezar con un «Ebrios patanes del jurado» será una absoluta decepción
  21. #20 En ese caso los textos legales se publicarían a mano con letra de médico. Leí una vez, puede que fuera en un libro de Tomas Szaz, que los médicos tenían buena letra cuando hacían recetas en latín, para que no les entendieran los pacientes. Cuando les obligaron a hacerla en una lengua viva, empezaron sorprendentemente a tener la peor letraja del mundo
  22. ¿Nadie se ha preguntado que va a ser de todas esas personas que van a ser sustituidas por la IA? Porque las máquinas no cotizan.
  23. #1 El día que una IA sepa manejar los embustes necesarios para ganar un juicio, más vale que nos busqemos un refugio en la montaña.
  24. Me imagino al próximo abogado en ChatGPT, con toda las bbdd de jurisprudencia en su conocimiento :-D ... además del código penal, código civil, etc. :-D - Va a ser más divertido que ver a DeepBlue ganando a Kasparov.
  25. #1 Pues sí. Así lo están demostrando las máquinas. Son parciales, reconoce las leyes sin equívocos. E igualmente las sentencias según las leyes establecidas. El error sería mínimo. Serían parciales y objetivos.
  26. #27 Quieres decir Imparciales. Si fueran parciales, elegirían en favor de un bando u otro.
  27. Para esos casos viene bien un infiltrado en la sala con un jammer que le corte la señal a la app. Ganas los juicios por incomparecencia del abogado defensor. :troll:
  28. #1 Si la IA "comprende" las leyes, ten claro que se verían todas las cloacas legales y que no habría juicio que perdiese, pero lo mejor está en que se vería la intención de los que han creado que leyes, cuando y porqué, que suelen camuflar con excusas y sobornos, a una IA no la puedes comprar o atemorizar, no puede mentir, y un modelo de lenguaje creado con el código civil y el código penal sería un primer paso para conseguirlo.
  29. #5 Ostia puta, hay tantas absolutas gilipolleces en lo que estas diciendo que se verdad me has desmontado hasta las ganas de rebatirte, es que no hay un sitio por donde coger semejante despropósito, felicidades creo que es difícil hacerlo peor
  30. #18 es un tema, no solo es esa entrada. Se corta en 2018 en Propublica ya que en ese momento se funda themarkup.org/ por el grupo de investigación de Propublica pero ahí ya cambia bastante la postura de investigación.

    Por cosas como esa investigación salen leyes como ésta: diariolaley.laleynext.es/Content/DocumentoRelacionado.aspx?params=H4sI
  31. - Y tú que haces aquí?
    - Mi abogado la cagó y me metieron 5 años.. cómo has dicho que te llamas?
    - Jonny Dedos, mi abogado se reinició y ahora me pasaré 12 años a la sombra.
  32. #31 Pues siento mucho que pienses así. Supongo que es culpa mía por comentar varios asuntos relacionados y polémicos.
  33. #30 el que compra el algoritmo manda y el que más recursos tiene manda más. Ver #6 y #32.
  34. A cualquier cosa le llaman robot. Se tratará de un programa, un algoritmo que identificarà ciertas palabras y realizará una búsqueda filtrada en una base de datos, aportando unos textos resultado, que concatenará según unas normas gramáticas y una cierta lógica establecida. De esto a ser "inteligente" y suplir a los profesionales hay un mundo. No se avanza tan rápido en IA como muchos medios quieren hacer creer.
  35. #35 sobre el sesgo de la máquina hay que dejar claro que la máquina, el algoritmo no puede estar sesgado, esos algoritmos tendrían que ser de código abierto, para que los demás puedan comprobar la integridad con testeos. Si la máquina está sesgada es por que o la han sesgado con el corpus que sería una copia de la sociedad o el sesgo que haya introducido el programador creando un modelo de lenguaje moldeado al gusto, en el caso que se cita #6 no es la IA la que está sesgada, esta solo confirma que es la sociedad quien lo está contra los negros.

    No se puede patentar algoritmos que estén relacionados con la vida o la supervivencia de la vida, con la sociedad o sus integrantes, no es permisible de manera alguna. Como las leyes nos atañen a todos y es de dominio público es lógico que se prohíba el ánimo de lucro ya que es poner precio a una de las herramientas necesarias para los ciudadanos y la sociedad.
  36. #7 Depende de qué clase de multa y de sus circunstancias. Lo de "te coges la ley y la aplicas" es parecido a un "Calcular la tensegridad de un puente es sencillo. Te coges la fórmula y la aplicas. No necesitamos ingenieros de estructuras".
  37. #1 Depende de quien lo programe. Si es el mismo que hizo el Windows Vista (judicial) estamos jodidos. :troll: :troll: :troll:
  38. #1 No creo que un juez bot fuese más justo, necesariamente. Voy a contar una batallita a ver si se ilustra lo que quiero decir:

    Cuando trabajaba como abogado para un gran banco, una de las rutinarias tareas que tenía era responder a ciertas reclamaciones; todos teníamos un cupo diario que atender. En concreto, como se me daba muy bien, me pusieron a cargo del hipotecario cuando el boom del IRPH. En las reclamaciones vía Banco de España podíamos tener cierto criterio propio, pero en las primeras fases se trataba solamente de mirar su tipo de interés y en función de cada uno responderle denegándole, ofreciéndole una novación u otras alternativas.

    Era aburrido, burocrático y nada creativo. Así que lo primero que hice fue diseñar una macro de Word, y después con la ayuda de los de IT desarrollamos una especie de aplicativo: simplemente el abogado iría marcando ciertas casillas, A, B, C o D, añadiendo las variables 1, 2, 3, 4 en cada caso, y el documento de respuesta se generaría automáticamente. Fácil, rápido y sencillo.

    Creí que con eso las horas que dedicaba al día a esa tarea se reducirían a minutos y podría dedicarme a cuestiones más enjundiosas. Pero no, al contrario: si antes para sacar 20 le dedicabas tres horas, ahora sacarás 200. Las mejoras de productividad no te sirven para tener más tiempo sino para que te metan más trabajo. Terminamos echando más extras que antes, pero eso no es el tema.

    Lo que me mosqueó es que gente del equipo empezó a usar ese programa de forma indiscriminada. Comprensible, por otra parte: teníamos el mismo tiempo para hacer diez veces el trabajo de antes, no nos podíamos detener tanto.

    Hablo de solicitudes que nosotros calificábamos como sensibles. Hijos discapacitados. Violencia doméstica. Despidos tochos. O a veces simplemente al leer la reclamación te daba un nosequé en el corazón y decías: dentro del escaso margen que tengo, voy a echarle un cable a esta persona.

    Mi sistema se había convertido en un absoluto hijo de puta. Los abogados de plantilla ni siquiera se leían las reclamaciones: leían el final, qué querían, lo cotejaban con el tipo de interés de referencia y se autogeneraba la respuesta. Y así, con ese sistema absolutamente imparcial y ecuánime, salían las respuestas como churros... aunque nos escribiese una madre leucémica suplicándonos por una moratoria.

    Así que sí. Un sistema justo, según lo que consideres. A todos lo mismo, independientemente de sus circunstancias. Misma prioridad, misma urgencia, misma gravedad y misma respuesta a un padre enfermo que suplica un hogar que al fulano que solicita una rebaja de su cuarta casa en la playa.

    También un sistema inhumano, ciego y malvado, que a saber cuántas vidas ha jodido por el camino.

    Ojo con el concepto de justicia.
  39. #5 ¿Qué incoherencias del feminismo? ChatGPT te puede poner a Rafa Nadal como defensor del nacionalismo gallego y argumentártelo, como puso aquí un meneante. El catedrático Jacobo Dopico compartió cómo le preguntó a ChatGPT por un delito inexistente y la IA le respondió con una parrafada muy convincente.

    ¿Y ChatGPT es tu argumento de autoridad?
  40. #5 #41 A ver, que ayer mismo ChatGPT me hizo la sinopsis de un capítulo de los pitufos en el que viajaban a una Gotham alternativa en la que Bruce Waine era un detective pacifista sin traumas infantiles... No sé yo...
  41. #37 Si es una red neuronal entrenda en realidad no hay algoritmo y es una caja negra casi imposible de descrifrar.
    Tambien son dificiles de testear, hay un Algo de ordenacion que es por IA, a funcionado en todos los casos, pero no se sabe si funcionara siempre, porque no se puede comprobar matematicamente como los pasos de un algoritmo.

    La IA tambien se equivocan, identifican como mujer un señor con delantal en una cocina o una pareja de negros con cesped detras como gorilas o monos.

    #40 Las mejoras de productividad no te sirven para tener más tiempo sino para que te metan más trabajo. Terminamos echando más extras que antes, pero eso no es el tema.
    En otros casos cuando has conseguido reducir el trabajo por el que te pagaban, te echaban, en meneame se muestran muchos ejemplos.

    Yo creo que las maquinas tambien pueden desarrollar la etica, pero hay que entrenarla, por otra parte es debatible y no todo el mundo piensa lo mismo. En muchas ocasiones tienes que decidir entre dos soluciones malas y nunca te van a satisfacer.

    Una maquina o nuevo sistema va a cometer nuevos errores que antes no se cometian, pero a veces lo compensa con lo errores que corrige.

    Por ejemplo, un coche autonomo puede fallar en cosas que un humano no y no fallar en las que un humano si.

    Por otra parte, la empresa a usado esa productividad para producir mas cantidad. Tambien se podria usar el tiempo libre de los casos rutinarios para dedicarlos a los que necesitaban tiempo no automatizado o una mezcla de ambos.

    Hay una ley que no recuerdo, referido a la energia, pero viene para tu anecdota.
    Que cuando aumenta la eficiencia, no se reduce el consumo, sino que aumenta los usos y se acaba gastando mas.
  42. #40 Me ha gustado la batallita me ha parecido interesante.
    Pero solo decir que si era un sistema más justo. Antes os dejabais influir por las circunstancias con el nuevo sistema solo importaban los hechos es decir los números.
    Se dice que la justicia debe ser ciega.
  43. #40 Hace tiempo hoy de un wiki para desarrollar estrategis de defensa, etc. En derecho no solo hay que saberse las leyes tambien esta como se expone el trabajo. En un wiki colaborativo hay muchas cabezas que pueden aportar ideas y casos parecidos que se pueden reutilizar argumentos.

    Ahora se le podria pedir a un GPT, igual que un escritor para tener ideas, pero ya seria un buena ahorro de tiempo que solo haya que supervisar y corregir un texto generado a que ademas haya que escribirlo.

    Tambien para hacer resumens de casos de miles paginas, no se como se leen eso o si se lo leen todo.

    Hay gente que es capaz de leer paginas en segundos, pero no creo que sean muchos entre los jueces.
  44. #42 Mmm... Supongo que quieres decir que como se inventa cosas, en ese caso que mencioné igual no estuvo muy acertado. Pero en realidad sí lo estuvo, y cualquiera puede comprobarlo.
    Lo que no entiendo es por qué mi comentario ha cosechado tantos votos negativos. Realmente hay mucha obsesión con Irene Montero en esta página, y eso hace que envíos de poca calidad relacionados con ella obtengan una difusión exagerada. ¿A quién puede molestarle que se hable de ello?
  45. #41 """¿Qué incoherencias del feminismo?"""

    ¿No leíste el artículo/entrevista? Era bueno.

    """¿Y ChatGPT es tu argumento de autoridad?"""

    No hay argumento de autoridad, porque no estoy diciendo que el artículo fuese bueno por haberlo redactado ChatGPT.
  46. #43 En principio se está creando una caja de arena para testear inteligencias artificiales para el uso de la UE: data.consilium.europa.eu/doc/document/ST-15698-2022-INIT/es/pdf
    No hay nada propiamente técnico si te ibas a animar a leer el documento buscando eso, sólo 30 millones de multa por incumplir esas normas que apuntan esta propuesta.
  47. #1 En la serie de abogados The Goog Fight sale en varios episidios empresa montada por dos jóvenes que alimenta un algoritmo con sentencias antiguas de jueces y predice que fallará en juicios futuros. Eso les permite estimar el riesgo que se corre al prestar dinero para su defensa a encausados y las posibilidades de tener una sentencia a su favor. Tiene pinta de que algo asi funcionará o está funcionando ya.

    De hecho ahora mismo cuando un juez español emite una sentencia "polémica" y buscas su nombre en Internet ves que apuntaba maneras en sentencias anteriores.
  48. ... y si debuta contra el primer fiscal robot?, que debatan por USB... esto es absurdo
  49. #40 Me ha gustado que hayas comentado todo lo que se monto con un Macro de Word. Sí, conozco abogados que tienen trozos de texto preparados y simplemente copian pegan.
    Además en un juicio europeo es repetir articulos, agregar documentos, alegar por qué si o no y el juez se lo estudia.
    Cuando haces un pliego de descargo por una multa de tráfico, creo que tienes un margen muy pequeño.
    PasaPollo, no creo que puedas alegar que tengas leucemia, violencia domestica, etc. Tienes un argumento para justificar que no te apliquen la ley se seg.vial o no.
    Mira hay un juez americano muy mayor, que sale continuamente reelegido, que de vez en cuando sale en internet porque hace sentencias poco comunes o absuelve. Creo que está el caso de un señor de 80 años que llevó a su hijo a quimio y se pasó un Stop. Finalmente le absolvió. Dudo que esto pueda suceder aquí. Una vez que tengas el boletin de la denuncia, estás perdido.
    Aquí no estamos hablando de politización de la justicia ni nada. No sé si el sistema de elección de jueces de primera instancia nos vendría bien aquí.
    Por otro lado, si todos los jueces son iguales, no hay motivo para acudir a una siguiente instancia. Porque siempre van a fallar de misma manera, no? Ese es el problema que yo pretendo evitar. Si es un bot, no hay ni amiguismos, ni mejores o peores jueces.
  50. #44 Hm, pues yo no estoy de acuerdo. La equidad es un fundamento de la justicia, al igual que los principios generales del derecho. Lo justo es también, en mi opinión, tratar de forma desigual a quienes no son iguales.

    ¿Crees que es lo mismo robar para comer que robar para lucrarse?
  51. #51 Tienes un argumento para justificar que no te apliquen la ley se seg.vial o no.

    Pero la ley es un sistema amplio y que se retroalimenta. No encontrarás en la ley de tráfico referencias a la fuerza mayor, al miedo insuperable, a defectos de fabricantes que sí aparecen en otras normas y que pueden tener relevancia. La ley no te dirá qué pruebas pueden ser relevantes o no. Tampoco te informará de cómo presentar mejor el caso. La ley no te hablará de si el día que te pasaste de velocidad venías del funeral de tu padre. Quienes creen que la ley es un mero silogismo de que a conducta A le toca sanción B creo que no entienden bien ni la ley ni al ser humano.
  52. #28 Supongo que sí. En mi mente era parcialmente neutros o parciales a las leyes.
  53. #1 Por desgracia, las IA también son susceptibles a sesgos, quizás con el problema añadido que los sesgos sean mucho más rebuscados e incomprensibles que los de un humano. Una de las ventajas que tienen, por ejemplo en medicina, es que el sesgo suele ser reproducible. Ahí no importa tanto que una IA esté más o menos sesgadas para delimitar un tumor en una imagen médica, importa más que su criterio sea "reproducible".
  54. #40 Se olvida que esas programas son herramientas... por ejemplo, en el caso de la IA que ganó un concurso de arte, se olvida que esa IA tiene un trabajo de entrenamiento, y que luego un humano tenía que ejecutarla muchas veces con distintos parámetros para generar el resultado ganador.

    Así como decía en #55 es fácil una IA también tenga sesgos, a veces desconocidos, y ya ha pasado muchas veces. Destaca mucho cuando una IA se vuelve racista, pero nunca sabes si tu IA termina "odiando" a los que se llaman Antonio han nacido en 1973 solo por motivos de inferencia estadística...

    En todo caso, creo que lo que dices es otro problema, y es cuando un programa se convierte en la norma. He visto muchas aplicaciones de la administración que terminan siendo mucho más restrictivas que el procedimiento que informatizan, a veces simplemente porque el informático de turno decidió que una casilla era obligatoria... y ahora es inamovible que sea obligatoria siempre y para todos.
  55. #46 A ver si estuvo acertado porque acarició dulcemente tu precioso sesgo de confirmación... 8-D
  56. #57 No soy de esos.
  57. #43 #48 Es que decir que no puedes testear si la IA toma decisiones correctas porque si un orden matemático desconocido que si tal que si cual ¿te lo has inventado o que? tienes una respuesta por lo tanto con ingeniería inversa se pueden conseguir todos los tensores y datos conectados con sólo preguntas conectadas a la respuesta dada, una tarea que sólo otra IA o software dedicado puede hacer, esto en el caso de que quieras conocer cómo funciona por dentro, si sólo quieres comprobar que los resultados son correctos ya tienes las propias respuestas de la IA para testearlo.

    La máquina no comete errores, es el humano el que los comete, la máquina es una herramienta.
  58. Me parece perfecto.
    Los abogados "reales" no se como pueden dormir defendiendo a asesinos, violadores, terroristas, y demás yerbas, buscando defectos pavos en las acusasiones para que éstos salgan libres.

    Y a la noche van a su casa y saludan a sus hijos y a su mujer diciendoles "te quiero".
comentarios cerrados

menéame