edición general
  1. @thorin La falta de fiabilidad de las IA no es cuestión de potencia, es por diseño.

    Las IA actuales no tienen el menor conocimiento semántico, no tienen ni puta idea de qué les estás pidiendo, simplemente son buenas apedazando la respuesta estadísticamente más probable. Lo cual implica que si la respuesta no está en su entrenamiento, te van a soltar un despropósito inventado. El que tenga la probabilidad más alta de ser la respuesta, aunque dicha probabilidad sea ridícula.
  1. @Malversan Eso también, pero no es lo mismo Llama 2 de tamaño 7b que de tamaño 70b, que requiere más potencia.
    El primero hace listo al segundo.
    1. @thorin ”Hacer listo” es una expresión figurada, cuando por diseño se va a inventar siempre las respuestas que no conoce.

      Hasta hace poco GPT tenía serios problemas para sumar dos números de una cifra. Aún hoy necesita ayuda externa (plugins a otros servicios) para hacerlo. Obviamente eso no es cuestión de potencia, son serias carencias inherentes al invento.

      Lo que dices (supongo) es que si la base de datos es más grande tendrá más resultados y se inventará menos respuestas. Es cierto. Pero por diseño sigue sin ser para nada fiable, especialmente cuando hablamos de dar soluciones de precisión, de ingeniería, o en este caso de programación.
    2. @Malversan @thorin nah, las respuestas se obtienen con retrieval augmented generation, lo que tiene que hacer el LLM es sólo parafrasear eso. Mixtral es la mejor opción libre hoy, aparentemente, y con Ollama lo tienes quantizado para necesitar menos RAM.
  2. @Malversan la IA tiene problemas gordos por como ha sido alimentada, si atiendes la mayoría de manuales de programación, estos están explicados con el culo o giran en torno a los 3-4 centros, para enseñar a programar a una IA necesitarías a gente muy experta en programar que administre las entradas con las que lo alimentas. Por poner un ejemplo yo me tiré años gestionando la memoria de los programas como el culo porque nadie me enseñó otra forma de hacerlo ni corrigió mi código o cuando lo hizo no me explicaban que cambiaban y por qué, así que seguía haciéndolo mal, y parte de ese código de GitHub seguramente lo ha usado la IA para aprender.

    Otra cosa que afecta bastante es no haber segmentado las entradas, ahí tienes un problema gordo con el inglés y el castellano, porque han alimentado al algoritmo con esos idiomas, pero sin hacer un criterio geográfico, y las construcciones que hace tienen un tono de castellano neutro con unas estructuras formales no muy típicas en el castellano que se habla en España, pídele que te cree el texto de un correo electrónico y siempre lo empezará con la expresión "espero que esté correo te encuentre bien"
    @thorin
    1. @oninoneko_levossian Pues no sé qué decirte, justamente con la traducción entre idiomas las IA se desenvuelven bastante bien, mejor que cualquier sistema preexistente.

      En lo que desde luego no coincido es en que la pureza de los manuales o instrucciones las haga más inteligentes. Porque no es ése el problema, la causa de sus incoherencias e incapacidades es más fundamental.

      El problema es que si les haces una petición específica para la que no han sido entrenadas se van a inventar la respuesta. Fiabilidad cero.

      Al crear software la situación es ésa casi todo el tiempo: problemas que requieren soluciones nuevas o ingeniería no preexistente (si no fuese así hace mucho tiempo que no existirían programadores). En esa tesitura las IA actuales la van a cagar siempre, por diseño.

      Antes ponía el ejemplo de que una IA te puede componer un poema shakespeariano pero cagarla estrepitosamente al sumar 2+3. Porque la operación requiere un entendimiento semántico del problema y una respuesta precisa, no una evaluación estadística de cuál es el la expresión más probable que va a continuación. El actual paradigma de IA es muy bueno en eso último, pero en entendimiento semántico es nulo.

menéame