"Los modelos de código abierto son más rápidos, más personalizables y, comparativamente hablando, más capaces". "están logrando cosas con 100 dólares 13.000 millones de parámetros que a nosotros nos costaron [lograr] con 10 millones de dólares y 540.000 millones de párametros".
|
etiquetas: chatgpt , google , is , openai
Dice cosas razonables. Los modelos pequeños pero optimizados obviamente tendrán ventaja, precisamente porque pueden adaptarse más rápido, a un menor coste, sin depender de terceros. Y claro, eso a una empresa de servicios no le termina de beneficiar.
En mi empresa nos vamos a poner el Copilot y ya usamos el ChatGPT y el Phing para que hagan trocitos de codigo. La productividad aumenta, sin duda.
Luego, la direccion ya esta haciendo planes para meter IA en varias partes de la herramienta. Alguna cosa sera hecha con ChatGPT, otras iremos a modelos "clasicos".
Esto es como.cuando en los 90 se empezaron a popularizar las webs. Esto no se para.
Principalmente Meta ha sido la principal beneficiada de ese leak
Si lo es, por otro lado, la tecnologia que permite entrenar los modelos
En esto les doy toda la razón.
Y lo de que OpenIA no es el enemigo que se lo digan a los despedidos o accionistas...
OpenIA no tienen nada que perder, por eso ha abierto la caja de pandora. Google y Meta son las empresas que más publi venden en el mundo por lo que un cambio disruptivo de modelo a cualquiera de las dos les toca un poco los huevos (y más teniendo en cuenta lo bien que estaban hasta ahora en sus tronos)
Lo de los 90 lo decia porque en aquellos años parecia que el tema .com, la WWW, internet...eran cosas que iban a cambiar nuestras vidas y por un tiempo, fueron opcionales.
Pues la IA es lo mismo. Es opcional...por ahora, pero vienen a cambiar tanto las empresas como nuestras vidas. La empresa tecnologica que no incorpore esto...esta fuera.
Como si la web hubiera muerto en los 2000
Huele a quilometros
Te instalas una inteligencia bastante tonta y la entrenas con tus datos en un ordenador asequible. No necesitas de terceros, que van a perder "solo yo puedo". Ahí la gracia de soltar a Meta, que ya funciona en un teléfono normalito y hasta la puedes "educar".
Con "educar" me refiero a "recortar" datos que no te interesen. Si no te interesa un idioma, puedes rebajar 5GB, si solo te interesa UNO, puedes rebajar 12GB y sigue funcionando y aprendiendo.
Las ventajas se ven, día a día en huggingface.
Si quieres ver tetas, tienes que ir al modelo Stable 1.5, los grandes están castrados... ejem
Me copio a #28 que me lo digo mejor.
Algo de programación, pues mejor. Que traduce al inglés¿? De narices. Si habla con voz agradable y acento de mi barrio ¿? Cohonudo. Eso casi lo tengo ya en mi ordenador sin conexión. Solo puede mejorar.
''' echo "prueba de texto a voz con aplicacion piper y aplay" | ./piper -m es-carlfm-x-low.onnx -f - | aplay -
Esto es de un comentario (en meneame) de ayer. Tan simple que da pena (no conocía Piper, solo whisper).
""" | whisper --model small --language es --task transcribe - | y otro aplay
Pero vamos, facilito para incrustar en cualquier programa.
Se queda turulato pensando y se bloquea.
PROMPT: actua como un experto matemático y calcula los puntos de corte de la función ( f(x) = x2 + x - 2 )
Respuesta:
Para encontrar los puntos de corte de la función cuadrática f(x) = x^2 + x - 2, primero debemos encontrar sus raíces. Para ello, podemos usar la fórmula general para las ecuaciones cuadráticas:
x = (-b ± √(b² - 4ac)) / 2a
En este caso, los coeficientes son a = 1, b = 1 y c = -2. Sustituyendo estos valores en la fórmula, obtenemos:
x = (-(1) ± √((1)² - 4(1)(-2))) / 2(1)
x = (-1 ± √(1 + √{1+8}) / 2
x = (-1 ± √9) / 2
x = (-1 ± 3) / 2
Esto nos da dos soluciones:
x₁ = (-1 + 3) / 2 = 2 / 2 = 1
x₂ = (-1 - 3) / 2 = -4 / 2 = -2
Por lo tanto, los puntos de corte de la función f(x) = x^2 + x - 2 son x = 1 y x = -2.
Ah, y si se lo pido también me lo saca con las expresiones matemáticas en Latex
...por supuesto. La función dada es:
f(x)=x2+x−2
Los puntos de corte con el eje x se encuentran haciendo que f(x) sea igual a cero y resolviendo para x. Podemos factorizar la función para hacer esto:
x2+x−2=(x−1)(x+2)=0
Por lo tanto, los puntos de corte con el eje x son x = -2 y x = 1, lo que significa que los puntos de corte son (-2, 0) y (1, 0).
Para encontrar el punto de corte con el eje y, evaluamos la función en x = 0:
f(0)=02+0−2=−2
Por lo tanto, el punto de corte con el eje y es (0, -2).
#34 Se quedaría pensando que es un puntus de cortes.
Añado: más bien lo decía porque aquí sacaran algún "master especial" para sacar la pasta a los que se apunten
Pantalla del chat con el fallo.
Es esencial apostar por el Open Source como camino para la IA.
Con un dataset de 5Mb tienes todos los idiomas y todas las voces.
Con fest necesitas 24mb para cada voz (pepe, maria) en cada idioma (fr, ge, es).
Mismo resultado. Nada que ver.
En la versión gratuita a veces se satura cuando hay mucha gente usándolo y sale ese error.
Es como pedir que tu compañia de internet te deje usarlo gratis para ver si luego lo pagas.
Es un producto si te interesa paga lo mínimo que piden para probarlo en condiciones.
Mejoraría mucho las rutas sobre todo por ciudad cuando usas transporte público
Si es así no nos auguro un gran futuro en occidente que vivimos de la propiedad intelectual de cosas que se fabrican en el otro extremo del mundo.
ChatGPT es eso, una cabeza pensante. Ahora le empiezan a dar plugins que le permiten buscar en Internet en vez de decirlo de memoria, conectar a Wólfram Alpha para hacer operaciones matemáticas en vez de hacerlo de cabeza, etc.
El ser humano se ha educado aprendiendo a copiar de lo que otros han hecho desde siempre.
El entrenamiento está más optimizado.
Que la IA va a jugar un papel fundamental en nuestras vidas de aquí a unos años? Seguro.
Que actualmente hay una burbuja y un montón de tiburones intentando aprovecharse de los pardillos? Como siempre con todo lo novedoso. Ya sea IA, Blockchain, las .com, etc
Creo que dedicarse a escribir cosas como: el que no se ponga ya con la IA lo va a tener jodido / va a perder la oportunidad de su vida / etc sólo viene bien a los vende humos
Las IAs actuales no se inspiran, no aprenden, copian a lo bestia gracias a su inmensa cantidad de parámetros con los que realmente están comprimiendo la información. WinZip no aprende ni entiende, midjourney y chatgpt tampoco.
Revisa tu argumentación, estas diciendo que al menos han aprendido a copiar y han aprendido a entender el lenguaje humano ...
dices que no entienden español?
WinZip o recupera la información de forma literal o muestra error, ChatGPT lo que hace es el equivalente a recordar. A veces con mejor memória, otras con peor.
Por ejemplo le he pedido lo siguiente:
"who was awarded and what was said in the Award ceremony speech of the Physics Nobel 2018"
A lo que me responde una descripción correcta, con sus palabras, de lo que le pido.
Acto seguido le indico: "tell me, literal, verbatim, the 3 first sentences of the award speech"
Y ésta es su respuesta:
Sure! Here are the three first sentences of the award speech for the Physics Nobel Prize in 2018:
"The Royal Swedish Academy of Sciences has today decided to award the 2018 Nobel Prize in Physics "for groundbreaking inventions in the field of laser physics" with one half to Arthur Ashkin "for the optical tweezers and their application to biological systems" and the other half jointly to Gérard Mourou and Donna Strickland "for their method of generating high-intensity, ultra-short optical pulses"."
Y aquí la respuesta exacta que debería haber dado:
“This year’s prize is about tools made from light. The Royal Swedish Academy of Sciences has today decided to award the 2018 Nobel Prize in Physics with one half to Arthur Ashkin for the optical tweezers and their application to biological systems and the other half jointly to Gérard Mourou and Donna Strickland for their method of generating high-intensity, ultra-short optical pulses.
Fuente: www.scientificamerican.com/podcast/episode/laser-advances-that-changed
Se parecen mucho pero no son idénticas, a parte de dejarse la primera frase añade aclaraciones en el texto que no están en el original y usa las comillas de forma distinta al original.
En este caso tiene bastante buena memoria, no es así en todos los casos, pero en absoluto ha descomprimido el discurso de una base de datos, ha hecho el equivalente al ser humano.
Si ese fuera el resultado en Winzip habría que depurar sus errores, en el caso de ChatGPT es un resultado muy bueno y a aplaudir.
Y así es. No sé de donde sacas que eso no ocurre.
Distinto es que le exijas que no cometa nunca ningún error, los humanos también somos capaces de leer una documentación de un lenguaje de programación y luego el resultado será mejor o peor según sea la persona, difícilmente será perfecto.
no entienden lenguaje no inglés
A ChatGPT yo suelo pedirle las cosas en catalán y aunque no siempre responde en catalán sí demuestra entenderlo perfectamente.
Aquí tienes un ejemplo: