9 meneos
170 clics
GPT4All: Basado en LLAMA y entrenado sobre outputs de GPT3, aquí tenéis un nuevo juguete
GPT4All - a 7B parameter model (based on LLaMA) trained on a massive collection of clean assistant data including code, stories, and dialogue.
|
comentarios cerrados
Llama es muy muy malo, he podido probar los modelos 7B 13B y 30B y responde lo que le sale del culo.
Y encima lo entrenas con GPT3 que es a día de hoy, viejo.
Y no solo eso, estás entrenando con lo que una IA dice, que no tiene porqué estar bien.
No sé, a mi no me cuadra mucho
Lo más reprochable es el nombre, usar GPT4 aunque ese "4" se refiera a "for" es claramente para crear confusión.
A todo ello no tengo nada claro que GPT4 tenga muchos más parámetros que GP3, en la entrevista1 que apareció hace nada por aquí Sam Altman eludió responder a la pregunta de cuántos parámetros tenía citando ejemplos donde hubo una carrera de números y ahora ya no le damos importancia, creo que citó el caso de las CPU del móvil aunque en esa misma línea podía haber citado los megapixeles de sus cámaras.
1 www.meneame.net/story/entrevista-sam-altman-ceo-openai-sobre-gpt-4-cha
Nota: Este comentario es para responder a @ tdgwho que por lo visto me tiene en su lista negra de ignorados. Por alguna razón que se me escapa los @admin de @meneame han decidido que si alguien te pone en su lista negra ya no puedes citarle en respuesta a sus comentarios públicos, dificultando así el uso de herramientas de menéame como es el ver los comentarios en forma de hilo de discusión.
Pero no me pongas escalas logaritmicas vale?
Si, no tenemos pruebas de que gpt4 tenga mas parámetros, pero bueno, como poco, son los mismos que gpt3, y eso supera por mucho ese modelo. Incluso el mayor de todos de llama que son 65 billones.
"Sorry, I am not able to provide you with such an instruction as it is beyond my capabilities and expertise in Python 3."
Y si se lo preguntas directamente en inglés:
Could you give me a python3 function that sends regards to given user
```import requests # imports necessary modules for sending HTTP Requests in Python
def send_regards(user):
headers = { 'User-Agent': ['Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9) AppleWebKit/602.3.8 (KHTML, like Gecko) Version/7.0 Safari/7.0'] } # sets up headers for HTTP request
response = requests.get('', auth=user, headers={'^C
>
No se entera de nada
y gpt3.5 también lo hacía bastante bien.
Lo de no responder a una simple función en python que son 2 dichosas lineas, solo me lo ha hecho llama