Tecnología, Internet y juegos
15 meneos
152 clics

China desvela el modelo de aprendizaje profundo más grande de la historia: 10 veces mayor que GPT-3 de Open AI

GPT-3 de Open IA causó revuelo hace unos meses cuando impresionó al mundo por sus capacidades para generar contenido. Con 175 millones de parámetros GPT-3 parecía una auténtica bestia, ahora un nuevo modelo de aprendizaje profundo chino hace eso y más gracias a sus 1750 millones de parámetros. La Academia de Inteligencia Artificial de Beijing (BAAI) dio a conocer la versión más reciente de su modelo de aprendizaje profundo preentrenado en un evento sobre IA en Beijing, conocido como Wudao (significa “comprensión de las leyes naturales”).

| etiquetas: china , aprendizaje profundo , gpt-3 , open ai , baai , wudao
13 2 0 K 47
13 2 0 K 47
  1. #1 pues no, tenía razón. Está mal usado son 1,750,000,000,000 parámetros. 1 billón 750 mil millones. Y el gp3 son 175.000 millones y no 175 millones. Se ve que al ver trillion han cortocircuitado y esta vez han quitado ceros de más.
  2. Esperando impacientemente ver lo que es capaz de hacer. Falta ver con cuantos datos lo han podido entrenar, aunque no creo que sea un problema extraer miles de millones de textos de internet, cabe recordar que la espectacularidad de GPT-3 se debe tanto por su número de parámetros como por su base de datos de entrenamiento.
comentarios cerrados

menéame