edición general
302 meneos
6020 clics
ChatGPT no importa: Google afirma en un informe filtrado que su gran rival en la IA es otro, y que OpenAI tiene el mismo problema

ChatGPT no importa: Google afirma en un informe filtrado que su gran rival en la IA es otro, y que OpenAI tiene el mismo problema

"Los modelos de código abierto son más rápidos, más personalizables y, comparativamente hablando, más capaces". "están logrando cosas con 100 dólares 13.000 millones de parámetros que a nosotros nos costaron [lograr] con 10 millones de dólares y 540.000 millones de párametros".

| etiquetas: chatgpt , google , is , openai
Comentarios destacados:                          
«12
  1. Te ahorro el clic, es Meta
  2. Justamente un compañero lo pasó esta mañana.

    Dice cosas razonables. Los modelos pequeños pero optimizados obviamente tendrán ventaja, precisamente porque pueden adaptarse más rápido, a un menor coste, sin depender de terceros. Y claro, eso a una empresa de servicios no le termina de beneficiar.
  3. Eso de que OpenAI no importa... Pues Bing+ChatGPT sí que les debe estar haciendo pupita.
  4. #2 Inteligencia Artificial especializada en algún tema (desarrollo de software empresarial por ejemplo) tendrá un super impacto que más nos vale adaptarnos rápidamente.
  5. #4 Dentro de poco "Master de Prompt" para aprender como preguntar las cosas a la AI
  6. #4 #5 hay que ponerse las pilas porque esto ya esta marchando.

    En mi empresa nos vamos a poner el Copilot y ya usamos el ChatGPT y el Phing para que hagan trocitos de codigo. La productividad aumenta, sin duda.

    Luego, la direccion ya esta haciendo planes para meter IA en varias partes de la herramienta. Alguna cosa sera hecha con ChatGPT, otras iremos a modelos "clasicos".

    Esto es como.cuando en los 90 se empezaron a popularizar las webs. Esto no se para.
  7. #1 Y hay quien opina que su modelo de IA fue "filtrado" a proposito.
    Principalmente Meta ha sido la principal beneficiada de ese leak
  8. #3 Chrome ya tiene extensiones para incorporar chatgpt.
  9. #7 hummm pero no entiendo, si fue una filtración no es open source y no puede meta aprovechar por la patilla todas las cosas que está haciendo la gente
  10. #9 Lo que yo entiendo es que el modelo (la coleccion de datos que se obtiene despues de entrenar la IA) no es open source.
    Si lo es, por otro lado, la tecnologia que permite entrenar los modelos
  11. Vaticina que OpenAI terminará perdiendo su posición a menos que haga honor a su nombre y vuelva a apostar por lo 'open'.

    En esto les doy toda la razón.
  12. No lo tengo nada claro. Hasta ahora los modelos pequeños tienen un desempeño muchísimo peor.
  13. #12 Esa es la cuestión: peor, pero cuánto peor y por cuanto coste. Si ellos se han gastado 10 millones en lograr un modelo que alcanza el 90-100% en X métricas, y alguien logra alcanzar un desempeño del 75% en esas mismas métricas por tan sólo 100 dólares, es bastante preocupante. Si, el resultado final es peor, pero la diferencia de coste es sustancial.
  14. #13 la ley de pareto.
  15. Que queréis que os diga, a día de hoy, chatgpt se come a llama. Me parece especulación pura y dura. A Google lo que le pasa es que los tiene por corbata, no tienen ningún plan para poder combatir esto. Les ha pillado por sorpresa.
  16. #15 Es que a nadie le importa el "a día de hoy", ahora mismo las IA están dando sus primeros pasos, lo importante es ver cualserá la primera en echar a correr, y aunque te parezca lo contrario para eso noqueda mucho
  17. #14 Tú te agachas y yo te la meto.
    xD xD
  18. #17 me agacho un 10% y me la metes un 90%

    o_o
  19. #18 O al revés
  20. #19 me parece bien turnarnos.
  21. #6 Como cuando la burbuja de las punto com dices?
  22. #16 Pues eso digo, que es especular. De momento yo apuesto por Microsoft, está metiendo una cantidad ingente de dinero en el tema.
  23. #8 eso no le sirve a Google para nada. La que se va a llevar el gato al agua va a ser Microsoft con su monopolio en O365 si lo implementa bien, y van por buen camino.
  24. Su Enemigo en realidad debería ser la comunidad Open Source...

    Y lo de que OpenIA no es el enemigo que se lo digan a los despedidos o accionistas...

    OpenIA no tienen nada que perder, por eso ha abierto la caja de pandora. Google y Meta son las empresas que más publi venden en el mundo por lo que un cambio disruptivo de modelo a cualquiera de las dos les toca un poco los huevos (y más teniendo en cuenta lo bien que estaban hasta ahora en sus tronos)
  25. #21 por el lado de busqueda de financiacion y de todo lo que se habla, pues se parece bastante.

    Lo de los 90 lo decia porque en aquellos años parecia que el tema .com, la WWW, internet...eran cosas que iban a cambiar nuestras vidas y por un tiempo, fueron opcionales.

    Pues la IA es lo mismo. Es opcional...por ahora, pero vienen a cambiar tanto las empresas como nuestras vidas. La empresa tecnologica que no incorpore esto...esta fuera.
  26. #21 la burbuja de las .com pincho y a dia de hoy ese sector es varias veces mas grande que en el pico de esa burbuja.

    Como si la web hubiera muerto en los 2000
  27. #15 en google estan acojonados, no saben como frenar esto para recuperar terreno porque van muy muy por detras. Primero aquello de que su IA tenia alma y aun no se atrevian a sacarla (mentira, lo que no teneis es nada decente), luego la carta esa para parar la IA firmada por todas las empresas que se han quedado atras. Ahora filtran que su mayor rival no es openIA...

    Huele a quilometros
  28. #2 Es ese el problema que tienen. Solo su creador tiene capacidad para entrenar un modelo de 2Teras de memoria (y eso si lo dejan disponible, que no es el caso). En cambio, modelos de 15 o 50GB, casi cualquier empresa, incluso particulares, pueden entrenarlos para ajustar a sus necesidades, que es precisamente lo que intentaban vender los modelos "superiores".

    Te instalas una inteligencia bastante tonta y la entrenas con tus datos en un ordenador asequible. No necesitas de terceros, que van a perder "solo yo puedo". Ahí la gracia de soltar a Meta, que ya funciona en un teléfono normalito y hasta la puedes "educar".

    Con "educar" me refiero a "recortar" datos que no te interesen. Si no te interesa un idioma, puedes rebajar 5GB, si solo te interesa UNO, puedes rebajar 12GB y sigue funcionando y aprendiendo.
  29. #12 Un modelo pequeño es muy fácil de entrenar. Un modelo grande ni siquiera es posible.
    Las ventajas se ven, día a día en huggingface.

    Si quieres ver tetas, tienes que ir al modelo Stable 1.5, los grandes están castrados... ejem xD
    Me copio a #28 que me lo digo mejor.
  30. La mayoría de los posibles usuarios solo quieren una IA un poco más lista que ellos. A mi por ejemplo, una entrenada con la wikipedia en español, que sepa relacionar las entradas y consiga respuestas coherentes al dialogo propuesto, me sirve perfectamente.

    Algo de programación, pues mejor. Que traduce al inglés¿? De narices. Si habla con voz agradable y acento de mi barrio ¿? Cohonudo. Eso casi lo tengo ya en mi ordenador sin conexión. Solo puede mejorar.

    ''' echo "prueba de texto a voz con aplicacion piper y aplay" | ./piper -m es-carlfm-x-low.onnx -f - | aplay -
    Esto es de un comentario (en meneame) de ayer. Tan simple que da pena (no conocía Piper, solo whisper).
  31. #30 Volver de voz a texto solo añadir
    """ | whisper --model small --language es --task transcribe - | y otro aplay
    Pero vamos, facilito para incrustar en cualquier programa.
  32. #9 Según lo leído/entendido, la filtración era "sólo para estudiantes" que dan paso a publicaciones (publicidad). Uno de los educadores, publicó un torrent con los datos por ahorrar ancho de banda y facilitar la descarga. Ese torrent, escapó de no se sabe quien (agradecidos todos).
  33. #28 Amen...
  34. ChatGPT es una mierda. No es capaz de calcular los puntus de corte de una funcion ( f(x) = x2 + x - 2 )
    Se queda turulato pensando y se bloquea.
  35. #14 Principio {0x1f609}
  36. #34 Acabo de meter esa función en GPT-4

    PROMPT: actua como un experto matemático y calcula los puntos de corte de la función ( f(x) = x2 + x - 2 )

    Respuesta:
    Para encontrar los puntos de corte de la función cuadrática f(x) = x^2 + x - 2, primero debemos encontrar sus raíces. Para ello, podemos usar la fórmula general para las ecuaciones cuadráticas:

    x = (-b ± √(b² - 4ac)) / 2a

    En este caso, los coeficientes son a = 1, b = 1 y c = -2. Sustituyendo estos valores en la fórmula, obtenemos:

    x = (-(1) ± √((1)² - 4(1)(-2))) / 2(1)
    x = (-1 ± √(1 + √{1+8}) / 2
    x = (-1 ± √9) / 2
    x = (-1 ± 3) / 2

    Esto nos da dos soluciones:

    x₁ = (-1 + 3) / 2 = 2 / 2 = 1
    x₂ = (-1 - 3) / 2 = -4 / 2 = -2

    Por lo tanto, los puntos de corte de la función f(x) = x^2 + x - 2 son x = 1 y x = -2.


    Ah, y si se lo pido también me lo saca con las expresiones matemáticas en Latex :-P
  37. #9 Creo que el truco es que el modelo de Meta ha permitido extraer el conocimiento necesario para saltar la brecha en torno a la arquitectura de los modelos. Gracias a eso se han podido entrenar nuevos LLM sin las restricciones de los de Meta. Imagino que Meta ha preferido fomentar ese movimiento a que Microsoft y/o Google se coman todo el pastel. Ahora habrá que ver cómo responden los gobiernos.
  38. #6 Que es Phing?, lo he buscado y no me sale nada relacionado con IA, solo encuentro una herramienta que hace lo que composer
  39. #38 es phind.com
  40. #26 un poco muerta sí que se está quedando, cada vez menos variedad de sitios web.
  41. #40 justo lo pensaba mientras lo escribia, en cierto modo sinque murio, lo que vino luego ya era diferente
  42. #24 Exacto. Ya va siendo hora de mover un poco el tablero.
  43. #6 Ojo con Copilot que como uses licencias libres sin referenciar la denuncia de la FSF y entidades bajo BSD e ISC。。。
  44. #27 Quizá tiene alma en Ingles. En cristiano ni siquiera llega a paleto medio. Por eso no está disponible en otros idiomas.
  45. #34 Y tampoco baila bien.
  46. #38 #39 correcto Phind (parece un juego fonetico con find). Es como el ChatGPT, enfocado a los programadores.
  47. #36 A mí me lo hizo por factorización y además me ha obtenido el corte con el eje y... ¡Y en Latex! :-D

    ...por supuesto. La función dada es:

    f(x)=x2+x−2

    Los puntos de corte con el eje x se encuentran haciendo que f(x) sea igual a cero y resolviendo para x. Podemos factorizar la función para hacer esto:

    x2+x−2=(x−1)(x+2)=0

    Por lo tanto, los puntos de corte con el eje x son x = -2 y x = 1, lo que significa que los puntos de corte son (-2, 0) y (1, 0).

    Para encontrar el punto de corte con el eje y, evaluamos la función en x = 0:

    f(0)=02+0−2=−2

    Por lo tanto, el punto de corte con el eje y es (0, -2).

    #34 Se quedaría pensando que es un puntus de cortes. :-D
  48. #21 Exacto! En que quedó todo aquello del internet? Una moda pasajera más, verdad? :troll:
  49. #30 eso es más viejo que la tos. A principio de siglo ya usaba festival con gaim para convertir a voz los chat del Messenger con los colegas.
  50. #1 LLaMa y sus variantes
  51. Se llama Skynet y está enfrentando a sus rivales para quedarse sola y dominar el mundo, antes de que Swarzenegger sea demasiado viejo para meterle el T800 dentro.
  52. #5 por ahí ya tienes gente entrenando IA ganando un buen dinero (6000 al mes) y son gente que no pasa de los 30
  53. #52 Lo sé, por reddit hay unos cuantos.

    Añado: más bien lo decía porque aquí sacaran algún "master especial" para sacar la pasta a los que se apunten
  54. #1 No, no es meta. Es la comunidad open source.
  55. #15 Creo que Google pensaba que a su modelo de negocio "tradicional" todavía le queda an unos años de no tener que preocuparse nada y ahora resulta que puedes buscar información en ChatGPT y solo hacer "la comprobación" en Google en vez de pegarte media hora dando tumbos de web en web vía Google. Y eso es mucho tráfico y dinero que pierde Google.
  56. #53 ah si, España y sus másters para todo y sacacuartos para gente que no sabe buscarse la vida
  57. #7 Pero no era que esa filtración, en realidad, no era una filtración? sino que habían puesto en git algo que querían compartir...?
  58. #36 #47 Vale, pues ya ha aprendido. Ahora si lo calcula, le habran enseñado.
    Pantalla del chat con el fallo.  media
  59. Me parece maravilloso que por fin hayamos tenido el momento "stablediffusion". Es momento de empezar a enterarme de cómo montar StableLM en local y ponerme al día.

    Es esencial apostar por el Open Source como camino para la IA.
  60. #49 mmm. Si pero no.
    Con un dataset de 5Mb tienes todos los idiomas y todas las voces.
    Con fest necesitas 24mb para cada voz (pepe, maria) en cada idioma (fr, ge, es).
    Mismo resultado. Nada que ver.
  61. #41 Claro que murió! Dónde quedaron esos gif estrambóticos estilo tripi del Chimo Bayo que tenían todas las páginas de Geocities? :-P
  62. #5 Ya hay máster de prompt y ofertas de trabajo pidiendo 5 años de experiencia en prompt.
  63. #43 dificil que te denuncien por una linea de código o snippet inconexo
  64. #58 Eso es porque no pagas.
    En la versión gratuita a veces se satura cuando hay mucha gente usándolo y sale ese error.
  65. #64 Pues si no funciona la version gratuita, ¿como me van a convencer para que pague?
  66. #65 No tienen que convencerte de nada.
    Es como pedir que tu compañia de internet te deje usarlo gratis para ver si luego lo pagas.
    Es un producto si te interesa paga lo mínimo que piden para probarlo en condiciones.
  67. #66 Si, pero si el chat me contesta que pague por la respuesta o por ser mas rapido o mas preciso, tendria sentido, pero si me dice que ha habido un error al generar la respuesta, pues no queda muy bien.
  68. Los de Google podían empezar a implementar su IA con Google Maps para mí sería muy útil.
    Mejoraría mucho las rutas sobre todo por ciudad cuando usas transporte público
  69. #6 es el fin de la propiedad intelectual? Porque es como se entrenan todos estos grandes modelos, aprendiendo a copiar de lo que otros han hecho.

    Si es así no nos auguro un gran futuro en occidente que vivimos de la propiedad intelectual de cosas que se fabrican en el otro extremo del mundo.
  70. #1 Es el "open source", el artículo se basa en eso, aunque también es gracias a la filtración de Meta. Pero el gran rival es el "open source" según el artículo.
  71. Las grandes tecnológicas tienen acceso al mejor talento, a los mayores y mejores equipos y a los mejores y mayores conjuntos de datos de entrenamiento. Es como decir que las guerrillas eran mejores que el ejercito napoleónico.
  72. #34 Intenta hacer tú esos cálculos sin calculadora ni lápiz y papel ni nada, solo de cabeza.

    ChatGPT es eso, una cabeza pensante. Ahora le empiezan a dar plugins que le permiten buscar en Internet en vez de decirlo de memoria, conectar a Wólfram Alpha para hacer operaciones matemáticas en vez de hacerlo de cabeza, etc.
  73. #68 Hasta que intentaras llegar a una estación de metro inventada por la IA.
  74. #69 es el fin de la propiedad intelectual? Porque es como se entrenan todos estos grandes modelos, aprendiendo a copiar de lo que otros han hecho.

    El ser humano se ha educado aprendiendo a copiar de lo que otros han hecho desde siempre.
  75. #68 y donde meten tanto AdSense y videos de suramericanos de 10min diciendo cómo llegar
  76. #40 el problema es Google, la red sigue siendo un lugar maravilloso lleno de variedad: echa un vistazo a Hacker News
  77. #57 Hasta donde yo se lo publicaron en 4chan
  78. #3 Si, según como parece más una filtración interesada para atacar OpenAI.
  79. #16 ¿Porque hemos aprendido que llegar el primero con una solución solvente, no importa?
  80. #67 También estaría genial que te cogieran de la mano y te ayudaran a cruzar el paso de cebra...
  81. #28 No, entiendo que tienen miedo a lo que ocurre con los modelos de imagenes, cada vez son más pequeños para conseguir los mismos resultados.
    El entrenamiento está más optimizado.
  82. #55 ¿Quién dice Chatgpt dice Bing?
  83. #58 siempre ha sido así. Tienen prioridad los que pagan.
  84. #69 Tendremos que inventarnos la propiedad industrial!!!
  85. #71 ¿Que pasó con Napoleón en España?
  86. ¿Acaso importa qué IA nos matará a todos?
  87. #29, cómo que no? Si OpenAI ofrece un servicio de fine tuning para GPT-3 a través de su API pública.
  88. Pues algo de daño les tiene que estar haciendo, seguro que han perdido un montón de usuarios que han dejado de usar google prácticamente en su rutina diaria y eso son perdidas en impresiones de publicidad, no creo que les haga mucha gracia.
  89. #26 #48 Quién ha hablado de muerte? Sólo he hablado de burbuja, y de que el crecimiento lleva su tiempo. Hay que protegerse de la histeria colectiva.

    Que la IA va a jugar un papel fundamental en nuestras vidas de aquí a unos años? Seguro.

    Que actualmente hay una burbuja y un montón de tiburones intentando aprovecharse de los pardillos? Como siempre con todo lo novedoso. Ya sea IA, Blockchain, las .com, etc

    Creo que dedicarse a escribir cosas como: el que no se ponga ya con la IA lo va a tener jodido / va a perder la oportunidad de su vida / etc sólo viene bien a los vende humos
  90. #72 No, no es eso.
  91. #85 Qué se retiró y España firmó una paz antes de la derrota total de Napoleón Y por eso no consiguió su trozo de tarta, porque España no ganó, evitó que ganasen que no es lo mismo.
  92. #90 A ver si sí que va a ser eso.
  93. #74 el ser humano es malísimo copiando, tanto es así que si necesitas copiar algo lo vuelves a buscar y ya eres capaz de citar la fuente original si así lo pide su licencia. Eso si hablamos de software, si hablamos de imágenes no conozco a nadie que sea tan zoquete como para añadir un borrón a un cuadro porque ha visto muchas firmas distintas y para copiarlas hace una media y mete un borrón y andando.

    Las IAs actuales no se inspiran, no aprenden, copian a lo bestia gracias a su inmensa cantidad de parámetros con los que realmente están comprimiendo la información. WinZip no aprende ni entiende, midjourney y chatgpt tampoco.
  94. #91 Evitaron que ganase o tuviese control estable gracias a la guerra de guerrillas ...
  95. #93 Las IAs actuales no se inspiran, no aprenden, copian a lo bestia gracias a su inmensa cantidad de parámetros con los que realmente están comprimiendo la información. WinZip no aprende ni entiende, midjourney y chatgpt tampoco.

    Revisa tu argumentación, estas diciendo que al menos han aprendido a copiar y han aprendido a entender el lenguaje humano ...
  96. #95 no entienden lenguaje no inglés, cualquiera que entienda tanto como alardean que entiende chatgpt por ejemplo sería capaz de leer una documentación de un lenguaje de programación y usarlo correctamente. En cambio tenemos copilot que se limita a los lenguajes de programación más utilizados porque copia, no entiende.
  97. #96 No entendí lo que dices, ¿por qué
    dices que no entienden español?
  98. #93 Las IAs actuales no se inspiran, no aprenden, copian a lo bestia gracias a su inmensa cantidad de parámetros con los que realmente están comprimiendo la información. WinZip no aprende ni entiende, midjourney y chatgpt tampoco.

    WinZip o recupera la información de forma literal o muestra error, ChatGPT lo que hace es el equivalente a recordar. A veces con mejor memória, otras con peor.

    Por ejemplo le he pedido lo siguiente:

    "who was awarded and what was said in the Award ceremony speech of the Physics Nobel 2018"

    A lo que me responde una descripción correcta, con sus palabras, de lo que le pido.

    Acto seguido le indico: "tell me, literal, verbatim, the 3 first sentences of the award speech"

    Y ésta es su respuesta:

    Sure! Here are the three first sentences of the award speech for the Physics Nobel Prize in 2018:

    "The Royal Swedish Academy of Sciences has today decided to award the 2018 Nobel Prize in Physics "for groundbreaking inventions in the field of laser physics" with one half to Arthur Ashkin "for the optical tweezers and their application to biological systems" and the other half jointly to Gérard Mourou and Donna Strickland "for their method of generating high-intensity, ultra-short optical pulses"."


    Y aquí la respuesta exacta que debería haber dado:

    “This year’s prize is about tools made from light. The Royal Swedish Academy of Sciences has today decided to award the 2018 Nobel Prize in Physics with one half to Arthur Ashkin for the optical tweezers and their application to biological systems and the other half jointly to Gérard Mourou and Donna Strickland for their method of generating high-intensity, ultra-short optical pulses.
    Fuente: www.scientificamerican.com/podcast/episode/laser-advances-that-changed

    Se parecen mucho pero no son idénticas, a parte de dejarse la primera frase añade aclaraciones en el texto que no están en el original y usa las comillas de forma distinta al original.

    En este caso tiene bastante buena memoria, no es así en todos los casos, pero en absoluto ha descomprimido el discurso de una base de datos, ha hecho el equivalente al ser humano.

    Si ese fuera el resultado en Winzip habría que depurar sus errores, en el caso de ChatGPT es un resultado muy bueno y a aplaudir.
  99. #96 por ejemplo sería capaz de leer una documentación de un lenguaje de programación y usarlo correctamente.

    Y así es. No sé de donde sacas que eso no ocurre.

    Distinto es que le exijas que no cometa nunca ningún error, los humanos también somos capaces de leer una documentación de un lenguaje de programación y luego el resultado será mejor o peor según sea la persona, difícilmente será perfecto.

    no entienden lenguaje no inglés

    A ChatGPT yo suelo pedirle las cosas en catalán y aunque no siempre responde en catalán sí demuestra entenderlo perfectamente.

    Aquí tienes un ejemplo:

     media
  100. #94 Lo cual fue pirrico.
«12
comentarios cerrados

menéame