Su nombre es 'Claude', y ha sido desarrollado por AnthropicAI, la compañía fundada hace año y medio por Dario Amodei, exvicepresidente de investigación de OpenAI (compañía desarrolladora, a su vez, de ChatGPT, GPT-3 y DALL-E 2). Cuando la empresa se presentó al mundo, lo hizo con 124 millones de dólares bajo el brazo, aportados por (entre otros) Jaan Tallinn, creador de Kazaa y de Skype que, en los últimos años, se había destacado por respaldar proyectos dirigidos a protegernos de los peligros de la inteligencia artificial.
|
etiquetas: claude , ia
Si otros dicen haberlo hecho pues tendremos que fiarnos de esa persona y de lo que dice haber conseguido y el cómo, y que no es el undécimo intento el que publica.
Y por cierto preguntarle a chatGPT sobre sí mismo es lo que suele generar peores respuestas, parece que le han forzado a explicar sus supuestas limitaciones hasta la pesadez.
A todo ello creo recordar que las respuestas del chatGPT inicialmente eran instantáneas, algo que recuerdo me sorprendió por la cantidad de contenido que daba de forma inmediata. Ahora responde poquito a poco, algo así como a ritmo de lectura. Quizá esté equivocado en ese recuerdo pero lo dudo.
Mi hipótesis es que han ralentizado las respuestas artificialmente para que no se sature tan rápido con todos los usuarios preguntando, ahora hacen esperar a los usuarios a que acabe con esa lenta respuesta poco a poco para hacer la siguiente.
En fin... Me dedicaré a la jardinería casera, a la cocina y al bricolaje... qué le vamos a hacer...
si la tecnologia no es capaz de curarnos y mejorarnos la vida para que sirve?
No se deja de ser inteligente por no conocer la respuesta al sentido de la vida, el universo y todo lo demás.
– Sí.
– ¿Puedo verla?
– ... no.
Pero por la saturación ahora esa parte final la muestran poquito a poco dando la falsa idea que la IA la está escribiendo, cuando para entonces ya ha atendido a otros miles de usuarios con sus respuestas y quien te está ralentizando es el frontend web y no la IA en sí.
Luego está el tema de colas, de cuantas peticiones pueden darle y ahí es donde están restringiendo también la entrada a usuarios. Por ejemplo estaba logueado desde el móvil y podía charlar con chatGPT mientras que si lo intentaba desde el PC, con el mismo usuario, me decía que estaba saturado. Así que tenía que pasar las respuestas del móvil al PC para usarlas (era un script).
Personalmente, prefiero que me vaya llegando la respuesta a cachos a tener que esperar un tiempo indefinido antes de recibirla. Y me imagino que a muchos usuarios les pasará lo mismo. O que la opción que tú planteas, de esperar a que esté libre la máquina (y que entonces ella deba esperarte a ti).
No entiendo. ¿Realmente crees que la IA puede tardar más de 10.000.000.000 nanosegundos a dar la respuesta a cachitos?
Lo normal en los computadores es que se devuelva toda la respuesta prácticamente al instante en términos temporales humanos, no me parece realista que si veo por la pantalla que se escribe durante 10 segundos durante todo ese tiempo la IA esté enviando "tokens" de pocas letras a la vez.
Personalmente, prefiero que me vaya llegando la respuesta a cachos a tener que esperar un tiempo indefinido antes de recibirla.
Claro, pero es que no es esa la realidad de la que estamos hablando. Hablamos que el frontend web tenga la respuesta entera y para que no les satures la IA te la vaya dando a cachitos lentamente, a velocidad humana (qué casualidad sino que sea justo a velocidad humana y no que tarde una semana o diez milisegundos).
Es decir, estamos viendo la salida del modelo en tiempo real, pero parece que vaya a velocidad se lectura.
Cc/ veo que #8, ya lo ha comentado.
Ergo la IA tan inteligente no es.
aun no se para que sirve de hecho.