En la década de los 90 comenzábamos a navegar por internet, pero tanto las velocidades como la propia WWW eran un poco de risa. Lo curioso es que estamos en 2020 y aunque las velocidades de conexión son mucho más rápidas y los contenidos mucho más ricos, navegar por la World Wide Web no es en absoluto tan rápido como podría esperarse. [...] En muchos países desarrollados las conexiones de banda ancha de 300 o 600 MBps son la norma, pero las páginas web, desesperadamente pesadas, siguen tardando en cargar más de la cuenta.
|
etiquetas: internet , www , velocidad , descarga , banda ancha
Si mal no recuerdo, allá por el 89 ya tenia email y acceso a las news a través de un BBS que se llamaba Galletas.
Pero te mandaban un email y lo mismo lo recibías al día siguiente porque ellos sincronizaban x veces al día con la Internet de verdad, había un “Nodo De Goya” que lo hacía posible.
Luego tú te conectabas y veías si tenías algo en el buzón. Sea como fuere era mil veces más rápido que una carta postal y alucinábamos.
No sé si andará por aquí Alvy de Microsiervos pero lo recuerdo con cariño como uno de los usuarios más activos y que aportaba contenidos más interesantes.
No. Opera cacheaba bastante y hasta con 56k era potable. Hoy tendremos acceso instantaneo pero va como lento de cojones, con ciertos de script y trackers que de no ser por LibreJS + Unbound mi celeron de Core Duo que emula hasta la PSP no tiraba con segun que pestes de webs (tjo, MEDIUM), aceptablemente ni loco. Tengo que abrir Dillo (compilado desde mercurial) para las pestes de esa web porque si no me arrastra el portatil cosa mala.
Y que tiene que ver Napster con HTTP+HTML+JS?
Estamos hablando de la pesadez de ka web, ya sabemos que una cancion en MP3 te tardaba media hora como minimo.
#33 #30 #9 Muchas paginas pesas mas que si fuesen una imagen fija en jpg.
Ojala hubiese mas paginas como la wikipedia
El problema no es el tamaño de la web, el problema es que la mayoría de webs tienen cienmil ficheros, y cada fichero requiere de una petición y cada petición tiene un lag. La suma de lags las hace super lentas. A eso le añades todo lo que habéis dicho y el asco se dispara. Y tiene cienmil ficheros porque está pensado todo como el puto culo de base y las alternativas o las soluciones (empaquetar, por ejemplo) las usan cuatro monos.
No se como funciona el http. No se podria hacer una multipeticion y pedir varios ficheros a la vez y el servidor los mandase seguidos como si fuese un unico fichero?
Google, se hizo su propio protocolo para crome y sus servidores ¿spv?, despues lo fusionó con http2.
El http se parcheo/hackeo para cosas para las que no estaba pensado, como AJAX.
Tal vez habria que repensar la web, porque hoy en dia son verdaderas aplicaciones, pero en ineficiente.
#64 Además se usan lenguajes de alto nivel en servidores (PHP, etc) porque cuesta menor mas hardware que la hora de programacion. Y eso supone más energia consumida. Aunque internet parece algo etero, consume un monton de energia y participa en el cambio climatico. Puede ser más ecologico ir en persona que hacer una videoconferencia.
nergiza.com/foro/threads/lo-que-gasta-internet-mas-de-lo-que-parece.54
Hay un cms pensando en en eso como cppcms
cppcms.com/wikipp/en/page/rationale
- XHTML era una idea cojonuda.
Abandonada de facto en HTML5.
- Webasm/asm.js aunque funcionase, es burdamente ejecutables pesados para el navegador.
- Qt es bastante cáncer, y eso que es mi opción preferida para GUI.
- Herencia en CSS (su no existencia). Que me maten ya...
El artículo al que enlazas dice “Si no me equivoco un coche con 1tera de madrid a la costa gasta menos energia que mandarla por cable.“
Como mide Esa energía?
Vamos a poner que es en energía eléctrica, vamos a poner que es un coche eléctrico,
¿de verdad Se gasta más energía eléctrica en transmitir un tera desde una conexión normal hoy en día (fibra 100 simétrica) que lo que gasta un Coche eléctrico en ir a valencia? Si es así, como son tan baratas las conexiones?
Lo dudo muchísimo, es más creo que la diferencia está en varios (muchos) órdenes de magnitud .
Si no validabas correctamente tenías muchas papeletas de que un administrador metiendo texto te dejara la página con un error "de sintaxis", y a los usuarios rasos, o sólo les dejabas meter texto plano o aunque usaras un subset de html o algo tipo bbcode la podían liar bastante fácil o incluso encontrar errores en el validador de texto enriquecido y te dejaban la web tirada metiendo comentarios, por ejemplo.
Si no usabas el modo estricto se comportaba como html, y como nadie lo usaba en modo estricto, para eso mejor html5 e interpretar el html erróneo como sea, aunque no se vea bien del todo
No tengo datos en el movil y me bajan las webs a 1-2 Kb/s, con 4 kb/s en usenet. Es comparable a RDSI.
Lynx tira bien en webs, Meneame con muuuucha paciencia y con bloqueadores de JS. Sin ellos es un puto festival con 5-10 min de espera y mas, y webs como Cracked, Medium y Reddit son la imposibilitud en persona.
Lo gracioso es que puedo conectarme a Mastodon/Twitter sin problema desde otros navegadores ligeros.
Gopher y Gemini vuelan. Así, sin mas. Da igual que tenga datos capados que no, todo tira absolutamente igual.
Que hubo un incendio en las oficinas del cliente a las pocas semanas y se perdió todo, se rumoreaba que fue por cobrar el seguro, no nos arruinamos gracias a haber asegurado la operación.
Para mí lo más molesto son los falsos click, que supongo están intencionados, que vasa hacer click en siguiente y se acaba de mover el botón y justo le das a la publicidad.
Salu2
Hace poco hice una herramienta con node y puppeteer que tomaba screenshots y los comparaba con los anteriores para ver si se habia jodido algo al tocar el css. Funcionaba como el rayo y perfecto.
"no reinventes la rueda" me dijeron, "eso ya lo hace jest".
Empezamos a usar la funcionalidad de jest pero era leeeeeento y cascaba cada tres por 4 dando mas problemas que soluciones.
Al final ni se usó mi herramienta ni jest.
Eso, y los *"porsiacas" me matan.
* "vamos a meter mil horas de trabajo metiendo esta funcionalidad 'por si acaso' en el futuro pasa tal cosa" (cosa que no pasa nunca y que costaria 10 minutos de arreglar)
es.m.wikipedia.org/wiki/HTTP/2
Qt Quick y QML están bien para lo que son, GUIs de aplicaciones hechas en C++. Web Assembly está de lujo como sustituto de JavaScript, pero aún así seguiría basándose en HTML para disponer los distintos elementos visuales.
En firefox le puedes añadir "about:reader?url=" al principio a todas las webs, y te hace el modo lector igual que si pulsases el icono (o F9).
A veces incluso, cuando el modo lector da algo erroneo como texto (como, por ejemplo, cuando muestra lo de las cookies en vez del texto), dicho prefijo lo arregla.