edición general
206 meneos
3291 clics
Internet es más rápida que nunca, pero es como si no lo fuera cuando navegamos por la World Wide Web

Internet es más rápida que nunca, pero es como si no lo fuera cuando navegamos por la World Wide Web

En la década de los 90 comenzábamos a navegar por internet, pero tanto las velocidades como la propia WWW eran un poco de risa. Lo curioso es que estamos en 2020 y aunque las velocidades de conexión son mucho más rápidas y los contenidos mucho más ricos, navegar por la World Wide Web no es en absoluto tan rápido como podría esperarse. [...] En muchos países desarrollados las conexiones de banda ancha de 300 o 600 MBps son la norma, pero las páginas web, desesperadamente pesadas, siguen tardando en cargar más de la cuenta.

| etiquetas: internet , www , velocidad , descarga , banda ancha
12»
  1. #15 Hablamos de la web, no de internet. Y cinco sería con RSDI, so pijo xD xD.
  2. #44 Y por cierto, en los 90 al menos las imagenes tenian una miniatura para evitar cargar la imagen al completo. Ahora es que te llenan la web de videos e imagenes tragando por un tubo y con 200 trackers de JS fundiendo la CPU.
  3. #66 Icecat en PC + LibreJS + Privacy Redirect para quitar las pestes de Youtube. Y encima Invidio.us tira sin JS, es maravillos.
  4. #73 Es que muchos no han vivido ciertas batallitas.
    Si mal no recuerdo, allá por el 89 ya tenia email y acceso a las news a través de un BBS que se llamaba Galletas.
    Pero te mandaban un email y lo mismo lo recibías al día siguiente porque ellos sincronizaban x veces al día con la Internet de verdad, había un “Nodo De Goya” que lo hacía posible.
    Luego tú te conectabas y veías si tenías algo en el buzón. Sea como fuere era mil veces más rápido que una carta postal y alucinábamos.

    No sé si andará por aquí Alvy de Microsiervos pero lo recuerdo con cariño como uno de los usuarios más activos y que aportaba contenidos más interesantes.
  5. #77 100? Con 40 tiraban casi todos, menos Netscape/Mozilla claro.
  6. #93 #68 Redreader tampoco esta mal. Sobre reddit: old.reddit.com o para los geeks de la terminal, TUIR.
  7. #73 > con el ADSL bajo el brazo.

    No. Opera cacheaba bastante y hasta con 56k era potable. Hoy tendremos acceso instantaneo pero va como lento de cojones, con ciertos de script y trackers que de no ser por LibreJS + Unbound mi celeron de Core Duo que emula hasta la PSP no tiraba con segun que pestes de webs (tjo, MEDIUM), aceptablemente ni loco. Tengo que abrir Dillo (compilado desde mercurial) para las pestes de esa web porque si no me arrastra el portatil cosa mala.
    Y que tiene que ver Napster con HTTP+HTML+JS?

    Estamos hablando de la pesadez de ka web, ya sabemos que una cancion en MP3 te tardaba media hora como minimo.
  8. #94 comprobado, lo he desactivado y el 95% de internet ha dejado de funcionar xD
  9. #81 Una galeria mierder no deberia consumir eso ni estando construida bajo JS.
  10. #108 Así es. Prueba Brave
  11. #95 jajajajajajaja, que recuerdos.
  12. #78 Cierto, era por poner un ejemplo.
  13. #58 Sí, lo comenta tb #102, otro problema es la cantidad de código que el navegador tiene que interpretar, de no ser por la ingente cantidad de código que meten, a veces para chorradas, para navegar podrías tirar con un pc antiguo, pero lamentablemente lo han hecho también imposible.
  14. #51 #65 El javascript, permite muchas cosas, pero hoy se usa para cosas que se pueden hacer sin JS y eso tiene un coste. Hay gente que tiene ordenadores de hace años y una pagina lo mata.
    #33 #30 #9 Muchas paginas pesas mas que si fuesen una imagen fija en jpg.
    Ojala hubiese mas paginas como la wikipedia
    El problema no es el tamaño de la web, el problema es que la mayoría de webs tienen cienmil ficheros, y cada fichero requiere de una petición y cada petición tiene un lag. La suma de lags las hace super lentas. A eso le añades todo lo que habéis dicho y el asco se dispara. Y tiene cienmil ficheros porque está pensado todo como el puto culo de base y las alternativas o las soluciones (empaquetar, por ejemplo) las usan cuatro monos.

    No se como funciona el http. No se podria hacer una multipeticion y pedir varios ficheros a la vez y el servidor los mandase seguidos como si fuese un unico fichero?
    Google, se hizo su propio protocolo para crome y sus servidores ¿spv?, despues lo fusionó con http2.

    El http se parcheo/hackeo para cosas para las que no estaba pensado, como AJAX.
    Tal vez habria que repensar la web, porque hoy en dia son verdaderas aplicaciones, pero en ineficiente.
    #64 Además se usan lenguajes de alto nivel en servidores (PHP, etc) porque cuesta menor mas hardware que la hora de programacion. Y eso supone más energia consumida. Aunque internet parece algo etero, consume un monton de energia y participa en el cambio climatico. Puede ser más ecologico ir en persona que hacer una videoconferencia.
    nergiza.com/foro/threads/lo-que-gasta-internet-mas-de-lo-que-parece.54
    Hay un cms pensando en en eso como cppcms
    cppcms.com/wikipp/en/page/rationale
  15. #84
    - XHTML era una idea cojonuda.
    Abandonada de facto en HTML5.
    - Webasm/asm.js aunque funcionase, es burdamente ejecutables pesados para el navegador.
    - Qt es bastante cáncer, y eso que es mi opción preferida para GUI.
    - Herencia en CSS (su no existencia). Que me maten ya...
  16. #114 dudo muchísimo que una videoconferencia gaste más energía que ir a la cita. Salvo que sea con el compañero de mesa y solo tengas que girar los ojos.

    El artículo al que enlazas dice “Si no me equivoco un coche con 1tera de madrid a la costa gasta menos energia que mandarla por cable.“

    Como mide Esa energía?
    Vamos a poner que es en energía eléctrica, vamos a poner que es un coche eléctrico,
    ¿de verdad Se gasta más energía eléctrica en transmitir un tera desde una conexión normal hoy en día (fibra 100 simétrica) que lo que gasta un Coche eléctrico en ir a valencia? Si es así, como son tan baratas las conexiones?

    Lo dudo muchísimo, es más creo que la diferencia está en varios (muchos) órdenes de magnitud .
  17. #9, eso influye, pero yo creo que el mayor problema son las páginas dinámicas en servidores no muy buenos. Una página dinámica la tiene que generar el servidor donde está alojada, y si tiene muchas peticiones y pocos procesador/ram, etc, se puede colapsar a la hora de generar la página. Se pueden saturar las bases de datos.
  18. #85 parece redundante, sí
  19. Con la cantidad de mierda que hay en las webs, con anuncios, aceptación de cookies y todo el lastre que llevan para captar datos de navegación, no va lento internet, va lento el ordenador haciendo tanto proceso y gastando RAM como si nada.
  20. #73 Yo he navegado en 56 Kbps y en esa época el servidor te daba las webs mascaditas, y lo que tardaba era la descarga de algunas fotos.
  21. #116 el problema de XHTML era que si lo ponías en modo estricto la web daba un error de validación si encontraba algo erróneo y cuando le dejabas meter texto enriquecido a un usuario sin nociones de lenguaje de marcado era muy difícil de validar que el texto resultante fuera XHTML válido ya que no había muchas librerías de validación buenas.
    Si no validabas correctamente tenías muchas papeletas de que un administrador metiendo texto te dejara la página con un error "de sintaxis", y a los usuarios rasos, o sólo les dejabas meter texto plano o aunque usaras un subset de html o algo tipo bbcode la podían liar bastante fácil o incluso encontrar errores en el validador de texto enriquecido y te dejaban la web tirada metiendo comentarios, por ejemplo.
    Si no usabas el modo estricto se comportaba como html, y como nadie lo usaba en modo estricto, para eso mejor html5 e interpretar el html erróneo como sea, aunque no se vea bien del todo
  22. #121 #73 Con lynx la web iba follada, y muchas imagenes eran con thumbnail asi que como digo la descarga de estas era a eleccion del usuario. Ahora con lynx no tira casi ni Slashdot.

    No tengo datos en el movil y me bajan las webs a 1-2 Kb/s, con 4 kb/s en usenet. Es comparable a RDSI.

    Lynx tira bien en webs, Meneame con muuuucha paciencia y con bloqueadores de JS. Sin ellos es un puto festival con 5-10 min de espera y mas, y webs como Cracked, Medium y Reddit son la imposibilitud en persona.

    Lo gracioso es que puedo conectarme a Mastodon/Twitter sin problema desde otros navegadores ligeros.

    Gopher y Gemini vuelan. Así, sin mas. Da igual que tenga datos capados que no, todo tira absolutamente igual.
  23. #89: No doy crédito a lo que leo, seguro que ese disco duro lo trataron con suma precaución. :-P
  24. #77: Si usas node.js, con JavaScript ya puedes programar el servidor. ;)
  25. #125 Ya, si ya lo hago (entre otras cosas), pero la gestión de callbacks me parece un coñazo y el manejo de bases de datos sql con node es otro infierno.
  26. #97 Pues sí. Navegando por el ftp de Arrakis (proveedor de internet) encontré una carpeta llena de fotos porno. Igual había unas 400. Ya ves tú. Un chaval de 16 años con ese material.
  27. #85 Blokada te ayuda a bloquear tambien ads y envios de datos como telemetría del resto de apps que tengas instaladas
  28. #83 Yo lo tengo puesto en un viejo iMac de segunda mano de hace 14 años con un reloj chulo de salvapantallas, me elimina la publicidad de toda la internet de casa y encima decora (además de ser un servidor web, plex, tor, etc..., todo ello con debian).
  29. #124 Pues sabes que paso?

    Que hubo un incendio en las oficinas del cliente a las pocas semanas y se perdió todo, se rumoreaba que fue por cobrar el seguro, no nos arruinamos gracias a haber asegurado la operación.
  30. #2 Ahm gracias, lo del modo lector yo lo aplico y es verdad que no siempre funciona, pero no sabía que se podía desactivar.
    Para mí lo más molesto son los falsos click, que supongo están intencionados, que vasa hacer click en siguiente y se acaba de mover el botón y justo le das a la publicidad.
  31. Normal, si cualquier mierda de blog o agregador de noticias te clava mas cookies que el quijote con anotaciones del autor.
  32. #17 Es como los juegos, antes los juegos pesaban poco pero como ahora es normal tener TB's de almacenamiento los juegos se te comen 200gb como si nada... han pasado de hacer las cosas bien y optimizadas a meter todo lo gordo sin importar que... para que optimizar una pagina web si cuando lo minimo son 10mb de conexion?
  33. #77 Bien desarrollado.
  34. #86 Esas leyes absurdas no existirían si en cada página no hubiese veinte trackers o alguna forma de espiar o hacer perfiles mediante distintas técnicas como "fingerprint canvas" o similares.

    Salu2
  35. #139 No, no lo conocia, pero por ahi va.
    Hace poco hice una herramienta con node y puppeteer que tomaba screenshots y los comparaba con los anteriores para ver si se habia jodido algo al tocar el css. Funcionaba como el rayo y perfecto.
    "no reinventes la rueda" me dijeron, "eso ya lo hace jest".
    Empezamos a usar la funcionalidad de jest pero era leeeeeento y cascaba cada tres por 4 dando mas problemas que soluciones.
    Al final ni se usó mi herramienta ni jest.
    Eso, y los *"porsiacas" me matan.

    * "vamos a meter mil horas de trabajo metiendo esta funcionalidad 'por si acaso' en el futuro pasa tal cosa" (cosa que no pasa nunca y que costaria 10 minutos de arreglar)
  36. #2 la publicidad es un cáncer
  37. #9 efectivamente, Internet siempre será igual de lento
  38. #114 HTTP 2.0 estaba pensado para solucionar dicho problema, aunque no se cómo de usado es a día de hoy.

    es.m.wikipedia.org/wiki/HTTP/2
  39. #84 A día de hoy no sabría escoger algún sustituto a HTML.

    Qt Quick y QML están bien para lo que son, GUIs de aplicaciones hechas en C++. Web Assembly está de lujo como sustituto de JavaScript, pero aún así seguiría basándose en HTML para disponer los distintos elementos visuales.
  40. #128 como confirma #119 si tienes blokada bien configurado ya no necesitas ningún adblock en el navegador
  41. #109 No debería. Pero las webs son oscuras y albergan horrores.
  42. #115 Qué maravilla. Mil gracias.
  43. #99 Para SailfishOS he descubierto Quickddit, es una app maravillosa. Me apunto la tuya para colegas que tengan Android/iOS, gracias.
  44. #2 ...pero hay muchas webs que lo desactivan.
    En firefox le puedes añadir "about:reader?url=" al principio a todas las webs, y te hace el modo lector igual que si pulsases el icono (o F9).
    A veces incluso, cuando el modo lector da algo erroneo como texto (como, por ejemplo, cuando muestra lo de las cookies en vez del texto), dicho prefijo lo arregla.
12»
comentarios cerrados

menéame