La rueda de la muerte parece no dejar de girar últimamente. No eres tú. Las páginas web en verdad tardan más en cargar. El sitio promedio actual pesa 2.1 MB –dos veces más que el sitio promedio de hace tres años, de acuerdo con información de HTTP Archive.
|
etiquetas: internet , velocidad
Hasta los huevos estoy de entrar en una página a leer 4 líneas de texto y tener que ir apartando vídeos, imágenes y demás molestias. Para algunas cosas, tener 100 Mb de conexión ahora es como los 2 Mb de hace unos años.
Lo único en común es que hablan de internet y velocidad.
En este meneo se habla del tamaño de las páginas, en el que nos indicas se habla de una incidencia.
Ya te vale.
El motivo es que las páginas tienen más datos (más pesadas) y por eso tardan más en cargar, van más lentas en cargarse que si fueran más ligeras.
Hasta los huevos estoy de entrar en una página a leer 4 líneas de texto y tener que ir apartando vídeos, imágenes y demás molestias. Para algunas cosas, tener 100 Mb de conexión ahora es como los 2 Mb de hace unos años.
Especialmente si estás con el móvil. Me recuerda mucho a "los tiempos del flash". Mucho fiú, fiú, rayos láser, cosas moviéndose, fiú, fiú... Para realmente nada
#8 No te había visto. Felicidades!
Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio. Así que insisto (y se habla de ello en el artículo) Internet no es que vaya lento, es que los contenidos cada vez son más pesados
Para la mayoría de gente la cantidad de ancho de banda consumido no es lo más importante ya que han proliferado las tarifas planas. Por ello el tamaño no importa sino la velocidad. Y por eso ese es el problema.
Debido a las causas que quieras, pero el problema no desaparece por citar las causas.
Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc, por tanto si hay muchos archivos javascript, css, imágenes, etc, para descargar, la carga de la página puede tardar eones (más si son muy pesados). Para resolver este problema hay varias técnicas de optimización:
- Activar la compresión gzip de apache o el servidor web que se use.
- Añadir fechas de caché a los archivos estáticos (imágenes, vídeos, etc.) de tal forma que no sea necesario descargarlos cada vez que se accede a la web.
- Instalar un sistema de caché de php (eAccelerator, APC).
- Instalar un sistema de caché de html. Si utilizáis wordpress, pues alguno de sus plugins.
- Unificar y minificar los archivos javascript y css para reducir su tamaño y cantidad de peticiones al servidor.
- Crear subdominios para la peticiones de contenido estático. Así nos saltamos la limitación de dos peticiones por pc del protocolo http. A más subdominios, más peticiones simultáneas.
- Optimizar las imágenes de la web. Información de la cámara, fecha de creación, etc., son cosas que no nos hacen falta.
- Cambiar a un hosting con discos duros SSD.
etc.
Hay bastantes cosas que un desarrollador y las empresas pueden llevar a cabo en sus webs para acelerarlas. De hecho Google valora mucho las webs rápidas. Os dejo un post de mi blog (siento el spameo) por si alguno está interesado, aunque está orientado a WordPress os puede dar una idea de lo que se puede optimizar en una web: www.interadictos.es/2015/02/23/mejorando-el-redimiento-el-tiempo-de-ca
about:config
privacy.trackingprotection.enabled;true
Con esto activado ya te carga al doble de velocidad las paginas de media.
Y lo digo sin exagerar.
Flashblock para evitar las que cargan con esta mierda y listo.
Y un bloqueador de publicidad tambien ayuda, pero como dije con la primera ya llega para ver la diferencia.
Firefox’s optional Tracking Protection reduces load time for top news sites by 44%
venturebeat.com/2015/05/24/firefoxs-optional-tracking-protection-reduc
A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. Sin sistemas de caché la gente se cagaría en dios usando internet y para cualquier cosa que tuviera más de 100 usuarios simultáneos ya tendrías que tirar de C++ o Java.
Hoy en día, como usuario de internet, no instalo flash y uso Ghostery para ahorrarme la basura que mete la gente. Como desarrollador web, intento los recursos de mis webs estén lo más optimizados posible y los pongo solo si es necesario para el correcto funcionamiento de la web, nada de bloatware ni florituras. De esto último se olvidan muchos y te dejan la plantilla de WP o Bootstrap tal cual la han comprado aunque la web no use más del 20% de lo que ofrece.
No ves una mierda de todo lo que tiene la página, pero el texto central, a lo que entras, lo puedes ver y carga rapidísimamente, porque no carga toda esa basura.
Por supuesto, someonewhocares.org/hosts/
www.meneame.net/user/BillyTheKid/commented
"Las lorzas de tu pagina web se duplicarán cada 2 años"
mira → #33
PS: ¡Felicidades! (tap-tap, palmadita en la espalda)
Eso te lo has sacado de la manga. El servidor (los servidores) suelen tener entre 10 y 20 procesos para servir peticiones. Suelen, porque es por supuesto configurable, ya según la memoria y CPU que tengas disponible puedes subirlos o bajarlos. Eso sin contar con que la mayoría de web grandes no cuentan con un servidor, sino con muchos, y a menudo repartidos geográficamente (los famosos CDN).
Los navegadores tambien limitan el numero de conexiones por dominio (es por eso que se suelen tener varios dominios aunque solo tengas un servidor: www.ejemplo.com, media.ejemplo.com, assets.ejemplo.com y así sucesivamente). Esto depende del navegador, suelen tener entre 8 y 10 conexiones por servidor, aunque esto tambien lo puedes cambiar en about:config y similares).
TL;DR: Depende de la configuración de los servidores y del navegador. Pero suelen ser unas ~10.
Si tienes hijos, la primera barrera es esa (para mi, vamos)
¿Por que no viene por defecto? ni idea. Quizás por que simplemente evita algo que un web quiere hacer y para bloquearte algo es de recibo pedir tu consentimiento o que lo hagas tu por iniciativa propia.
Bloquear cosas sin decírtelo aunque sea por tu bien igual no estaría bien visto. El "por tu bien" es relativo siempre.
El número de conexiones y la latencia importan más que el peso de la web (al menos para conexiones a Internet de 5megas5megas o más)
Es como decir que mi coche es más lento porque tardo más en llegar a los sitios, obviando que estoy yendo más lejos...
En alguno de los plugins de WordPress que tratan este tema hablan de dos peticiones por dominio, de ahí mi confusión. Perdón.
Sirva este mensaje como corrección.
Esas herramientas ralentizan la navegación.
El "do not track" (no me sigas) fue una propuesta que recibió apoyo de todas las partes (defensores de la privacidad y empresas de publicidad) con el objetivo que aquellos usuarios que no quisieran ser rastreados pudieran mostrar así su voluntad y fuera respetada. En los acuerdos se estableció que debía ser el usuario quien tomase la decisión y no el proveedor del navegador u otro intermediario.
Las empresas de publicidad respetan el "do not track" voluntariamente. Si se activase por defecto en todos los navegadores esas empresas estarían legitimadas a ignorar esa petición y a saltarse las protecciones para volver a seguir a los usuarios ya que parte de su negocio reside en ello.
De hecho el Internet Explorer 10 activó el "do not track" con la opción de "configuración rápida" y fue muy criticada por ello, precisamente por que ponía en riesgo la continuidad al respeto de esa voluntad por parte de las empresas de publicidad.
Con todo promocionar esa opción para que la web vaya más rápida no parece lo más adecuado, el principal motivo, el único motivo, debería ser la privacidad.
en.wikipedia.org/wiki/Do_Not_Track [ENG]
Parametro y creo que vamos a mejor en lugar de a peor.
Quizá lo que habías hecho previamente era activarlo para una pagina en concreto, como explica el tutorial en la parte inferior.
yo les voto sistemáticamente negativo a todos los comentario que hacen referencia a menéame y sus reglas
Edito: Leyendo ésto:
"La protección de rastreo te permite tomar el control de tu privacidad. Aunque Firefox proporciona la funcionalidad No rastrear, que le indica a los sitios web que no monitorizen tu actividad web, las compañías no están obligadas a hacerle caso. La Protección de rastreo de Firefox te devuelve de nuevo el control de tu privacidad, bloqueando activamente los dominios y sitios web que son conocidos por rastrear a sus visitantes."
Sigo dando a entender que son dos cosas distintas. El Do Not Track es lo que tú comentas: la versión voluntaria. La protección de rastreo, yo entiendo que lo fuerza, quieran las empresas o no.
Quizás me equivoque
¿cómo explicas entonces que haya vídeos de youtube que tardan varios segundos en cargar con más de 1 visita?
¿Una persona es capaz de estar esperando días en la cola para comprar cualquier producto de mierda y sin embargo es incapaz de esperar 5 seg a que cargue 1 web?
Quizá haiga un especie de ecuación………
La paciencia del cliente es igual al tiempo de espera partido de la felicidad que espera sentir o la calidad del producto que espera conseguir.
Imagínate que vas buscando un modelo concreto de zapatillas. Escribes la búsqueda en Google y ves 5 resultados relevantes: el modelo y el color que te gustan, y todas tienen el mismo precio, 35€.
Ahora imagínate que pulsas el primer enlace y ves una pantalla blanca durante 5 segundos. Al sexto segundo seguro que has vuelto a Google a pinchar el siguiente enlace.
Google ha hecho estudios al respecto, y hay varios artículos interesantes al respecto:
googleresearch.blogspot.de/2009/06/speed-matters.html
www.nytimes.com/2012/03/01/technology/impatient-web-users-flee-slow-lo
Por no mencionar que el crear webs adaptativas no justifica el aumento de peso si se hace con mimo y cuidado, utilizando media queries.
Y ahora que lo pienso, una cosa que no se menciona es la integración de redes sociales en muchos sitios web, ya que la velocidad de respuesta de las API públicas de esas redes sociales puede ralentizar la carga del sitio.
Luego, se nota mucha diferencia con ghostscript y con adblock porque tienen que bloquear menos cosas.
crunchbang.org/forums/viewtopic.php?id=11881
La percepción de velocidad de un usuario que paga por un contenido es aún más "delicada" y hay equipos que trabajan exclusivamente en esas mejoras.
Parece una locura, pero como pone #87 al 6º segundo tienes gente llamando porque "la web va lenta".
¡Gracias por el truco!
Aunque me asalta una duda: ¿Cuando se transmite un JavaScript se comprime? ¿Se comprime mucho en comparación a RAR?
Yo lo noté mucho cuando en casa pasamos de fibra (6MB/s) a ADSL (20MB/s, en torno a 15MB/s reales).
Flash se actualiza cada poco tiempo principalmente por tres motivos: porque está plagado de agujeros de seguridad que deben taparse lo antes posible, porque cada vez que se instala aumentan las probabilidades de que dejes pasar el adware típico que trae de serie y porque a Adobe le da la gana. Si no quieres, no lo actualices y punto; tampoco es que te vaya a explotar el ordenador por eso.
Perdone las dizculpas.
A mí me hace gracia la tendencia que hay de sobrecargar el front end de las aplicaciones web, de manera hiper complicada e innecesaria. Me pone negro. Pero como los programadores tienen que sentirse realizados, y en vez de hacer aplicaciones para que funcionen hacen aplicaciones para demostrarse algo a sí mismos y a los demás, pues...