Google estrena un sistema para comprimir Internet un 26% más
La firma de Mountain View ha mostrado en varias ocasiones su intención por reducir el peso de Internet, uno de los puntos a los que ha dado mayor importancia precisamente en el posicionamiento de webs en su motor de búsqueda. Y para ello cuenta con varios factores, uno de ellos la compresión de archivos. Ahora bien, Google no está contento con las soluciones existentes, y por eso ha presentado un algoritmo un 26% más potente.
El consumo de contenidos web desde dispositivos móviles, y también desde redes de telefonía móvil, es una de las cosas que más preocupan actualmente a la compañía de Mountain View. Para ello, no sólo sirve el diseño responsive de los portales web, sino que es fundamental hacer que los archivos pesen menos. Ahora bien, las soluciones que existen actualmente para la compresión de archivos, explican desde la firma de Mountain View, son un 26% menos potentes que su nuevo algoritmo.
Aumentar la densidad de los archivos, esa es precisamente la función de los algoritmos de compresión, pero en este proceso se debe contemplar también reducir en tanto que sea posible la pérdida de calidad, y esto es precisamente lo que consigue el recién presentado algoritmo Brotli, de Google. Y aunque aún se están ultimando algunos detalles sobre su funcionamiento, desde Google aseguran que reduce los archivos un 26% más.
No podemos olvidar que la compañía de Mountain View mantiene un algoritmo de compresión de archivos anterior, Zopli, del cual no pretenden olvidarse porque, según han publicado en el día de hoy, sigue siendo interesante respecto a LZMA y LZHAM. Uno de los aspectos que más han destacado sobre este nuevo algoritmo de compresión, que próximamente nos podría suponer páginas web que cargan más rápido, es que requiere menor potencia de procesamiento para todo el proceso de descompresión. Por lo tanto, tendríamos archivos más pequeños en peso, pero que requieren de dispositivos menos potentes para ejecutarse de una forma más rápida.
Quizá también te pueda interesar…
- Más de 4.000 millones de personas sin Internet ¿se está haciendo algo para evitarlo?
- Haz que Google Chrome se «estrelle» con tan solo 16 caracteres
- Google Chrome cerrará las pestañas que no usas para frenar el consumo de RAM
- Google Chrome también bloquea a Adobe Flash y lo deja solo
- Llega Google Chrome 44 con mejoras de rendimiento y más de 40 agujeros de seguridad cerrados
“Para ello, no sólo sirve el diseño responsive de los portales web”
Ahí habéis metido la pata hasta el fondo.
El estilo responsive no impide la carga de contenido, sólo adapta la maquetación. Puede aparentar, visualmente, que una página tiene menos contenido, pero en realidad está descargándose el mismo contenido.
Otra cosa es que hablemos de contenido asíncrono con javascript, AJAX, que sólo se solicita el contenido que se necesita.
Pero responsive, como tal, es CSS, y CSS sólo es visual.
De hecho hay servidores que escanean las cabeceras HTML para saber el dispositivo que está accediendo y mandar un HTML para móvil o PC aunque ello conlleva crear diferentes páginas para un mismo sitio.
Google creo que nunca ha oido el refrán: “No es más limpio el que más limpia sino el que menos ensucia”.
No se trata de comprimir más la basura sino de generar menos, y de eso Google es bastante responsable a través de su publicidad, pues ya hemos visto que la mayor parte del tráfico de muchas webs es debido a esto. Así que primero generar menos.
Y es que comprimir y descomprimir se paga, en procesador. Y si es para algo útil vale, pero para basura publicitaria…
Esto me recuerda los tiempos del DoubleSpace de Microsoft sobre MS-DOS, Recordemos que a mayor compresión menor velocidad…
Que manía con confundir una unidad de TAMAÑO con una de PESO.
https://es.wikipedia.org/wiki/Tamaño_de_archivo
Que yo sepa a la velocidad de transferencia de un archivo no le afecta la gravedad. Ni es considerada en los sistemas informáticos de las naves espaciales en gravedad 0.
https://es.wikipedia.org/wiki/Peso