Google estrena un sistema para comprimir Internet un 26% más

Escrito por Carlos González
Software

La firma de Mountain View ha mostrado en varias ocasiones su intención por reducir el peso de Internet, uno de los puntos a los que ha dado mayor importancia precisamente en el posicionamiento de webs en su motor de búsqueda. Y para ello cuenta con varios factores, uno de ellos la compresión de archivos. Ahora bien, Google no está contento con las soluciones existentes, y por eso ha presentado un algoritmo un 26% más potente.

El consumo de contenidos web desde dispositivos móviles, y también desde redes de telefonía móvil, es una de las cosas que más preocupan actualmente a la compañía de Mountain View. Para ello, no sólo sirve el diseño responsive de los portales web, sino que es fundamental hacer que los archivos pesen menos. Ahora bien, las soluciones que existen actualmente para la compresión de archivos, explican desde la firma de Mountain View, son un 26% menos potentes que su nuevo algoritmo.

compression file

Aumentar la densidad de los archivos, esa es precisamente la función de los algoritmos de compresión, pero en este proceso se debe contemplar también reducir en tanto que sea posible la pérdida de calidad, y esto es precisamente lo que consigue el recién presentado algoritmo Brotli, de Google. Y aunque aún se están ultimando algunos detalles sobre su funcionamiento, desde Google aseguran que reduce los archivos un 26% más.

No podemos olvidar que la compañía de Mountain View mantiene un algoritmo de compresión de archivos anterior, Zopli, del cual no pretenden olvidarse porque, según han publicado en el día de hoy, sigue siendo interesante respecto a LZMA y LZHAM. Uno de los aspectos que más han destacado sobre este nuevo algoritmo de compresión, que próximamente nos podría suponer páginas web que cargan más rápido, es que requiere menor potencia de procesamiento para todo el proceso de descompresión. Por lo tanto, tendríamos archivos más pequeños en peso, pero que requieren de dispositivos menos potentes para ejecutarse de una forma más rápida.

Quizá también te pueda interesar…

Fuente > Google

Continúa leyendo
Comentarios
5 comentarios
  1. palayto 22 Sep, 15 8:24 pm

    “Para ello, no sólo sirve el diseño responsive de los portales web”

    Ahí habéis metido la pata hasta el fondo.

    El estilo responsive no impide la carga de contenido, sólo adapta la maquetación. Puede aparentar, visualmente, que una página tiene menos contenido, pero en realidad está descargándose el mismo contenido.

    Otra cosa es que hablemos de contenido asíncrono con javascript, AJAX, que sólo se solicita el contenido que se necesita.

    Pero responsive, como tal, es CSS, y CSS sólo es visual.

    1. drunkly 22 Sep, 15 11:16 pm

      De hecho hay servidores que escanean las cabeceras HTML para saber el dispositivo que está accediendo y mandar un HTML para móvil o PC aunque ello conlleva crear diferentes páginas para un mismo sitio.

  2. Monofeliz99 23 Sep, 15 7:51 am

    Google creo que nunca ha oido el refrán: “No es más limpio el que más limpia sino el que menos ensucia”.

    No se trata de comprimir más la basura sino de generar menos, y de eso Google es bastante responsable a través de su publicidad, pues ya hemos visto que la mayor parte del tráfico de muchas webs es debido a esto. Así que primero generar menos.

    Y es que comprimir y descomprimir se paga, en procesador. Y si es para algo útil vale, pero para basura publicitaria…

  3. papalapa 23 Sep, 15 9:49 am

    Esto me recuerda los tiempos del DoubleSpace de Microsoft sobre MS-DOS, Recordemos que a mayor compresión menor velocidad…