Tras dedicar varios años a su investigación y normalización, Fraunhofer HHI (junto con socios de la industria como Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony) está celebrando el lanzamiento y la adopción oficial del nuevo estándar mundial de codificación de vídeo H.266/Versatile Video Coding (VVC). Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.
|
etiquetas: fraunhofer , vídeo , compresión , h266
Ahora bien, esto es justo lo que le hacía falta a DP 1.4 para poder mover 8K a 60Hz.
De este nuevo codec (h266) no solo se van a beneficiar los videos en 8k, también se podrán codificar videos en 1080p o 4k y reducir su tamaño manteniendo la calidad.
Lo mismo sucede con h265.
Al reproducir los videos que pones, el video en 8k me va a saltos. ¿Y?
Ni siquiera tengo resolución 8k en el portatil. Pero puedo reproducir el video en 1080p codificado con el codec VP9 (similar en rendimiento al h265 - usado para 4k), por lo tanto me estoy beneficiando de un codec más eficiente que el h264 con una resolución "solo" 1080p.
Efectivamente, toda compresión lossy es una parte de filtrado y después una aplicación de una compresión lossless. Pero cuando alguien te dice algo como que h266 comprime el doble que h265, no te está diciendo que la parte de compresión lossless de h266 es más eficaz, te habla de la parte de filtrado. Porque la parte de compresion lossless no ha cambiado en 25 años. Si crease un codec de vídeo y por alguna estupida razon decidiera no aplicar esa fase de compresión lossless final, la gente lo seguiría llamando compresión lossy, incluso cuando solo tuviera la parte de filtrado.
El factor limitante de compresiones lossy no es la entropia del mensaje inicial (que se ve reducida), sino la eficacia del filtro inicial de reducir dicha entropia mientras que se engaña al sentido humano. Y como no hay dos humanos iguales, esto se convierte en algo aún más subjetivo, donde la industria intenta un nivel aceptable para la mayor parte de la gente. Pero para una persona sorda, una compresión lossy de audio podría perfectamente tener cero bits y aún así ser aceptable.
En un mensaje comentabas:
compresión con perdida: que no es más que agrupar bloques de información similares bajo un mismo símbolo.
Que no es correcto
Pero siempre exigiendo más máquina. Muchas TV ya no pueden con el H265, no digamos el próximo H266 y no son TV de más de 3 años.
Para el streaming, igual alguna aguanta. Pero como me ocurre como cuando me venden las ventajas del mp3 a 128kbps vs 320kbps que algunos dicen no hay diferencias pero ocupan menos espacio. Si no han escuchado un audio en Flac/Lossless lo dejo.
Discrepamos en:
- La entropía sigue siendo limitante en compresiones con pérdida. Tú dices que no, pero lo es. Que consideres el umbral de aceptación del filtro como OTRO factor limitante está bien, es discutible, pero está bien; pero ello no elimina que sigas limitado entrópicamente.
- Mi mensaje: podría haberlo explicado mejor, pero aplicar bloques de información similar bajo un mismo símbolo (que puede ser el vacío) es el equivalente a filtrar + comprimir. Al final del proceso, es la operación que estás realizando, el filtro es el que "organiza" qué información agrupar y cuál desechar (incluyendo información de precisión). Como digo, podría explicarse mejor, pero matemáticamente el símbolo vacío es un símbolo más por lo que lo he tratado como tal al definir la compresión con pérdida.
Formalmente lo que estás haciendo es una descomposición incremental de la señal, no deja de ser otra forma de filtrado.
Respecto a la parte de agrupaciones similares, creo que ahí, aún entendiendo lo que quieres decir, la explicación realmente no ayuda. Cuando aplico una transformada discreta de coseno en bloques de píxeles (como puedo hacer en jpeg), no estoy buscando bloques con información similar dentro de mi misma imagen. Es verdad que en el dominio de bloques de 8x8x24 píxeles, habrá bloques que terminen siendo asignados a un mismo símbolo (o no sería lossy), pero eso es independiente de cómo de similares sean estos dentro de la imagen. Sin embargo, si hago una compresión lossy a base de indexar colores, ahí si que estaría buscando similitudes dentro de mi propia imagen.
El mundo de compresión lossless es formal y elegante, mientras que el mundo lossless es caótico a más no poder.
Puedes complicarlo reseteando el proceso por subdominios o por partes del flujo de información y añadiendo complicaciones al filtrado, pero al final, la operación de alto nivel que estás realizando es exactamente ésa: eliminar información poco redundante para agrupar bloques similares que serán representados de la misma forma.
Respecto a tu comentario, realmente creo que "bloques que antes eran diferentes ahora son iguales y podrán ser representados por el mismo símbolo" da lugar a confusion porque en un jpeg no hace falta que haya dos bloques diferentes que ahora son iguales dentro de la imagen, mientras que ese principio se usa en otras situaciones (como comentaba antes, indexado de color, pero tambien en MPEG)
Agradezco mucho esta conversacion, y especialmente que hayas sido respetuoso todo el tiempo. Pero donde vivo son horas inconfesables y voy a tener que desconectar
Hermano separado al nacer
Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.
Claro, como YouTube, que ahora saludan y se mueve todo el fondo alrededor de la mano.
O sea, anotan cuatro vectorcillos de movimiento, el resto va interpolado, no hay corrección de errores y pasa lo que tiene que pasar, que se arrastra el fondo como si fuera parte del frente.
en.wikipedia.org/wiki/Free_Lossless_Image_Format
Y también es típico mirar medidas que a lo mejor matemáticamente están bien, pero que no siempre se corresponden con lo que vemos, como el PNSR, que a lo mejor una imagen es mejor que otra, pero luego la miras y está demasiado difuminada y a nuestro ojo representa la realidad peor que la otra. Aquí añadiría lo que digo en otro comentario: si a un algoritmo PNSR le importa poco que se mueva el fondo al mover el frente, a mi como humano sí me importa porque se me hace "raro" de ver.
No sé por qué me quieres convencer de hacer las cosas como tú.
Salu2
Y si, esa es la idea de evolucionar el codec, hacerlo más eficiente para conseguir la misma calidad con menor bitrate.
Saludos.