Tecnología, Internet y juegos
276 meneos
1845 clics

Fraunhofer presenta su nuevo estándar de compresión de vídeo, H266 [ENG]

Tras dedicar varios años a su investigación y normalización, Fraunhofer HHI (junto con socios de la industria como Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony) está celebrando el lanzamiento y la adopción oficial del nuevo estándar mundial de codificación de vídeo H.266/Versatile Video Coding (VVC). Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.

| etiquetas: fraunhofer , vídeo , compresión , h266
145 131 0 K 280
145 131 0 K 280
12»
  1. #54 Entiendo que el dice que el pulso electromagnetico esté cerca del servidor de la nube, pero lejos de sus discos duros.
  2. #2 4K es magnífico, casi injustificable. 8K no me lo imagino, lo tengo que ver.

    Ahora bien, esto es justo lo que le hacía falta a DP 1.4 para poder mover 8K a 60Hz.
  3. #88 No entiendo que intentas decir. Por si acaso voy a aclarar lo que pretendo decir en mi anterior comentario:

    De este nuevo codec (h266) no solo se van a beneficiar los videos en 8k, también se podrán codificar videos en 1080p o 4k y reducir su tamaño manteniendo la calidad.
    Lo mismo sucede con h265.

    Al reproducir los videos que pones, el video en 8k me va a saltos. ¿Y?
    Ni siquiera tengo resolución 8k en el portatil. Pero puedo reproducir el video en 1080p codificado con el codec VP9 (similar en rendimiento al h265 - usado para 4k), por lo tanto me estoy beneficiando de un codec más eficiente que el h264 con una resolución "solo" 1080p.
  4. #98 la frase en negrita no es mia, si hay algo que claramente los dos estamos de acuerdo es que esa frase es completamente falsa

    Efectivamente, toda compresión lossy es una parte de filtrado y después una aplicación de una compresión lossless. Pero cuando alguien te dice algo como que h266 comprime el doble que h265, no te está diciendo que la parte de compresión lossless de h266 es más eficaz, te habla de la parte de filtrado. Porque la parte de compresion lossless no ha cambiado en 25 años. Si crease un codec de vídeo y por alguna estupida razon decidiera no aplicar esa fase de compresión lossless final, la gente lo seguiría llamando compresión lossy, incluso cuando solo tuviera la parte de filtrado.

    El factor limitante de compresiones lossy no es la entropia del mensaje inicial (que se ve reducida), sino la eficacia del filtro inicial de reducir dicha entropia mientras que se engaña al sentido humano. Y como no hay dos humanos iguales, esto se convierte en algo aún más subjetivo, donde la industria intenta un nivel aceptable para la mayor parte de la gente. Pero para una persona sorda, una compresión lossy de audio podría perfectamente tener cero bits y aún así ser aceptable.

    En un mensaje comentabas:
    compresión con perdida: que no es más que agrupar bloques de información similares bajo un mismo símbolo.

    Que no es correcto
  5. #75 bateria de patata, 100% libre de emisiones e independiente de red electrica {0x1f602}
  6. #13 Se puede hacer mucho más, el límite está en un protocolo donde le das la descripción del personaje y dices: "ahora que ande más deprisa mientras mastica chicle poniendo cara de felicidad", el algoritmo simula eso y solo hay que transmitir pequeñas diferencias, sin duda debidas a la creatividad del director.
  7. #103 La única ventaja a la hora de ser más eficiente y comprimir más, es el tamaño.
    Pero siempre exigiendo más máquina. Muchas TV ya no pueden con el H265, no digamos el próximo H266 y no son TV de más de 3 años.
    Para el streaming, igual alguna aguanta. Pero como me ocurre como cuando me venden las ventajas del mp3 a 128kbps vs 320kbps que algunos dicen no hay diferencias pero ocupan menos espacio. Si no han escuchado un audio en Flac/Lossless lo dejo.
  8. #65 Lo que hace un algoritmo de compresión es adivinar la siguiente imágen de una secuencia. Si la adivina exactamente no hay que transmitir nada más. Si la diferencia es pequeña, se transmitirá poca cosa. La cantidad de cosas adivinables no creo que tenga un límite.
  9. #104 Bueno, estamos de acuerdo en casi todo. Todas mis respuestas iban a desmentir el primer comentario, no a nada que tú haya dicho específicamente.

    Discrepamos en:
    - La entropía sigue siendo limitante en compresiones con pérdida. Tú dices que no, pero lo es. Que consideres el umbral de aceptación del filtro como OTRO factor limitante está bien, es discutible, pero está bien; pero ello no elimina que sigas limitado entrópicamente.
    - Mi mensaje: podría haberlo explicado mejor, pero aplicar bloques de información similar bajo un mismo símbolo (que puede ser el vacío) es el equivalente a filtrar + comprimir. Al final del proceso, es la operación que estás realizando, el filtro es el que "organiza" qué información agrupar y cuál desechar (incluyendo información de precisión). Como digo, podría explicarse mejor, pero matemáticamente el símbolo vacío es un símbolo más por lo que lo he tratado como tal al definir la compresión con pérdida.
  10. #79 Una evaluación de hace algunos años decía que tenemos frecuencias de sobra, las cuales, debidamente, usadas, son más que suficientes para todos los datos que estamos transmitiendo.
  11. #99 El "ancho de banda", lo que significa es que si transmites más información estás ocupando las frecuencias adyacentes también. Usar frecuencias muy altas tiene límites, como entrar en la banda visible, que eso no lo vas a hacer (pero hay satélites que lo hacen, para radars). La transparencia de los materiales de construcción baja a casi nada por encima de los 6GHz.
  12. #108 No es así, no se adivina nada.
  13. #73 Nada te impide comparar el stream obtenido con el real y mandar la diferencia por otro canal.
  14. #108 siempre hay un límite de información. Me da igual que estemos a 10¹⁰⁰⁰⁰ de llegar, pero lo hay.
  15. #114 Y lo grande o pequeña que es esa diferencia, viene determinada por la entropía del original.

    Formalmente lo que estás haciendo es una descomposición incremental de la señal, no deja de ser otra forma de filtrado.
  16. #109 no discrepamos tanto, no niego que la entropia sea un factor limitante. Pero es como si hablando de autonomía de coches eléctricos comentó que la duración de las ruedas limita mi autonomía. Es totalmente cierto, y a la vez, casi seguro irrelevante en la discusión.

    Respecto a la parte de agrupaciones similares, creo que ahí, aún entendiendo lo que quieres decir, la explicación realmente no ayuda. Cuando aplico una transformada discreta de coseno en bloques de píxeles (como puedo hacer en jpeg), no estoy buscando bloques con información similar dentro de mi misma imagen. Es verdad que en el dominio de bloques de 8x8x24 píxeles, habrá bloques que terminen siendo asignados a un mismo símbolo (o no sería lossy), pero eso es independiente de cómo de similares sean estos dentro de la imagen. Sin embargo, si hago una compresión lossy a base de indexar colores, ahí si que estaría buscando similitudes dentro de mi propia imagen.

    El mundo de compresión lossless es formal y elegante, mientras que el mundo lossless es caótico a más no poder.
  17. #115 Ese número que has puesto está mucho más allá del infinito.
  18. #119 ¿estás intentando trolearme? Es una metáfora. Y 10 elevado a 10000 no es más que infinito.
  19. #116 Hombre no, la diferencia depende de lo bueno (o malo) que sea el compresor. La entropia te va a influir en el datarate de la parte comprimida.
  20. #121 Asumiendo un compresor perfecto, lo grande o lo pequeña que es la diferencia depende de la entropía. Estamos hablando todo el tiempo del límite teórico, esto es, asumiendo un compresor perfecto.
  21. #120 ja ja ja, no. Es que estoy jugando a Antimatter Dimensions, donde hay un número exacto que representa el infinito. Era una broma para mi mismo.
  22. #118 Cuando haces la transformada estás eliminando detalle (salvo que cojas la serie infinita, claro :-D), de forma que tienes menos información que almacenar y de forma que bloques que antes eran diferentes ahora son iguales y podrán ser representados por el mismo símbolo. Esencialmente, eso es todo.

    Puedes complicarlo reseteando el proceso por subdominios o por partes del flujo de información y añadiendo complicaciones al filtrado, pero al final, la operación de alto nivel que estás realizando es exactamente ésa: eliminar información poco redundante para agrupar bloques similares que serán representados de la misma forma.
  23. #124 Como correccion (no solo a tu mensaje, tambien al mio anterior), una DCT no implica eliminacion de detalle por si misma y es reversible. En JPEG es luego cuando aplicamos las matrices de cuantizacion cuando realmente eliminamos el detalle.

    Respecto a tu comentario, realmente creo que "bloques que antes eran diferentes ahora son iguales y podrán ser representados por el mismo símbolo" da lugar a confusion porque en un jpeg no hace falta que haya dos bloques diferentes que ahora son iguales dentro de la imagen, mientras que ese principio se usa en otras situaciones (como comentaba antes, indexado de color, pero tambien en MPEG)

    Agradezco mucho esta conversacion, y especialmente que hayas sido respetuoso todo el tiempo. Pero donde vivo son horas inconfesables y voy a tener que desconectar
  24. #23 A costa del uso de potencia. Un chip siempre va a ser más eficiente y por eso las primeras versiones van en CPU y luego salen chips que lo hacen 10 veces más rápido por 10 veces menos energía.
  25. #51 Dale un poco de tiempo a la IA y tendremos eso y lo mas importante, videos de japonesas sin pixelar.
  26. #50 Ambas cosas el formato mp3 no se hacía con mas calidad por que las maquinas no podrían hacer nada con el... y muchas de las técnicas que usan los codecs actuales no existian de aquella, asi que ambas.
  27. #95 lo iba a poner, pero no me salían términos tan apropiados

    Hermano separado al nacer
  28. #1 «The new chips required for the use of H.266/VVC, such as those in mobile devices, are currently being designed.»
  29. #11: Y que son promesas muy teóricas:
    Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.
    Claro, como YouTube, que ahora saludan y se mueve todo el fondo alrededor de la mano. xD
    O sea, anotan cuatro vectorcillos de movimiento, el resto va interpolado, no hay corrección de errores y pasa lo que tiene que pasar, que se arrastra el fondo como si fuera parte del frente. xD
  30. #13: Sería interesante ver si ese 50% es "tuneado" o si es real. Mira lo que decían de WEBP, que le daba 100 vueltas a JPEG y al final... pues eso que normalmente suelen hacer la comparación sacando a JPEG fuera de su ámbito de trabajo, no sabemos si usan las opciones que mejor lo optimizan... el caso es que un JPEG bien optimizado no queda casi atrás. Aquí hay que destacar la compresión aritmética, que en JPEG no se ha usado tradicionalmente por un tema de patentes y lo que hacen es comparar un JPEG que sigue sin usarla con un formato que sí la usa, lo cual no es una comparación real. De hecho incluso sería interesante implementar Maniac en JPEG y hacer las comparaciones así en los formatos que usen Maniac, si bien no es realista porque JPEG no lo usa, pero puede ayudar a interpretar si la forma de tratar la imagen es mejor o peor. Como dato: un formato sin pérdida como PNG que usa Maniac en vez de Deflate, comprime una barbaridad, hasta un tercio respecto de un PNG ya optimizado, se llama FLIF:
    en.wikipedia.org/wiki/Free_Lossless_Image_Format

    Y también es típico mirar medidas que a lo mejor matemáticamente están bien, pero que no siempre se corresponden con lo que vemos, como el PNSR, que a lo mejor una imagen es mejor que otra, pero luego la miras y está demasiado difuminada y a nuestro ojo representa la realidad peor que la otra. Aquí añadiría lo que digo en otro comentario: si a un algoritmo PNSR le importa poco que se mueva el fondo al mover el frente, a mi como humano sí me importa porque se me hace "raro" de ver.
  31. #100 poco útil si desaparece el contenido
  32. #136 Desaparecer? LOL. Tengo como 500 videos en favoritos. Elige otro
  33. #137 como los tengas todos del mismo sitio pueden desaparecer todos de golpe. O pasar a ser de pago, etc.

    No sé por qué me quieres convencer de hacer las cosas como tú.
  34. #138 No te quiero convencer de hacer las cosas como yo. El argumento que dabas no se sostenía. Hay virtualmente infinitos videos de excelente calidad en la red como para que no haga falta descargarlos y almacenarlos. ¿Qué es lo que a ti te mola? Avante tutti.
  35. #139 Vamos, que si quieres ver una peli concreta de romanos y no esta la que quieres, ve otra que también tenga leones y ya está.
  36. #140 No parece una comparación muy justa. Lo veo más como que te ve apetece ver un capitulo de los simpsons y no esta pero tienes otros 600 donde elegir.
  37. #141 pues si estás pensando en un capítulo por algo, quieres ese y no otro.
  38. Sigo sin saber a que se refieren a mitad de espacio con la misma calidad en serio ni HEVC (H.265/X.265) ni H.264/x.264 cumplen eso, salvo que se refieran a tener un vídeo en formato puro o sin comprimir, que eso nunca lo probé y pasarlo a HEVC. Porque hice decenas de conversiones y en ninguna ocupa menos con la misma calidad. Otra cosa es si reduces el bitrate, claro.

    Salu2
  39. #107 Solo le exigirá más a la máquina cuando la decodificación sea por software. Por hardware hasta el android chino del pelotazo te decodifica h265 sin despeinarse. Dentro de unos años todos los procesadores llevarán decodificación h266 y ocurrirá lo mismo.

    Y si, esa es la idea de evolucionar el codec, hacerlo más eficiente para conseguir la misma calidad con menor bitrate.
  40. #96 Sí, yo hablaba por la resolución y los 64000 bytes de imagen en crudo xD

    Saludos.
12»
comentarios cerrados

menéame