Tras dedicar varios años a su investigación y normalización, Fraunhofer HHI (junto con socios de la industria como Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony) está celebrando el lanzamiento y la adopción oficial del nuevo estándar mundial de codificación de vídeo H.266/Versatile Video Coding (VVC). Este nuevo estándar ofrece una compresión mejorada, que reduce los bits requeridos en un 50% en relación al anterior H265 sin reducir la calidad de la imagen.
|
etiquetas: fraunhofer , vídeo , compresión , h266
H264 = AVC (Advanced Video Coding)
H265 = HEVC (High Efficiency Video Coding)
H266 = VVC (Versatile Video Coding)
The new chips required for the use of H.266/VVC, such as those in mobile devices, are currently being designed
Los estándares de vídeo de MPEG (que forma parte de ISO) se desarrollan conjuntamente con ITU-T (otra organización de estándares). ITU-T H.266 es el nombre del estándar (oficialmente “recomendación”) en ITU. El nombre “oficial” en MPEG es ISO/IEC 23090-3 (MPEG I parte 3).
Lo que no dice es la capacidad de cómputo requerida, y la comparativa con VP9. H265 ya pierde con VP9, ¿es H266 superior?
www.videoproc.com/media-converter/vp9-vs-h265.htm
Sobre todo en la necesidad de hardware y el consumo de batería. H264 requiere la mitad de potencia que VP8 pero a su vez comprime significativamente menos. ¿H265 consigue estos ratios de compresión agotando la batería de los móviles y sobrecalentándolos?
De poco sirve mejorar H265 si es computacionalmente tan caro que solo sirve para comprimir archivos almacenables. El reto está en la streaming.
www.reddit.com/r/apple/comments/b0nwps/safari_to_support_vp8_video_cod
El problema va a ser el huevo y la gallina, el codec mas soportado ganara y a estas alturas deberiamos ir viendo compresores y decompresores hardware para AV1 en cambio le falta 1 año para ver lo mismo en H266.
AV1 mejora en un 25% a H265
H266 mejora en un 50 a H265
¿Será notable la mejora? ¿o será algo marginal?
¿Cuál es el negocio del software? La venta de hardware
Será por eso que Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm y Sony está celebrando el lanzamiento
Respecto a uso de chip, muchas de estas técnicas de compresión de vídeo que añaden codificación de bloques de bits a lo largo de un intervalo de tiempo acaban definiendo una transformación basada en vectores y álgebra lineal (para acabar diciendo coge estos lúxeles y a lo largo de x intervalo de tiempo ve moviéndolos, alargándolos, rotándolos...) así como otras operaciones específicas de imagen (como efectos de luz y color). Entiendo que esta versión será aún más agresiva a la hora de detectar estos patrones que se pueden reutilizar, y usará bloques más grandes. Esto tiene un coste bastante mayor a la hora de comprimir, pero en cuanto a descodificar, el aumento de complejidad no es mucho mayor (obviamente si solo tienes soporte de h265 y quieres procesar h266, tendrá que hacerlo la cpu, pero un chip de descodificación de h266 sera posiblemente marginalmente más complejo que uno de h265).
Es similar a compresiones tipo LZ, aumentar la distancia que el algoritmo va a buscar para detectar patrones aumenta la complejidad de compresión, pero a la hora de descomprimir, que te digan que dicho patrón está en x-23 o en x-6545 no es significativamente más complejo
A todo esto, me alucina que sigan mejorando la compresión de vídreo así. Tengo una pregunta para algún experto: ¿Estas técnicas de codificación de vídeo hubieran tenido alguna ventaja 20 años atrás? O es que la razón por la que se usaban cosas como mpeg1 o incluso video raw a pelo era no tanto por no saber cómo hacerlo mejor sinó por limitaciones en el número de cálculos que reproductores y cámaras podían hacer?
Todos los métodos prácticos actuales de compresión de vídeo son CON pérdidas, y ahí sí, aun no está todo inventado y se puede comprimir mucho más. Todo depende del algoritmo que uses para decidir lo que quieres "perder" al comprimir.
Así que sí, a base de tirar de CPU, aun podemos comprimir tanto como queramos. Depende de la complejidad de nuestro algoritmo.
Existe un límite para comprimir la información. Si tú generas varias secuencias de bytes con valores totalmente al azar no encontrarás ningún algoritmo capaz de comprimir esos datos.
Hace unos 20 años, cuando empezó a popularizarse el formato MP3, recuerdo a un amigo que me decía sorprendido: "acaba de salir una tecnología que es capaz de comprimir 13 CDs de audio en un solo CD-ROM! El unico problema es que tarda 12 horas en comprimir un solo CD, y además necesitas un 486 para reproducir el fichero"
En esa epoca (sería el año 1991 o 1992), el 486 era un PC de gama media/alta.
Muchas de las piezas claves de compresión lossy se hicieron efectivas en los 90, pero basadas en principios matemáticos más antiguos, principalmente transformaciones discretas de cósenos (DCT), propuestas en los 70, y estas a su vez basadas en transformadas de fourier.
Sin embargo, no es solo un problema de fuerza bruta. Si bien hace 20 años el hardware era una limitación, hay muchas técnicas aplicadas hoy en día que no existían hace 20 años.
Y no, tirando de CPU no puedes comprimir tanto cuanto quieras. No puedes comprimir un mega en un bit, salvo que estés dispuesto a perder el 100% de la información claro: y eso no tiene nada que ver con el algoritmo, ni con el uso de CPU.
Me hace pensar que AV1 va a tener más soporte detrás. Habrá que ver si H266 cumple expectativas porque será la manera de derrotara a AV1
Pixels del tamaño 320x200 .... (lo que era una CGA antigua)
Evidentemente, NO es cierto.
1) Aplicas un filtro a la entrada para eliminar la información que no te interesa o agrupar/reducir la granularidad/precisión de la menos relevante.
2) Aplicas compresión.
Como ves, lo que determina la pérdida es el filtro aplicado a priori, el resultado del filtro (tu entrada para compresión) tiene cierta entropía y supone un límite como siempre. La compresión con pérdida trata de encontrar mejores filtros que eliminen/agrupen información no relevante para la vista u oído humanos de forma que el impacto en la percepción sea mínimo. Una vez eliminado todo lo que los sentidos humanos no perciben, lo que queda, que es bastante, se comprime con las mismas limitaciones de siempre (las cuales, son matemáticas y absolutas).
En resumen: la compresión con perdida es solo añadir un filtro que transforma la entrada antes de una compresión sin pérdida.
codec menos eficiente pero con compresores optimizados > codec mas eficiente pero compresores menos optimizados
www.youtube.com/watch?v=FrKNa3hruBw
www.youtube.com/watch?v=n-RjGEWW3nk
Yo paso a 265 todos los videos del móvil y pasan de ocupar 200megas a 25megas. Cerca de un 90% de menos espacio.
Y ya he parece increíble. Que ocupen unos 15 megas, más increíble todavía
Lo del HW, all final en unos años todos los procesadores soportaran 265, 266
(con buena cpu bien se decodifica, mal pensados)
19 ó 13H , pero eso es VGA, CGA era más limitadita.
en.wikipedia.org/wiki/Mode_13h
Corrección, me he equivocado por un orden de magnitud, que tal si vamos a fpa?
Y no considero que me haya mentido en ningún berenjenal Cuando tengo un rato libre no me importa rebatir la desinformación y las tonterías que se dicen por váyase a saber usted qué motivo; especialmente cuando el autor habla tratando de sentar cátedra sobre un tema que desconoce.
Una vez se llegue al límite, se podría utilizar doble o triple canales a la vez para transmitir la información.
El ancho de banda con esa supuesta tecnología sería infinito.