Todas las principales compañías de cable, y emisoras por aire, admiten transmisiones de 1080p24.
Estas son transmisiones con 24 imágenes por segundo, cada una de ellas con un raster de exploración progresiva a 1920 × 1080 para luma y 960 × 540 para croma. En general, se envían a aproximadamente 16 Mbps en promedio, dejando espacio para la altura y la transmisión de audio.
Si ve NBC en ATSC HDTV durante el horario de máxima audiencia, obtendrá un feed que tiene (en su mayor parte) veinticuatro imágenes de 1080p por segundo. [*] Eso es tanto 1080p como va a obtener, suponiendo que el prime -el show de tiempo se filmó a veinticuatro fotogramas por segundo, no hay nada más.
- ¿Son los servicios de transmisión una amenaza para las compañías de cable?
- ¿Qué estrategia puede usar MTV para volver a llamar la atención de los jóvenes espectadores?
- ¿Qué equipo se necesita para proporcionar TV por cable (DVB-C)?
- ¿Qué es un cable de red?
- ¿Por qué es necesario el cuadro de configuración?
Por el contrario, ninguno de los medios de alta definición de consumo admite 1080p60. No ATSC OTA HDTV, no cable digital HDTV, no HD-DVD, y no Blu-ray. Dichos flujos están fuera del régimen del Nivel Alto MPEG-2 al que se ajusta la mayoría de estos estándares. Por ejemplo, el chip decodificador de su televisor probablemente esté limitado a transmisiones de video de alto nivel MPEG-2, lo que significa que no puede decodificar un video 1080p60.
Según tengo entendido, la razón básica para colocar 1080p60 fuera de High Level tiene que ver con los requisitos computacionales y de velocidad de bits. El cable digital (en QAM256 a la velocidad de símbolo típica) tiene 38 Mbps disponibles por canal de 6 MHz, por lo que en teoría sería posible enviar incluso MPEG-2 a 1080p60 por un canal de cable digital. Ciertamente, usando MPEG-4 parte 10 (también conocido como H.264), sería posible. Pero ningún estándar importante para el video de consumo ha bendecido 1080p60.
[*] La fuente NBC vendrá en un encabezado que lo marca como 1080i60, lo que significa que la salida formal del proceso de decodificación MPEG-2 es de 60 campos por segundo. Cuando NBC muestre un comercial o una telenovela o un programa en vivo filmado a 60 fps, simplemente transmitirá 30 imágenes entrelazadas por segundo. Pero cuando se muestra un programa en horario estelar a 24 fps, NBC enviará veinticuatro imágenes de escaneo progresivo por segundo. Cada imagen lleva un encabezado que describe si debe aparecer para 2 o 3 campos de la salida 1080i60. El mismo esquema, 24 cuadros progresivos en un contenedor “1080i60”, se utiliza para el video 1080p24 en un disco Blu-ray o HD-DVD codificado con el formato VC-1. Me dijeron que algunos discos Blu-ray (tal vez aquellos que usan MPEG-2 o H.264) pueden tener 1080p24 “puro” donde incluso el contenedor especifica 24 cuadros progresivos por segundo, pero la diferencia en la práctica es bastante académica.
[**] Una de las formas en que funciona MPEG-2 es codificando cada frecuencia espacial (cada nivel de detalle) con un nivel diferente de precisión. Es posible que tenga 8 o 10 bits de precisión para el componente “DC” de un bloque de 8 × 8, que le indica cuál es su brillo promedio. Es posible que tenga una precisión bastante buena para algunas de las frecuencias más bajas (las características más borrosas y más grandes), por ejemplo, los componentes que harían una imagen “135p”. Pero a medida que las frecuencias espaciales se hacen cada vez más altas y los detalles cada vez más finos, MPEG-2 (y JPEG y H.264 y cualquier formato de video comprimido) generalmente incluyen información cada vez menos precisa. Para cuando llegue al componente de frecuencia espacial más alto, el que alterna blanco y negro con cada línea y cada columna, ¡podría tener literalmente cero bits de información, o muy pocos! Es un poco tonto llamar a estas imágenes “1080p” si solo tiene un poco de información al nivel de detalle que las haría 1080p, y de lo contrario son versiones ampliadas de imágenes más pequeñas. Siendo realistas, un video de 1080p comprimido para caber en un canal de TV de 19.4 Mbps se verá bastante similar al video de 720p correspondiente escalado a 1920 × 1080, porque simplemente no hay tantos bits disponibles para codificar el mejor nivel de detalle que pueda distinguir 720p y 1080p.
[***] Editorializando un poco, la moda de “1080p” a partir de 2005 ha sido un poco exagerada. Desde 1993, el estándar de HDTV de EE. UU. Es compatible con 720p60, 1080p24 y 1080i60. Hubo muchos argumentos sobre la Gran Alianza sobre si el estándar debería ser 720p60 o 1080i60, con MIT y Jae Lim amenazando con retirarse a menos que el estándar fuera solo progresivo y 720p60, y la gente de televisión insistía en los beneficios perceptivos del entrelazado a pesar de Es desordenado. Finalmente, llegaron a un compromiso de que todos los televisores admitirían ambos, con la esperanza de que eventualmente la compresión mejoraría para que pudiéramos tener lo mejor de ambos mundos, es decir, 1080p60 en un formato de video de consumo. Comenzando con el auge de Blu-ray y HD-DVD, los fabricantes han estado anunciando “1080p” como si fuera la función de compra obligada más sorprendente que avergüenza a HDTV. Pero, de hecho, ¡Blu-ray no admite más formatos de video que ATSC HDTV! Ambos admiten 1080p24 y 720p60 y omiten 1080p60, a pesar de la tasa de bits máxima mucho más alta de Blu-ray (hasta 40 Mbps, frente a 19.4 Mbps) y sofisticación (admite H.264, que es aproximadamente dos veces más eficiente que MPEG-2). Ser casi 20 años después de la adopción de ATSC HDTV y aún estar atascado con los mismos formatos 720p60 / 1080i60 / 1080p24 parece demasiado malo y no es digno de la reciente publicidad sobre “1080p”, algo que hemos tenido todo el tiempo, a 24 fps.