Cronograma
lunes, 22 de abril de 2024
20:05
<<Cronograma_Procesamiento_Imagenes_Video_1C_2024_3.3.131.pdf>>
Apuntes
lunes, 22 de abril de 2024
18:43
Audio digital
lunes, 22 de abril de 2024
18:43
<<AES-EBU.pdf>>
<<AES-EBU
2.pdf>><<Psicoacústica
- Wikipedia.pdf>>
Compresion
lunes, 22 de abril de 2024
18:45
<<comdigtv.pdf>>
<<Digital
Video Broadcating.pdf>>
<<Estándar
de compresión de video H.264.pdf>>
<<Transformada
Wavelet.pdf>>
<<Presentación
TV Digital 2015.pdf>>
IPTV
lunes, 22 de abril de 2024
18:46
<<Streaming.pdf>>
<<Presentacion
Digital Media 2.pdf>>
<<Presentacion
TOC - NOC v3.pdf>>
Sistema Visual Humano
lunes, 22 de abril de 2024
20:00
<<SVH 1.pdf>>
<<SVH
2.pdf>><<SVH
3 - Percepcion visual, SVA.pdf>>
<<SVH
4.pdf>>
<<5
- El ojo humano.pdf>>
<<IRI_ANATOMIA_BASICA_DEL_OJO_2003_.pdf>>
Señal de video
lunes, 22 de abril de 2024
20:05
<<La señal de video.pdf>>
<<La
señal de video 2.pdf>>
<<Sony
HDR Explained White Paper.pdf>>
Clases
lunes, 22 de abril de 2024
18:42
C1 - Introducción
lunes, 22 de abril de 2024
18:10
<<PIV_Clase_1_12032024.pdf>>
C2 - Colorimetria
lunes, 22 de abril de 2024
18:42
<<PIV_Clase_2_19032024.pdf>>
C3 - Captura de imagen
lunes, 22 de abril de 2024
18:42
<<PIV_Clase_3_26032024.pdf>>
C4 - VGA / Audio
lunes, 22 de abril de 2024
18:42
<<PIV_Clase_4_06042024.pdf>>
C5 - Muestreo
lunes, 22 de abril de 2024
18:42
<<PIV_Clase_5_09042024.pdf>>
C6 - Compresion / Formatos audio
lunes, 22 de abril de 2024
18:42
<<PIV_Clase_6_16042024.pdf>>
C7 - Compresion
lunes, 24 de junio de 2024
11:42
<<PIV_Clase_7_30042024.pdf>>
C8 - Jitter SDI + Transporte
lunes, 24 de junio de 2024
11:43
<<PIV_Clase_8_01052024.pdf>>
C10 - Transporte
lunes, 24 de junio de 2024
11:44
<<PIV_Clase_10_14052024.pdf>>
C11 - 3D
lunes, 24 de junio de 2024
11:44
<<PIV_Clase_11_21052024.pdf>>
C12 - Streaming
lunes, 24 de junio de 2024
11:45
<<PIV_Clase_12_28052024.pdf>>
C13 - Distribucion
lunes, 24 de junio de 2024
11:45
<<PIV_Clase_13_04062024.pdf>>
C14 - Distribucion
lunes, 24 de junio de 2024
11:45
<<PIV_Clase_14_11062024.pdf>>
Examenes
lunes, 22 de abril de 2024
20:14
Preguntas guia 1er Parcial
lunes, 22 de abril de 2024
20:14
Conos y sensibilidad al color:
Bastones y sensibilidad a la luminancia:
En resumen, los conos se especializan en la percepción del color y son más sensibles a diferentes longitudes de onda de la luz, mientras que los bastones son más sensibles a la luminancia y son esenciales para la visión en condiciones de baja luminosidad. Hay más bastones que conos.
El nervio óptico es una estructura crucial en el sistema visual humano, ya que transmite la información visual desde la retina hasta el cerebro. Su función principal es llevar las señales visuales generadas por los fotorreceptores en la retina hacia el cerebro, donde se procesa y se interpreta la información visual.
El nervio óptico está compuesto por fibras nerviosas que se originan en las células ganglionares de la retina. Estas células ganglionares recogen la información visual que ha sido procesada por los fotorreceptores (conos y bastones) y la transmiten a través del nervio óptico hacia el cerebro.
Una vez que las señales visuales llegan al cerebro a través del nervio óptico, se procesan en diferentes áreas visuales, como la corteza visual primaria en el lóbulo occipital, donde se interpretan y se genera la experiencia visual consciente.
En resumen, el nervio óptico actúa como un cable de comunicación esencial entre la retina y el cerebro, transmitiendo la información visual que luego se procesa para formar nuestra percepción visual del mundo que nos rodea.
El punto ciego, también conocido como mancha ciega, es un área en la retina donde el nervio óptico penetra en el ojo y donde no hay receptores de luz, es decir, no hay bastones ni conos. Como resultado, esta área no es capaz de detectar la luz y, por lo tanto, no puede formar una imagen visual.
Cada ojo tiene un punto ciego, y está ubicado aproximadamente 15 grados hacia afuera desde el centro de la retina. A pesar de que la retina es capaz de percibir una imagen completa del campo visual, el cerebro "rellena" la información faltante que proviene del punto ciego, utilizando la información visual de los alrededores para crear una imagen coherente del mundo.
Normalmente, no somos conscientes de nuestro punto ciego debido a la capacidad del cerebro para llenar los vacíos en la información visual. Sin embargo, se puede demostrar la existencia del punto ciego mediante una simple prueba de punto ciego, donde se hace que un objeto desaparezca cuando se encuentra en el área del punto ciego y luego vuelva a aparecer cuando se mueve fuera de él.
La imagen visual se recrea en el cerebro a partir de la información que se recibe de la retina a través del nervio óptico y luego se procesa en diversas áreas visuales del cerebro.
El proceso de recrear la imagen visual en el cerebro involucra varias etapas:
En resumen, la imagen visual se recrea en el cerebro a partir de la información visual que se recibe de la retina, y este proceso implica la transducción de la luz en señales eléctricas, la transmisión de señales al cerebro a través del nervio óptico, el procesamiento en diferentes áreas visuales del cerebro, y la integración y percepción consciente de la imagen visual.
La retención perceptiva, también conocida como persistencia visual, es un fenómeno en el cual una imagen visual continúa siendo percibida por el cerebro incluso después de que la fuente de la imagen ya no esté presente. Este fenómeno se debe a la manera en que el sistema visual procesa e interpreta la información que recibe de la retina.
Existen dos tipos principales de retención perceptiva:
La retención perceptiva ocurre debido a la manera en que las células nerviosas en el sistema visual procesan y transmiten la información visual. Cuando se presenta una imagen visual, las células en la retina y en el cerebro se activan y envían señales eléctricas a lo largo de las vías visuales. Aunque la fuente de la imagen desaparezca, estas señales eléctricas continúan disparándose durante un breve período de tiempo, lo que resulta en la percepción continua de la imagen por parte del cerebro.
Este fenómeno es una característica fundamental del sistema visual humano y puede ser explotado en diversas formas, como en el diseño gráfico, la publicidad y el arte visual, para crear efectos visuales interesantes y cautivadores.
Resumen 2P
lunes, 24 de junio de 2024
11:53
Video
Audio
|
|
Delay |
R |
MPEG-2 |
24 Mbps |
<1s |
62 |
MPEG-4 |
15 Mbps |
4s |
99 |
HVEC |
8 Mbps |
6s |
185 |
Packetized Elementary Stream (PES) is a specification in the MPEG-2 Part 1 (Systems) (ISO/IEC 13818-1) and ITU-T H.222.0 that defines carrying of elementary streams (usually the output of an audio or video encoder) in packets within MPEG program streams and MPEG transport streams.[3] The elementary stream is packetized by encapsulating sequential data bytes from the elementary stream inside PES packet headers.
A typical method of transmitting elementary stream data from a video or audio encoder is to first create PES packets from the elementary stream data and then to encapsulate these PES packets inside Transport Stream (TS) packets or Program Stream (PS) packets. The TS packets can then be multiplexed and transmitted using broadcasting techniques, such as those used in an ATSC and DVB.
Name |
Size |
Description |
Packet start code prefix |
3 bytes |
0x000001 |
Stream id |
1 byte |
Examples: Audio streams (0xC0-0xDF), Video streams (0xE0-0xEF) [4][5] |
|
|
Note: The above 4 bytes is called the 32 bit start code. |
PES Packet length |
2 bytes |
Specifies the number of bytes remaining in the packet after this field. Can be zero. If the PES packet length is set to zero, the PES packet can be of any length. A value of zero for the PES packet length can be used only when the PES packet payload is a video elementary stream.[6] |
Optional PES header |
variable length (length >= 3) |
not present in case of Padding stream & Private stream 2 (navigation data) |
Data |
|
See elementary stream. In the case of private streams the first byte of the payload is the sub-stream number. |
MUX
Sincronico -> PES
DEMUX Sincronico -> Con el PID recupero la informacion
MTPS
Se manda el PID de PMT 1 vez por MPTS cada 188 bytes
Se manda el PID de PAT 1 vez c/5seg → trama 90Mbps
Un flujo de transporte multiprograma (MPTS) es un flujo de transporte UDP (TS) que transporta varios programas. AWS Elemental MediaLive permite crear un MPTS que contenga todos los programas de velocidad de bits variable, una combinación de programas de velocidad de bits variable y constante o todos los programas de velocidad de bits constante.
Para crear un MPTS, debe crear un múltiplex. MediaLive A continuación, agregue hasta 20 MediaLive programas al múltiplex. Por último, se crea un MediaLive canal para cada programa y se asocia cada canal a su programa.
MTPS
A single-frequency network or SFN is a broadcast network where several transmitters simultaneously send the same signal over the same frequency channel.
Analog AM and FM radio broadcast networks as well as digital broadcast networks can operate in this manner. SFNs are not generally compatible with analog television transmission, since the SFN results in ghosting due to echoes of the same signal
Cable -> DVB-C
Satélite -> DVB-s
MPTS se monta sobre la capa de transporte
Beneficios
Desventaja
Single Frequency Network model
Top:Multi Frequency Network
Bottom:Single Frequency Network
Rate TS
Paquetes Perdidos
Paquetes retransmitidos
RTT (Round Trip Time)
Overhead EUDP -> 20% Rate TS
20% OH + 80% Payload
Rate TS (3 canales) = 24Mbps
OH
Restauración y Reconstrucción de Imágenes
Modelo de Ruido Digital: Los modelos de ruido digital representan las variaciones no deseadas en los valores de los píxeles de una imagen. Ejemplos comunes incluyen:
Eliminación del Ruido: Las técnicas de eliminación de ruido intentan reducir estos artefactos sin perder detalles importantes de la imagen.
Jitter: Variaciones en el tiempo de llegada de los paquetes de datos. En sistemas de video en tiempo real, el jitter puede causar problemas de sincronización entre audio y video, así como pausas o saltos en la reproducción. Para mitigarlo, se utilizan técnicas como:
Filtrado Inverso y Reconstrucción por Filtrado
Filtrado Inverso: Utilizado para revertir el desenfoque o la distorsión en las imágenes. Si se conoce la función que causó el desenfoque, el filtrado inverso intenta aplicar la inversa de esa función para recuperar la imagen original. Sin embargo, es muy sensible al ruido.
Reconstrucción por Filtrado: Técnicas avanzadas que pueden incluir:
Normas de Compresión JPEG, H.262, H.264, y H.265
JPEG: Utiliza la Transformada de Coseno Discreta (DCT) para convertir bloques de píxeles en frecuencias, permitiendo la compresión mediante la reducción de detalles en frecuencias menos perceptibles por el ojo humano. Es muy efectivo para imágenes fijas.
H.262 (MPEG-2 Video): Utilizado para la compresión de video digital en discos DVD y transmisión televisiva. Soporta video entrelazado y progresivo, y proporciona una buena calidad a tasas de bits relativamente altas.
H.264 (AVC): Ofrece una compresión más eficiente que H.262, soportando resoluciones desde baja definición hasta 4K y más allá. Utiliza técnicas como predicción intra-cuadro e inter-cuadro, y compensación de movimiento.
H.265 (HEVC): Mejora aún más la eficiencia de compresión sobre H.264, permitiendo la transmisión de video de alta calidad a tasas de bits más bajas. Es crucial para la transmisión de video en 4K y 8K.
Procesamiento de Audio
Digitalización: Conversión de señales de audio analógicas a digitales mediante:
Encapsulado AES/EBU: Un estándar para la transmisión de audio digital en aplicaciones profesionales, que incluye características para sincronización y manejo de errores.
Embebido del Audio Digital: Integración del audio digital en flujos de video o en otros formatos de transmisión, manteniendo la sincronización. Ejemplos incluyen:
Modelos de Compresión de Audio y Normas
Normas MPEG:
Normas Dolby:
Normas AAC:
Métodos de Multiplex y Transporte
Norma ATSC: Utilizado en América del Norte para la transmisión digital de televisión. Incluye soporte para HDTV y servicios interactivos.
Norma DVB: Un conjunto de estándares europeos para la transmisión digital de televisión y servicios multimedia, incluyendo DVB-T (terrestre), DVB-S (satélite), y DVB-C (cable).
Norma ISDB: Utilizada en Japón y otros países, soporta transmisión digital de televisión y radio, incluyendo ISDB-T para televisión terrestre.
Encapsulado sobre ATM, SDH, IP:
Imágenes 3D y Efectos de Imágenes
Imágenes 3D: Creación de imágenes con percepción de profundidad, utilizadas en cine, televisión, y realidad virtual. Las técnicas incluyen estereoscopía, renderizado en 3D, y modelado tridimensional.
Efectos de Imágenes: Técnicas para agregar efectos visuales a imágenes y videos, como CGI (Computer-Generated Imagery), compositing, y post-producción.
Procesamiento de Gráfica Estática y Dinámica: Manipulación y mejora de imágenes fijas y en movimiento mediante técnicas de filtrado, transformación, y animación.
Armado de la Imagen: Ensamblaje de imágenes compuestas a partir de múltiples fuentes o capas, como en la edición de video y fotografía.
Subtitulado Electrónico: Inclusión de texto en imágenes de video para traducción, transcripción, o información adicional. Puede ser incrustado en la imagen o transmitido como un flujo de datos separado.
Televisión Multiplataforma
Sistemas de Distribución vía Internet: Plataformas de transmisión de video por internet como IPTV (Internet Protocol Television), OTT (Over-the-Top), y servicios de streaming (Netflix, YouTube).
Almacenamiento y Procesamiento "In The Cloud": Uso de servicios en la nube para almacenar, procesar, y distribuir contenido multimedia, mejorando la accesibilidad y escalabilidad. Ejemplos incluyen Amazon Web Services (AWS), Google Cloud, y Microsoft Azure.
Protocolos de Transporte sobre IP
TCP (Transmission Control Protocol): Protocolo orientado a conexión que garantiza la entrega fiable y ordenada de datos.
UDP (User Datagram Protocol): Protocolo sin conexión que permite la transmisión rápida de datos, pero sin garantías de entrega ordenada o fiabilidad.
EUDP (Enhanced UDP): Variante de UDP con mejoras para aplicaciones específicas, como la transmisión de multimedia en tiempo real.
Aplicaciones sobre HTTP:
Estos conceptos abarcan una amplia gama de tecnologías y métodos utilizados en el procesamiento de imagen y video, asegurando la calidad, eficiencia y sincronización en diversas aplicaciones multimedia.