Cronograma

lunes, 22 de abril de 2024

20:05

 

<<Cronograma_Procesamiento_Imagenes_Video_1C_2024_3.3.131.pdf>>

 

 

Apuntes

lunes, 22 de abril de 2024

18:43

 

Audio digital

lunes, 22 de abril de 2024

18:43

 

<<AES-EBU.pdf>>

 

<<AES-EBU 2.pdf>><<Psicoacústica - Wikipedia.pdf>>

 

Compresion

lunes, 22 de abril de 2024

18:45

 

<<comdigtv.pdf>>

 

<<Digital Video Broadcating.pdf>>

 

<<Estándar de compresión de video H.264.pdf>>

 

<<Transformada Wavelet.pdf>>

 

<<Presentación TV Digital 2015.pdf>>

 

IPTV

lunes, 22 de abril de 2024

18:46

 

<<Streaming.pdf>>

 

<<Presentacion Digital Media 2.pdf>>

 

<<Presentacion TOC - NOC v3.pdf>>

 

Sistema Visual Humano

lunes, 22 de abril de 2024

20:00

 

<<SVH 1.pdf>>

 

<<SVH 2.pdf>><<SVH 3 - Percepcion visual, SVA.pdf>>

 

<<SVH 4.pdf>>

 

<<5 - El ojo humano.pdf>>

 

<<IRI_ANATOMIA_BASICA_DEL_OJO_2003_.pdf>>

 

Señal de video

lunes, 22 de abril de 2024

20:05

 

<<La señal de video.pdf>>

 

<<La señal de video 2.pdf>>

 

<<Sony HDR Explained White Paper.pdf>>

 

 

Clases

lunes, 22 de abril de 2024

18:42

 

C1 - Introducción

lunes, 22 de abril de 2024

18:10

 

<<PIV_Clase_1_12032024.pdf>>

 

C2 - Colorimetria

lunes, 22 de abril de 2024

18:42

 

<<PIV_Clase_2_19032024.pdf>>

 

C3 - Captura de imagen

lunes, 22 de abril de 2024

18:42

 

<<PIV_Clase_3_26032024.pdf>>

 

C4 - VGA / Audio

lunes, 22 de abril de 2024

18:42

 

<<PIV_Clase_4_06042024.pdf>>

 

C5 - Muestreo

lunes, 22 de abril de 2024

18:42

 

<<PIV_Clase_5_09042024.pdf>>

 

C6 - Compresion / Formatos audio

lunes, 22 de abril de 2024

18:42

 

<<PIV_Clase_6_16042024.pdf>>

 

C7 - Compresion

lunes, 24 de junio de 2024

11:42

 

<<PIV_Clase_7_30042024.pdf>>

 

C8 - Jitter SDI + Transporte

lunes, 24 de junio de 2024

11:43

 

<<PIV_Clase_8_01052024.pdf>>

 

C10 - Transporte

lunes, 24 de junio de 2024

11:44

 

<<PIV_Clase_10_14052024.pdf>>

 

C11 - 3D

lunes, 24 de junio de 2024

11:44

 

<<PIV_Clase_11_21052024.pdf>>

 

C12 - Streaming

lunes, 24 de junio de 2024

11:45

 

<<PIV_Clase_12_28052024.pdf>>

 

C13 - Distribucion

lunes, 24 de junio de 2024

11:45

 

<<PIV_Clase_13_04062024.pdf>>

 

C14 - Distribucion

lunes, 24 de junio de 2024

11:45

 

<<PIV_Clase_14_11062024.pdf>>

 

 

Examenes

lunes, 22 de abril de 2024

20:14

 

Preguntas guia 1er Parcial

lunes, 22 de abril de 2024

20:14

 

Conos y sensibilidad al color:

Bastones y sensibilidad a la luminancia:

En resumen, los conos se especializan en la percepción del color y son más sensibles a diferentes longitudes de onda de la luz, mientras que los bastones son más sensibles a la luminancia y son esenciales para la visión en condiciones de baja luminosidad. Hay más bastones que conos.

 

 

El nervio óptico es una estructura crucial en el sistema visual humano, ya que transmite la información visual desde la retina hasta el cerebro. Su función principal es llevar las señales visuales generadas por los fotorreceptores en la retina hacia el cerebro, donde se procesa y se interpreta la información visual.

El nervio óptico está compuesto por fibras nerviosas que se originan en las células ganglionares de la retina. Estas células ganglionares recogen la información visual que ha sido procesada por los fotorreceptores (conos y bastones) y la transmiten a través del nervio óptico hacia el cerebro.

Una vez que las señales visuales llegan al cerebro a través del nervio óptico, se procesan en diferentes áreas visuales, como la corteza visual primaria en el lóbulo occipital, donde se interpretan y se genera la experiencia visual consciente.

En resumen, el nervio óptico actúa como un cable de comunicación esencial entre la retina y el cerebro, transmitiendo la información visual que luego se procesa para formar nuestra percepción visual del mundo que nos rodea.

 

 

El punto ciego, también conocido como mancha ciega, es un área en la retina donde el nervio óptico penetra en el ojo y donde no hay receptores de luz, es decir, no hay bastones ni conos. Como resultado, esta área no es capaz de detectar la luz y, por lo tanto, no puede formar una imagen visual.

Cada ojo tiene un punto ciego, y está ubicado aproximadamente 15 grados hacia afuera desde el centro de la retina. A pesar de que la retina es capaz de percibir una imagen completa del campo visual, el cerebro "rellena" la información faltante que proviene del punto ciego, utilizando la información visual de los alrededores para crear una imagen coherente del mundo.

Normalmente, no somos conscientes de nuestro punto ciego debido a la capacidad del cerebro para llenar los vacíos en la información visual. Sin embargo, se puede demostrar la existencia del punto ciego mediante una simple prueba de punto ciego, donde se hace que un objeto desaparezca cuando se encuentra en el área del punto ciego y luego vuelva a aparecer cuando se mueve fuera de él.

 

 

La imagen visual se recrea en el cerebro a partir de la información que se recibe de la retina a través del nervio óptico y luego se procesa en diversas áreas visuales del cerebro.

El proceso de recrear la imagen visual en el cerebro involucra varias etapas:

En resumen, la imagen visual se recrea en el cerebro a partir de la información visual que se recibe de la retina, y este proceso implica la transducción de la luz en señales eléctricas, la transmisión de señales al cerebro a través del nervio óptico, el procesamiento en diferentes áreas visuales del cerebro, y la integración y percepción consciente de la imagen visual.

 

 

La retención perceptiva, también conocida como persistencia visual, es un fenómeno en el cual una imagen visual continúa siendo percibida por el cerebro incluso después de que la fuente de la imagen ya no esté presente. Este fenómeno se debe a la manera en que el sistema visual procesa e interpreta la información que recibe de la retina.

Existen dos tipos principales de retención perceptiva:

La retención perceptiva ocurre debido a la manera en que las células nerviosas en el sistema visual procesan y transmiten la información visual. Cuando se presenta una imagen visual, las células en la retina y en el cerebro se activan y envían señales eléctricas a lo largo de las vías visuales. Aunque la fuente de la imagen desaparezca, estas señales eléctricas continúan disparándose durante un breve período de tiempo, lo que resulta en la percepción continua de la imagen por parte del cerebro.

Este fenómeno es una característica fundamental del sistema visual humano y puede ser explotado en diversas formas, como en el diseño gráfico, la publicidad y el arte visual, para crear efectos visuales interesantes y cautivadores.

 

 

Resumen 2P

lunes, 24 de junio de 2024

11:53

 

Compresion

 

Normas

Video

Audio

 

 

 

Eficiencia y delay

 

Delay

R

MPEG-2

24 Mbps

<1s

62

MPEG-4

15 Mbps

4s

99

HVEC

8 Mbps

6s

185

 

PES

Packetized Elementary Stream (PES) is a specification in the MPEG-2 Part 1 (Systems) (ISO/IEC 13818-1) and ITU-T H.222.0 that defines carrying of elementary streams (usually the output of an audio or video encoder) in packets within MPEG program streams and MPEG transport streams.[3] The elementary stream is packetized by encapsulating sequential data bytes from the elementary stream inside PES packet headers.

A typical method of transmitting elementary stream data from a video or audio encoder is to first create PES packets from the elementary stream data and then to encapsulate these PES packets inside Transport Stream (TS) packets or Program Stream (PS) packets. The TS packets can then be multiplexed and transmitted using broadcasting techniques, such as those used in an ATSC and DVB.

 

Name

Size

Description

Packet start code prefix

3 bytes

0x000001

Stream id

1 byte

Examples: Audio streams (0xC0-0xDF), Video streams (0xE0-0xEF) [4][5]

 

 

Note: The above 4 bytes is called the 32 bit start code.

PES Packet length

2 bytes

Specifies the number of bytes remaining in the packet after this field. Can be zero. If the PES packet length is set to zero, the PES packet can be of any length. A value of zero for the PES packet length can be used only when the PES packet payload is a video elementary stream.[6]

Optional PES header

variable length (length >= 3)

not present in case of Padding stream & Private stream 2 (navigation data)

Data

 

See elementary stream. In the case of private streams the first byte of the payload is the sub-stream number.

 

 

MUX Sincronico -> PES
DEMUX Sincronico -> Con el PID recupero la informacion

 

 

 

SDI Jitter

Alignment Jitter

 

 

 

 


Timing Jitter

PES - PID

PES (Packet Elementary Stream)

PCR (Packet Reception Control)

 

Multiplex y Transporte MPEG-2

 

MTPS

 

 

 

Se manda el PID de PMT  1 vez por MPTS cada 188 bytes

Se manda el PID de PAT 1 vez c/5seg → trama 90Mbps

 

Tablas Auxiliares

  1. CAT - Conditioned Access Table (Encriptado)
  2. ET - Event Table (Programas especficos)
  3. NIT - Network Information Table (como es el transporte) → NetID

 

 

MPTS

Un flujo de transporte multiprograma (MPTS) es un flujo de transporte UDP (TS) que transporta varios programas. AWS Elemental MediaLive permite crear un MPTS que contenga todos los programas de velocidad de bits variable, una combinación de programas de velocidad de bits variable y constante o todos los programas de velocidad de bits constante.

Para crear un MPTS, debe crear un múltiplex. MediaLive A continuación, agregue hasta 20 MediaLive programas al múltiplex. Por último, se crea un MediaLive canal para cada programa y se asocia cada canal a su programa.

 

 

MTPS

 

Normas de Transmisión

 

Estándares para televisión digital [6,7]. La selección de estándares de...  | Download Scientific Diagram

 

Red SFN

A single-frequency network or SFN is a broadcast network where several transmitters simultaneously send the same signal over the same frequency channel.

Analog AM and FM radio broadcast networks as well as digital broadcast networks can operate in this manner. SFNs are not generally compatible with analog television transmission, since the SFN results in ghosting due to echoes of the same signal

 

Cable -> DVB-C

Satélite -> DVB-s

 

Streaming

 

 

 

Modelo OSI

 

Diferencias entre modelo OSI y TCP/IP - Platzi

 

  1. Fisica
    1. Fibra optica
    2. SDH
    3. Inalambrico
    4. Cableado
  1. Datalink
    1. Ethernet
    2. ATM
    3. Otros protocolos
  1. Network
    1. IPv6
    2. ATM
    3. Otros protocolos
  1. Transporte
    1. TCP -> ACK
    2. UDP -> NO ACK
    3. EUDP -> ACK solo para retransmision

MPTS se monta sobre la capa de transporte

 

 

3G-SDI: Signal quality is vital | TV Tech

 

Beneficios

Desventaja

 

Single Frequency Network model

Top:Multi Frequency Network

Bottom:Single Frequency Network

 

 

 

Metricas de transmision

Rate TS

Paquetes Perdidos

Paquetes retransmitidos

RTT (Round Trip Time)

 

Overhead EUDP -> 20% Rate TS

20% OH + 80% Payload

 

Rate TS (3 canales) = 24Mbps

OH

 

Resumen ChatGPT

 

Restauración y Reconstrucción de Imágenes

Modelo de Ruido Digital: Los modelos de ruido digital representan las variaciones no deseadas en los valores de los píxeles de una imagen. Ejemplos comunes incluyen:

Eliminación del Ruido: Las técnicas de eliminación de ruido intentan reducir estos artefactos sin perder detalles importantes de la imagen.

Jitter: Variaciones en el tiempo de llegada de los paquetes de datos. En sistemas de video en tiempo real, el jitter puede causar problemas de sincronización entre audio y video, así como pausas o saltos en la reproducción. Para mitigarlo, se utilizan técnicas como:

Filtrado Inverso y Reconstrucción por Filtrado

Filtrado Inverso: Utilizado para revertir el desenfoque o la distorsión en las imágenes. Si se conoce la función que causó el desenfoque, el filtrado inverso intenta aplicar la inversa de esa función para recuperar la imagen original. Sin embargo, es muy sensible al ruido.

Reconstrucción por Filtrado: Técnicas avanzadas que pueden incluir:

Normas de Compresión JPEG, H.262, H.264, y H.265

JPEG: Utiliza la Transformada de Coseno Discreta (DCT) para convertir bloques de píxeles en frecuencias, permitiendo la compresión mediante la reducción de detalles en frecuencias menos perceptibles por el ojo humano. Es muy efectivo para imágenes fijas.

H.262 (MPEG-2 Video): Utilizado para la compresión de video digital en discos DVD y transmisión televisiva. Soporta video entrelazado y progresivo, y proporciona una buena calidad a tasas de bits relativamente altas.

H.264 (AVC): Ofrece una compresión más eficiente que H.262, soportando resoluciones desde baja definición hasta 4K y más allá. Utiliza técnicas como predicción intra-cuadro e inter-cuadro, y compensación de movimiento.

H.265 (HEVC): Mejora aún más la eficiencia de compresión sobre H.264, permitiendo la transmisión de video de alta calidad a tasas de bits más bajas. Es crucial para la transmisión de video en 4K y 8K.

Procesamiento de Audio

Digitalización: Conversión de señales de audio analógicas a digitales mediante:

Encapsulado AES/EBU: Un estándar para la transmisión de audio digital en aplicaciones profesionales, que incluye características para sincronización y manejo de errores.

Embebido del Audio Digital: Integración del audio digital en flujos de video o en otros formatos de transmisión, manteniendo la sincronización. Ejemplos incluyen:

Modelos de Compresión de Audio y Normas

Normas MPEG:

Normas Dolby:

Normas AAC:

Métodos de Multiplex y Transporte

Norma ATSC: Utilizado en América del Norte para la transmisión digital de televisión. Incluye soporte para HDTV y servicios interactivos.

Norma DVB: Un conjunto de estándares europeos para la transmisión digital de televisión y servicios multimedia, incluyendo DVB-T (terrestre), DVB-S (satélite), y DVB-C (cable).

Norma ISDB: Utilizada en Japón y otros países, soporta transmisión digital de televisión y radio, incluyendo ISDB-T para televisión terrestre.

Encapsulado sobre ATM, SDH, IP:

Imágenes 3D y Efectos de Imágenes

Imágenes 3D: Creación de imágenes con percepción de profundidad, utilizadas en cine, televisión, y realidad virtual. Las técnicas incluyen estereoscopía, renderizado en 3D, y modelado tridimensional.

Efectos de Imágenes: Técnicas para agregar efectos visuales a imágenes y videos, como CGI (Computer-Generated Imagery), compositing, y post-producción.

Procesamiento de Gráfica Estática y Dinámica: Manipulación y mejora de imágenes fijas y en movimiento mediante técnicas de filtrado, transformación, y animación.

Armado de la Imagen: Ensamblaje de imágenes compuestas a partir de múltiples fuentes o capas, como en la edición de video y fotografía.

Subtitulado Electrónico: Inclusión de texto en imágenes de video para traducción, transcripción, o información adicional. Puede ser incrustado en la imagen o transmitido como un flujo de datos separado.

Televisión Multiplataforma

Sistemas de Distribución vía Internet: Plataformas de transmisión de video por internet como IPTV (Internet Protocol Television), OTT (Over-the-Top), y servicios de streaming (Netflix, YouTube).

Almacenamiento y Procesamiento "In The Cloud": Uso de servicios en la nube para almacenar, procesar, y distribuir contenido multimedia, mejorando la accesibilidad y escalabilidad. Ejemplos incluyen Amazon Web Services (AWS), Google Cloud, y Microsoft Azure.

Protocolos de Transporte sobre IP

TCP (Transmission Control Protocol): Protocolo orientado a conexión que garantiza la entrega fiable y ordenada de datos.

UDP (User Datagram Protocol): Protocolo sin conexión que permite la transmisión rápida de datos, pero sin garantías de entrega ordenada o fiabilidad.

EUDP (Enhanced UDP): Variante de UDP con mejoras para aplicaciones específicas, como la transmisión de multimedia en tiempo real.

Aplicaciones sobre HTTP:

Estos conceptos abarcan una amplia gama de tecnologías y métodos utilizados en el procesamiento de imagen y video, asegurando la calidad, eficiencia y sincronización en diversas aplicaciones multimedia.