Ancho de banda para aplicaciones CCTV

Image

El ancho de banda es el elemento más importante al diseñar una red Ethernet para videovigilancia. Sin una buena planificación los sistemas de videovigilancia pueden encontrarse con un cuello de botella en la red Ethernet de comunicación entre las cámaras y los videograbadores. Esto no sólo causa pérdidas de paquetes o retardos sino que también degrada la calidad del video o incluso puede llegar a impedir su grabación. Este ancho de banda también determina la capacidad de almacenamiento del sistemas para un determinado período de tiempo. Este artículo nos introduce en los elementos más importantes que impactan en el caudal de este tipo de redes.

¿Qué es el ancho de banda?

La señal de video sobre IP se transmite como un flujo de datos que contiene imágenes, audio y datos de control de la cámara. La cantidad de datos que tenemos que enviar por segundo se denomina ancho de banda. Normalmente se mide en Mbit/s, permitiendo su comparación instantánea con la capcidad de un enlace Ethernet. Por ejemplo, 10 Mbit/s se denomina Ethernet, 100 Mbit/s se denomina Fast Ethernet y 1,000 Mbit/s se denomina Gigabit Ethernet. Otra forma de medida es en MByte/s, que equivale a 1/8 de la velocidad en bits ya que 1 byte son 8 bits.
1 Mbit/s = 1,000 Kbit/s = 125 Kbyte/s
1 Gbit/s = 1,000 Mbit/s = 125 Mbyte/s
Una cámara HD de resolución 1920 x 1080 genera un vídeo en formato raw (bruto) a 1.49 Gbit/s (30 x 1920 x 1080 x 24) para un flujo de vídeo de imaágenes por segundo 30 FPS video. Esto equivale a 178 MByte/s de datos y esa es la razón por la que necesitamos sistemas de compresión de video para reducir estos caudales.

Bits y Bytes

En los sistemas de videovigilancia, el ancho de banda se suele medir en bits pero a veces también puede hacerse en bytes causando confusión. 8 bits equivalen a 1 byte, por tanto, un ancho de banda de 40 Megabits por segundo equivale a un ancho de banda de 5 Megabytes por segundo.

Bits y bytes usan la misma letra en sus abreviaturas, la única diferencia es que cuando hablamos de bits se usa la minúscula ‘b’ y cuando hablamos de bytes usamos la mayúscula ‘B’. Por ejemplo, 100Kb/s y 100KB/s, pueden parecer la mismo pero el segundo caudal es 8 veces el primero puesto que vimos que 1 byte equivale a 8 bits.
Recomendamos siempre usar bits al hablar de caudal en las comunicaciones pero a menudo los profesionales que hablan de servidores y almacenamiento usan el conecto de bytes.

Kilobits, Megabits y Gigabits

Debido a los elevados anchos de banda que necesitan los sistemas de transmisión de video nunca hablamos de bits sino de unidades de miles o millones de bits.. Por eso usamos la siguiente nomenclatura:

Kilobits son miles de de bits, por ejemplo, 500Kb/s equivale a 500,000b/s. Un flujo individual de video en el margen de los kilobits o bien es de baja resolución, o bien con pocas imágenes por segundo o bien con una alta compresión (o las tres al mismo tiempo).
Megabits son millones, por ejemplo, 5Mb/s equivale a 5,000,000b/s. Un flujo individual de video en las unidades del Megabit (por ejemplo, 1Mb/s o 2Mb/s o 4Mb/s son unidades típicas). Anchos de banda superiores a los 10Mb/s para un flujo individual es más inusual, aunque no imposible en modelos de muy alta resolución (4K, 20MP, 30MP, etc.). Sin embargo, 100 cámaras transmitiendo al mismo tiempo pueden necesitar un ancho de banda de 200Mb/s o 300Mb/s.
Gigabits son billones, por ejemplo, 5Gb/s equivale a 5,000,000,000b/s. Estas velocidades sólo son necesarias en el flujo agregado de múltiples cámaras de alta resolución.

Compresión de video y ancho de banda

Los mecanismos de compresión de video permiten codificar este video para reducir el tamaño del mismo. Esto nos permite por un lado almacenar más tiempo de grabaciones en un mismo espacio de almacenaje y transmitir estos flujos de video en menos tiempo. La mayoría de estos mecanismos se basan en eliminar redundancias e información no esencial o necesaria para luego tratar la información de visualización.

Una vez el flujo de video es comprimido, el formato del mismo se ve modificado de forma que el reproductor de dicho video debe soportar el tipo de compresión utilizado.

Motion JPEG

Motion JPEG (M-JPEG o MJPEG) es un formato de compresión en el que cada trama de video o imagen entralazada es comprimida como como una imagen JPEG.

Este mecanismo se desarrolló originalmente para aplicaciones multimedia en el PC y por tanto está soportando en la mayor parte de navegadores web y reproductores y también existen en el mercado plug-ins para otras aplicaciones. Las principales aplicaciones y dispositivos que utilizan MJPEG son navegadores web, reproductores multimedia, consolas de videojuegos, cámaras digitales, cámaras IP webcams y servidores de video.

H.264

H.264, también denominado MPEG-4 AVC, es un mecanismo que se introdujo en 2003 y es el predominante en sistemas de videovigilancia y en muchas aplicaciones multimedia. A diferencia del mecanismo MJPEG, H.264 guarda una imagen completa cada segundo y codifica el resto de imágenes intermedias únicamente a través de sus diferencias respecto a la imagen completa anterior. Las imágenes completas se denominan I-frame (también index frame o intra-frame) y las parciales que contienen únicamente las diferencias respecto a la imagen completa anterior se denominan P-frame (también predicted frame or inter-frame). Las P-frames son más reducidas y numerosas que las I-frames. Existen también las B-frame (bidirectional frame), que codifican las diferencias entre la imagen anterior y posterior. La secuencia recurrente de I-P-B frames se denomina group of pictures (GOP). El intervalo entre I-frames puede variar desde varias por segundo hasta casi un minuto. Cuantas más I-frames transmitimos, el flujo tiene un mayor tamaño pero también es más fácil la decodificación del flujo en el extremo receptor que sólo puede llevarse a cabo tras recibir una I-frame.

H.265

También llamado High-Efficiency Video Coding (HEVC) o MPEG-H Part 2, es un mecanismo parte del proyecto MPEG-H como sucesor al Advanced Video Coding (AVC, H.264 o MPEG-4 Part 10). En comparación al AVC, HEVC ofrece una compresión entre 25% a 50% superior manteniendo la calidad del video o bien mejora sensiblemente esta calidad manteniendo el mismo bit rate. Soporta resoluciones hasta 8192×4320, incluyendo 8K UHD y ha sido incoporado en la mayor parte de hardware de codificación y decodificación de video.

Constant and Variable Bit Rates (CBR and VBR)

Bitrate mide la cantidad de datos que son transferidos en un determinado periodo de tiempo. En sistema de video streaming, video bitrate se mide en kilobits por segundo, o kbps. Bitrate afecta a la calidad del video. Streaming con bitrates altos permiten producir flujos de video con alta calidad.

Constant Bitrate (CBR)

Cuando configuramos una cámara con CBR, ésta se configura para transmitir el flujo de datos a un ritmo o bitrate constante. A mayores cambios en la imagen más compresión necesitamos para mantener el bitrate y esto puede degradar la calidad de la imagen. Con CBR, la calidad de la imagen se sacrifica para ajustarse al ancho de banda seleccionado. Si este ancho de banda está correctamente fijado, la degradación de la imagen puede ser apenas perceptible y este modo de funcionamiento nos facilita el cálculo del espacio de almacenamiento y el dimensionado de los enlaces. CBR es quizás el método más apropiado para instalaciones de cámaras en un entrono de área local (LAN) controlado.

Variable Bitrate (VBR)

Cuando seleccionamos VBR el flujo de video es comrimido de forma variable o dinámica ajustándose en función de la calidad de la imagen requerida. Por tanto, VBR puede ser más adecuado que CBR en imágenes en movimiento. El inconveniente es que el ancho de banda necesario para la transmisión del flujo también puede variar en función del tipo de imágenes y su variabilidad . En consecuencia podemos agotar el espacio de almacenamiento antes de lo previsto o pueden aparecer cuellos de botella que requieran un aumento de capacidad de forma inesperada. Con VBR el usuario debe configurar simplemente una previsión de ancho de banda (bitrate) y nivel de calidad de las imágenes y el mecanismo ya se ajusta automáticamente según estos parámetros.

El nivel de compresión VBR puede ajustarse a Extra High, High, Normal, Low y Extra Low en algunos sistemas de grabación.

Video quality Extra Low, ancho de banda medio de 0.5 Mbit/s
Video quality Extra High, ancho de banda medio de 1.5 Mbit/s

Consumo de ancho de banda por cámara

El consumo de ancho de banda por cámara se basa en algunos criterios fundamentales:

  • Resolución: a mayor resolución de las imágenes mayor ancho de banda necesario
  • Frame Rate (imágenes por segundo): A mayor número de imágenes por segundo, mayor ancho de banda necesario
  • Complejidad de la escena: a mayor actividad en la escena mayor ancho de banda necesario
  • Luminosidad baja: visión nocturna acostumbra (aunque no siempre) a requerir un ancho de banda superior debido al ruido de las cámaras

Video Resolution

Cada cámara tiene un sensor de imagen. Los pixeles disponibles de izquierda a derecha definen la resolucion horizantal y los pixeles de arriba a abajo la resolución vertical. Si multiplicamos ambos números obtenemos la resolución del sensor de imagen.

Si asumimos 24 bits para definir el nivel decolor RGB de un pixel:

1920(H) x 1080(V) = 2,073,600 pixels =2.0 MP x 24 bits = 48 Mbit/s

4096(H) x 2160(V) = 8,847,360 pixels =8.0 MP x 24 bits = 192 Mbit/s

Por tanto, una cámara con un sensor de 4096 x 2160 consume un mayor ancho de banda al tener que transmitir el color de más pixeles. Pero por el contrario ofrece un imagen más nítida y clara de cara a reconocer un individuo o su cara o una matrícula de un vehículo. Por el contrario, una cámara con poca resolución consume menos ancho de banda pero ofrece un imagen menos clara o con peor definición lo que puede hacerla inútil para ciertas tareas de reconocimiento.

La resolución no es el único factor que influje en la claridad de una imagen. El rendimiento de la lente óptica, la distancia focal (zoom óptico), la distancia al objeto, las condiciones de luz o el polvo y condiciones ambientales también son factores críticos.

Frame Rate (imágenes por segundo)

El parámetro Frame rate en transmisiones de video define el número de imagenes enviadas por segundo (FPS o frames per second). A mayor FPS cualqueir objeto en movimiento en la imagen se mueve con mayor precisión y continuidad. Por el contrario, un bajo FPS puede llevarnos al punto de ver ‘saltar’ un objeto entre una posición y la siguiente sin apreciar un movimiento continuo y con la pérdida total de información entre estas imágenes. El ancho de banda aumenta con el frame rate aunque no de una forma proporcional, es decir, reducir el frame rate a la mitad no reduce el ancho de banda a la mitad sin algo menos. Los sistemas de videovigilancia modernos permiten hasta generar hasta 60 FPS. Sin embargo, las limitaciones de CPU restringen muchas veces esta FPS a un valor inferior. El valor ideal es aquel valor bajo pero suficiente para no perder los detalles esenciales entre imágenes. Así, si una cámara observa una escena fija no es necesario configurar el FPS a 30, basta con un valor entre 5 y 15 FPS. Como regla general, a mayor rapidez de movimiento de un objeto en la escena mayor valor de FPS necesitamos para capturarlo con precisión. En general este valor de FPS suele ajustarse una vez la cámara ha sido instalado y hemos comprobado el tipo de escenas que captura.

Complejidad de la escena

La complejidad de la escena también afecta al ancho de banda que una cámara genera. De forma general, a mayor complejidad mayor ancho de banda requerido para obtener una imagen de calidad. Por ejemplo, escenas con hojas de árboles u otros pequeños detalles incrementan la complejidad. Otras escenas como paredes con un fondo listo o pocas variaciones representan una menor complejidad. De igual forma, los objetos en movimiento aumentan la complejidad (personas, vehículos o incluso hojas de árbol en movimiento).

Escena compleja, video bitrate de 5 Mbit/s

Número de cámaras y clientes El número de cámaras influye de forma determinamente en el ancho de banda necesario para un sistema de videovigilancia. Si todas las cámaras son idénticas o están configuradas de idéntica forma, si doblamos el número de cámaras doblaremos el ancho de banda. Para mantener la escalabilidad de un sistema debemos poder ser capaces de trocear una topología compleja en partes más pequeñas y más manejables. Para ello debemos estructurar la red y distribuirla de forma uniforme permitiendo así su crecimiento actual y futuro. La clave es distribuir el ancho de banda evitando los cuellos de botella. Número de clientes de visualización Si el punto anterior está relacionada con el ancho de banda que necesitan las cámaras para transmitir los flujos de video a los sistemas de grabación, este punto está relacionado con los usuarios que se conectan en remoto a dichos grabadores para ver las imágenes en vivo o previamente almacenadas. Todo sistema de videovigilancia debe poder ser consultado y monitorizado por un equipo de personas de seguridad que analicen su contenido 24h al día, 7 días por semana. Estas tareas de visualización suponen un ancho de banda adicional equivalente a los flujos generados desde las cámaras a los grabadores. Por ello, en entornos donde puedan haber múltiples operadores visualizando imágenes simultáneamente, este consumo puede ser muy elevado y provocar problemas en la red.

Este artículo ha sido traducido directamente de la web de nuestro partner Fiberroad. Puedes consultar la versión original en inglés IP Surveillance System Bandwidth | Fiberroad Technology o bien descargar el PDF a continuación

1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (1 votos, promedio: 5,00 de 5)
Cargando...