Universidad de las Fuerzas Armadas ESPE
Nombre: María Vega
NRC: 6508
Ing M. Noury
CONVERGENCIA DE MEDIOS TICS II
TEMA: Cámara y Video
Realice lo siguiente:
• Elementos de un video digital
1. El guion: Es el texto o estructura escrita que contiene todo lo que se hablará o
mostrará en el video, es la base a partir de la cual se arma o produce el video. A
partir del guion se obtendrán los requerimientos del video:-Requerimiento de
imagen-Requerimiento de recursos-Locaciones-Talento-y todo lo necesario.
2. Levantamiento de la imagen: Consiste en grabar en video todas las imágenes
necesarias, pueden ser grabadas en las instalaciones del cliente, en foros, en la
calle o cualquier otra locación donde estas se encuentren o se requiera.
3. Animaciones: Son ilustraciones gráficas con movimiento, pueden ser utilizadas
con varios objetivos: Para darle movimiento al logotipo de una empresa, textos
de apoyo, para animar objetos y productos varios, etc.
4. Gráficos y textos: Son títulos o textos de apoyo que pueden aparecer por si
solos o encima de una o varias imágenes y sirven para reforzar palabras e ideas.
5. Traducción y subtitulaje: Doblaje: La narración se hará en el idioma extranjero
requerido mediante locutores que hablen perfectamente ese idioma o que sean
nativos del país donde ese idioma es hablado. Subtitulaje: El video conserva el
audio en el idioma original y se crean y adicionan subtítulos en el idioma
deseado.
6. Conductores a cuadro: Hay videos que requieren que el locutor, al mismo
tiempo que habla aparezca a cuadro; esto es, que guíe o conduzca el video frente
a cámara.
7. Recursos técnicos especializados: Algunas veces se requiere de la utilización
de equipos técnicos especializados como pueden ser: Grúas, Steadycam, Dollies,
etc.
8. Musicalización: A la mayoría de los videos se les adiciona música con varios
fines: amenizar la narración, darle fuerza a ciertas imágenes y dinamismo.
• Parámetros de video
1. Proporcionalidad: Es la razón entre la anchura y la altura de la imagen.
2. Resolución: Es el parámetro que determina la calidad del vídeo. Se mide en
píxeles de ancho por píxeles de alto.
3. Flujo de bits: Indica la cantidad de bits de información que se transmite en el
vídeo. Se mide en bits por segundo (bits/s).
4. Fotogramas por segundo (FPS): Es el parámetro que indica la cantidad de
imágenes fijas o fotogramas que muestra un vídeo digital por segundo.
• Formatos de video
AVI
AVI es acrónimo de Audio Video Interleave y no muchos saben que fue creado por
Microsoft como alternativa digital sin dependencia de un formato físico como el
entonces popular DVD. Entre sus ventajas, permite incluir varios canales de audio y
albergar contenido generado con distintos códecs.
MP4
MP4 admite también varios canales de audio, pero tiene la ventaja de permitir más
calidad de imagen y sonido en un archivo menos pesado, ya que comprime mejor los
datos. Apple, por ejemplo, apuesta por este formato y derivados para su contenido de
iTunes.
MKV
El formato de vídeo MKV es un formato abierto, libre de pagar derechos, y cuyo
nombre completo es Matroska, como las tradicionales muñecas rusas, ofrece muy buena
calidad de audio y vídeo en poco espacio.
FLV
El formato FLV o Flash Video fue creado por Macromedia, y posteriormente adquirido
por Adobe. Este formato suele encontrarse como extensión FLV o SWF. Al igual que
los demás contenidos Flash, los vídeos FLV están pensados para su reproducción online
desde el navegador a través de Adobe Flash Player.
MOV
MOV, de QuickTime Movie, recibe también el nombre de QuickTime File Format, y en
la actualidad sigue siendo el formato por defecto de QuickTime, el reproductor de vídeo
de macOS.
WMV
WMV se lanzó en 1999 y es el acrónimo de Windows Media Video, creado por
Microsoft para ofrecer vídeo con la mejor calidad posible vía streaming. Aunque no
ofrecía muy buena calidad, el WMV permitía transmitir vídeos en archivos de poco
tamaño, lo que era muy práctico con las conexiones a Internet de la época.
• Fundamentos de video digital
1. Duración de la película de vídeo
Depende inicialmente del tiempo de grabación o captura en el caso de una secuencia
continua. Pero lo habitual es seleccionar diferentes clips o partes de secuencias de
duración más corta para su edición de una forma previamente planificada.
Cuanto más clips y de más duración hay que montar, más larga es la línea de tiempo y
más capas será necesario ocupar en los programas de edición. Esto afecta directamente
al tamaño y manejabilidad del archivo nativo en el que se edita el vídeo.
2. Tamaño del marco o frame
El tamaño del marco tiene un impacto directo en el tamaño del archivo. La cantidad de
datos requeridos para crear vídeos de mayor resolución como 2K o 4K puede llegar a
ser prohibitiva para muchos equipos, aplicaciones de escritorio y web. El tamaño de
fotograma más común hoy en día por la relación de calidad y tiempo de creación,
además de por su versatilidad para visualizarlo en diferentes dispositivos o aparatos es
el FULL HD, con 1920×1080 píxeles. El tamaño anterior a este es el HD de 1280×720
píxeles, y por encima siguen el QHD o 2K con 2560×1440, y a continuación el UHD o
4K con 3840×2160 píxeles.
3. Relación de aspecto
Se trata de la relación de proporcionalidad entre la anchura y la altura del vídeo. Las
relaciones de aspecto más comúnmente utilizadas en vídeo digital son 4:3 (4 partes de
ancho y 3 de alto), 16: 9 (16 partes de ancho y 9 de alto), y 16:10 (16 partes de ancho y
10 de alto).
4. Cuadros por segundo
Los cuadros por segundo o fps, representan la cantidad de fotogramas o imágenes
estáticas por segundo de vídeo.
El vídeo estándar de calidad para TV utiliza una velocidad determinada de fotogramas
por segundo para crear el efecto de movimiento suave. Para la Web, una velocidad de
fotogramas de 15 o incluso 10 fps puede llegar a ser suficiente según el caso.
5. La calidad del vídeo
Muchas aplicaciones de edición de vídeo permiten establecer la calidad general de la
imagen. El grado en que los algoritmos de compresión validan o descartan los datos está
determinado por la configuración que se aplique y la calidad necesaria para cada tipo de
trabajo. Una compresión bastante alta da como resultado una calidad media o baja, pero
puede ser apropiada para la entrega en la web. Frecuencia de fotogramas y calidad son
conceptos que a menudo tienen una relación muy directa entre sí.
6. Profundidad de color en bits
El tamaño del vídeo se ve afectado también por la cantidad y variedad de colores
representados en los píxeles de cada fotograma. Disminuir su número estableciendo una
profundidad de color que cambie de 24 a 8 bits reducirá drásticamente el tamaño del
archivo de vídeo, sobre todo en las piezas de contenido o clips con imágenes fijas.
7. Velocidad de datos (tasa de bits)
Esta es la velocidad a la que se deben transferir los datos para que el vídeo se
reproduzca sin interrupciones. La velocidad de datos (también llamada “velocidad de
bits” o “bit rate”) para una película se mide en kilobytes por segundo (K/seg o Kbps).
Se puede calcular dividiendo el tamaño del archivo (en K) por la duración de la película
(en segundos). Por ejemplo, un fragmento de vídeo altamente comprimido de 1900K
(1.9 MB) y 40 segundos de duración tiene una velocidad de datos de 47.5K/seg.
8. “Sin pérdida” versus “con pérdida” en la compresión
La compresión puede ser “sin pérdida”, lo que significa que la imagen no pierde
información y el archivo final renderizado es idéntico al original. Algo importante en
los fundamentos del vídeo digital.
Los esquemas de compresión con pérdida, como MPEG, usan algoritmos complicados
que manejan y filtran datos para el sonido y los detalles de la imagen, y que no son
discernibles para el oído o el ojo humano.
9. Compresión espacial versus temporal
La compresión espacial (o intra-frame) tiene lugar en cada fotograma individual del
vídeo, comprimiendo la información del píxel como si fuera una imagen fija.
La compresión temporal (o inter-frame) ocurre en una serie de cuadros o marcos, y
aprovecha las áreas de la imagen que permanecen sin cambios de cuadro a cuadro,
arrojando datos para píxeles repetidos.
10. Códecs de vídeo
Existen variedad de códecs (algoritmos de compresión/descompresión) que se pueden
usar para comprimir archivos de vídeo y obtener diferentes resultados, incluyendo los
destinados a su visualización en la Web. Muchos de estos códecs se pueden aplicar a
varios formatos de archivo diferentes.
Algunos códecs más comunes y mejor reputados por su relación de compresión y
calidad a lo largo del tiempo son H.264 (también conocido como MPEG-4/AVC, el
estándar), On2 VP6 (no tan bueno), y Sorenson Media Spark H.263.
11. Codificar / transcodificar
La codificación de un archivo de vídeo o audio va desde un formato sin comprimir (por
ejemplo, WAV), a un formato de flujo de bits codificado con pérdida (por ejemplo,
MP4).
La transcodificación de un archivo va de un formato con pérdida a otro también con
pérdida, pero con un algoritmo diferente (por ejemplo, de formato FLV a MP4).
También puede tener el mismo formato, pero diferente resolución, velocidad de bits,
etc.
12. Formatos de archivos de vídeo
Similar a un archivo ZIP, un formato de archivo de vídeo determina cómo otros
archivos y códecs están contenidos en el archivo padre. Se trata de un archivo de
contenedor, elemento imprescindible a tener en cuenta entre los fundamentos del vídeo
digital.
Un archivo de vídeo contenedor generalmente contiene varias pistas, una pista de vídeo
(sin audio) y una o más pistas de audio (sin vídeo), que están interrelacionadas y
sincronizadas.
13. Reproductor de vídeo (código / decodificación)
El códec de vídeo es el que describe el algoritmo por el cual un vídeo está codificado.
Aquí entra en juego el software reproductor de vídeo, que decodifica el vídeo
interpretando su códec, y luego muestra una serie de imágenes o marcos en la pantalla.
Fuente de apoyo: https://www.ingeniovirtual.com/los-fundamentos-del-video-digital/

Taller6mariavegatics2

  • 1.
    Universidad de lasFuerzas Armadas ESPE Nombre: María Vega NRC: 6508 Ing M. Noury CONVERGENCIA DE MEDIOS TICS II TEMA: Cámara y Video Realice lo siguiente: • Elementos de un video digital 1. El guion: Es el texto o estructura escrita que contiene todo lo que se hablará o mostrará en el video, es la base a partir de la cual se arma o produce el video. A partir del guion se obtendrán los requerimientos del video:-Requerimiento de imagen-Requerimiento de recursos-Locaciones-Talento-y todo lo necesario. 2. Levantamiento de la imagen: Consiste en grabar en video todas las imágenes necesarias, pueden ser grabadas en las instalaciones del cliente, en foros, en la calle o cualquier otra locación donde estas se encuentren o se requiera. 3. Animaciones: Son ilustraciones gráficas con movimiento, pueden ser utilizadas con varios objetivos: Para darle movimiento al logotipo de una empresa, textos de apoyo, para animar objetos y productos varios, etc. 4. Gráficos y textos: Son títulos o textos de apoyo que pueden aparecer por si solos o encima de una o varias imágenes y sirven para reforzar palabras e ideas. 5. Traducción y subtitulaje: Doblaje: La narración se hará en el idioma extranjero requerido mediante locutores que hablen perfectamente ese idioma o que sean nativos del país donde ese idioma es hablado. Subtitulaje: El video conserva el audio en el idioma original y se crean y adicionan subtítulos en el idioma deseado. 6. Conductores a cuadro: Hay videos que requieren que el locutor, al mismo tiempo que habla aparezca a cuadro; esto es, que guíe o conduzca el video frente a cámara. 7. Recursos técnicos especializados: Algunas veces se requiere de la utilización de equipos técnicos especializados como pueden ser: Grúas, Steadycam, Dollies, etc. 8. Musicalización: A la mayoría de los videos se les adiciona música con varios fines: amenizar la narración, darle fuerza a ciertas imágenes y dinamismo. • Parámetros de video 1. Proporcionalidad: Es la razón entre la anchura y la altura de la imagen. 2. Resolución: Es el parámetro que determina la calidad del vídeo. Se mide en píxeles de ancho por píxeles de alto. 3. Flujo de bits: Indica la cantidad de bits de información que se transmite en el vídeo. Se mide en bits por segundo (bits/s). 4. Fotogramas por segundo (FPS): Es el parámetro que indica la cantidad de imágenes fijas o fotogramas que muestra un vídeo digital por segundo.
  • 2.
    • Formatos devideo AVI AVI es acrónimo de Audio Video Interleave y no muchos saben que fue creado por Microsoft como alternativa digital sin dependencia de un formato físico como el entonces popular DVD. Entre sus ventajas, permite incluir varios canales de audio y albergar contenido generado con distintos códecs. MP4 MP4 admite también varios canales de audio, pero tiene la ventaja de permitir más calidad de imagen y sonido en un archivo menos pesado, ya que comprime mejor los datos. Apple, por ejemplo, apuesta por este formato y derivados para su contenido de iTunes. MKV El formato de vídeo MKV es un formato abierto, libre de pagar derechos, y cuyo nombre completo es Matroska, como las tradicionales muñecas rusas, ofrece muy buena calidad de audio y vídeo en poco espacio. FLV El formato FLV o Flash Video fue creado por Macromedia, y posteriormente adquirido por Adobe. Este formato suele encontrarse como extensión FLV o SWF. Al igual que los demás contenidos Flash, los vídeos FLV están pensados para su reproducción online desde el navegador a través de Adobe Flash Player. MOV MOV, de QuickTime Movie, recibe también el nombre de QuickTime File Format, y en la actualidad sigue siendo el formato por defecto de QuickTime, el reproductor de vídeo de macOS. WMV WMV se lanzó en 1999 y es el acrónimo de Windows Media Video, creado por Microsoft para ofrecer vídeo con la mejor calidad posible vía streaming. Aunque no ofrecía muy buena calidad, el WMV permitía transmitir vídeos en archivos de poco tamaño, lo que era muy práctico con las conexiones a Internet de la época. • Fundamentos de video digital 1. Duración de la película de vídeo Depende inicialmente del tiempo de grabación o captura en el caso de una secuencia continua. Pero lo habitual es seleccionar diferentes clips o partes de secuencias de duración más corta para su edición de una forma previamente planificada. Cuanto más clips y de más duración hay que montar, más larga es la línea de tiempo y más capas será necesario ocupar en los programas de edición. Esto afecta directamente al tamaño y manejabilidad del archivo nativo en el que se edita el vídeo. 2. Tamaño del marco o frame El tamaño del marco tiene un impacto directo en el tamaño del archivo. La cantidad de datos requeridos para crear vídeos de mayor resolución como 2K o 4K puede llegar a
  • 3.
    ser prohibitiva paramuchos equipos, aplicaciones de escritorio y web. El tamaño de fotograma más común hoy en día por la relación de calidad y tiempo de creación, además de por su versatilidad para visualizarlo en diferentes dispositivos o aparatos es el FULL HD, con 1920×1080 píxeles. El tamaño anterior a este es el HD de 1280×720 píxeles, y por encima siguen el QHD o 2K con 2560×1440, y a continuación el UHD o 4K con 3840×2160 píxeles. 3. Relación de aspecto Se trata de la relación de proporcionalidad entre la anchura y la altura del vídeo. Las relaciones de aspecto más comúnmente utilizadas en vídeo digital son 4:3 (4 partes de ancho y 3 de alto), 16: 9 (16 partes de ancho y 9 de alto), y 16:10 (16 partes de ancho y 10 de alto). 4. Cuadros por segundo Los cuadros por segundo o fps, representan la cantidad de fotogramas o imágenes estáticas por segundo de vídeo. El vídeo estándar de calidad para TV utiliza una velocidad determinada de fotogramas por segundo para crear el efecto de movimiento suave. Para la Web, una velocidad de fotogramas de 15 o incluso 10 fps puede llegar a ser suficiente según el caso. 5. La calidad del vídeo Muchas aplicaciones de edición de vídeo permiten establecer la calidad general de la imagen. El grado en que los algoritmos de compresión validan o descartan los datos está determinado por la configuración que se aplique y la calidad necesaria para cada tipo de trabajo. Una compresión bastante alta da como resultado una calidad media o baja, pero puede ser apropiada para la entrega en la web. Frecuencia de fotogramas y calidad son conceptos que a menudo tienen una relación muy directa entre sí. 6. Profundidad de color en bits El tamaño del vídeo se ve afectado también por la cantidad y variedad de colores representados en los píxeles de cada fotograma. Disminuir su número estableciendo una profundidad de color que cambie de 24 a 8 bits reducirá drásticamente el tamaño del archivo de vídeo, sobre todo en las piezas de contenido o clips con imágenes fijas. 7. Velocidad de datos (tasa de bits) Esta es la velocidad a la que se deben transferir los datos para que el vídeo se reproduzca sin interrupciones. La velocidad de datos (también llamada “velocidad de bits” o “bit rate”) para una película se mide en kilobytes por segundo (K/seg o Kbps). Se puede calcular dividiendo el tamaño del archivo (en K) por la duración de la película (en segundos). Por ejemplo, un fragmento de vídeo altamente comprimido de 1900K (1.9 MB) y 40 segundos de duración tiene una velocidad de datos de 47.5K/seg. 8. “Sin pérdida” versus “con pérdida” en la compresión La compresión puede ser “sin pérdida”, lo que significa que la imagen no pierde información y el archivo final renderizado es idéntico al original. Algo importante en los fundamentos del vídeo digital.
  • 4.
    Los esquemas decompresión con pérdida, como MPEG, usan algoritmos complicados que manejan y filtran datos para el sonido y los detalles de la imagen, y que no son discernibles para el oído o el ojo humano. 9. Compresión espacial versus temporal La compresión espacial (o intra-frame) tiene lugar en cada fotograma individual del vídeo, comprimiendo la información del píxel como si fuera una imagen fija. La compresión temporal (o inter-frame) ocurre en una serie de cuadros o marcos, y aprovecha las áreas de la imagen que permanecen sin cambios de cuadro a cuadro, arrojando datos para píxeles repetidos. 10. Códecs de vídeo Existen variedad de códecs (algoritmos de compresión/descompresión) que se pueden usar para comprimir archivos de vídeo y obtener diferentes resultados, incluyendo los destinados a su visualización en la Web. Muchos de estos códecs se pueden aplicar a varios formatos de archivo diferentes. Algunos códecs más comunes y mejor reputados por su relación de compresión y calidad a lo largo del tiempo son H.264 (también conocido como MPEG-4/AVC, el estándar), On2 VP6 (no tan bueno), y Sorenson Media Spark H.263. 11. Codificar / transcodificar La codificación de un archivo de vídeo o audio va desde un formato sin comprimir (por ejemplo, WAV), a un formato de flujo de bits codificado con pérdida (por ejemplo, MP4). La transcodificación de un archivo va de un formato con pérdida a otro también con pérdida, pero con un algoritmo diferente (por ejemplo, de formato FLV a MP4). También puede tener el mismo formato, pero diferente resolución, velocidad de bits, etc. 12. Formatos de archivos de vídeo Similar a un archivo ZIP, un formato de archivo de vídeo determina cómo otros archivos y códecs están contenidos en el archivo padre. Se trata de un archivo de contenedor, elemento imprescindible a tener en cuenta entre los fundamentos del vídeo digital. Un archivo de vídeo contenedor generalmente contiene varias pistas, una pista de vídeo (sin audio) y una o más pistas de audio (sin vídeo), que están interrelacionadas y sincronizadas. 13. Reproductor de vídeo (código / decodificación) El códec de vídeo es el que describe el algoritmo por el cual un vídeo está codificado. Aquí entra en juego el software reproductor de vídeo, que decodifica el vídeo interpretando su códec, y luego muestra una serie de imágenes o marcos en la pantalla. Fuente de apoyo: https://www.ingeniovirtual.com/los-fundamentos-del-video-digital/