domingo, 27 de noviembre de 2016

INTEGRACIÓN DE SONIDO E IMAGEN.

  1. LA FUNCIÓN EXPRESIVA DEL SONIDO.
El lenguaje audiovisual recibe este nombre porque ambos componentes trabajan al unísono, para llevar la sensación, la información(incluido el placer del receptor) el cual lo recibe por ese doble canal: el oído y los ojos. En esta dualidad reside su magia y su riqueza.
El sonido es esencial como elemento narrativo, actuando en tres líneas expresivas: 
 - Comunica sensaciones y universos espaciales, creando perspectivas. 
 - Crea y comunica la continuidad del relato. 
 - Matiza, intensificando o suavizando el efecto narrativo de la imagen.
En la calidad del sonido no existen términos medios: o es perfecta o es mala; los fallos en la grabación no suelen tener remedio.
Como en los restantes elementos que concurren en la producción, el sonido necesita una planificación, aunque resulta difícil valorar todas las circunstancias acústicas que van a intervenir en un rodaje, ya que algunas surgen en el momento de la acción. 
 - El estudio del sonido se efectuará desde dos puntos de vista: el técnico y el de su vertiente narrativa.

  2¿QUÉ ES EL SONIDO?

2.1.Conceptos y variables que definen el sonido.
Sonido es la sensación producida por las variaciones de presión, que generadas por el movimiento vibratorio de un objeto(la fuente) se transmiten a través de un medio elástico: gaseoso, líquido o bien sólido. Un cuerpo sólo emite sonido cuando vibra y necesita un medio para transmitirse, no se propaga en el vacío.
Cuando hablamos del sonido audible por el ser humano, nos referimos a la sensación detectada por nuestro oído, producida por las rápidas variaciones de presión en el aire por encima y por debajo de un valor estático(la presión atmosférica) Esas vibraciones llegan a la membrana del oído externo y medio (el tímpano) y se propagan por medio de la cadena de huesecillos del oído hasta el nervio auditivo que manda la señal al cerebro.
De manera que el término sonido posee una doble significación: designa la sensación experimentada por un sujeto al estimularse sus terminaciones nerviosas, y a la vez, describe objetivamente el movimiento vibratorio que provoca ese estímulo.

FACTORES NECESARIOS PARA LA PRODUCCIÓN DEL SONIDO:
  • Un cuerpo vibrante(emisor o fuente)
  • Un medio elástico a través del cual se desplazan las vibraciones.
  • Un receptor del tipo que sea (el oído humano o la membrana del micrófono)
VARIABLES QUE DEFINEN EL SONIDO.

 -INTENSIDAD: es la energía que contiene el sonido. Viene determinada por la amplitud de onda y se traduce en el volumen con que lo escuchamos. Se mide en decibelios (dB)
 -EL TONO: Es la frecuencia de la onda, que nos permite distinguir entre sonidos graves (frecuencia baja) y agudos(frecuencia alta) Se mide en ciclos / segundo o hercios (Hz). El oído humano puede percibir una gama que va entre 20 Hz y 20.000 Hz. Con los años vamos perdiendo parte de este espectro.
-EL TIMBRE: Se refiere a las frecuencias secundarias. Los sonidos puros en la vida cotidiana no existen, vienen acompañados de manera que la onda principal se presenta junto a otras frecuencias secundarias, múltiplos de la misma, llamadas “armónicos”. Una misma nota tocada por varios instrumentos, posee la misma frecuencia. La diferencia estriba en el número e intensidad de sus armónicos.
2.2.CONCEPTOS FUNDAMENTALES DELMOVIMIENTO ONDULATORIO.

- VELOCIDAD: Es el espacio que avanza la onda por unidad de tiempo. Varía según el tipo de onda y del medio por el que se propague.
 - PERÍODO: es el tiempo que tarda una partícula en efectuar una oscilación completa. Ejemplo: Si tenemos un corcho flotando en el agua que es alcanzado por una ola(0nda superficial transversal) el período es el tiempo que tarda el corcho en subir y bajar hasta volver a su posición inicial. Se representa mediante una “T”.
 - FRECUENCIA: Es el número de oscilaciones completas que realiza una partícula por unidad de tiempo. Se mide en hertz o hercios (Hz), siendo un hercio una oscilación completa por segundo. Se representa por la letra griega “u”. De acuerdo con la definición de período, como una oscilación dura T segundos, en un segundo habrá 1/T oscilaciones. u= 1/T
La frecuencia es el valor inverso del período.
 - CONCORDANCIA DE FASE. Dos puntos de un medio elástico por el que se propaga una onda están en concordancia de fase si, en un instante determinado, los dos ocupan posiciones idénticas y se mueven del mismo modo(hacia arriba o hacia abajo). (Concordancia de fase) En esta figura los puntos A y B están en concordancia de fase, pero no así el C, porque aunque se encuentra a la misma altura, baja en vez de subir.
 - LONGITUD DE ONDA. Es la distancia entre dos puntos consecutivos cualesquiera, que se encuentran en concordancia de fase. Se representa mediante la letra griega lambda y equivale a la distancia que avanza la onda en el tiempo.
- AMPLITUD. Es la separación máxima que alcanzada punto respecto a su posición de equilibrio, es decir, el eje de la onda, es decir la diferencia entre la cresta y la vaguada, Observamos en el primer dibujo tanto la longitud de onda como la amplitud(A)

 



FRECUENCIA





3.LA CADENA DE LA SEÑAL SONORA. - Desde que en el siglo XIX se crean los primeros artilugios mecánicos, los fonógrafos, capaces de almacenar sonidos, el camino de la manipulación sonora ha sido largo y brillante. - La moderna cadena de grabación y reproducción del sonido tiene su origen en fuentes reales o en las producidas electrónicamente, pero la clave está en el proceso de “transducción”: transformación de ondas sonoras en señales eléctricas que nos permitan su grabación, manipulación y almacenaje sobre algún soporte, bien sea analógico o digital, para finalmente proceder a su reproducción y escucharlas. - El micrófono es el primer eslabón de la cadena de grabación del sonido. El resultado final depende de su calidad y de su uso correcto.




 3.1 EL MECANISMO DE LA AUDICIÓN. El tímpano situado en el oído externo es excitado por la onda sonora, entrando en vibración. Las vibraciones se transmiten mediante la cadena de huesecillos del oído medio( martillo, yunque, lenticular y estribo) que producen un incremento de nivel aproximadamente, un 15:1. Luego son transmitidas al fluido del oído interno o cóclea, en cuyo centro se encuentra la membrana “basilar” cuyas vibraciones dependen de la frecuencia de la base sonora.
El oído interno. Las curvas de Fletcher y Mursom en las que observamos cómo el oído humano es más sensible a las frecuencias medias, que a las graves o agudas.
- El oído humano no responde igual a todas las frecuencias. Un tono puro,a frecuencia de 125Hz y con 15 dB de nivel, sería inaudible, pero si aumentamos la frecuencia a 500 hercios, sin variar el nivel de presión, se obtendrá un tono claramente audible.






3.2.LOCALIZACIÓN ESPACIAL O PERCEPCIÓN DIRECCIONAL.
El cerebro localiza la fuente del sonido basándose en la diferencia de fase entre las señales que acuden a un oído o a otro. La diferencia de nivel entre los oídos se debe principalmente a la “sombra” producida por la cabeza. Las altas frecuencias se localizan principalmente por diferencia de nivel y las bajas por diferencia de fase(diferencia entre las posiciones de las crestas de la onda) El movimiento de la cabeza colabora instintivamente a su ubicación.
La aplicación más práctica de la localización puede que sea la emisión de dos altavoces de un sistema estéreo: dos fuentes sonoras emitiendo sonidos coherentes. Entre el oyente y los dos altavoces se forma un triángulo equilátero de 3 metros de lado. Además se suele alzar los altavoces unos pocos grados del plano horizontal de la audición. Si el oyente se sitúa en medio, los escuchará al mismo nivel.


3.3.PERSPECTIVA Y PLANOS SONOROS.
Después de la palabra, la percepción del espacio es la información más importante que interpreta nuestro sistema auditivo.
Igual que en el campo de la imagen el uso de la perspectiva es una herramienta importante para conseguir el efecto de la tercera dimensión, cuando hablamos de sonido tendremos en cuenta el punto de audición.
PLANO SONORO: ENLACE
PERSPECTIVA SONORA: Es la sensación de distancia o acercamiento, que produce un emisor de sonido con respecto a nuestro punto de audición. Nuestro oído es sensible a ese desplazamiento y esto queda acentuado cuando el elemento receptor es un micrófono.
 -4.1. LA GRABACIÓN DEL SONIDO.
 EL MICRÓFONO: es un traductor acustico-eléctrico, o sea, un dispositivo que transforma una energía mecánica(acústica) en eléctrica, mediante un doble proceso: Primero transforma las variaciones de presión de la onda sonora en oscilaciones mecánicas, para después convertir éstas en variaciones de tensión o corriente eléctrica.
La tensión de la energía eléctrica generada es proporcional a la presión ejercida por la energía acústica. Como funciona el microfono Discovery MAX - YouTube
F. Micrófonos inalámbricos.
- El transductor acustico-mecánico es una membrana llamada DIAFRAGMA que se mueve según las variaciones de presión. Como tiene dos superficies, según hagamos incidir la onda sonora sobre una o ambas a la vez,las oscilaciones producidas en el diafragma serán proporcionales a la presión incidente sobre su cara frontal o a la diferencia de presión entre las dos caras. Según este criterio, podemos clasificar los micrófonos en dos grupos:
MICRÓFONOS DE PRESIÓN: Son aquellos cuya respuesta eléctrica está en función de las variaciones de presión que recibe de la onda sonora.
MICRÓFONOS DE GRADIENTE DE PRESIÓN: responden a la diferencia de presión entre dos puntos separados por una distancia muy pequeña.
MICRÓFONOS MECANO-ELÉCTRICOS que a su vez se clasifican en: - DINÁMICOS ( o de bobina móvil) - DE CONDENSADOR : Alimentado a través de la malla del cable del micro (Phantom) -El estudio de los tipos de micrófono puede realizarse según su modo de funcionamiento,o bien por la forma en que recogen el sonido, que se representa por medio de un diagrama polar.
El diagrama polar de un micrófono refleja la sensibilidad con que es capaz de captar un sonido según el ángulo con que incida éste. Se trata de un mapa que indica la magnitud de captación del micrófono para los diferentes ángulos de incidencia de la onda sonora y nos informa sobre el comportamiento de los sonidos, dependiendo del lugar de procedencia.
Los diagramas polares se pueden dividir básicamente en tres: el omnidireccional, el bidireccional y el unidireccional.




EL DIAGRAMA POLAR OMNIDIRECCIONAL
Recibe con la misma sensibilidad cualquier sonido, no importando el punto de donde proceda.
Su diagrama es circular. Micrófonos de cañón.
Los micrófonos omnidireccionales de alta calidad se caracterizan por una respuesta plana y por cubrir un margen amplio de frecuencias, desde las más bajas a las más altas.
EL DIAFRAGMA POLAR BIDIRECCIONAL O DE “FORMA DE OCHO”. Presenta gran sensibilidad en el frente, con un ángulo amplio y una imagen simétrica en la parte posterior, siendo menos sensible en las partes laterales. Se utiliza poco.
EL DIAFRAGMA POLAR UNIDIRECCIONAL.
Es aquel que posee una mayor sensibilidad a los sonidos que llegan de frente a la cápsula, con un ángulo relativamente amplio.
Diagramas polares de tipo: omnidireccional, bidireccional y unidireccional.
A su vez los unidireccionales se dividen en tres: el cardioide, el supercardioide y el hipercardioide.
Cada uno de ellos presenta un diafragma polar cada vez más estrecho y como consecuencia, se van haciendo más insensibles a los sonidos de la parte lateral y posterior. 
- LA RESPUESTA CARDIOIDE O EN FORMA DE “CORAZÓN”. Responde a los micrófonos típicos de vocalista, debido a que el estrecho ángulo de captación para altas frecuencias contribuye a eliminar sonidos no procedentes de la fuente principal situada frontalmente.
- Los micrófonos de RESPUESTA HIPERCARDIOIDE poseen un diafragma polar “casi ideal”. Presentan la relación más alta entre sonido frontal y sonido lateral y trasera: la relación entre un sonido situado en el eje de captación y el de los sonidos reflejados captados desde distintos ángulos es muy alta, lo que les hace idóneos para evitar sonidos indeseados, como el excesivo sonido ambiente o los sonidos reflejados.
LOS MICRÓFONOS INALÁMBRICOS. Un sistema de micrófono inalámbrico consta de un micrófono normal, un transmisor de frecuencia modulada(incluida en la carcasa del micrófono o, más frecuentemente en una unidad independiente que lleva el actor camuflada en su ropa) una antena y un receptor. La energía necesaria para su funcionamiento es generada por una pila. Cuando conversan dos personas, cada una de ellas debe utilizar un micro con una frecuencia diferente y la separación de canales debe ser suficiente para que no se produzcan interferencias. 



 5. EL REGISTRO DEL SONIDO.
5.1.LA CADENA DE GRABACIÓN.
El proceso de grabación de señales sonoras puede originarse tanto en fuentes acústicas reales (voz, instrumentos musicales, sonidos ambientales de cualquier tipo) como en señales eléctricas producidas y manipuladas electrónicamente. Mientras que las primeras las captamos mediante micrófonos, las segundas podemos tratarlas introduciendo directamente las señales eléctricas( producidas por ejemplo en un sintetizador)en una mesa de mezclas. Combinamos, filtramos, ecualizamos, manipulamos las diversas entradas de la mesa, procediendo a su grabación.
La discografía moderna usa casi siempre grabación multipista postproducida( mientras que la música clásica se graba en directo generalmente).El uso de esta técnica es simple. Se graba cada fuente por separado, constituyendo un montaje en cascada, suceptible de ser mezclado y manipulado hasta el infinito. Su máxima sofisticación la constituye la introducción de sistemas digitales. 

 5.2. LA MESA DE MEZCLAS.
El mezclador de sonido realiza más funciones que la simple combinación o suma de señales procedentes de distintas fuentes sonoras:
  • Adaptar niveles de entrada(línea, micros de diversas sensibilidades, etc.) e impedancias.
  • Ajustar el nivel de entrada (fader) o salida (master fader) del 0 al 100%.
  • Hacer correcciones en frecuencia: ecualizaciones, controles de graves y agudos, presencia, etc.




  • Monitorado de una señal de entrada, varios simultáneamente o la salida. El monitorado puede ser visual (vúmetros o leds) y acústico (salida especializada del monitor sin alterar la salida de la mesa).
  • Proporcionan “alimentación fantasma” a los micrófonos del condensador.
  • Ubicación de cada señal en la posición adecuada dentro del “encuadre sonoro” de la mezcla estereofónica (control panorámico).
La señal es ecualizada y filtrada en diversas bandas de frecuencia (dependiendo de las prestaciones del mezclador) y atraviesa el control panorámico hasta llegar al denominado “ bus de mezcla” de forma que el operador controla mediante los fader (mandos lineales deslizantes) el nivel que tendrá la señal de cada canal en el sonido resultante.
La señal de salida de la mesa está a nivel de la línea y es enviada a un amplificador de potencia, que la remite a los altavoces, grabadora o emisoras de radio, televisión etc.

6.HITOS DE LA GRABACIÓN DE SONIDO.
La grabación del sonido ha pasado ha pasado por cinco grandes etapas:
  • La era de la grabación en cilindros, llamada arcaica (1877-1902)
  • La era de la producción de discos manufacturados en masa (1902-1927)
  • La era del tubo de vacío eléctrico (1927-1952)
  • La era de la grabación en alta fidelidad realizada con cinta magnética y en equipo de transistores (1952-1977)
  • La era digital (1977 hasta el presente) Estos han sido sus momentos clave:
1881 Thomas Edison (1847-1931) creó un aparato capaz de transformar la energía acústica en mecánica: EL GRAMÓFONO.
1888. Emile Berliner(1851-1921) terminó su gramófono en el que el cilindro de Edison era sustituido por un disco. Era imposible amplificar el sonido.
1900. Nace la grabación magnética. Basándose en una idea lanzada en 1888 por el estadounidense O. Smith, el danés Valdemar Poulsen(1869-1942) patentó el TELEGRÁFONO que grababa los sonidos en un hilo de metal que se desplazaba entre polos de un electroimán.
1925. Aparece el primer TOCADISCOS con los primeros amplificadores de válvulas y nace el PICK-UP.
1928. El alemán Pfeumer hizo más práctico el procedimiento al inventar la primera BANDA MAGNÉTICA, con base de papel, a la que sucedería una Banda de plástico recubierta por una capa electromagnética.
1948. Aparecen los discos de VINILO de 16, 33 y 45 revoluciones por minuto (disco de microsurcos de larga duración)
1952 Surgen los TRANSISTORES. Comienza la era de la ALTA FIDELIDAD.
1958. Aparece el disco ESTEREOFÓNICO.
1963. La empresa Philips introdujo el casete compacto.
1965. Apareció la CINTA MAGNÉTICA, con distintos formatos.
1976 Philips inventa el VIDEODISCO.
1980: Philips y Sony presentaron un procedimiento de grabación óptica que iba a modificar no sólo la cadena HIFI sino también las técnicas de grabación de datos: EL DISCO COMPACTO.
1987. Sony lanza la cinta de audio DIGITAL AUDIO.
1992. Surge el formato digital de grabación en estado sólido MP3. Su tecnología se desarrolló en Alemania por tres científicos del instituto tecnológico de Fraunhofer en el año 1986. En 1992 la Moving Picture Experts Groups (MPEG) aprobó oficialmente el sistema.
Ya en el siglo XXI se desarrollaron más formatos digitales, con más duración y calidad como el BLUE RAY. Aparecen varios reproductores autónomos como el IPOD de Apple, que revoluciona el mercado de la industria musical.
7. LA ADECUACIÓN DE LA MÚSICA Y LOS SONIDOS, A LAS INTENCIONES EXPRESIVAS Y COUNICATIVAS.
7.1.EFECTOS NARRATIVOS DEL SONIDO.
El sonido y la imagen colaboran en el plano narrativo de tres formas:
- POR CONTRASTE: Cuando vemos y oímos cosas contrapuestas.
-POR SUPERPOSICIÓN: el referente visual coincide con lo que escuchamos ”Vemos lo que oímos”
- DE MANERA PASIVA O AUSENCIA DE SONIDO :aparentemente el sonido es anodino o no tiene nada que ver con la imagen, aunque esta última puede ser en realidad una forma más sutil de contraste. AUSENCIA DE SONIDO
La posibilidad que tiene el sonido de dejar pasar, apoyar o contraponerse a la imagen es una de las herramientas más importantes para marcar el ritmo cinematográfico. Mediante el sonido podemos “acelerar” una secuencia demasiado larga o inducir una idea o sensación.
El contraste del sonido con la imagen puede conseguir un efecto narrativo que sería imposible sin él. Un grito de terror en off mientras vemos una imagen apacible de una ancianita dormida, nos provoca un escalofrío al hacernos percibir que está muerta. - Por otra parte tendremos en cuenta la dimensión espacial del sonido. 
El sonido DIEGÉTICO producido por algún elemento presente en la escena o una música que escuchamos interpretar o intervenir como elemento dramático, o el sonido “no diegético” que procede de una fuente externa al espacio de la narración como, por ejemplo, la música añadida a a acción para realzarla, o la voz en off de un narrador(omnisciente) voz que proporciona información al espectador pero no pertenece a ningún personaje.
LA NARRATIVA DEL SONIDO DIEGÉTICO.
El sonido diegético es un elemento narrativo de primera categoría. Mediante él escuchamos los pensamientos de un personaje que nos proporciona información sobre su estado mental, o materializa recuerdos o intenciones ocultas para otros personajes hasta crear nuevos espacios, anticipando con el sonido la aparición de nuevos elementos dramáticos. Ford en su película La Diligencia realiza un inteligente tratamiento de la música que escuchamos en el asalto final, cuando todo parece perdido (sonido no diegético) al transformarla en un estridente toque de corneta (diegético) que anuncia la aparición de la caballería: la expresión aterrada de Lucy cambia mientras dice: ¿Pueden oírlo?¡Es una corneta! A continuación Ford nos muestra a la caballería galopando hacia la diligencia. 

 LA MÚSICA. El análisis de la música como elemento expresivo puede efectuarse desde tres puntos de vista: música objetiva, subjetiva y descriptiva.USO DE LA MÚSICA PARA ENLAZAR ESCENAS
- MÚSICA OBJETIVA O DIEGÉTICA :Es la que adquiere el protagonismo de la historia o de la acción. Oímos lo que vemos, la fuente de la música está presente y juega dramáticamente.

-MÚSICA SUBJETIVA : Es la que crea un ambiente emocional en el espectador, apoyando el desarrollo de la acción y potenciando la intención de la narración.
-MÚSICA DESCRIPTIVA: es la que evoca una situación concreta: el viento, el fuego, la batalla, el agua que corre, un lugar o una época determinados. - Si dejamos a un lado el género en el cual la música es la protagonista y la consideramos un recurso complementario o enriquecedor del discurso audiovisual(lo que se llama ambientación musical) podemos distinguir dos sentidos expresivos al analizar cualquier fragmento: el anímico y el imitativo.
-EL SENTIDO ANÍMICO va relacionado con el impacto emocional que la música produce: tristeza alegría, melancolía, pasión. Las composiciones en tesitura grave nos comunican sensaciones de de oscuridad con los consiguientes sentimientos: temor, desaliento, sospecha...Los movimientos rápidos nos excitan y los lentos provocan calma y reposo.
-EL SENTIDO IMITATIVO: Alude a la capacidad descriptiva de la música. En el relato musical es difícil no encontrar elementos descriptivos. Esta cualidad puede aprovecharse muy bien en la ambientación musical de una producción audiovisual, ya que quizás sea la más poderosa en el momento de establecer asociaciones mentales con la imagen y la palabra. Como ejemplo de creación de un ambiente bélico remarcado, encontramos a Tchaikovsky que en su sinfonía 1812 usa cañonazos ,al igual que el músico Holst en Marte(La Sinfonía de los Planetas) nos introduce en la batalla mediante un ritmo in crescendo casi sin que lo notemos.



 - 7.3. EL SONIDO Y LA CONTINUIDAD NARRATIVA. El sonido es la “amalgama” que une los sucesivos planos de imagen de un montaje, los diferentes puntos de vista ofrecidos al espectador. El simple juego de plano-contraplano de una conversación no funcionaría si no tuviese soporte la continuidad que le confiere el sonido. El simple hecho de observar por la ventana la televisión del vecino, nos hace experimentar la sensación de “salto de imagen” entre los planos cuando no escuchamos el sonido y el televisor se encuentra a distancia. Un spot publicitario o un videojuego sin sonido se transforman casi siempre en una sucesión de imágenes que saltan sin sentido. Un cambio brusco del sonido, así con la aparición o desaparición dan un toque de atención, anuncian un cambio de situación, o avisan de un hecho que va a producirse. De igual forma “cabalgar” un sonido o música, prolongándolo sobre el inicio de la secuencia siguiente, convierte en más fluida la sucesión de escenas, al fin ya al cabo el sonido es el 50% de una producción audiovisual.

PROGRAMAS MULTIMEDIA: PROGRAMAS DE EDICIÓN DE VÍDEO.

. En cuanto al campo de la edición dos plataformas lo dominan : Windows y Mac. La primera más popular y extendida, la segunda se usa más en el campo profesional, especialmente en la imagen.
Sus programas de edición que integran vídeo u audio permiten efectuar montajes de acabado profesional. Acid, Adobe premiere, Final Cut y Sony Vegas Pro son los más usados en el ámbito profesional o semiprofesional, sin embargo Windows Movie Marker, iMovi, Pinnacle Studio o Nero se emplean en edición amateur, pero pueden ser también válidos para familiarizarse con la edición “no lineal”no en cinta de vídeo que ha quedado obsoleta (atrasada) .
8.1.LA EDICIÓN DE VÍDEO.
Todos los programas de edición de vídeo funcionan de una manera similar y poseen un “interface” de diseño semejante. Comenzaremos familiarizándonos con el escritorio. Escritorio o ventana de proyecto. Como observamos en estas figuras las ventanas de proyecto de dos de los programas citados son muy semejantes.
Basaremos la explicación en Adobe Premieres, pero los dos son similares conceptualmente.
Anteriormente a la adquisición de los archivos habremos configurado el nuevo proyecto, indicando en la ventana correspondiente los datos de archivo: Nombre del proyecto, disco y carpeta donde se guardarán; parámetros técnicos(formato de grabación Avi, Quick time, DV etc..Sistema -PAL720x576 – audio,etc.)
. Escritorio o ventana de proyecto en Adobe Premiere.
-Antes de continuar es preciso aclarar algunos conceptos:
 - CAPTURA/VOLCADO. Capturar o volcar un vídeo es el proceso para pasar información de una cinta u otro soporte al disco duro de un ordenador. Transformamos la señal en un archivo digital con un formato y extensión concretos.
 - IMPORTACIÓN: El material de montaje lo “importamos” a la ventana del proyecto.
 -PROYECTO: es el archivo donde almacenamos el montaje, los datos de edición. Hay que darle nombre y ubicación al comenzar (Guardar como) Esta ubicación no podrá modificarse o si no el programa no encontrará los archivos y el trabajo efectuado se perderá.
- BINS : Son carpetas creadas dentro del proyecto para almacenar y organizar la información a nuestra conveniencia.
- MASTER CLIPS: Es la fuente primaria de un vídeo capturado(la grabación en bruto). De un Master Clip de vídeo podemos obtener pequeños clips de vídeo y aplicar efectos generales.
- CLIP: Los trozos de vídeo que vamos a cortar del videoclip. Los clips eran fragmentos de película que el montador de cine cortaba, para después montarlos en la empalmadora, de ahí procede su nombre.

Ventana de ajuste de parámetros técnicos en Adobe Premiere.
- En la parte superior a la izquierda aparece le ventana donde se van almacenando los clips (trozos de material grabado) planos o grupo de planos que se “han capturado”(material transferido directamente a la cámara) o bien “importado”(material transferido anteriormente al disco duro y que se obtiene de éste) y con los que vamos a trabajar. Se pueden crear carpetas que agrupen clips, según el criterio que queramos adoptar.
La fase de captura o de importación es importante, porque conviene ser muy selectivo, para no tener excesivo material que entorpezca el montaje; además muy ordenado, identificando claramente cada clip o secuencia, para evitar equivocarnos cuando tengamos cincuenta o sesenta sin nombrar , o bien con nombres repetidos o confusos.
Si nos interesa guardar un proyecto, debemos tener mucho cuidado con “las limpiezas de disco” porque podemos perder todo el trabajo. Es conveniente poseer un disco o partición específicos para guardar esos materiales, sin olvidar que el vídeo consume mucho espacio. Antes de capturar todos los clips conviene definir los efectos que vamos a necesitar, los filtros, las correcciones de color e incluso el tamaño con el que se va a trabajar(en PAL 720x576)
 - En el centro del escritorio está situada la ventana de visualización, el monitor de playa, en el que manejaremos las imágenes y en el que las volcaremos a la línea del tiempo.
 - A su derecha “la ventana de edición”, el recorder, donde se controla los planos que se van editando. - Abajo “la línea del tiempo” verdadera aportación de los sistemas de edición no lineal, en la que visualizamos y manipulamos las imágenes y los sonidos, en las infinitas pistas del vídeo y audio de que disponemos. Su unidad es un FRAME (equivalente al fotograma del cine) y su sistema de medida es 00.00.00.00, lo que denominamos código del tiempo (timecode) que se mide en
HH:MM:SS:FF(frame).
Una vez listas las carpetas comenzaremos a ordenar el material. Cuando tengamos el clip marcado, arrastramos la imagen de la pantalla de visualización a la carpeta del proyecto en que queremos guardar esa porción de vídeo y aparecerá un nuevo elemento. El nombre de ese clip será el mismo que el del vídeo original, pero si lo arrastramos a la “línea del tiempo” veremos que es sólo la porción elegida. Así iremos seleccionando las partes del vídeo que queremos separar y las tendremos listas para utilizar en la ventana del proyecto.
Una vez conseguido el “fichero raíz” podemos arrastrarlo desde la ventana del proyecto hasta la línea del tiempo o podemos arrastrarlo a la ventana de visualización(recomendado) Una vez en la ventana, elegimos las partes del vídeo que queremos separar para editar. Desde la ventana de visualización controlaremos el vídeo como con un reproductor normal y marcaremos “un punto de entrada” y “otro de salida” para obtener un clip. Puede realizarse presionando “los corchetes” bajo la línea de reproducción o presionando las teclas “i”, para marcar el punto de inicio y “o” para el final.
También se pueden ir cortando los planos en la línea del tiempo, pero este método es más desordenado. - Así vamos añadiendo planos ya editados(punto de entrada, de salida, arrastramos a a línea del tiempo etc.) y vamos construyendo LA SECUENCIA.
Hasta ahora sólo hemos pegado planos con buen criterio narrativo(se supone).
Ventana de de efectos, línea de render y planos en línea de tiempo en Adobe Premiere.
- Si queremos añadir efectos, nos dirigimos a la pestaña “Control de efectos”, en la ventana de visualización. Los efectos básicos son de movimiento y de opacidad; podemos ver gran variedad de ellos en la “solapa Efectos” en la ventana del Proyecto.
Para trabajar con los efectos introducimos keyframes (los puntos de comienzo y final de efecto). Por ejemplo, si queremos encadenar dos planos, insertaremos un keyframe en el punto de plano en que deseamos que comience el efecto y otro keyframe en el punto en que termine. Ajustaremos duración, opacidad etc.




Cada vez que añadamos un efecto a un clip, surgirá una barra roja en la línea del tiempo. Esto indica que ese efecto no ha sido procesado(renderizado) no se han adaptado los píxeles en el nuevo estado del clip. Para renderizar solo hemos de pinchar Render Work Area en “Secuencia” en el menú superior.
 - El tratamiento del sonido permite todas las mezclas y ajustes de nivel necesarios. Al comienzo usaremos una pista de audio para cada banda de sonido: ambiente, entrevistas,. Voz en off, música y efectos. Se tratará cada una por separado, para permitir su ajuste de nivel y hacer más facilmente las transiciones, por ejemplo, bajando el nivel de una música para dar paso a una entrevista, o cortando bruscamente para presentar un efecto.
Si el SONIDO AMBIENTE tiene protagonismo hay que aumentar el volumen, por ejemplo si se oye el golpear de una puerta, la sirena de una ambulancia, una llamada telefónica, etc.
Es fácil agregar música en una pista aparte, como en los documentales, o los programas del corazón.
En cuanto a los INFORMATIVOS existe un debate sobre el uso de la música, ya que se trata de un elemento narrativo que debe ser bien manejado y aunque sirva para la cohesión de imágenes, resulta difícil encontrar una música adecuada.
LA VOZ EN OFF narradora se graba aparte y se incorpora como un archivo más a otra pista de audio independiente, así como el sonido de las entrevistas.
La mezcla formada por: ambiente, voz en off, entrevistas, efectos y música(si incluimos las dos últimas) se trata por separado para después nivelar el conjunto, dando más presencia a cada uno en el momento adecuado. Terminado el montaje,debemos guardarlo, “exportar la edición”. La secuencia es:Archivo-Exports- Movie.
Se abrirá una ventana para que elijamos una ubicación y pongamos “un nombre” al archivo, para pasar a “configurar el formato final” de vídeo y de audio en Setting, cuyos valores estarán determinados por la configuración inicial que dimos al proyecto. Cuando esté configurado el programa renderiza el montaje y lo guarda donde lo hayamos indicado. La película queda finalizada.












No hay comentarios:

Publicar un comentario