- LA FUNCIÓN EXPRESIVA DEL SONIDO.
El lenguaje audiovisual recibe este
nombre porque ambos componentes trabajan al unísono, para llevar la
sensación, la información(incluido el placer del receptor) el cual
lo recibe por ese doble canal: el oído y los ojos. En esta dualidad
reside su magia y su riqueza.
El sonido es esencial como elemento
narrativo, actuando en tres líneas expresivas:
- Comunica sensaciones y universos
espaciales, creando perspectivas.
- Crea y comunica la continuidad del relato.
- Matiza, intensificando o suavizando el efecto
narrativo de la imagen.
En la
calidad del sonido no existen términos medios: o es perfecta o es
mala; los fallos en la grabación no suelen tener remedio.
Como en los restantes elementos que concurren
en la producción, el sonido necesita una planificación, aunque
resulta difícil valorar todas las circunstancias acústicas que van
a intervenir en un rodaje, ya que algunas surgen en el momento de la
acción.
- El estudio del sonido se efectuará desde dos puntos de vista:
el técnico y el de su vertiente narrativa.
2¿QUÉ ES EL SONIDO?
2.1.Conceptos y variables que
definen el sonido.
Sonido es la sensación producida por
las variaciones de presión, que generadas por el movimiento
vibratorio de un objeto(la fuente) se transmiten a través de un
medio elástico: gaseoso, líquido o bien sólido. Un cuerpo sólo
emite sonido cuando vibra y necesita un medio para transmitirse, no
se propaga en el vacío.
Cuando hablamos del sonido audible por
el ser humano, nos referimos a la sensación detectada por nuestro
oído, producida por las rápidas variaciones de presión en el aire
por encima y por debajo de un valor estático(la presión
atmosférica) Esas vibraciones llegan a la membrana del oído externo y medio (el tímpano) y se propagan por medio de la cadena de
huesecillos del oído hasta el nervio auditivo que manda la señal al
cerebro.
De manera que el término sonido posee
una doble significación: designa la sensación experimentada por un
sujeto al estimularse sus terminaciones nerviosas, y a la vez,
describe objetivamente el movimiento vibratorio que provoca ese
estímulo.
FACTORES NECESARIOS PARA LA
PRODUCCIÓN DEL SONIDO:
- Un cuerpo vibrante(emisor o fuente)
- Un medio elástico a través del cual se desplazan las vibraciones.
- Un receptor del tipo que sea (el oído humano o la membrana del micrófono)
VARIABLES
QUE DEFINEN EL SONIDO.
-INTENSIDAD: es la energía que contiene el sonido. Viene determinada por la amplitud de onda y se traduce en el volumen con que lo escuchamos. Se mide en decibelios (dB)
-EL TONO: Es la frecuencia de la onda, que nos permite distinguir entre sonidos graves (frecuencia baja) y agudos(frecuencia alta) Se mide en ciclos / segundo o hercios (Hz). El oído humano puede percibir una gama que va entre 20 Hz y 20.000 Hz. Con los años vamos perdiendo parte de este espectro.
-INTENSIDAD: es la energía que contiene el sonido. Viene determinada por la amplitud de onda y se traduce en el volumen con que lo escuchamos. Se mide en decibelios (dB)
-EL TONO: Es la frecuencia de la onda, que nos permite distinguir entre sonidos graves (frecuencia baja) y agudos(frecuencia alta) Se mide en ciclos / segundo o hercios (Hz). El oído humano puede percibir una gama que va entre 20 Hz y 20.000 Hz. Con los años vamos perdiendo parte de este espectro.
-EL TIMBRE: Se refiere a las
frecuencias secundarias. Los sonidos puros en la vida cotidiana no
existen, vienen acompañados de manera que la onda principal se
presenta junto a otras frecuencias secundarias, múltiplos de la
misma, llamadas “armónicos”. Una misma nota tocada por varios
instrumentos, posee la misma frecuencia. La diferencia estriba en el
número e intensidad de sus armónicos.
-Ruido:
-Silencio:
-Música:
-Diálogo:
2.2.CONCEPTOS FUNDAMENTALES DELMOVIMIENTO ONDULATORIO.
- VELOCIDAD: Es el espacio que avanza la onda por unidad de tiempo. Varía según el tipo de onda y del medio por el que se propague.
- PERÍODO: es el tiempo que tarda una partícula en efectuar una oscilación completa. Ejemplo: Si tenemos un corcho flotando en el agua que es alcanzado por una ola(0nda superficial transversal) el período es el tiempo que tarda el corcho en subir y bajar hasta volver a su posición inicial. Se representa mediante una “T”.
- FRECUENCIA: Es el número de oscilaciones completas que realiza una partícula por unidad de tiempo. Se mide en hertz o hercios (Hz), siendo un hercio una oscilación completa por segundo. Se representa por la letra griega “u”. De acuerdo con la definición de período, como una oscilación dura T segundos, en un segundo habrá 1/T oscilaciones. u= 1/T
- VELOCIDAD: Es el espacio que avanza la onda por unidad de tiempo. Varía según el tipo de onda y del medio por el que se propague.
- PERÍODO: es el tiempo que tarda una partícula en efectuar una oscilación completa. Ejemplo: Si tenemos un corcho flotando en el agua que es alcanzado por una ola(0nda superficial transversal) el período es el tiempo que tarda el corcho en subir y bajar hasta volver a su posición inicial. Se representa mediante una “T”.
- FRECUENCIA: Es el número de oscilaciones completas que realiza una partícula por unidad de tiempo. Se mide en hertz o hercios (Hz), siendo un hercio una oscilación completa por segundo. Se representa por la letra griega “u”. De acuerdo con la definición de período, como una oscilación dura T segundos, en un segundo habrá 1/T oscilaciones. u= 1/T
La frecuencia es el valor inverso del
período.
- CONCORDANCIA DE FASE. Dos puntos de un medio elástico por el que se propaga una onda están en concordancia de fase si, en un instante determinado, los dos ocupan posiciones idénticas y se mueven del mismo modo(hacia arriba o hacia abajo). (Concordancia de fase) En esta figura los puntos A y B están en concordancia de fase, pero no así el C, porque aunque se encuentra a la misma altura, baja en vez de subir.
- LONGITUD DE ONDA. Es la distancia entre dos puntos consecutivos cualesquiera, que se encuentran en concordancia de fase. Se representa mediante la letra griega lambda y equivale a la distancia que avanza la onda en el tiempo.
- AMPLITUD. Es la separación máxima que alcanzada punto respecto a su posición de equilibrio, es decir, el eje de la onda, es decir la diferencia entre la cresta y la vaguada, Observamos en el primer dibujo tanto la longitud de onda como la amplitud(A)
- CONCORDANCIA DE FASE. Dos puntos de un medio elástico por el que se propaga una onda están en concordancia de fase si, en un instante determinado, los dos ocupan posiciones idénticas y se mueven del mismo modo(hacia arriba o hacia abajo). (Concordancia de fase) En esta figura los puntos A y B están en concordancia de fase, pero no así el C, porque aunque se encuentra a la misma altura, baja en vez de subir.
- LONGITUD DE ONDA. Es la distancia entre dos puntos consecutivos cualesquiera, que se encuentran en concordancia de fase. Se representa mediante la letra griega lambda y equivale a la distancia que avanza la onda en el tiempo.
- AMPLITUD. Es la separación máxima que alcanzada punto respecto a su posición de equilibrio, es decir, el eje de la onda, es decir la diferencia entre la cresta y la vaguada, Observamos en el primer dibujo tanto la longitud de onda como la amplitud(A)
FRECUENCIA
3.LA CADENA DE LA SEÑAL SONORA.
- Desde que en el siglo XIX se crean los
primeros artilugios mecánicos, los fonógrafos, capaces de almacenar
sonidos, el camino de la manipulación sonora ha sido largo y
brillante. - La moderna cadena de
grabación y reproducción del sonido tiene su origen en fuentes
reales o en las producidas electrónicamente, pero la clave está en
el proceso de “transducción”: transformación de ondas sonoras
en señales eléctricas que nos permitan su grabación, manipulación
y almacenaje sobre algún soporte, bien sea analógico o digital,
para finalmente proceder a su reproducción y escucharlas.
- El
micrófono es el primer eslabón de la cadena de grabación del
sonido. El resultado final depende de su calidad y de su uso
correcto.
3.1 EL MECANISMO DE LA
AUDICIÓN.
El tímpano
situado en el oído externo es excitado por la onda sonora, entrando
en vibración. Las vibraciones se transmiten mediante la cadena de
huesecillos del oído medio( martillo, yunque, lenticular y estribo)
que producen un incremento de nivel aproximadamente, un 15:1.
Luego son transmitidas al fluido del oído interno o cóclea, en
cuyo centro se encuentra la membrana “basilar” cuyas vibraciones
dependen de la frecuencia de la base sonora.
El oído interno. Las curvas de
Fletcher y Mursom en las que observamos cómo el oído humano es más
sensible a las frecuencias medias, que a las graves o agudas.
- El oído humano no responde igual a
todas las frecuencias. Un tono puro,a frecuencia de 125Hz y con 15 dB
de nivel, sería inaudible, pero si aumentamos la frecuencia a 500
hercios, sin variar el nivel de presión, se obtendrá un tono
claramente audible.
3.2.LOCALIZACIÓN ESPACIAL O
PERCEPCIÓN DIRECCIONAL.
El cerebro localiza la fuente del
sonido basándose en la diferencia de fase entre las señales que
acuden a un oído o a otro. La diferencia de nivel entre los oídos
se debe principalmente a la “sombra” producida por la cabeza.
Las altas frecuencias se localizan principalmente por diferencia de
nivel y las bajas por diferencia de fase(diferencia entre las
posiciones de las crestas de la onda) El movimiento de la cabeza
colabora instintivamente a su ubicación.
La aplicación más práctica de la
localización puede que sea la emisión de dos altavoces de un
sistema estéreo: dos fuentes sonoras emitiendo sonidos coherentes.
Entre el oyente y los dos altavoces se forma un triángulo equilátero
de 3 metros de lado. Además se suele alzar los altavoces unos pocos
grados del plano horizontal de la audición. Si el oyente se sitúa
en medio, los escuchará al mismo nivel.
3.3.PERSPECTIVA Y PLANOS SONOROS.
Después de la palabra, la percepción
del espacio es la información más importante que interpreta
nuestro sistema auditivo.
Igual que en el campo de la imagen el
uso de la perspectiva es una herramienta importante para conseguir el
efecto de la tercera
dimensión, cuando hablamos de sonido tendremos en cuenta
el punto de audición.
PLANO SONORO: ENLACE
PLANO SONORO: ENLACE
PERSPECTIVA SONORA: Es la sensación de
distancia o acercamiento, que produce un emisor de sonido con
respecto a nuestro punto de audición. Nuestro oído es sensible a
ese desplazamiento y esto queda acentuado cuando el elemento receptor
es un micrófono.
-4.1. LA GRABACIÓN DEL SONIDO.
EL MICRÓFONO: es un traductor acustico-eléctrico, o sea, un
dispositivo que transforma una energía mecánica(acústica) en
eléctrica, mediante un doble proceso: Primero transforma las
variaciones de presión de la onda sonora en oscilaciones mecánicas,
para después convertir éstas en variaciones de tensión o corriente
eléctrica.
La tensión de la energía eléctrica
generada es proporcional a la presión ejercida por la energía
acústica. Como funciona el microfono Discovery MAX - YouTube
F. Micrófonos inalámbricos.
- El transductor acustico-mecánico es
una membrana llamada DIAFRAGMA que se mueve según las variaciones de
presión. Como tiene dos superficies, según hagamos incidir la onda
sonora sobre una o ambas a la vez,las oscilaciones producidas en el
diafragma serán proporcionales a la presión incidente sobre su cara
frontal o a la diferencia de presión entre las dos caras. Según
este criterio, podemos clasificar los micrófonos en dos grupos:
MICRÓFONOS DE PRESIÓN: Son aquellos
cuya respuesta eléctrica está en función de las variaciones de
presión que recibe de la onda sonora.
MICRÓFONOS DE GRADIENTE DE PRESIÓN:
responden a la diferencia de presión entre dos puntos separados por
una distancia muy pequeña.
MICRÓFONOS MECANO-ELÉCTRICOS que a su
vez se clasifican en:
- DINÁMICOS ( o de bobina móvil)
-
DE CONDENSADOR : Alimentado a través de la malla del cable del micro
(Phantom) -El estudio de los tipos de micrófono puede
realizarse según su modo de funcionamiento,o bien por la forma en
que recogen el sonido, que se representa por medio de un diagrama
polar.
El diagrama polar de un micrófono
refleja la sensibilidad con que es capaz de captar un sonido según
el ángulo con que incida éste. Se trata de un mapa que indica la
magnitud de captación del micrófono para los diferentes ángulos de
incidencia de la onda sonora y nos informa sobre el comportamiento de
los sonidos, dependiendo del lugar de procedencia.
Los diagramas polares se pueden dividir
básicamente en tres: el omnidireccional, el bidireccional y el
unidireccional.
EL DIAGRAMA POLAR OMNIDIRECCIONAL
Recibe con la misma sensibilidad
cualquier sonido, no importando el punto de donde proceda.
Su diagrama es circular. Micrófonos de
cañón.
Los micrófonos omnidireccionales de
alta calidad se caracterizan por una respuesta plana y por cubrir un
margen amplio de frecuencias, desde las más bajas a las más altas.
EL DIAFRAGMA POLAR BIDIRECCIONAL O DE
“FORMA DE OCHO”. Presenta gran sensibilidad en el frente, con un
ángulo amplio y una imagen simétrica en la parte posterior, siendo
menos sensible en las partes laterales. Se utiliza poco.
EL DIAFRAGMA POLAR UNIDIRECCIONAL.
Es aquel que posee una mayor
sensibilidad a los sonidos que llegan de frente a la cápsula, con un
ángulo relativamente amplio.
Diagramas polares de tipo: omnidireccional, bidireccional y unidireccional.
A su vez los unidireccionales se
dividen en tres: el cardioide, el supercardioide y el hipercardioide.
Cada uno de ellos presenta un diafragma
polar cada vez más estrecho y como consecuencia, se van haciendo más
insensibles a los sonidos de la parte lateral y posterior.
- LA
RESPUESTA CARDIOIDE O EN FORMA DE “CORAZÓN”. Responde a los
micrófonos típicos de vocalista, debido a que el estrecho ángulo
de captación para altas frecuencias contribuye a eliminar sonidos no
procedentes de la fuente principal situada frontalmente.
- Los micrófonos de RESPUESTA
HIPERCARDIOIDE poseen un diafragma polar “casi ideal”. Presentan
la relación más alta entre sonido frontal y sonido lateral y
trasera: la relación entre un sonido situado en el eje de captación
y el de los sonidos reflejados captados desde distintos ángulos es
muy alta, lo que les hace idóneos para evitar sonidos indeseados,
como el excesivo sonido ambiente o los sonidos reflejados.
LOS MICRÓFONOS INALÁMBRICOS. Un
sistema de micrófono inalámbrico consta de un micrófono normal, un
transmisor de frecuencia modulada(incluida en la carcasa del
micrófono o, más frecuentemente en una unidad independiente que
lleva el actor camuflada en su ropa) una antena y un receptor. La
energía necesaria para su funcionamiento es generada por una pila.
Cuando conversan dos personas, cada una de ellas debe utilizar un
micro con una frecuencia diferente y la separación de canales debe
ser suficiente para que no se produzcan interferencias.
5. EL REGISTRO DEL SONIDO.
5.1.LA CADENA DE GRABACIÓN.
El proceso de grabación de señales
sonoras puede originarse tanto en fuentes acústicas reales (voz,
instrumentos musicales, sonidos ambientales de cualquier tipo) como
en señales eléctricas producidas y manipuladas electrónicamente.
Mientras que las primeras las captamos mediante micrófonos, las
segundas podemos tratarlas introduciendo directamente las señales
eléctricas( producidas por ejemplo en un sintetizador)en una mesa de
mezclas. Combinamos, filtramos, ecualizamos, manipulamos las diversas
entradas de la mesa, procediendo a su grabación.
La discografía moderna usa casi
siempre grabación multipista postproducida( mientras que la música
clásica se graba en directo generalmente).El uso de esta técnica es
simple. Se graba cada fuente por separado, constituyendo un montaje
en cascada, suceptible de ser mezclado y manipulado hasta el
infinito. Su máxima sofisticación la constituye la introducción de
sistemas digitales.
5.2. LA MESA DE MEZCLAS.
El mezclador de sonido realiza más
funciones que la simple combinación o suma de señales procedentes
de distintas fuentes sonoras:
- Adaptar niveles de entrada(línea, micros de diversas sensibilidades, etc.) e impedancias.
- Ajustar el nivel de entrada (fader) o salida (master fader) del 0 al 100%.
- Hacer correcciones en frecuencia: ecualizaciones, controles de graves y agudos, presencia, etc.
- Monitorado de una señal de entrada, varios simultáneamente o la salida. El monitorado puede ser visual (vúmetros o leds) y acústico (salida especializada del monitor sin alterar la salida de la mesa).
- Proporcionan “alimentación fantasma” a los micrófonos del condensador.
- Ubicación de cada señal en la posición adecuada dentro del “encuadre sonoro” de la mezcla estereofónica (control panorámico).
La señal es ecualizada y filtrada en
diversas bandas de frecuencia (dependiendo de las prestaciones del
mezclador) y atraviesa el control panorámico hasta llegar al
denominado “ bus de mezcla” de forma que el operador controla
mediante los fader (mandos lineales deslizantes) el nivel que tendrá
la señal de cada canal en el sonido resultante.
La señal de salida de la mesa está a
nivel de la línea y es enviada a un amplificador de potencia, que la
remite a los altavoces, grabadora o emisoras de radio, televisión
etc.
6.HITOS DE LA GRABACIÓN DE SONIDO.
La grabación del sonido ha pasado ha
pasado por cinco grandes etapas:
- La era de la grabación en cilindros, llamada arcaica (1877-1902)
- La era de la producción de discos manufacturados en masa (1902-1927)
- La era del tubo de vacío eléctrico (1927-1952)
- La era de la grabación en alta fidelidad realizada con cinta magnética y en equipo de transistores (1952-1977)
- La era digital (1977 hasta el presente) Estos han sido sus momentos clave:
1881 Thomas Edison (1847-1931) creó un
aparato capaz de transformar la energía acústica en mecánica: EL
GRAMÓFONO.
1888. Emile Berliner(1851-1921) terminó
su gramófono en el que el cilindro de Edison era sustituido por un
disco. Era imposible amplificar el sonido.
1900. Nace la grabación magnética.
Basándose en una idea lanzada en 1888 por el estadounidense O.
Smith, el danés Valdemar Poulsen(1869-1942) patentó el TELEGRÁFONO
que grababa los sonidos en un hilo de metal que se desplazaba entre
polos de un electroimán.
1925. Aparece el primer TOCADISCOS con
los primeros amplificadores de válvulas y nace el PICK-UP.
1928. El alemán Pfeumer hizo más
práctico el procedimiento al inventar la primera BANDA MAGNÉTICA,
con base de papel, a la que sucedería una Banda de plástico
recubierta por una capa electromagnética.
1948. Aparecen los discos de VINILO de
16, 33 y 45 revoluciones por minuto (disco de microsurcos de larga
duración)
1952 Surgen los TRANSISTORES. Comienza
la era de la ALTA FIDELIDAD.
1958. Aparece el disco ESTEREOFÓNICO.
1963. La empresa Philips introdujo el
casete compacto.
1965. Apareció la CINTA MAGNÉTICA,
con distintos formatos.
1976 Philips inventa el VIDEODISCO.
1980: Philips y Sony presentaron un
procedimiento de grabación óptica que iba a modificar no sólo la
cadena HIFI sino también las técnicas de grabación de datos: EL
DISCO COMPACTO.
1987. Sony lanza la cinta de audio
DIGITAL AUDIO.
1992. Surge el formato digital de
grabación en estado sólido MP3. Su tecnología se desarrolló en
Alemania por tres científicos del instituto tecnológico de
Fraunhofer en el año 1986. En 1992 la Moving Picture Experts Groups
(MPEG) aprobó oficialmente el sistema.
Ya en el siglo XXI se desarrollaron más
formatos digitales, con más duración y calidad como el BLUE RAY.
Aparecen varios reproductores autónomos como el IPOD de Apple, que
revoluciona el mercado de la industria musical.
7. LA ADECUACIÓN DE LA MÚSICA Y LOS
SONIDOS, A LAS INTENCIONES EXPRESIVAS Y COUNICATIVAS.
7.1.EFECTOS NARRATIVOS DEL SONIDO.
El sonido y la imagen colaboran en el
plano narrativo de tres formas:
- POR CONTRASTE: Cuando vemos y oímos cosas contrapuestas.
- POR CONTRASTE: Cuando vemos y oímos cosas contrapuestas.
-POR SUPERPOSICIÓN: el referente
visual coincide con lo que escuchamos ”Vemos lo que oímos”
- DE MANERA PASIVA O AUSENCIA DE SONIDO :aparentemente el sonido es anodino o no tiene nada que ver con la imagen, aunque esta última puede ser en realidad una forma más sutil de contraste. AUSENCIA DE SONIDO
- DE MANERA PASIVA O AUSENCIA DE SONIDO :aparentemente el sonido es anodino o no tiene nada que ver con la imagen, aunque esta última puede ser en realidad una forma más sutil de contraste. AUSENCIA DE SONIDO
La posibilidad que tiene el sonido de
dejar pasar, apoyar o contraponerse a la imagen es una de las
herramientas más importantes para marcar el ritmo cinematográfico.
Mediante el sonido podemos “acelerar” una secuencia demasiado
larga o inducir una idea o sensación.
El contraste del sonido con la imagen
puede conseguir un efecto narrativo que sería imposible sin él. Un
grito de terror en off mientras vemos una imagen apacible de una
ancianita dormida, nos provoca un escalofrío al hacernos percibir
que está muerta.
- Por otra parte tendremos en cuenta la dimensión
espacial del sonido.
El sonido DIEGÉTICO producido por algún
elemento presente en la escena o una música que escuchamos
interpretar o intervenir como elemento dramático, o el sonido “no
diegético” que procede de una fuente externa al espacio de la
narración como, por ejemplo, la música añadida a a acción para
realzarla, o la voz en off de un narrador(omnisciente) voz que
proporciona información al espectador pero no pertenece a ningún
personaje.
LA NARRATIVA DEL SONIDO DIEGÉTICO.
El sonido diegético es un elemento
narrativo de primera categoría. Mediante él escuchamos los
pensamientos de un personaje que nos proporciona información sobre
su estado mental, o materializa recuerdos o intenciones ocultas para
otros personajes hasta crear nuevos espacios, anticipando con el
sonido la aparición de nuevos elementos dramáticos. Ford en su
película La Diligencia realiza un inteligente tratamiento de la
música que escuchamos en el asalto final, cuando todo parece
perdido (sonido no diegético) al transformarla en un estridente toque
de corneta (diegético) que anuncia la aparición de la caballería:
la expresión aterrada de Lucy cambia mientras dice: ¿Pueden oírlo?¡Es
una corneta! A continuación Ford nos muestra a la caballería
galopando hacia la diligencia.
LA MÚSICA. El análisis de la música como elemento expresivo puede
efectuarse desde tres puntos de vista: música objetiva, subjetiva y
descriptiva.USO
DE LA MÚSICA PARA ENLAZAR ESCENAS
- MÚSICA OBJETIVA O DIEGÉTICA :Es
la que adquiere el protagonismo de la historia o de la acción. Oímos
lo que vemos, la fuente de la música está presente y juega
dramáticamente.
-MÚSICA SUBJETIVA : Es la que crea un
ambiente emocional en el espectador, apoyando el desarrollo de la
acción y potenciando la intención de la narración.
-MÚSICA DESCRIPTIVA: es la que evoca
una situación concreta: el viento, el fuego, la batalla, el agua que
corre, un lugar o una época determinados.
- Si dejamos a un
lado el género en el cual la música es la protagonista y la
consideramos un recurso complementario o enriquecedor del discurso
audiovisual(lo que se llama ambientación musical) podemos distinguir
dos sentidos expresivos al analizar cualquier fragmento: el anímico
y el imitativo.
-EL SENTIDO ANÍMICO va relacionado con
el impacto emocional que la música produce: tristeza alegría,
melancolía, pasión. Las composiciones en tesitura grave nos
comunican sensaciones de de oscuridad con los consiguientes
sentimientos: temor, desaliento, sospecha...Los movimientos rápidos
nos excitan y los lentos provocan calma y reposo.
-EL SENTIDO IMITATIVO: Alude a la capacidad descriptiva de la música. En el relato musical es difícil no encontrar elementos descriptivos. Esta cualidad puede aprovecharse muy bien en la ambientación musical de una producción audiovisual, ya que quizás sea la más poderosa en el momento de establecer asociaciones mentales con la imagen y la palabra. Como ejemplo de creación de un ambiente bélico remarcado, encontramos a Tchaikovsky que en su sinfonía 1812 usa cañonazos ,al igual que el músico Holst en Marte(La Sinfonía de los Planetas) nos introduce en la batalla mediante un ritmo in crescendo casi sin que lo notemos.
-EL SENTIDO IMITATIVO: Alude a la capacidad descriptiva de la música. En el relato musical es difícil no encontrar elementos descriptivos. Esta cualidad puede aprovecharse muy bien en la ambientación musical de una producción audiovisual, ya que quizás sea la más poderosa en el momento de establecer asociaciones mentales con la imagen y la palabra. Como ejemplo de creación de un ambiente bélico remarcado, encontramos a Tchaikovsky que en su sinfonía 1812 usa cañonazos ,al igual que el músico Holst en Marte(La Sinfonía de los Planetas) nos introduce en la batalla mediante un ritmo in crescendo casi sin que lo notemos.
- 7.3. EL SONIDO Y
LA CONTINUIDAD NARRATIVA.
El sonido es la “amalgama” que
une los sucesivos planos de imagen de un montaje, los diferentes
puntos de vista ofrecidos al espectador. El simple juego de
plano-contraplano de una conversación no funcionaría si no tuviese
soporte la continuidad que le confiere el sonido. El simple hecho de
observar por la ventana la televisión del vecino, nos hace
experimentar la sensación de “salto de imagen” entre los planos
cuando no escuchamos el sonido y el televisor se encuentra a
distancia. Un spot publicitario o un videojuego sin sonido se
transforman casi siempre en una sucesión de imágenes que saltan sin
sentido. Un cambio brusco del sonido, así con la aparición o
desaparición dan un toque de atención, anuncian un cambio de
situación, o avisan de un hecho que va a producirse. De igual forma
“cabalgar” un sonido o música, prolongándolo sobre el inicio de
la secuencia siguiente, convierte en más fluida la sucesión de
escenas, al fin ya al cabo el sonido es el 50% de una producción
audiovisual.
PROGRAMAS MULTIMEDIA: PROGRAMAS DE EDICIÓN DE VÍDEO.
.
En cuanto al campo de la edición dos plataformas lo dominan :
Windows y Mac. La primera más popular y extendida, la segunda se usa
más en el campo profesional, especialmente en la imagen.
Sus programas de edición que integran
vídeo u audio permiten efectuar montajes de acabado profesional.
Acid, Adobe premiere, Final Cut y Sony Vegas Pro son los más
usados en el ámbito profesional o semiprofesional, sin embargo
Windows Movie Marker, iMovi, Pinnacle Studio o Nero se emplean en
edición amateur, pero pueden ser también válidos para
familiarizarse con la edición “no lineal”no en cinta de vídeo
que ha quedado obsoleta (atrasada) .
8.1.LA EDICIÓN DE VÍDEO.
Todos los programas de edición de
vídeo funcionan de una manera similar y poseen un “interface” de
diseño semejante. Comenzaremos familiarizándonos con el escritorio.
Escritorio o ventana de proyecto.
Como observamos en estas figuras las
ventanas de proyecto de dos de los programas citados son muy
semejantes.
Basaremos la explicación en Adobe
Premieres, pero los dos son similares conceptualmente.
Anteriormente a la adquisición de los
archivos habremos configurado el nuevo proyecto, indicando en la
ventana correspondiente los datos de archivo: Nombre del proyecto,
disco y carpeta donde se guardarán; parámetros técnicos(formato de
grabación Avi, Quick time, DV etc..Sistema -PAL720x576 –
audio,etc.)
. Escritorio o ventana de
proyecto en Adobe Premiere.
-Antes de
continuar es preciso aclarar algunos conceptos:
- CAPTURA/VOLCADO. Capturar o volcar un vídeo es el proceso para pasar información de una cinta u otro soporte al disco duro de un ordenador. Transformamos la señal en un archivo digital con un formato y extensión concretos.
- IMPORTACIÓN: El material de montaje lo “importamos” a la ventana del proyecto.
-PROYECTO: es el archivo donde almacenamos el montaje, los datos de edición. Hay que darle nombre y ubicación al comenzar (Guardar como) Esta ubicación no podrá modificarse o si no el programa no encontrará los archivos y el trabajo efectuado se perderá.
- BINS : Son carpetas creadas dentro del proyecto para almacenar y organizar la información a nuestra conveniencia.
- MASTER CLIPS: Es la fuente primaria de un vídeo capturado(la grabación en bruto). De un Master Clip de vídeo podemos obtener pequeños clips de vídeo y aplicar efectos generales.
- CLIP: Los trozos de vídeo que vamos a cortar del videoclip. Los clips eran fragmentos de película que el montador de cine cortaba, para después montarlos en la empalmadora, de ahí procede su nombre.
- CAPTURA/VOLCADO. Capturar o volcar un vídeo es el proceso para pasar información de una cinta u otro soporte al disco duro de un ordenador. Transformamos la señal en un archivo digital con un formato y extensión concretos.
- IMPORTACIÓN: El material de montaje lo “importamos” a la ventana del proyecto.
-PROYECTO: es el archivo donde almacenamos el montaje, los datos de edición. Hay que darle nombre y ubicación al comenzar (Guardar como) Esta ubicación no podrá modificarse o si no el programa no encontrará los archivos y el trabajo efectuado se perderá.
- BINS : Son carpetas creadas dentro del proyecto para almacenar y organizar la información a nuestra conveniencia.
- MASTER CLIPS: Es la fuente primaria de un vídeo capturado(la grabación en bruto). De un Master Clip de vídeo podemos obtener pequeños clips de vídeo y aplicar efectos generales.
- CLIP: Los trozos de vídeo que vamos a cortar del videoclip. Los clips eran fragmentos de película que el montador de cine cortaba, para después montarlos en la empalmadora, de ahí procede su nombre.
Ventana de ajuste de parámetros
técnicos en Adobe Premiere.
- En la parte superior a la izquierda
aparece le ventana donde se van almacenando los clips (trozos de
material grabado) planos o grupo de planos que se “han
capturado”(material transferido directamente a la cámara) o bien
“importado”(material transferido anteriormente al disco duro y
que se obtiene de éste) y con los que vamos a trabajar. Se pueden
crear carpetas que agrupen clips, según el criterio que queramos
adoptar.
La fase de captura o de importación es
importante, porque conviene ser muy selectivo, para no tener excesivo
material que entorpezca el montaje; además muy ordenado,
identificando claramente cada clip o secuencia, para evitar
equivocarnos cuando tengamos cincuenta o sesenta sin nombrar , o bien
con nombres repetidos o confusos.
Si nos interesa guardar un proyecto,
debemos tener mucho cuidado con “las limpiezas de disco” porque
podemos perder todo el trabajo. Es conveniente poseer un disco o
partición específicos para guardar esos materiales, sin olvidar que
el vídeo consume mucho espacio. Antes de capturar todos los clips
conviene definir los efectos que vamos a necesitar, los filtros, las
correcciones de color e incluso el tamaño con el que se va a
trabajar(en PAL 720x576)
- En el centro del escritorio está situada la ventana de visualización, el monitor de playa, en el que manejaremos las imágenes y en el que las volcaremos a la línea del tiempo.
- A su derecha “la ventana de edición”, el recorder, donde se controla los planos que se van editando. - Abajo “la línea del tiempo” verdadera aportación de los sistemas de edición no lineal, en la que visualizamos y manipulamos las imágenes y los sonidos, en las infinitas pistas del vídeo y audio de que disponemos. Su unidad es un FRAME (equivalente al fotograma del cine) y su sistema de medida es 00.00.00.00, lo que denominamos código del tiempo (timecode) que se mide en
- En el centro del escritorio está situada la ventana de visualización, el monitor de playa, en el que manejaremos las imágenes y en el que las volcaremos a la línea del tiempo.
- A su derecha “la ventana de edición”, el recorder, donde se controla los planos que se van editando. - Abajo “la línea del tiempo” verdadera aportación de los sistemas de edición no lineal, en la que visualizamos y manipulamos las imágenes y los sonidos, en las infinitas pistas del vídeo y audio de que disponemos. Su unidad es un FRAME (equivalente al fotograma del cine) y su sistema de medida es 00.00.00.00, lo que denominamos código del tiempo (timecode) que se mide en
HH:MM:SS:FF(frame).
Una vez listas las carpetas
comenzaremos a ordenar el material. Cuando tengamos el clip marcado,
arrastramos la imagen de la pantalla de visualización a la carpeta
del proyecto en que queremos guardar esa porción de vídeo y
aparecerá un nuevo elemento. El nombre de ese clip será el mismo
que el del vídeo original, pero si lo arrastramos a la “línea del
tiempo” veremos que es sólo la porción elegida. Así iremos
seleccionando las partes del vídeo que queremos separar y las
tendremos listas para utilizar en la ventana del proyecto.
Una vez conseguido el “fichero raíz”
podemos arrastrarlo desde la ventana del proyecto hasta la línea del
tiempo o podemos arrastrarlo a la ventana de
visualización(recomendado) Una vez en la ventana, elegimos las
partes del vídeo que queremos separar para editar. Desde la ventana
de visualización controlaremos el vídeo como con un reproductor
normal y marcaremos “un punto de entrada” y “otro de salida”
para obtener un clip. Puede realizarse presionando “los corchetes”
bajo la línea de reproducción o presionando las teclas “i”,
para marcar el punto de inicio y “o” para el final.
También se pueden ir cortando los
planos en la línea del tiempo, pero este método es más
desordenado.
- Así vamos añadiendo planos ya editados(punto
de entrada, de salida, arrastramos a a línea del tiempo etc.) y
vamos construyendo LA SECUENCIA.
Hasta ahora sólo hemos pegado planos
con buen criterio narrativo(se supone).
Ventana de de efectos, línea de render
y planos en línea de tiempo en Adobe Premiere.
- Si queremos añadir efectos, nos
dirigimos a la pestaña “Control de efectos”, en la ventana de
visualización. Los efectos básicos son de movimiento y de opacidad;
podemos ver gran variedad de ellos en la “solapa Efectos” en la
ventana del Proyecto.
Para trabajar con los efectos
introducimos keyframes (los puntos de comienzo y final de efecto).
Por ejemplo, si queremos encadenar dos planos, insertaremos un
keyframe en el punto de plano en que deseamos que comience el efecto
y otro keyframe en el punto en que termine. Ajustaremos duración,
opacidad etc.
Cada vez que añadamos un efecto a un
clip, surgirá una barra roja en la línea del tiempo. Esto indica
que ese efecto no ha sido procesado(renderizado) no se han adaptado
los píxeles en el nuevo estado del clip. Para renderizar solo hemos
de pinchar Render Work Area en “Secuencia” en el menú superior.
- El tratamiento del sonido permite todas las mezclas y ajustes de nivel necesarios. Al comienzo usaremos una pista de audio para cada banda de sonido: ambiente, entrevistas,. Voz en off, música y efectos. Se tratará cada una por separado, para permitir su ajuste de nivel y hacer más facilmente las transiciones, por ejemplo, bajando el nivel de una música para dar paso a una entrevista, o cortando bruscamente para presentar un efecto.
- El tratamiento del sonido permite todas las mezclas y ajustes de nivel necesarios. Al comienzo usaremos una pista de audio para cada banda de sonido: ambiente, entrevistas,. Voz en off, música y efectos. Se tratará cada una por separado, para permitir su ajuste de nivel y hacer más facilmente las transiciones, por ejemplo, bajando el nivel de una música para dar paso a una entrevista, o cortando bruscamente para presentar un efecto.
Si el SONIDO AMBIENTE tiene
protagonismo hay que aumentar el volumen, por ejemplo si se oye el
golpear de una puerta, la sirena de una ambulancia, una llamada
telefónica, etc.
Es fácil agregar música en una pista
aparte, como en los documentales, o los programas del corazón.
En cuanto a los INFORMATIVOS existe un
debate sobre el uso de la música, ya que se trata de un elemento
narrativo que debe ser bien manejado y aunque sirva para la cohesión
de imágenes, resulta difícil encontrar una música adecuada.
LA VOZ EN OFF narradora se graba aparte
y se incorpora como un archivo más a otra pista de audio
independiente, así como el sonido de las entrevistas.
La mezcla formada por: ambiente, voz en
off, entrevistas, efectos y música(si incluimos las dos últimas) se
trata por separado para después nivelar el conjunto, dando más
presencia a cada uno en el momento adecuado. Terminado el
montaje,debemos guardarlo, “exportar la edición”.
La secuencia es:Archivo-Exports- Movie.
Se abrirá una ventana para que
elijamos una ubicación y pongamos “un nombre” al archivo, para
pasar a “configurar el formato final” de vídeo y de audio en
Setting, cuyos valores estarán determinados por la configuración
inicial que dimos al proyecto. Cuando esté configurado el programa
renderiza el montaje y lo guarda donde lo hayamos indicado. La
película queda finalizada.
RECURSOS:
No hay comentarios:
Publicar un comentario