Por: Rubén Arturo, docente de la Escuela de Comunicación, Artes Visuales y Digitales del Politécnico Grancolombiano
—–
El diseño de sonido para producciones audiovisuales, un proceso que incorpora todas las relaciones de interacción entre planos sonoros, imagen y la propuesta narrativa; suele darse tradicionalmente en las etapas finales de la producción (Postproducción).
A partir de la digitalización de los procedimientos de producción audiovisual, la etapa de postproducción ha venido incrementando su cantidad de recursos, complejidad y por ende repercusión en el producto final.
Interacciones complejas entre el sonido y el espectador, como el sonido espacial envolvente se desarrollan en esta etapa, y los diferentes programas de edición audiovisual ofrecen herramientas para generar la Mezcla de Sonido en cada uno de los diferentes formatos establecidos (Surround 5.1, Dolby Atmos, etc)
A pesar de que estos programas buscan ofrecer los últimos avances y recursos para desarrollar la mezcla de sonido, durante los últimos años se han dado mayores avances y accesos a herramientas en términos de interactividad sonora y mezcla de sonido espacial en las plataformas de desarrollo para videojuegos.
Esto, sumado al hecho de que el diseño sonoro puede abordarse desde las etapas iniciales del desarrollo de un videojuego, permite unos niveles de interacción entre el sonido y el planteamiento narrativo sin precedentes.
Plataformas para desarrollo de videojuegos como Unity o Unreal ofrecen herramientas avanzadas para diseño sonoro espacial y video 360. Este tipo de herramientas, que en el entorno tradicional de edición audiovisual suelen tener un costo comercial, se encuentran de manera gratuita en estas plataformas.
El diseño sonoro de un videojuego, tal y como se maneja en una mezcla audiovisual tradicional, se divide en tres planos sonoros fundamentales: Música, Ambiente y Diálogos.
La principal diferencia consiste en que el sonido para videojuegos puede (y debe) adaptarse a circunstancias particulares, mediante programación, adquiriendo un nuevo nivel de interacción.
Planos sonoros
En el desarrollo del sonido para un videojuego se manejan diferentes planos sonoros que interactúan con el planteamiento narrativo de manera diferente:
– Sonido Ambiental
– Sonido de interacción inmediata
– Sonido de Interfaz
– Música de fondo
De acuerdo al tipo de interacción buscado, las fuentes de sonido incluidas en la mezcla se deben configurar para reproducirse constantemente, en modo bucle o “loop” en el caso del sonido ambiental o música de fondo y una sola reproducción, para sonidos puntuales de interacción o interfaz.
Los sonidos de interacción, como por ejemplo los pasos de un personaje, deben reproducirse repetidamente desde un mismo archivo de audio original. De aquí surge la necesidad de modificarlos ligeramente con funciones como “randomize” para cualidades como la intensidad o la frecuencia; de manera que al ser repetidos no generen monotonía al jugador o espectador.
La herramienta Audio mixer en plataformas para el desarrollo de videojuegos como Unity está concebida como un DAW (Digital Audio Workstation) integrado.
De esta manera se puede mezclar y aplicar efectos sonoros de posproducción directamente en el motor del videojuego de manera interactiva.
Tradicionalmente en diseño de sonido audiovisual, los sonidos ambientales se catalogan como diegéticos y los que tienen la perspectiva del espectador (por ejemplo el sonido de los créditos presentando un personaje) se clasifican como efectos de sonido. Estos últimos entran en la categoría de “Efectos de interfaz” en el ámbito de los videojuegos, y se pueden entender como toda la interacción sonora que ocurre cuando un videojuego entra en modo “pausa”.
Dentro de las aplicaciones innovadoras que se pueden encontrar a los efectos tradicionales de un DAW aprovechando la interactividad de un motor de videojuegos, se encuentran ejemplos como el efecto side chain compression. Este efecto es tradicionalmente utilizado en mezcla musical para modular el comportamiento dinámico de un plano musical sobre otro y de esta manera lograr cohesión entre estos planos. La aplicación en videojuegos permite crear zonas de sonido ambiente que interactuan de acuerdo a la posición del espectador, como entre el sonido de las olas y el tráfico, a medida que hay acercamiento a una playa.
Otra de las aplicaciones innovadoras de la posproducción sonora en motores de videojuegos es la música, que concebida en zonas de ambiente con ideas (loops) musicales de tempo o velocidad independiente ofrecen un nuevo nivel de interactividad para el diseñador sonoro.
La interactividad entre imagen y sonido tiene también nuevo campo de desarrollo en los patrones visuales como luces que interactúan con patrones sonoros o la utilización de la voz del espectador-jugador a través del micrófono para controlar aspectos del juego.
Así como a principios del siglo XX el Cine, o la imagen en movimiento era considerado una curiosidad de entretenimiento que con el tiempo adquirió relevancia artística, el videojuego podría ser el nuevo medio de expresión artística del siglo XXI.
El tiempo revelará si llega a considerarse el videojuego con la relevancia expresiva del Séptimo Arte. Por el momento es una industria que maneja presupuestos que no tienen nada que envidiar a la industria cinematográfica y herramientas de fácil acceso para experimentación en diseño sonoro interactivo.
Este y otro temas serán abordado en la segunda semana del audio y la radio, en el auditorio Jaime Michelsen Uribe del Politécnico Grancolombiano del 24 al 28 de Octubre. Para más información: https://www.poli.edu.co/semana-del-audio-y-la-radio