Deprecated: Required parameter $endpoint follows optional parameter $args in /www/wub/masterartsonor_temp/wp-content/plugins/breadcrumb-navxt/class.bcn_rest_controller.php on line 64
Tiempo y espacio en la música experimental – Màster en Art Sonor

Tiempo y espacio en la música experimental

Resumen

Este tema trata de preguntas mucho más prácticas que en Psicoacústica y Música Experimental. Es lógico: necesitábamos sentar las bases de un lenguaje para referirnos con precisión al comportamiento del sonido en su lugar natural: el espacio. Esto requería mucha información teórica. Por espacio, sin embargo, no sólo entendemos las dimensiones espaciales tradicionales -que sólo son aplicables al dominio en el que nos movemos voluntariamente-, sino que añadiremos tiempo a esta terna, ya que los sonidos y la música también tienen lugar con el tiempo, sea cual sea el tiempo que termine, después de todo, siendo. En otras palabras, los físicos todavía discuten sobre su existencia real.

Debido a estas consideraciones, hemos estructurado el tema en cuatro grandes módulos: Medio Ambiente y Difusión, Gesto, Generación y Tiempo.

Temario

  • 1. Espacio. Paisaje sonoro
    • 1.1. Concepto y utilidad
    • 1.1.1 Dimensión metodológica del paisaje sonoro
    • 1.1.2 Dimensión narrativa del paisaje sonoro
    • 1.2. Difusión del sonido. Altavoces como instrumento musical
      • 1.2.1. Tipos de altavoces y formas de estimulación espacial
      • 1.2.2. Direccionalidad
      • 1.2.3. Diseños de altavoces
        • 1.2.3.1. Estereofonía
        • 1.2.3.2. Cuadrafonía y octofonía
        • 1.2.3.3. Sistemas especiales de difusión
          • 1.2.3.3.1. Gmebaphone
          • 1.2.3.3.2. Acousmònium
          • 1.2.3.3.3. Cúpulas de Kupper
        • 1.2.3.4. Ambisónics y Vector Based Amplitude Panning – VBAP – VBAP
        • 1.2.3.5. Wave Field Synthesis – WFS
        • 1.2.3.6. Manifold – Interface Amplitude Panning – MIAP
  • 2. Sistemas interactivos. Interacción y tiempo real. Dispositivos de hardware
    • 2.1. En el mundo virtual
      • 2.1.1. Entre aplicaciones en el mismo ordenador
        • 2.1.1.1. Aplicaciones de sonido
        • 2.1.1.2. Aplicaciones de sonido, visuales y otras aplicaciones
      • 2.1.2. Entre ordenadores dedicados
        • 2.1.2.1. Ordenadores dedicados a aplicaciones de sonido
        • 2.1.2.2. Ordenadores dedicados al sonido, aplicaciones visuales y de otros medios
      • 2.1.3. En la red
    • 2.2. En el mundo físico
      • 2.2.1. Sensores
        • 2.2.1.1. Micrófonos
        • 2.2.1.2. Captadores mecánicos
        • 2.2.1.3. Captadores de radiación electromagnética
          • 2.2.1.3.1. Fotorresistencias
          • 2.2.1.3.2. Detectores infrarrojos
          • 2.2.1.3.3. Cámaras de video y microscopios
      • 2.2.2. Actuadores
        • 2.2.2.1. Altavoces
        • 2.2.2.2. Placas
        • 2.2.2.3. Solenoides
        • 2.2.2.4. Motores
        • 2.2.2.5. Otros actuadores
  • 3. Sonificación
    • 3.1. Sonido dependiendo de la imagen
      • 3.1.1. Identificación de color
      • 3.1.2. Identificación de luminosidad
      • 3.1.3. Identificación del movimiento
      • 3.1.4. Ubicación del color
      • 3.1.5. Localización de luminosidad
      • 3.1.6. Ubicación del movimiento
    • 3.2. Sonido basado en datos
      • 3.2.1. GPS
      • 3.2.2. Internet. El caso de Carnívore
      • 3.2.3. SRTM – Datos de elevación de tierra de la NASA
      • 3.2.4. Cassini – Explorador dinámico – Datos de campo electromagnético terrestre
      • 3.2.5. Valores de las acciones
      • 3.2.6. Datos sobre el estado del mar
      • 3.2.7. Datos sobre el estado climático
      • 3.2.8. Datos demográficos del planeta
      • 3.2.9. Datos de actividad geológica
      • 3.2.10. Decodificación de matrices bidimensionales y QR
  • 4. Generación de imágenes dependiendo del sonido
    • 4.1. Visualización de parámetros musicales
      • 4.1.1. Altura/Tiempo
      • 4.1.2. Dinámica/Tiempo
      • 4.1.3. Campana/Hora
      • 4.1.4. Espacio/Tiempo
    • 4.2. Visualización de parámetros de sonido
      • 4.2.1. Frecuencia/Tiempo
      • 4.2.2. Amplitud/Tiempo
      • 4.2.3. Espectro/Tiempo
      • 4.2.4. Ubicación/Hora
      • 4.2.5. Codificación de sonidos en matrices bidimensionales y QR
  • 5. Generación conjunta de sonido e imagen
    • 5.1. Procesos independientes del usuario
      • 5.1.1. Comportamientos numéricos clásicos
        • 5.1.1.1. Serie de números famosos
        • 5.1.1.2. Funciones famosas
      • 5.1.2. Fractales
      • 5.1.3. Autómatas celulares y matrices de Conway
      • 5.1.4. Superficies paramétricas. Mezcla de matrices
      • 5.1.5. Agentes computacionales
        • 5.1.5.1. Boids
        • 5.1.5.2. Muelles
        • 5.1.5.3. Luciérnagas
      • 5.1.6. Algoritmos genéticos
    • 5.2. Procesos dependientes del usuario. Interactividad y tiempo real. Acción humana en tiempo real sobre parámetros computacionales
      • 5.2.1. Perspectiva interactiva del uso de fractales
      • 5.2.2. Perspectiva interactiva del uso de los autómatas celulares y matrices de Conway
      • 5.2.3. Perspectiva interactiva del uso de superficies paramétricas y mezcla de matrices
      • 5.2.4. Perspectiva interactiva del uso de agentes computacionales
        • 5.2.4.1. Boids
        • 5.2.4.2. Muelles
        • 5.2.4.3. Luciérnagas
      • 5.2.5. Convolución y flujos
  • 6. Tiempo
    • 6.1. Escalas de tiempo
    • 6.2. Direccionalidad
    • 6.3. Trabajo cerrado
      • 6.3.1. Formas musicales
    • 6.4. Trabajo abierto

Bibliografía

BARLOW, C., F. BARRIèRE, J. M. BERENGUER, et al. Time in electroacoustic music. Bourges: Actes 5, Mnemosyne, 1999-2000.

BARRET, N., “Spatio-Musical Composition Strategies”. Organised Sound, Vol. 7 (3) (CUP), 2002, pp. 313-323.

BAYLE, F., Musique acousmatique, propositions… positions. París: Buchet/Chastel—INA-GRM, 1993.

BOULANGER, R., The Csound Book: Perspectives in Software Synthesis, Sound Design, Signal Processing,and Programming. The MIT Press, 2000.

CHOWNING, J., “The Simulation of Moving Sound Sources”. Journal of the Audio Engineering Society, 19 (1), 1971, pp. 2-6 (Computer Music Journal, June 1977, pp 48–52).

CLOZIER, Ch., “The Gmebaphone Concept and the Cybernéphone Instrument”. Computer Music Journal, Vol. 25 (4), 2001, pp. 81–90.

COLE, H., Sounds and Signs: Aspects of Musical Notation. Oxford University Press, 1974.

COLLINS, N., Handmade Electronic Music: The Art of Hardware Hacking. Routledge, 2006.

DAVIS, M. F., “History of Spatial Coding”. Journal of the Audio Engineering Society, Vol. 51 No. 6, June 2003, pp. 554–569.

EMERSON, S. (ed.), The Language of Electroacoustic Music. London: MacMillan Press, 1986.

DOHERTY, D., “Sound Diffusion of Stereo Music over a Multi Loudspeaker Sound System: from First Principles onwards to a Successful Experiment”. Journal of Electroacoustic Music (SAN), Vol. 11, 1998, pp. 9-11.

GHAZALA, R., Circuit-Bending: Build Your Own Alien Instruments.John Wiley & Sons, 2005.

GRITTEN, A. i E. KING (eds.), Music and Gesture. Aldershot: Ashgate, 2006.

KEANE, D., Tape Music Composition. Oxford University Press, 1981.

MANNING, P., “Computers and Music Composition”. Proceedings of the Royal Musical Association, Vol. 107, David Greer (ed.), 1980–1, pp. 119–131.

OWSINSKI, B., The Mastering Engineers Handbook. MixBooks, 2000.

SCHAEFFER, P., De la musique concrète à la musique même. París: Mémoire du Livre, 2002.

WANDERLEY, M. M., Non-Obvious Performer Gestures in Instrumental Music. Heidelberg: Springer, 1999.