ARBOR Ciencia, Pensamiento y Cultura 199 (810)
octubre-diciembre, 2023, a722
ISSN: 0210-1963, eISSN: 1988-303X
https://doi.org/10.3989/arbor.2023.810002

Los caminos compartidos del tacto y el sonido hacia la emoción: Evidencias neurocientíficas actuales

The shared pathways of touch and sound to emotion: Current neuroscientific evidence

Álvaro García López

Universidad Rey Juan Carlos

https://orcid.org/0000-0002-5277-7669

María José Lucía Mulas

Universidad Carlos III de Madrid

https://orcid.org/0000-0002-2668-4119

Belén Ruiz Mezcua

Universidad Carlos III de Madrid

https://orcid.org/0000-0003-1993-8325

José Manuel Sánchez Pena

Universidad Carlos III de Madrid

https://orcid.org/0000-0002-5903-5967

RESUMEN

La característica más representativa de la música es su capacidad de generar emoción. Pero ¿por qué la música emociona? En este artículo mostramos los conocimientos actuales de la teoría musical y la neurociencia que intentan explicar las relaciones que existen entre la música y las emociones. En primer lugar, se repasan los conocimientos actuales sobre el procesamiento de los sonidos musicales a nivel cerebral y las posibles explicaciones del origen de la emoción musical, así como la contribución de los distintos parámetros musicales a la generación de emociones, considerando estructuras musicales de nuestro mundo occidental. En segundo lugar, se presenta el canal táctil como un posible canal de transmisión de la emoción musical análogo al canal auditivo, pero con más limitaciones en la discriminación de frecuencias. Este acercamiento se produce desde la profunda fascinación que ejerce la música, con la esperanza de encontrar vías para explicar la transmisión de la emoción musical desde un canal alternativo.

Palabras clave: 
Música; emoción; vibro táctil
ABSTRACT

The most representative characteristic of music is its capacity to generate emotion. But why does music excite you? In this article, we review the current knowledge from music theory and neuroscience that attempts to explain the relationship between music and emotion. First, we consider how the different musical parameters contribute to the generation of emotions from the perspective of the musical structures of our western world. Secondly, it reviews current knowledge about the processing of musical sounds in the brain and possible explanations for the evolutionary origin of music. Finally, the tactile channel is considered a viable channel of transmission of musical emotion analogous to the auditory channel but with more limitations in frequency discrimination. This approach is based on the deep fascination with music and all the enigmas surrounding it.

Keywords: 
Music; emotion; vibrotactile

Recibido: 10  noviembre  2022. Aceptado: 05  julio  2023. Publicado: 18  enero  2024

Cómo citar este artículo/Citation: García López, Álvaro; Lucía Mulas, María José; Ruiz Mezcua, Belén; Sánchez Pena, José Manuel (2023). Los caminos compartidos del tacto y el sonido hacia la emoción: Evidencias neurocientíficas actuales. Arbor, 199(810): a722. https://doi.org/10.3989/arbor.2023.810002

CONTENIDO

1. INTRODUCCIÓN

 

La característica más representativa de la música es su capacidad de generar emoción. La Real Academia Española de la Lengua (en su séptima acepción) la define como el «Arte de combinar los sonidos de la voz humana o de los instrumentos, o de unos y otros a la vez, de suerte que produzcan deleite, conmoviendo la sensibilidad, ya sea alegre, ya tristemente»1 https://dle.rae.es/músico .

En este artículo reflexionamos sobre música y emoción, recopilando primero conocimientos actuales en la investigación neurocientífica sobre la emoción musical: ¿qué es? ¿cómo se origina? ¿qué características de la música inducen emoción? En segundo lugar, recogemos conocimientos actuales sobre la percepción vibro-táctil de sonidos, y sobre la posibilidad de que exista una transmisión mediante el canal táctil de cualidades musicales que generan emoción. Nos centramos en el contexto de la música tonal occidental pues es en este contexto en el que se han realizado la mayoría de las investigaciones científicas en este ámbito.

2. CEREBRO, EMOCIÓN Y MÚSICA

 

La característica más representativa de la música es su capacidad de generar emoción (Lonsdale y North, 2011Lonsdale, Adam y North, Adrian (2011) Why do we listen to Music? A Uses and Gratifications Analysis. British Journal of Psycholy, 102 (1), pp. 108-134. https://doi.org/10.1348/000712610X506831 ; Juslin, 2013aJuslin, Patrik N. (2013a). From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions. Physics of life reviews, 10(3), pp. 235-266.). En su trabajo sobre el origen de la música Montagu (2017, p.1)Montagu, Jeremy (2017). How music and instruments began: A brief overview of the origin and entire development of music, from its earliest stages. Frontiers in Sociology, 2, article 8. https://doi.org/10.3389/fsoc.2017.00008 la define como «el sonido que transmite emoción». ¿Pero qué es la emoción? La investigación científica sobre la emoción en el área de la neurociencia ha experimentado un gran auge en décadas relativamente recientes, sobre todo con el avance en las técnicas de neuroimagen como la electroencefalografía (EEG) y la resonancia magnética funcional (fMRI). Estas técnicas no invasivas permiten experimentar y determinar las activaciones que se producen en distintas zonas del cerebro, durante su funcionamiento normal, ante distintos estímulos emocionales. Sin embargo, sigue siendo un campo con muchos debates abiertos, sin acuerdo en la definición científica de la emoción, y sin resultados determinantes en cuanto a la identificación de los circuitos cerebrales subyacentes (Gu et al., 2019aGu, Simeng; Wang, Fushun; Patel, Nithes P.; Bourgeois, James A. y Huang, Jason H. (2019). A model for basic emotions using observations of behavior in Drosophila. Frontiers in Psychology, 10, article 781. https://doi.org/10.3389/fpsyg.2019.00781 ).

Desde finales del siglo pasado, la investigación se ha desarrollado en base a dos paradigmas básicos: el modelo categórico y el modelo dimensional de la emoción (Eerola y Vuoskoski, 2011Eerola, Tuomasy y Vuoskoski, Jonna K. (2011). A comparison of the discrete and dimensional models of emotion in music. Psychology of Music, 39 (1), pp. 18-49. https://doi.org/10.1177/0305735610362821 ; Kragel y LaBar, 2016Kragel, Philip y LaBar, Kevin (2016). Decoding the Nature of Emotion in the Brain. Trends in Cognitive Sciences, 20(6): pp. 444-455. https://doi.org/10.1016/j.tics.2016.03.011. ).

El modelo categórico de la emoción presupone la existencia de un número limitado de emociones, llamadas emociones básicas y consideradas innatas y universales, de las que derivan el resto de las emociones. El modelo pionero propuesto por Paul Ekman (1992)Ekman, Paul (1992). Are there basic emotions? Psychological Review, 99(3), pp. 550-553. https://doi.org/10.1037/0033-295X.99.3.550 que considera que existen siete emociones básicas -miedo, tristeza, ira, felicidad, sorpresa, asco y desprecio- es el más conocido y sigue vigente en el debate científico (Ortony, 2022Ortony, Andrew (2022). Are all “basic emotions” emotions? A problem for the (basic) emotions construct. Perspectives on psychological science, 17(1), pp. 41-61.). Estudios recientes han reducido este conjunto a cuatro emociones básicas: alegría, tristeza, miedo e ira (Jack et al., 2014Jack, Rachael; Garrod, Oliver B. y Schyns, Philippe (2014). Dynamic facial expressions of emotion transmit an evolving hierarchy of signals over time. Current Biology, 24 (2), pp. 187-192. https://doi.org/10.1016/j.cub.2013.11.064 ; Jack et al., 2016Jack, Rachel E.; Sun, Wei; Delis, Ioannis; Garrod, Oliver G. y Schyns, Philippe G. (2016). Four not six: Revealing culturally common facial expressions of emotion. Journal of Experimental Psychology: General, 145(6), 708.; Gu et al., 2019bGu, Simeng; Wang, Fushun; Cao, Caiyun; Wu, Erxi; Tang, Yi-Yuan y Huang, Jason H. (2019). An integrative way for studying neural basis of basic emotions with fMRI. Frontiers in Neuroscience, 13, article 628. https://doi.org/10.3389/fnins.2019.00628 ). El modelo categórico de la emoción presupone la existencia de estructuras neurales específicas para cada tipo de emoción básica, pero los estudios fMRI no han permitido llegar a esta conclusión (Kragel y LaBar, 2016Kragel, Philip y LaBar, Kevin (2016). Decoding the Nature of Emotion in the Brain. Trends in Cognitive Sciences, 20(6): pp. 444-455. https://doi.org/10.1016/j.tics.2016.03.011. ; Saarimäki et al., 2016Saarimäki, Heini; Gotsopoulos, Athanasios; Jääskeläinen, Iiro P. et al. (2016). Discrete neural signatures of basic emotions. Cerebral cortex, 26(6), pp. 2563-2573.; Wang et al., 2020Wang, Fushun; Yang, Jiongjiong.; Pan, Fang; Ho, Roger C. y Huang, Jason H. (2020). Editorial: Neurotransmitters and emotions. Frontiers in psychology, 11, p. 21. https://doi.org/10.3389/fpsyg.2020.00021 ; Touroutoglou et al., 2015Touroutoglou, Alexandra; Lindquist, Kristen A.; Dickerson, Bradford C. y Barrett, Lisa Feldman (2015). Intrinsic connectivity in the human brain does not reveal networks for ‘basic’emotions. Social cognitive and affective neuroscience, 10(9), pp. 1257-1265.). Por el contrario, estudios recientes parecen indicar que diferentes estructuras neuronales pueden estar implicadas en la percepción de una única emoción básica y que, a su vez, una estructura específica puede contribuir a la percepción de distintas emociones básicas (Celeghin et al. 2017Celeghin, Alessia; Diano, Matteo; Bagnis, Arianna; Viola, Marco y Tamietto, Marco (2017). Basic emotions in human neuroscience: neuroimaging and beyond. Frontiers in Psychology, 8, 1432. https://doi.org/10.3389/fpsyg.2017.01432 ; Wang et al., 2020Wang, Fushun; Yang, Jiongjiong.; Pan, Fang; Ho, Roger C. y Huang, Jason H. (2020). Editorial: Neurotransmitters and emotions. Frontiers in psychology, 11, p. 21. https://doi.org/10.3389/fpsyg.2020.00021 ; Saarimäki et al., 2016Saarimäki, Heini; Gotsopoulos, Athanasios; Jääskeläinen, Iiro P. et al. (2016). Discrete neural signatures of basic emotions. Cerebral cortex, 26(6), pp. 2563-2573.).

El modelo dimensional de la emoción considera que las emociones pueden representarse en un espacio continuo, generalmente de 2 o 3 dimensiones. El más conocido es el modelo de los afectos propuesto por James Russell (Posner et al., 2005Posner, Jonathan; Russell, James A. y Peterson, Bradley S. (2005). The circumplex model of affect: An integrative approach to affective neuroscience, cognitive development, and psychopathology. Development and Psychopathology, 17(3), pp. 715-734. https://doi.org/10.1017/S0954579405050340 ), que considera dos dimensiones básicas en las emociones: la excitación (descanso-activación) y la valencia (negativa-positiva). La valencia hace referencia al comportamiento de acercamiento/evitación que realiza una persona ante un determinado estímulo, mientras que el componente de excitación determina la fuerza del comportamiento de acercamiento/evitación. Estas dimensiones tendrían su origen en dos tipos de circuitos neuronales: un circuito que se activa en función de la intensidad del estímulo emocional, independientemente de su valencia, y otro circuito que discrimina su valencia positiva o negativa. Se considera que el área asociada a la dimensión de excitación en el cerebro es la amígdala (Lang y Bradley, 2010Lang, Peter y Bradley, Margaret (2010). Emotion and the motivational brain. Biological Psychology, 84(3):437-50. https://doi.org/10.1016/j.biopsycho.2009.10.007. ; Lindquist et al., 2012Lindquist, Kristeb; Wager, Tor; Kober, Hedy; Bliss-Moreau, Eliza y Barrett, Lisa (2012). The brain basis of emotion: A meta-analytic review. The Behavioural and Brain Sciences, 35(3), pp. 121-143. https://doi.org/10.1017/S0140525X11000446 ; Koelsch et al., 2013Koelsch, Stefen; Skouras, Stavros; Fritz, Thomas; Herrera, Perfecti; Bonhage, Corinna; Küssner, Mats B. y Jacobs, Arthur M. (2013). The roles of superficial amygdala and auditory cortex in music-evoked fear and joy. NeuroImage, 81, pp. 49-60. https://doi.org/10.1016/j.neuroimage.2013.05.008 ; Koelsch et al., 2014Koelsch, Stefan y Skouras, Stavros (2014). Functional centrality of amygdala, striatum and hypothalamus in a “small-world” network underlying joy: An fMRI study with music. Human brain mapping, 35(7), pp. 3485-3498.; Šimić et al., 2021Šimić Goran; Tkalčić Mladenka; Vukić, Vana; Mulc, Damir; Španić, Ena; Šagud, Marina; Olucha-Bordonau, Francisco; Vukšić, Mario y Hof, Patrik R. (2021). Understanding Emotions: Origins and Roles of the Amygdala. Biomolecules, 11(6), p. 823. https://doi.org/10.3390/biom11060823.). En cuanto a la valencia, se ha correlacionado sobre todo con el circuito de recompensa del cerebro, en particular con el nucleus accumbeus o núcleo accumbens (NAcc), especialmente relevante en el procesamiento de la recompensa y el placer (Reybrouck et al., 2018Reybrouck, Mark; Vuust, Peter y Brattico, Elvira (2018). Brain connectivity networks and the aesthetic experience of music. Brain Sciences, 8(6), p. 107.; Lindquist et al., 2012Lindquist, Kristeb; Wager, Tor; Kober, Hedy; Bliss-Moreau, Eliza y Barrett, Lisa (2012). The brain basis of emotion: A meta-analytic review. The Behavioural and Brain Sciences, 35(3), pp. 121-143. https://doi.org/10.1017/S0140525X11000446 ).

medium/medium-ARBOR-199-810-a722-gf1.png
Figura 1.  Teoría integradora de las emociones. Fuente: Simeng Gu et al. (2019b)Gu, Simeng; Wang, Fushun; Cao, Caiyun; Wu, Erxi; Tang, Yi-Yuan y Huang, Jason H. (2019). An integrative way for studying neural basis of basic emotions with fMRI. Frontiers in Neuroscience, 13, article 628. https://doi.org/10.3389/fnins.2019.00628 .

Estudios recientes han planteado un enfoque integrador de ambos modelos considerando que las emociones básicas no son contrarias a los estudios dimensionales (Gu et al., 2019aGu, Simeng; Wang, Fushun; Patel, Nithes P.; Bourgeois, James A. y Huang, Jason H. (2019). A model for basic emotions using observations of behavior in Drosophila. Frontiers in Psychology, 10, article 781. https://doi.org/10.3389/fpsyg.2019.00781 ; Gu et al., 2019bGu, Simeng; Wang, Fushun; Cao, Caiyun; Wu, Erxi; Tang, Yi-Yuan y Huang, Jason H. (2019). An integrative way for studying neural basis of basic emotions with fMRI. Frontiers in Neuroscience, 13, article 628. https://doi.org/10.3389/fnins.2019.00628 ). Las emociones básicas de alegría, tristeza, miedo e ira serían puntos en el espacio dimensional excitación-valencia con la particularidad de estar localizadas sobre los ejes de las dimensiones, la alegría y la tristeza sobre el eje de valencia ya que dependen del valor hedónico del estímulo, y el miedo y la ira sobre el eje de excitación ya que dependerían de la forma en que se produce el estímulo.

Los dos modelos que acabamos de explicar consideran que la emoción está vinculada a los circuitos neuronales más antiguos y básicos del cerebro (el sistema límbico y otras regiones internas). La emoción sería un mecanismo adaptativo de supervivencia encargado de dar la alarma ante estímulos críticos para la supervivencia y mover a la acción: un acercamiento ante estímulos positivos o un alejamiento ante estímulos negativos o peligrosos (Lang y Bradley, 2010Lang, Peter y Bradley, Margaret (2010). Emotion and the motivational brain. Biological Psychology, 84(3):437-50. https://doi.org/10.1016/j.biopsycho.2009.10.007. ; Koelsch, 2014Koelsch, Stefan (2014). Brain correlates of music-evoked emotions. Nature Reviews Neuroscience, 15(3), pp. 170-180.). Estos circuitos primitivos están conectados con áreas más desarrolladas, como la corteza o el cerebelo, por lo que los estímulos externos producen respuestas más flexibles y adaptativas, moduladas por procesos cognitivos que actúan frenando estas reacciones primarias.

La emoción musical es la emoción inducida por la música. Patrik N. Juslin (2013aJuslin, Patrik N. (2013a). From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions. Physics of life reviews, 10(3), pp. 235-266.; 2013b)Juslin, Patrik N. (2013b). What does music express? Basic emotions and beyond. Frontiers in psychology, 4, article 596. https://doi.org/10.3389/fpsyg.2013.00596 considera que las emociones musicales pueden ser emociones básicas como alegría o tristeza, emociones más complejas como nostalgia u orgullo y también emociones estéticas (admiración, asombro) aunque con menos frecuencia. Pero las emociones que más claramente se expresan y perciben ante la música son las emociones básicas de alegría, tristeza y miedo (Vieillard et al., 2008Vieillard, Sandrine; Peretz, Isabelle; Gosselin, Nathalie; Khalfa, Stéphanie; Gagnon, Lise y Bouchard, Bernard (2008). Happy, sad, scary and peaceful musical excerpts for research on emotions. Cognition and Emotion, 22(4), pp. 720-752. https://doi.org/10.1080/02699930701503567 ; Paquette et al., 2013Paquette, Sébastien; Peretz, Isabel y Belin, Pascal (2013). The “Musical emotional bursts”: A validated set of musical affect bursts to investigate auditory affective processing. Frontiers in Psychology, 4, article 509. https://doi.org/10.3389/fpsyg.2013.00509 ).

De hecho, el reconocimiento de las emociones básicas de alegría, tristeza o miedo en la música, no sólo es consistente entre oyentes de la misma cultura (Mohn et al., 2011Mohn, Christine; Argstatter, Heike y Wilker, Friedrich-Wilhelm (2011). Perception of six basic emotions in music. Psychology of Music, 39(4), pp. 503-517.; Vieillard y Gilet, 2013Vieillard, Sandrine y Gilet, Anne-Laure. (2013). Age-related differences in affective responses to and memory for emotions conveyed by music: A cross-sectional study. Frontiers in Psychology, 4, p. 711. https://doi.org/10.3389/fpsyg.2013.00711 ) sino que se ha comprobado que la emoción producida por la música sigue patrones universales, pues las personas de culturas distintas pueden distinguir los mismos sentimientos de alegría, tristeza o miedo al escuchar músicas de otras culturas (Mohn et al., 2011Mohn, Christine; Argstatter, Heike y Wilker, Friedrich-Wilhelm (2011). Perception of six basic emotions in music. Psychology of Music, 39(4), pp. 503-517.; Argstatter, 2016Argstatter, Heike (2016). Perception of basic emotions in music: Culture-specific or multicultural? Psychology of Music, 44(4), pp. 674-690.; Fritz et al., 2009Fritz, Thomas; Jentschke, Sebastian; Gosselin, Nathalie; Sammler, Daniela; Peretz, Isabelle; Turner, Robert; Friederici, Angela y Koelsch, Stefan (2009). Universal recognition of three basic emotions in music. Current Biology, 19 (7), pp. 573-576. https://doi.org/10.1016/j.cub.2009.02.058 ; Balkwill et al., 2004Balkwill, Laura-Lee; Thompson, William y Matsunaga, Rie (2004). Recognition of emotion in Japanese, Western, and Hindustani music by Japanese listeners. Japanese Psychological Research, 46 (4), pp. 337-349. https://doi.org/10.1111/j.1468-5584.2004.00265.x ).

Este reconocimiento de emociones básicas es inmediato, se produce en menos de dos segundos, ante un acorde o unas pocas notas. Sébastien Paquette, Isabel Peretz y Pascal Belin (2013)Peretz, Isabelle; Aubé, William y Armony, Jorge L. (2013). Toward a neurobiology of musical emotions. En Ekart Altenmüller, Sabine Schmidt y Elke Zimmermann (eds.): Evolution of Emotional Communication. From Sounds in Nonhuman Mammals to speech and Music in Man. Oxford: Oxford University Press, pp. 277-299. 10.1093/acprof:oso/9780199583560.003.0017., con su conjunto de clips musicales de muy corta duración o MEB (Musical Emotional Burts), que en promedio duran 1,6 segundos, comprobaron que las personas categorizaban correctamente y con gran precisión las emociones asociadas a estos clips, y que incluso 250 milisegundos después del inicio de la música eran suficientes en algunos casos para que pudieran distinguir una música triste de una música alegre. Sandrine Vieillard et al. (2008)Vieillard, Sandrine; Peretz, Isabelle; Gosselin, Nathalie; Khalfa, Stéphanie; Gagnon, Lise y Bouchard, Bernard (2008). Happy, sad, scary and peaceful musical excerpts for research on emotions. Cognition and Emotion, 22(4), pp. 720-752. https://doi.org/10.1080/02699930701503567 encontraron que era necesario un tiempo promedio de 483 ms, 1446 ms y 1737 ms para que se pudieran reconocer correctamente los extractos felices, tristes y aterradores respectivamente. Con una expresión musical más débil de estas emociones o de otras emociones, el consenso entre los oyentes disminuye significativamente (Eerola, y Vuoskoski, 2011Eerola, Tuomasy y Vuoskoski, Jonna K. (2011). A comparison of the discrete and dimensional models of emotion in music. Psychology of Music, 39 (1), pp. 18-49. https://doi.org/10.1177/0305735610362821 ).

A continuación, se muestran algunos ejemplos de estos clips musicales de apenas dos segundos (ClipAlegre.wav, ClipTriste.wav, ClipMedio.wav).

De aquí que se considere que la emoción musical tendría su origen en este mismo mecanismo primitivo adaptativo que se dispararía ante estímulos biológicamente importantes como vocalizaciones, risas, gritos, prosodias, entonaciones, buscando patrones en los sonidos, asignando significado para ajustar la respuesta adaptativa. Las emociones serían las encargadas de convertir los sonidos que percibimos en algo comprensible, lo que hace que entendamos las situaciones en las que estamos (Peretz, 2013Peretz, Isabelle; Aubé, William y Armony, Jorge L. (2013). Toward a neurobiology of musical emotions. En Ekart Altenmüller, Sabine Schmidt y Elke Zimmermann (eds.): Evolution of Emotional Communication. From Sounds in Nonhuman Mammals to speech and Music in Man. Oxford: Oxford University Press, pp. 277-299. 10.1093/acprof:oso/9780199583560.003.0017.; Koelsch, 2014Koelsch, Stefan (2014). Brain correlates of music-evoked emotions. Nature Reviews Neuroscience, 15(3), pp. 170-180.).

Sascha Frühholz, Wiebke Trost y Sonja A. Kotz (2016)Frühholz, Sascha; Trost, Wiebke y Kotz, Sonja A. (2016). The sound of emotions-Towards a unifying neural network perspective of affective sound processing. Neuroscience y Biobehavioral Reviews, 68, pp. 96-110. https://doi.org/10.1016/j.neubiorev.2016.05.002 realizaron una recopilación de estudios de neuroimagen sobre el procesamiento de sonidos musicales, componiendo un mapa de las regiones del cerebro en las que de forma consistente se ha detectado activación cuando las personas escuchaban música. En la figura 2 se muestran esas regiones con los acrónimos indicados entre paréntesis. Las zonas representadas en naranja corresponden a estructuras subcorticales, las representadas en azul oscuro a zonas frontales e ínsula, y las representadas en azul claro al sistema auditivo ascendente. No obstante, aunque se puedan determinar estas zonas, estamos muy lejos de saber el detalle de lo que ocurre en ellas, y quienes han desarrollado estos estudios apenas pueden esbozar ideas generales.

medium/medium-ARBOR-199-810-a722-gf2.png
Figura 2.  Regiones implicadas en el procesamiento de la música, de acuerdo con Frühholz et al. (2016)Frühholz, Sascha; Trost, Wiebke y Kotz, Sonja A. (2016). The sound of emotions-Towards a unifying neural network perspective of affective sound processing. Neuroscience y Biobehavioral Reviews, 68, pp. 96-110. https://doi.org/10.1016/j.neubiorev.2016.05.002

Entre las zonas subcorticales que se activan al escuchar música se encuentran los circuitos pertenecientes al sistema límbico, el más antiguo del cerebro, como la amígdala y el circuito de recompensa del cerebro, es decir los circuitos neuronales primarios de la emoción (Pehrs et al., 2014Pehrs, Corinna; Deserno, Lorenzo; Bakels, Jan-Hendrik et al. (2014). How music alters a kiss: Superior temporal gyrus controls fusiform-amygdalar effective connectivity. Social Cognitive and Affective Neuroscience, 9(11), pp. 1770-1778. https://doi.org/10.1093/scan/nst169 ; Peretz, 2013Peretz, Isabelle; Aubé, William y Armony, Jorge L. (2013). Toward a neurobiology of musical emotions. En Ekart Altenmüller, Sabine Schmidt y Elke Zimmermann (eds.): Evolution of Emotional Communication. From Sounds in Nonhuman Mammals to speech and Music in Man. Oxford: Oxford University Press, pp. 277-299. 10.1093/acprof:oso/9780199583560.003.0017.). La amígdala parece tener una función clave en el reconocimiento de la emoción musical (Koelsch, 2013Koelsch, Stefen; Skouras, Stavros; Fritz, Thomas; Herrera, Perfecti; Bonhage, Corinna; Küssner, Mats B. y Jacobs, Arthur M. (2013). The roles of superficial amygdala and auditory cortex in music-evoked fear and joy. NeuroImage, 81, pp. 49-60. https://doi.org/10.1016/j.neuroimage.2013.05.008 ; Koelsch, 2014Koelsch, Stefan y Skouras, Stavros (2014). Functional centrality of amygdala, striatum and hypothalamus in a “small-world” network underlying joy: An fMRI study with music. Human brain mapping, 35(7), pp. 3485-3498.) habiéndose comprobado que cuando está dañada se ve afectado el reconocimiento de la tonalidad emocional de una melodía (Gosselin et al., 2007Gosselin, Nathalie; Peretz, Isabelle; Johnsen, Erica y Adolphs, Ralph (2007). Amygdala damage impairs emotion recognition from music. Neuropsychologia, 45(2), pp. 236-244. https://doi.org/10.1016/j.neuropsychologia.2006.07.012 ). Incluso, aunque siempre se ha supuesto que el procesamiento de la estructura musical se daba a nivel cognitivo, el sistema límbico también desempeña un papel importante en el procesamiento de elementos como el tono (Gorzelańczyk et al., 2017Gorzelańczyk Edward; Podlipniak, Piotr; Walecki, Piotr; Karpiński, Maciej y Tarnowska, Emilia (2017). Pitch Syntax Violations Are Linked to Greater Skin Conductance Changes, Relative to Timbral Violations - The Predictive Role of the Reward System in Perspective of Cortico-subcortical Loops. Frontiers in Psychology, 8, article 586. https://doi.org/10.3389/fpsyg.2017.00586.). La actividad en el nucleus accumbeus (NAcc), un nodo central del sistema de recompensa del cerebro refleja cuánto disfruta un oyente de un estímulo musical (Salimpoor et al., 2011Salimpoor, Valorie N.; Benovoy, Mitchel; Larcher, Kevin; Dagher, Alain y Zatorre, Robert J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music. Nature Neuroscience, 14(2), pp. 257-262. https://doi.org/10.1038/nn.2726 ; Salimpoor et al., 2013Salimpoor, Valorie N.; van den Bosch, Iris; Kovacevic, Natasa; McIntosh, Anthony Randal, Dagher, Alain y Zatorre Robert J. (2013). Interactions between the nucleus accumbens and auditory cortices predict music reward value. Science, 340 (6129), pp. 216-219. https://doi.org/10.1126/science.1231059.; Shany et al., 2019Shany, Ofir; Singer, Neomi; Gold, Benjamin Paul; Jacoby, Nori; Tarrasch, Ricardo; Hendler, Talma y Granot, Roni (2019). Surprise-related activation in the nucleus accumbens interacts with music-induced pleasantness. Social Cognitive and Affective Neuroscience, 14(4), pp. 459-470.). En su revisión sobre la actividad cerebral y el placer de la experiencia musical Mark Reybrouc, Peter Vuust y Elvira Brattico (2018)Reybrouck, Mark; Vuust, Peter y Brattico, Elvira (2018). Brain connectivity networks and the aesthetic experience of music. Brain Sciences, 8(6), p. 107. identificaron esas mismas regiones y resaltaron que, en los casos de escucha placentera de música, se apreciaba una conectividad funcional entre la corteza auditiva, el giro frontal inferior y el circuito de recompensa, considerando que los estudios muestran una conexión consistente entre el sistema de recompensa del cerebro y el disfrute de la música. Estudios recientes muestran que la corteza auditiva también colabora en el procesamiento emocional de la música (Koelsch et al., 2018Koelsch, Stefan; Skouras, Stavros y Lohmann, Gabriele (2018). The auditory cortex hosts network nodes influential for emotion processing: An fMRI study on music-evoked fear and joy. PloS one, 13(1), e0190057.). Los estudios fMRI sugieren que la corteza auditiva juega un rol muy importante en el reconocimiento de los tonos musicales, junto con el giro frontal inferior que procesaría sonidos más complejos (Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.). Otras zonas que se han reportado consistentemente son la ínsula y el giro frontal inferior (Cheung et al., 2018Cheung, Vincent K.; Meyer, Lars; Friederici, Angela D. y Koelsch, Stefan (2018). The right inferior frontal gyrus processes nested non-local dependencies in music. Scientific reports, 8(1), pp. 1-12.; Reybrouc et al., 2018Reybrouck, Mark; Vuust, Peter y Brattico, Elvira (2018). Brain connectivity networks and the aesthetic experience of music. Brain Sciences, 8(6), p. 107.).

En la mencionada revisión, Frühholz, Trost y Kotz (2016)Frühholz, Sascha; Trost, Wiebke y Kotz, Sonja A. (2016). The sound of emotions-Towards a unifying neural network perspective of affective sound processing. Neuroscience y Biobehavioral Reviews, 68, pp. 96-110. https://doi.org/10.1016/j.neubiorev.2016.05.002 también identificaron las zonas del cerebro que se activan con vocalizaciones afectivas como entonaciones de enfado o alegría, risas o llantos de bebés, prosodias, a partir de los estudios basados en este tipo de estímulos. Estas zonas coinciden con las que se activan con la música, por lo que estos autores consideraron que los sonidos afectivos, musicales o vocalizados se procesarían por un sistema cerebral común, aunque con ciertas variaciones en función del tipo de sonido. Además mostraron en su revisión que curiosamente el NAcc y el área ventral tegmental (VTA), pertenecientes al circuito cerebral de recompensa, se activan principalmente con los sonidos musicales, de entre todos los sonidos afectivos. Tanto en la música como en el habla hay elementos emocionales comunes, por ejemplo, frases habladas o musicales felices tienden a ser más rápidas, más dinámicas y en registros más altos. Sin embargo, la activación del circuito de recompensa con los sonidos musicales muestra ese enorme poder que tiene la música de evocar emociones placenteras (Salimpoor et al., 2011Salimpoor, Valorie N.; Benovoy, Mitchel; Larcher, Kevin; Dagher, Alain y Zatorre, Robert J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music. Nature Neuroscience, 14(2), pp. 257-262. https://doi.org/10.1038/nn.2726 ).

Estudios recientes han mostrado una relación entre el placer que puede producir la escucha de música y las nuevas teorías sobre el principio de procesamiento predictivo de nuestro cerebro (Huron, 2006Huron, David (2006). Sweet anticipation. Music and the psychology of expectation. Cambridge, Massachusetts: The MIT Press.; Gold et al., 2019Gold, Benjamin P.; Pearce, Marcus T.; Mas-Herrero, Ernest; Dagher, Alain y Zatorre, Robert J. (2019). Predictability and uncertainty in the pleasure of music: a reward for learning? Journal of Neuroscience, 39(47), pp. 9397-9409.; Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.). Según este principio la información que fluye desde los sentidos hacia niveles superiores de nuestro cerebro se ve influida por las predicciones que los niveles superiores realizan en cada momento sobre la realidad en función de experiencias o conocimientos anteriores, del contexto, etc. De acuerdo con este modelo tanto las confirmaciones como los errores de predicción son esenciales para mejorar el entendimiento de nuestro entorno, aunque un grado intermedio de previsibilidad (un entorno manejable) mejora el aprendizaje, despertando la curiosidad y la atención. El aprendizaje como mecanismo adaptativo involucra el sistema de recompensa y, por tanto, los entornos de aprendizaje manejables serían altamente motivadores y placenteros. Precisamente la música, que muestra patrones melódicos, armónicos y rítmicos relativamente predecibles en el tiempo, generaría un balance de errores/confirmación que tendría ese efecto gratificante y placentero. Estas teorías parecen confirmarse en estudios con neuroimagen que muestran una alta activación del sistema de recompensa (en particular el NAcc) ante eventos musicales inesperados en una secuencia musical, como acordes inesperados o cambios en la tonalidad (Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.; Cheung et al., 2019Cheung, Vincent K.; Harrison, Peter M.; Meyer, Lars; Pearce, Marcus T.; Haynes, John-Dylan y Koelsch, Stefan (2019). Uncertainty and surprise jointly predict musical pleasure and amygdala, hippocampus, and auditory cortex activity. Current Biology, 29 (23), pp. 4084-4092.; Shany et al., 2019Shany, Ofir; Singer, Neomi; Gold, Benjamin Paul; Jacoby, Nori; Tarrasch, Ricardo; Hendler, Talma y Granot, Roni (2019). Surprise-related activation in the nucleus accumbens interacts with music-induced pleasantness. Social Cognitive and Affective Neuroscience, 14(4), pp. 459-470.).

Una paradoja de la emoción musical es que la escucha de música triste produce placer. Algunos estudios recientes han intentado explicar esta paradoja, sin llegar a ninguna conclusión (Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.; Sachs et al., 2015Sachs, Matthew E.; Damasio, Antonio y Habibi, Assal (2015). The pleasures of sad music: a systematic review. Frontiers in human neuroscience, 9, article 404.). Sin embargo, para Tuomas Eerola et al. (2018)Eerola, Tuomas; Vuoskoski, Jonna K.; Peltola, Henan-Riikka; Putkinen, Vesay y Schäfer, Katharina (2018). An integrative review of the enjoyment of sadness associated with music. Physics of Life Reviews, 25, pp. 100-121. la música triste serviría de regulador de emociones negativas, en un proceso adaptativo de consolación o un refuerzo de cohesión social al sentir unión con otras personas a través de la música. Eerola et al. (2018)Eerola, Tuomas; Vuoskoski, Jonna K.; Peltola, Henan-Riikka; Putkinen, Vesay y Schäfer, Katharina (2018). An integrative review of the enjoyment of sadness associated with music. Physics of Life Reviews, 25, pp. 100-121. y Patrik N. Juslin (2013a)Juslin, Patrik N. (2013a). From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions. Physics of life reviews, 10(3), pp. 235-266. proponen que el placer de la tristeza inducida por la música podría explicarse también en parte en términos de placer derivado de la apreciación estética de la música.

Desde la filosofía, Jenefer Robinson (2020)Robinson, Jenefer (2020). Aesthetic emotions. The Monist, 103(2), pp. 205-222. ha definido las emociones estéticas como emociones positivas y placenteras, que toman como objetos intencionales las cualidades intrínsecas de una obra de arte, y están asociadas a cambios corporales como escalofríos, lágrimas, aplausos. Desde la psicología, Winfried Menninghaus et al. (2019)Menninghaus, Winfried; Wagner, Valentin; Wassiliwizky, Eugen; Schindler, Ines; Hanich, Julian; Jacobsen, Thomas y Koelsch, Stefan (2019) What are aesthetic emotions? Psychological Review, 126(2): pp. 171-195. https://doi.org/10.1037/rev0000135. han considerado que las emociones estéticas se buscan como un fin en sí mismas, siendo la intensidad de la propia emoción estética la recompensa. Desde la neurociencia el estudio de los mecanismos cerebrales involucrados en la apreciación del arte ha dado lugar al campo de la neuro estética. En su revisión, Reybrouc, Vuust y Brattico (2018)Reybrouck, Mark; Vuust, Peter y Brattico, Elvira (2018). Brain connectivity networks and the aesthetic experience of music. Brain Sciences, 8(6), p. 107., estudiaron los posibles circuitos cerebrales subyacentes a la emoción musical estética y encontraron una consistencia entre la respuesta estética y la activación de la corteza auditiva y el circuito de recompensa, por lo que sugirieron la existencia de una superposición entre los mecanismos cerebrales de las emociones básicas y las emociones de orden superior como las estéticas, que se basarían en las mismas raíces neurobiológicas. También se ha relacionado la emoción estética con la conexión entre la corteza auditiva, el circuito de recompensa y regiones del cerebro importantes para el procesamiento social (Sachs et al., 2016Sachs, Matthew; Ellis, Robert; Schlaug, Gottfried y Loui, Psyche (2016). Brain connectivity reflects human aesthetic responses to music. Social Cognitive and Affective Neuroscience, 11(6), pp. 884-891, https://doi.org/10.1093/scan/nsw009 ), considerándose que habría un componente evolutivo social en el desarrollo de la emoción estética.

Juslin (2013a)Juslin, Patrik N. (2013a). From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions. Physics of life reviews, 10(3), pp. 235-266. va más allá al considerar que no todas las experiencias musicales son estéticas y que la emoción estética requiere de un juico estético que depende de distintos criterios subjetivos (belleza, novedad, estilos, destreza del artista, etc.). Estos juicios podrían despertar una emoción estética si se supera un umbral en algún criterio, como, por ejemplo, ante una pieza juzgada como extraordinariamente hermosa.

Por último, cabe señalar que se ha buscado la explicación del placer de la escucha musical en el origen evolutivo de la música. Tianyan Wang (2015)Wang, Tianyan (2015). A hypothesis on the biological origins and social evolution of music and dance. Frontiers in Neuroscience, 9, 30. https://doi.org/10.3389/fnins.2015.00030 propone que el origen de la música se basa en el aprecio por los movimientos rítmicos de los humanos y que, a su vez, este aprecio se basaría en la importancia que tiene para la supervivencia la cohesión social y la adaptación a los entornos rítmicos externos e internos. Incluso sugiere que existiría un sistema de recompensa y emoción relacionado con el ritmo que se activa con la música y la danza. Otros autores como David Teie (2016)Teie, David (2016). A comparative analysis of the universal elements of music and the fetal environment. Frontiers in Psychology, 7, article 758. https://doi.org/10.3389/fpsyg.2016.01158 sitúan el origen de las estructuras musicales en el desarrollo neurológico fetal, en el que los sonidos intrauterinos se almacenarían como patrones musicales en el cerebro, y consideran que es posible hacer coincidir los sonidos del útero con los elementos que se pueden encontrar en la música de todas las civilizaciones: el ritmo se originaría a partir de la combinación de los sonidos que el feto percibe de la respiración de su madre y de los latidos de su corazón, mientras que las notas musicales y la melodía tendrían su origen en las modulaciones y cambios de entonación de la voz materna. Este autor considera así mismo que las ondas de presión que emanan del latido del corazón materno se sienten en el cuerpo del feto lo que estaría en el origen del sentido táctil de la música (Teie, 2016Teie, David (2016). A comparative analysis of the universal elements of music and the fetal environment. Frontiers in Psychology, 7, article 758. https://doi.org/10.3389/fpsyg.2016.01158 ).

3. EMOCIÓN MUSICAL EN LA MÚSICA TONAL OCCIDENTAL

 

Otro campo que ha cobrado mucho interés en los últimos años, a caballo entre la neurociencia y la teoría musical, es el estudio de la relación entre la estructura musical y las emociones. En general la mayoría de estos estudios se han centrado en la música tonal occidental (Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.).

El origen de los estudios sobre la música tonal occidental se remonta a los primeros estudios sobre afinación conocidos desarrollados Pitágoras en el siglo V a.C. La escuela pitagórica estudió cómo variaba el sonido de dos cuerdas pulsadas simultáneamente en función de sus longitudes relativas (Senabre, 2018Senabre, Marc (28 de mayo 2018). Breve historia de los sistemas de afinación. El Rincón Musicológico. Un blog sobre Musicología Empírica en español. Disponible en: https://musicologiaempirica.wordpress.com/2018/05/28/breve-historia-de-los-sistemas-de-afinacion/ ). Determinaron que los sonidos más agradables para el oído, es decir, los consonantes, se producían con relaciones matemáticas sencillas entre las longitudes de ambas cuerdas: por ejemplo, con una cuerda de longitud L y una cuerda de longitud L/2, o con una cuerda de longitud L y una cuerda de longitud 2L/3, o con una cuerda de longitud L y una cuerda de longitud 3L/4. Es decir, dos cuerdas vibrando con una sencilla relación física y matemática de longitudes y frecuencias (2:1, 3:2, 4:3) producen un efecto sonoro que gusta. Por el contrario, combinaciones con relaciones más complejas producen un efecto disonante, que no gusta. Estas relaciones expresadas en lenguaje musical se denominan respectivamente intervalo de octava, intervalo de quinta justa (por ejemplo: do-sol) e intervalo de cuarta justa (por ejemplo: do-fa) y se consideran intervalos perfectamente consonantes. A partir de estas observaciones la escuela pitagórica estableció un sistema de afinación basado en los intervalos de quinta justa (es decir 2/3 de cuerda). A partir de una nota inicial se encadenan las siguientes notas por intervalos de quinta.

medium/medium-ARBOR-199-810-a722-gf3.png
Figura 3.  Construcción de la escala pitagórica por encadenamiento de quintas (cuerdas de 2/3 de longitud). Fuente: elaboración propia.

El encadenamiento de quintas genera las doce notas que son la base de nuestro sistema occidental: Mi bemol (Mib)-Si bemol (Sib)-Fa-Do-Sol-Re-La-Mi-Si-Fa sostenido (Fa#)-Do sostenido (Do#)-Sol sostenido (Sol#). En el siguiente fragmento musical (encadenamientoquintas.mp3) se puede escuchar este encadenamiento de notas.

La cultura griega definió distintos conjuntos de siete notas de entre estas doce y los denominó modos. Consideraba además que los distintos modos musicales producían distintas emociones como entusiasmo o paz. Este sistema modal griego pervivió durante siglos y dio lugar a los doce modos gregorianos. En el Renacimiento se simplificó el sistema, quedando dos modos, el mayor y el menor (Abad, 2006Abad, Federico (2006). ¿Do re qué? Guía práctica de iniciación al lenguaje musical. Córdoba: Berenice.). En la actualidad la afinación estándar de la escala cromática occidental de doce notas se basa en el sistema de afinación denominado «temperamento igual» en el que las notas (ligeramente desafinadas respecto a la afinación por quintas de Pitágoras) tienen entre sí una distancia de un semitono. El semitono es una forma de expresar en lenguaje musical la relación de frecuencias entre dos notas consecutivas Nota1/Nota2=21/12 que es siempre la misma.

Al igual que los modos griegos, las escalas mayor y menor de nuestro sistema son combinaciones de siete notas más la nota final que vuelve a ser la inicial a distancia de una octava, y pueden ser en modo mayor o menor. Para construir una escala en modo mayor se parte de una nota cualquiera y se van encadenando notas con la siguiente distancia en tonos (siendo T tono y S semitono): TTSTTTS. Para construir una escala en modo menor, el encadenamiento es TSTTSTTT. La diferencia de la posición de los tonos y semitonos en la escala musical es la que determina la tonalidad emocional de los modos mayor y menor. A nivel de frecuencias, la diferencia es muy pequeña. Por ejemplo, si consideramos la escala de DO en la octava central del piano, las notas Mi del modo mayor y Mi bemol del modo menor difieren en unos 18 Hz.

medium/medium-ARBOR-199-810-a722-gf4.png
Figura 4.  Escalas de Do mayor y Do menor en las teclas del piano. Fuente: elaboración propia.

En el siguiente ejemplo se muestra como esta pequeña diferencia en hercios modifica completamente la tonalidad emocional de la conocida canción popular de niños Frère Jacques. En modo mayor la canción se toca con las notas Do-Re-Mi (FrèreJacquesMayor.mp3):

  • Frère Jacques Do-Re-Mi-Do

  • Frère Jacques Do-Re-Mi-Do

  • Dormez vous? Mi-Fa-Sol

  • Dormez vous? Mi-Fa-Sol

En modo menor la canción se toca con las notas Do-Re-Mib (FrèreJacquesMenor.mp3):

  • Frère Jacques Do-Re-Mib-Do

  • Frère Jacques Do-Re-Mib-Do

  • Dormez vous? Mib-Fa-Sol

  • Dormez vous? Mib-Fa-Sol

Este cambio de modo en la melodía de Frère Jacques ha sido utilizado maravillosamente por Gustav Mahler en el tercer movimiento de su primera sinfonía (FrèreJacquesMahler.mp3).

En resumen, la base de nuestro sistema musical es el concepto de intervalo consonante. Las relaciones de tonos consonantes y disonantes proporcionan la base de la melodía y la armonía y son los componentes básicos de la música tonal occidental que sigue predominando en salas de concierto y en la música popular (Bidelman et al., 2009Bidelman, Gavin y Krishnan, Ananthanarayan (2009). Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. The Journal of Neuroscience, 29 (42):13165-71. https://doi.org/10.1523/JNEUROSCI.3900-09.2009 ). El origen de esta preferencia por los intervalos consonantes, que se observa ya a edades muy tempranas (Trainor et al., 2002Trainor Laurel; Tsang, Christine y Cheung, Vivian (2002). Preference for sensory consonance in 2- and 4-month-old infants. Music Perception, 20 (2), pp. 187-194. https://doi.org/10.1525/mp.2002.20.2.187 ), es objeto de estudio a nivel neurobiológico mediante el uso de tecnologías de neuroimagen. Uno de los orígenes de esta preferencia estaría en la forma en la que el oído humano procesa frecuencias. Los sonidos que percibimos son vibraciones mecánicas longitudinales que se propagan por el aire y llegan a nuestro oído; si estas vibraciones están en el rango de percepción humano (20 Hz a 20.000 Hz) podremos percibirlas, oírlas. El oído funciona como un analizador de sonidos en el que cada frecuencia componente de un sonido musical excita un punto de la membrana basilar situada en el interior de la cóclea. Una nota musical se puede descomponer en distintas vibraciones: una vibración con una frecuencia fundamental y otras con frecuencias múltiplos enteros de la fundamental, denominadas armónicos. Los intervalos consonantes tienen muchos armónicos comunes y activan de forma sincronizada más fibras nerviosas del sistema auditivo que los intervalos disonantes. Estos tienen pocos armónicos comunes y provocan activaciones desincronizadas o interferencias, pudiendo dar lugar a sensaciones sonoras molestas. Gavin Bidelman y Ananthanarayan Krishnan (2009)Bidelman, Gavin y Krishnan, Ananthanarayan (2009). Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. The Journal of Neuroscience, 29 (42):13165-71. https://doi.org/10.1523/JNEUROSCI.3900-09.2009 recopilaron distintos estudios que mostraban que esta actividad neuronal sincronizada se extiende a los mecanismos de procesamiento del tono por lo que el origen de la preferencia por los intervalos consonantes estaría en este procesamiento sensorial de bajo nivel.

medium/medium-ARBOR-199-810-a722-gf5.png
Figura 5.  Rangos de frecuencia en la membrana basilar. Fuente: elaboración propia.

Otros autores apuntan un origen social en la comunicación audio-vocal, debido al vínculo natural que existe entre los sonidos armónicos y las señales sonoras producidas por los animales para la comunicación social, especialmente los que son de la misma especie: las series armónicas se relacionan con signos de amistad y los sonidos más ásperos con signos agresivos (Bowling et al., 2015Bowling, Daniel L. y Purves, Dale (2015). A biological rationale for musical consonance. Proceedings of the National Academy of Sciences, 112 (36) 11155-11160 201505768-. https://doi.org/10.1073/pnas.1505768112 ; Di Stefano et al., 2022Di Stefano, Nicola; Vuust, Peter y Brattico, Elvira (2022). Consonance and dissonance perception. A critical review of the historical sources, multidisciplinary findings, and main hypotheses. Physics of Life Reviews, 43, pp. 273-304. https://doi.org/10.1016/j.plrev.2022.10.004 ). Las analogías entre la música y la comunicación audio-vocal social explicarían también la distinción entre los modos mayor y menor. Huron (2008)Huron, David (2008). A comparison of average pitch height and interval size in major- and minor-key themes: evidence consistent with affect-related pitch prosody. Empirical Musicology Review, 3 (2), pp. 59-63. muestra que existe una analogía entre la música en modo menor, que tiende a utilizar tonos más bajos e intervalos de tono más pequeños, y la prosodia del habla: las personas tristes exhiben una frecuencia media más baja y una fluctuación de tono más reducida cuando hablan que las que no lo están o están alegres. Según Ioanna Zioga, Caroline Di Bernardi Luft y Joydeep Bhattacharyaa (2016)Zioga, Ioanna; Di Bernardi Luft, Caroline y Bhattacharya, Joydeep (2016). Musical training shapes neural responses to melodic and prosodic expectation. Brain Research, 1650, pp. 267-282. https://doi.org/10.1016/j.brainres.2016.09.015 y Patrick Wong et al. (2007)Wong, Patrick C. M.; Skoe, Erika;, Russo, Nicole et al. (2007). Musical experience shapes human brainstem encoding of linguistic pitch patterns. Nat Neuroscience 10, pp. 420-422. https://doi.org/10.1038/nn1872 el procesamiento de la música y del lenguaje podrían compartir recursos neuronales comunes, constituyendo el tono un denominador común, conformando la melodía en la música y la prosodia en el lenguaje.

Otra característica del procesamiento tonal es que el cerebro humano no percibe las frecuencias en una escala lineal, detectándo mejor las diferencias en frecuencias más bajas que en frecuencias más altas. Por ejemplo, percibe fácilmente la diferencia entre 500 Hz y 1.000 Hz, pero difícilmente puede distinguir una diferencia entre 10.000 Hz y 10.500 Hz, aunque la distancia en hercios entre los dos pares de frecuencias sea la misma. Además, el cerebro percibe relaciones entre frecuencias (McDermott y Oxenham, 2008McDermott, Josh y Oxenham, Andrew (2008). Music perception, pitch, and the auditory system. Current Opinion in Neurobiology, 18(4):452-63. https://doi.org/10.1016/j.conb.2008.09.005. ) de forma que se perciben como una misma melodía secuencias de intervalos musicales que tienen la misma relación de distancia entre sus notas, como se puede escuchar en el siguiente fragmento musical (MismaMelodía.mp3). El origen de esta forma relativa de percepción puede residir en la importancia que para la supervivencia tiene distinguir las diferentes entonaciones (alegría, enfado, tristeza, ternura) de la especie humana, diferentes entre hombres (rango medio de 77 Hz a 482 Hz) y mujeres (rango medio de 137 Hz a 634 Hz). Se ha observado que, como se perciben mejor las diferencias de frecuencias en los rangos más bajos, las mujeres deben producir diferencias más amplias para obtener en términos perceptivos el mismo resultado que los hombres (Polo, 2019Polo, Nuria (8 de marzo de 2019). Las voces femeninas y su investigación. Sottovoce. Espacio virtual de divulgación científica sobre la voz humana. Disponible en: https://sottovoce.hypotheses.org/1656 (fecha de consulta: 31 de octubre de 2023).). También en estas diferencias de rango entre las voces masculinas y femeninas, que de media se puede considerar una octava, ven algunos autores una posible explicación a la consonancia del intervalo de octava (Abad, 2006Abad, Federico (2006). ¿Do re qué? Guía práctica de iniciación al lenguaje musical. Córdoba: Berenice.).

En general, desde la teoría musical occidental, se caracteriza la música con distintos parámetros como los que se describen en el siguiente cuadro.

Parámetro Definición
Modo Tipo de escala (conjunto de sonidos) utilizada en la composición. Puede ser mayor o menor.
Tempo Velocidad de ejecución
Registro Altura del conjunto de sonidos, desde más grave a más alto
Dinámica Graduaciones en la intensidad del sonido
Articulación Cómo se produce el ataque y finalización de cada nota, y la transición entre notas. Es LEGATO si el sonido y el volumen entre nota y nota son continuos. Es STACCATO cuando se produce una interrupción del sonido entre nota y nota.
Timbre Cualidad del sonido, depende de la cantidad de armónicos que tenga un sonido y de la intensidad de cada uno de ellos.
Ataque Tiempo que el sonido tarda en pasar de cero a su punto máximo de intensidad en una nota.
Caída Tiempo que el sonido tarda en pasar de su punto máximo de intensidad a cero en una nota.
Tabla 1.  Parámetros musicales. Fuente: elaboración propia

Aunque desde siempre quienes se han dedicado a componer música y a interpretarla han combinado estos parámetros para generar distintas emociones, sólo desde hace pocos años han surgido numerosas investigaciones a caballo entre la teoría musical y la neurociencia que han estudiado de forma científica la relación entre estos parámetros y las distintas emociones inducidas (Gabrielsson y Lindström, 2010Gabrielsson, Alf y Lindström, Erik (2010). The role of structure in the musical expression of emotions. En Patrik N. Juslin y John A. Sloboda (eds.). Handbook of Music and Emotion: Theory, Research, Applications. Oxford: Oxford University Press, 367-400. https://doi.org/10.1093/acprof:oso/9780199230143.003.0014 ; Eerola et al., 2013Eerola, Tuomas; Friberg, Anders y Bresin, Roberto (2013). Emotional expression in music: Contribution, linearity, and additivity of primary musical cues. Frontiers in Psychology, 4, article 487. https://doi.org/10.3389/fpsyg.2013.00487 ; Paquette et al., 2013Paquette, Sébastien; Peretz, Isabel y Belin, Pascal (2013). The “Musical emotional bursts”: A validated set of musical affect bursts to investigate auditory affective processing. Frontiers in Psychology, 4, article 509. https://doi.org/10.3389/fpsyg.2013.00509 ). En general estos estudios se centran en las emociones básicas y en la música tonal occidental. El formato típico de experimentación es la presentación de una serie de estímulos musicales a varias personas que contestan a cuestionarios discretos o dimensionales, normalmente de elección forzada, sobre la emoción percibida. Según los resultados de estos estudios, los parámetros musicales más representativos serían: modo, tempo, registro, dinámica, articulación, timbre, ataque y caída. En la Tabla 2 se expone un resumen de los resultados de estos estudios, mostrando las relaciones entre estos parámetros y las emociones básicas de alegría, tristeza, miedo.

Alegría Tristeza Miedo
Modo Mayor Menor Menor
Tempo Rápido Lento Rápido
Registro Alto Bajo Bajo-Alto
Dinámica Alta Baja Alta
Articulación Staccato Legato Staccato
Timbre Brillante Suave Brillante
Tabla 2.  Parámetros musicales y emociones básicas. Fuente: elaboración propia

Alf Gabrielsson y Erik Lindström (2010)Gabrielsson, Alf y Lindström, Erik (2010). The role of structure in the musical expression of emotions. En Patrik N. Juslin y John A. Sloboda (eds.). Handbook of Music and Emotion: Theory, Research, Applications. Oxford: Oxford University Press, 367-400. https://doi.org/10.1093/acprof:oso/9780199230143.003.0014 confirmaron en su estudio recopilatorio estas asociaciones y comprobaron que la importancia relativa de estos parámetros variaba para cada emoción. Por ejemplo, el modo es determinante en el caso de emociones alegres y tristes mientras que tiene un impacto relativamente bajo en la emoción de miedo. Juslin et al. (2010)Juslin, Patrik N. y Lindström, Erik. (2010). Musical expression of emotions: Modelling listeners’ judgements of composed and performed features. Music Analysis, 29(1-3), pp. 334-364. https://doi.org/10.1111/j.1468-2249.2011.00323.x encontraron una asocian entre el modo y las emociones alegres y tristes, el timbre y la ira y la articulación y el miedo. Eerola et al. (2013)Eerola, Tuomas; Friberg, Anders y Bresin, Roberto (2013). Emotional expression in music: Contribution, linearity, and additivity of primary musical cues. Frontiers in Psychology, 4, article 487. https://doi.org/10.3389/fpsyg.2013.00487 establecieron una jerarquía considerando que el parámetro más relevante era el modo seguido por el tempo, registro, dinámica, articulación y timbre, aunque comprobaron también que esta clasificación variaba con cada emoción. También observaron que estos parámetros operaban de manera aditiva. En los siguientes ejemplos musicales (con Copyright de Bernard Bouchard, 1998), utilizados en el estudio realizado por Vieillard et al. (2008)Vieillard, Sandrine; Peretz, Isabelle; Gosselin, Nathalie; Khalfa, Stéphanie; Gagnon, Lise y Bouchard, Bernard (2008). Happy, sad, scary and peaceful musical excerpts for research on emotions. Cognition and Emotion, 22(4), pp. 720-752. https://doi.org/10.1080/02699930701503567 , se expresaban estas características. El fragmento alegre (alegría.mp3) está compuesto en modo mayor, con tempo rápido. El fragmento triste (tristeza.mp3) en modo menor, con tempo lento. El fragmento que expresa miedo (miedo.mp3) en modo menor, con tempo intermedio. El fragmento que expresa paz (paz.mp3) en modo mayor y en tempo lento.

El instrumento con el que se interpreta la música también tiene un impacto importante en las emociones inducidas, puesto que determina el timbre. Por ejemplo, las melodías suenan menos alegres cuando se tocan con el violín y más alegres cuando se tocan con el clarinete, mientras que el miedo se reconoce muy mal con el clarinete y mejor con el violín (Paquette et al., 2013Paquette, Sébastien; Peretz, Isabel y Belin, Pascal (2013). The “Musical emotional bursts”: A validated set of musical affect bursts to investigate auditory affective processing. Frontiers in Psychology, 4, article 509. https://doi.org/10.3389/fpsyg.2013.00509 ; Hailstone et al., 2009Hailstone, Julia C.; Omar, Rohani; Henley, Susie M. D.; Frost, Chris; Kenward, Michael G. y Warren, Jason D. (2009). It’s not what you play, it’s how you play it: Timbre affects perception of emotion in music. Quarterly Journal of Experimental Psychology, 62(11), pp. 2141-2155. https://doi.org/10.1080/17470210902765957 ). En cuanto a los parámetros utilizados por los intérpretes, Juslin (2000)Juslin, Patrik N. (2000). Cue utilization in communication of emotion in music performance: Relating performance to perception. Journal of Experimental Psychology: Human Perception and Performance, 26(6), pp. 1797-1812. https://doi.org/10.1037/0096-1523.26.6.1797 encontró que quienes interpretan música utilizaban sobre todo los parámetros de tempo, articulación y dinámica para transmitir la emoción deseada. Roberto Bresin y Anders Friberg (2011)Bresin, Roberto y Friberg, Anders (2011). Emotion rendering in music: Range and characteristic values of seven musical variables. Cortex, 47(9), pp. 1068-1081. https://doi.org/10.1016/j.cortex.2011.05.009 pidieron a un grupo de músicas y músicos que ajustaran los parámetros de tempo, volumen, articulación y registro de unas muestras musicales breves para, según su criterio, transmitir mejor las emociones de alegría, tristeza, miedo y paz. Los resultados mostraron un uso similar de valores de tempo y registro.

A pesar de la existencia de numerosos estudios sobre música y emoción, quedan muchas incógnitas por resolver. La mayoría de los estudios realizados analizan música occidental y personas occidentales, por lo que sería necesario realizar más investigaciones transculturales para completar los conocimientos actuales sobre música y cerebro (Vuust et al., 2022Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.). Y es que, aunque los estudios muestran evidencia de una sensibilidad emocional universal hacia la música, existen diferencias culturales, entre otros factores porque las etiquetas de categorías emocionales se basan en el idioma y refuerzan la diversidad cultural (Argstatter, 2016Argstatter, Heike (2016). Perception of basic emotions in music: Culture-specific or multicultural? Psychology of Music, 44(4), pp. 674-690.).

4. PERCEPCIÓN VIBROTÁCTIL DE PARÁMETROS MUSICALES

 

En los últimos años el estudio de la percepción vibro-táctil ha cobrado mucho interés, sobre todo por el desarrollo de las tecnologías hápticas que se basan en el tacto, en la percepción de texturas, formas o vibraciones, para facilitar las interacciones con distintos dispositivos. Pero también se está estudiando en el ámbito de la percepción musical con distintos fines, como reforzar la experiencia sensorial en general o para mejorar la experiencia musical en los casos de discapacidad auditiva.

La percepción táctil de vibraciones se basa en la sensibilidad de un tipo de mecanorreceptores de la piel de adaptación muy rápida, principalmente en los corpúsculos de Pacini, que se activan con frecuencias entre 50 Hz y 1.000 Hz, con una sensibilidad máxima alrededor de los 200 Hz - 300 Hz y con deformaciones muy pequeñas de la piel del orden de 1 Amstrong (Jones y Lederman, 2007Jones, Lynette A. y Lederman, Susan J. (2007). Human Hand Function. Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195173154.001.0001 ). Esta sensibilidad hacia las vibraciones mecánicas ha conducido hacia el estudio de analogías entre los mecanismos perceptivos del tacto y de la audición. Ambos sentidos cuentan con receptores sensibles a los cambios de presión y tienen la capacidad de procesar vibraciones, aunque con diferentes umbrales y rangos, siendo el rango táctil de 50 Hz - 1.000 Hz, mientras que el auditivo es de 20 Hz - 20.000 Hz. Los sentidos táctil y auditivo participan en estrecha colaboración en la percepción de vibraciones, lo que ha generado gran interés en la comunidad científica, como muestra la publicación de cada vez más investigaciones sobre las correspondencias entre el sentido del tacto y el sentido del oído. Por ejemplo, se ha visto que las vibraciones táctiles de baja frecuencia activan ambos sistemas, táctil y auditivo (Schürmann et al., 2006Schürmann, Martin; Caetano, Gina; Hlushchuk, Yevhen; Jousmäki, Veikko y Hari, Riita (2006). Touch activates human auditory cortex. NeuroImage, 30 (4), pp. 1325-1331. https://doi.org/10.1016/j.neuroimage.2005.11.020 ; Yamazaki et al., 2022Yamazaki, Yusuke; Mitake, Hironori y Hasegawa, Shoichi (2022). Implementation of Tension-Based Compact Necklace-Type Haptic Device Achieving Widespread Transmission of Low-Frequency Vibrations. IEEE Transactions on Haptics, 15(3), pp. 535-546.), y que la presentación simultánea de vibraciones auditivas y táctiles modifican la percepción de frecuencias táctiles y viceversa (Crommett et al., 2017Crommett, Lexi E.; Pérez-Bellido, Alexis y Yau, Je M. (2017). Auditory adaptation improves tactile frequency perception. Journal of Neurophysiology, 117 (3), pp. 1352-1362. https://doi.org/10.1152/jn.00783.2016 ; Convento et al., 2019Convento, Silvia; Wegner-Clemens, Kira A. y Yau, Jeffrey M. (2019). Reciprocal interactions between audition and touch in flutter frequency perception. Multisensory Research, 32(1), pp. 67-85. https://doi.org/10.1163/22134808-20181334 ), aunque hay indicios de tener más peso la entrada auditiva (Huang et al., 2012Huang, Juan; Gamble, Darik; Sarnlertsophon, Kristine; Wang, Xiaoqin y Hsiao, Steven (2012). Feeling music: Integration of auditory and tactile inputs in musical meter perception. PloS One, 7(10), e48496. https://doi.org/10.1371/journal.pone.0048496 ). Christoph Kayser et al. (2005)Kayser, Christoph; Petkov, Christopher I.; Augath, Mark y Logothetis, Nikos K. (2005). Integration of touch and sound in auditory cortex. Neuron, 48(2), pp. 373-384. demostraron con técnicas de alta resolución como la Resonancia Magnética funcional (fMRI) que, en monos del género Macaca, la integración multisensorial táctil-auditiva ocurría muy cerca de las áreas sensoriales primarias, antes de la intervención de mecanismos pre-atencionales y que era más intensa cuando los estímulos coincidían temporalmente. Otras investigaciones también han registrado indicios de entrada vibro táctil en el córtex auditivo humano con vibraciones de baja frecuencia detectadas por los sistemas táctil y auditivo (Caetano y Jousmäki, 2006Caetano, Gina y Jousmäki, Veiklo (2006). Evidence of vibrotactile input to human auditory cortex. NeuroImage, 29(1), pp. 15-28. https://doi.org/10.1016/j.neuroimage.2005.07.023 ). Algunos autores consideran que los mecanorreceptores de la piel codifican la información vibro-táctil de forma similar a como el sistema auditivo codifica los sonidos: distintos grupos de mecanorreceptores reaccionarían a los distintos rangos de frecuencias que componen una vibración. Posteriormente, se procesarían características como el ritmo o las variaciones de tono, mediante un mecanismo perceptivo específico para cada característica que, además, sería común a ambos sentidos (Huang et al., 2012Huang, Juan; Gamble, Darik; Sarnlertsophon, Kristine; Wang, Xiaoqin y Hsiao, Steven (2012). Feeling music: Integration of auditory and tactile inputs in musical meter perception. PloS One, 7(10), e48496. https://doi.org/10.1371/journal.pone.0048496 ; Rahman et al., 2020Rahman, Md SHoaubur; Barnes, Kelly Aanne; Crommett, Lexi E.; Tommerdahl, Mark y Yau, Jeffrey M. (2020). Auditory and tactile frequency representations are co-embedded in modality-defined cortical sensory systems. NeuroImage, 215, 116837. https://doi.org/10.1016/j.neuroimage.2020.116837 ). Por otro lado, los mecanismos neurológicos que codifican la información sobre la vibración táctil aún no están claramente identificados. Kayser et al. (2005)Kayser, Christoph; Petkov, Christopher I.; Augath, Mark y Logothetis, Nikos K. (2005). Integration of touch and sound in auditory cortex. Neuron, 48(2), pp. 373-384. han sugerido que existe un área de coactivación vibro-táctil/auditiva y que la integración auditivo-táctil se produce de forma temprana y cerca de las áreas sensoriales primarias; por lo que es razonable plantear la hipótesis de que las capacidades sensoriales de la piel tienen el potencial de permitir utilizar señales de retroalimentación táctil para potenciar el sonido producido por la música.

Así, en los últimos años, ha habido un aumento significativo de los estudios sobre la percepción táctil de la música que se centran en explorar cómo las vibraciones pueden ser utilizadas para transmitir información musical y mejorar la experiencia sensorial de las personas. Generalmente, estos estudios se basan en la presentación de vibraciones en las yemas de los dedos, palmas de las manos y plantas de los pies, ya que estas áreas tienen una mayor densidad de receptores de Pacini, responsables de la detección de estímulos vibratorios. Sin embargo, el interés no se ha limitado solo al ámbito de la percepción musical, sino también al ámbito de la percepción vibro-táctil en general, sobre todo, debido al desarrollo de tecnologías hápticas que utilizan el tacto y las vibraciones para mejorar las interacciones con diferentes dispositivos. Estas tecnologías permiten percibir texturas, formas y vibraciones, por lo que se están aplicando en diversos campos, incluido el ámbito musical. Por un lado, se busca reforzar la experiencia sensorial en general, enriqueciendo la forma en que las personas perciben y experimentan la música; por otro lado, se utilizan para mejorar la experiencia musical de quienes tienen discapacidad auditiva, proporcionando una alternativa sensorial a través de vibraciones que les permitan disfrutar y comprender mejor la música.

Se ha visto que una vibración táctil que reproduce una vibración sonora resulta muy satisfactoria para seguir el ritmo, con una calidad de experiencia muy similar a la auditiva (Kosonen y Raisamo, 2006Kosonen, Katri y Raisamo, Roope (2006). Rhythm perception through different modalities. En Peter Leškovský, Theresa Cooke, Marc Ernst y Matthias Harders (eds.). Proceedings of the EuroHaptics 2006, July 3-6, Paris, France. EuroHaptics Society, pp. 365-370.). Pauline Tranchant et al. (2017)Tranchant, Pauline; Shiell, Martha M.; Giordano, Marcello; Nadeau, Alexis; Peretz, Isabelle y Zatorre, Robert J. (2017). Feeling the beat: Bouncing synchronization to vibrotactile music in hearing and early deaf people. Frontiers in Neuroscience, 11, p. 507. https://doi.org/10.3389/fnins.2017.00507 observaron a personas sordas y oyentes bailando al ritmo de estímulos vibro-táctiles (sin sonido) sobre una plataforma vibratoria y encontraron resultados similares en ambos grupos por lo que concluyeron que la sincronización táctil-motora precisa, en un contexto de baile, ocurre sin la experiencia auditiva, aunque la sincronización auditiva-motora es de calidad superior.

Respecto al timbre, Frank Russo, Paolo Ammirante y Deborah Fels (2012)Russo, Frank A.; Ammirante, Paolo y Fels, Deborah I. (2012). Vibrotactile discrimination of musical timbre. Journal of Experimental Psychology: Human Perception and Performance, 38(4), pp. 822-826. https://doi.org/10.1037/a0029046 investigaron la capacidad de discriminar entre varios timbres musicales presentados de forma vibro-táctil a través del respaldo de una silla y encontraron que la tasa de éxito en la discriminación entre los tonos de violonchelo, piano y trombón, para una misma frecuencia, estaba por encima del azar. Gareth Young, David Murphy y Jeffrey Weeter (2015)Young, Gareth W.; Murphy, Davidy y Weeter, Jeffrey (2015). Vibrotactile discrimination of pure and complex waveforms. En Joseph Timoney y Thomas Lysaght (eds.). Proceedings of the 12 th Sound and Music Computing Conference, 26 July-1 August, 2015, Maynooth, Co. Kildare, Ireland. Zenodo, pp. 359-362. Https://doi.org/10.13140/RG.2.1.3205.3608 trabajaron a una frecuencia fundamental fija con distintas formas de ondas puras y complejas que se presentaban aisladamente en la mano de varias personas. Los resultados indicaron que estas podían distinguir entre diferentes formas de onda a través de la estimulación táctil. Por otro lado, el experimento realizado por Tushar Verma, Scott Aker y Jeremy Marozeau (2023)Verma, Tushar; Aker, Scott C. y Marozeau, Jeremy (2023). Effect of vibrotactile stimulation on auditory timbre perception for normal-hearing listeners and cochlear-implant users. Trends in Hearing, 27, 23312165221138390. puso de relieve el hallazgo de que la percepción del timbre puede verse influida por la entrada táctil, lo que sugiere que la incorporación de la estimulación táctil junto a las señales auditivas podría tener importantes implicaciones para las personas con deficiencias auditivas.

Son particularmente interesantes los estudios de Carl Hopkins et al. (2016)Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2016). Vibrotactile presentation of musical notes to the glabrous skin for adults with normal hearing or a hearing impairment: Thresholds, dynamic range and high-frequency perception. Plos One, 11(5), e0155807. https://doi.org/10.1371/journal.pone.0155807 sobre la discriminación de los tonos de la escala musical occidental aplicando vibraciones táctiles con la frecuencia pura de cada tono en la yema de los dedos y en la planta del pie de los sujetos. Los resultados de sus investigaciones muestran que el rango de notas musicales que pueden considerarse para la presentación vibro-táctil de la música comprende desde la nota C1 (es decir el Do de la octava más baja del piano 32,70 Hz) hasta la nota G5 (la nota Sol de la quinta octava del piano 783,99 Hz), aunque este umbral se puede ampliarse aumentando la amplitud de la estimulación táctil por encima del umbral medio y con entrenamiento (Hopkins et al., 2023Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2023). Perception and learning of relative pitch by musicians using the vibrotactile mode. Musicae Scientiae, 27(1), pp. 3-26. https://doi.org/10.1177/10298649211015278 ). A la hora de generar el estímulo táctil hay que tener especial cuidado con la amplitud ya que el rango de discriminación tonal puede verse afectado por los niveles de amplitud con los que se genera el estímulo (Brewster y Brown, 2004Brewster, Stephen A. y Brown, Lorna M. (2004). Non-visual information display using tactons. En Elizabeth Dykstra-Erickson y Manfred Tscheligi. CHI’04 extended abstracts on Human factors in computing systems, Vienna Austria April 24 - 29, 2004. Nueva York: Association for Computing Machinery, pp. 787-788.). Este rango tonal representa un abanico musical de trabajo muy amplio, que cubre las frecuencias fundamentales de la voz humana, y seis de las ocho octavas de un piano, y se muestra en el siguiente fragmento musical (RangoFrecuencias.mp3).

La forma de onda empleada para generar la estimulación táctil, debido a su contenido armónico o espectral, puede cambiar la sensación de frecuencia. Por ejemplo, el uso de una señal senoidal produce sensación de una frecuencia más baja que si se emplea una señal cuadrada (Birnbaum, 2007Birnbaum, David M. (2007). Musical vibrotactile feedback [Tesis Doctoral inédita]. Mc Gill University: Montreal. Disponible en: https://escholarship.mcgill.ca/concern/theses/xd07gx894 ). Este efecto se hace más sensible en bajas frecuencias (Fery et al., 2021Fery, Madeline; Bernard, Corentin; Thoret, Etienne; Kronland-Martinet, Richard y Ystad, Solvi (2021). Audio-tactile perception of roughness. En Keiji Hirata, Satoshi Tojo y Tetsuro Kitahara (eds.). Music in the IA Era. Proceedings of the 15th International Symposium on CMMR, Online, Nov. 15-19, 2021. Springer, pp. 245-250.). Al aumentar el contenido espectral se puede sentir una transición de la suavidad a la aspereza (Rovan y Hayward, 2000Rovan, Joseph y Hayward, Vinvcent (2000). Typology of tactile sounds and their synthesis in gesture-driven computer music performance. En M. Wanderley y Marc Battier (eds). Trends in gestural control of music. Paris: IRCAM, 297-320.; Jones et al., 2018Jones, Lynette A. y Singhal, Anshul (2018). Perceptual dimensions of vibrotactile actuators. En Katherine J. Kuchenbecker, Gregory J. Gerling y Yon Visell (eds.). Proceedings of the IEEE Haptics Symposium 2018, 25-28 March 2018. San Francisco, USA. IEEE, pp. 307-312.). De esta forma, se puede generar aspereza háptica de la misma forma que se genera aspereza musical o irregularidad en el timbre (Brown et al., 2005Brown, Lorna M.; Brewster, Stephen A. y Purchase, Helen C. (2005). A first investigation into the effectiveness of tactons. En First joint Eurohaptics Conference and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems. Pisa, Italy, March 18-20, 2005. Los Alamitos: IEEE Computer Society, pp. 167-176. https://doi.org/10.1109/WHC.2005.54.).

En cuanto a la diferenciación entre dos notas, Hopkins et al. (2016)Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2016). Vibrotactile presentation of musical notes to the glabrous skin for adults with normal hearing or a hearing impairment: Thresholds, dynamic range and high-frequency perception. Plos One, 11(5), e0155807. https://doi.org/10.1371/journal.pone.0155807 encontraron muchas limitaciones para intervalos menores de tres semitonos (tercera menor). Yongjae Yoo, Inwook Hwang y Seungmoon Choi (2014)Yoo, Yongjae; Hwang, Inwooky y Choi, Seungmoon (2014). Consonance of vibrotactile chords. IEEE Transactions on Haptics, 7(1), pp. 3-13. Https://doi.org/10.1109/TOH.2013.57 presentaron a su población de estudio vibraciones superpuestas a distintos intervalos de frecuencia. Las vibraciones emulaban notas, con una frecuencia fundamental y algunos armónicos. Los resultados mostraban que los pares de vibraciones que se percibían consonantes coincidían con los intervalos de quinta y de cuarta justos, pero con una separación de una octava (en teoría musical estos intervalos también son perfectamente consonantes). Es decir, dos notas DO y SOL de una misma octava no se percibirían táctilmente consonantes, pero un DO y un SOL de distintas octavas se percibían consonantes táctilmente, seguramente debido a la menor capacidad de discriminación de frecuencias próximas del sentido del tacto. En el siguiente fragmento musical (IntervaloQuinta.mp3) se muestran un intervalo de quinta justa y el mismo intervalo con una octava intercalada. El primero no se percibiría táctilmente pero el segundo sí (Jack et al., 2015Jack, Robert; McPherson, Andrew y Stockman, Tony (2015). Designing tactile musical devices with and for deaf users: a case study. En Renee Timmers et al. (eds.) Proceedings of the International Conference on the Multimodal Experience of Music. 23-25 March 2015. Sheffield, UK, pp. 23-25.).

Varios estudios sugieren que la percepción de la consonancia musical por vía táctil se procesaría de manera similar a la consonancia auditiva (Yoo et al., 2014Yoo, Yongjae; Hwang, Inwooky y Choi, Seungmoon (2014). Consonance of vibrotactile chords. IEEE Transactions on Haptics, 7(1), pp. 3-13. Https://doi.org/10.1109/TOH.2013.57 ; Fontana et al., 2016Fontana, Federico; Camponogara, Ivan; Cesari, Paola; Vallicella, Matteo y Ruzzenente, Marco (2016). An exploration on whole-body and foot-based vibrotactile sensitivity to melodic consonance. En Rolf Großmann y Georg Hajdu (eds.). Proceedings of SMC 2016. 13th Sound & Music Computing Conference 31.8.2016-3.9.2016, Hamburg, Germany. Hamburg: Zentrum für Mikrotonale Musik und Multimediale Komposition (ZM4), pp. 143-150.). Además, la percepción de la consonancia mejora cuando la retroalimentación vibrotáctil se proporciona a través de un área o superficie mayor (Yamazaki et al., 2016Yamazaki, Yusuke; Mitake, Hironori y Hasegawa, Shoichi (2016). Tension-based wearable vibroacoustic device for music appreciation. En Fernando Bello, Hiroyuki Kajimoto y Yon Visell (eds.). Haptics: Perception, Devices, Control, and Applications: 10 th International Conference, EuroHaptics 2016, London, UK, July 4-7, Part II 10. Springer International Publishing, pp. 273-283.).

Los dispositivos táctiles diseñados en base a estas investigaciones, transmitiendo táctilmente características musicales pueden mejorar la percepción musical de las personas con hipoacusia, lleven o no ayudas auditivas como audífonos o implantes cloqueares. Estas ayudas, en el caso de los audífonos al funcionar como un amplificador de sonido, o en el caso de los implantes cocleares al simular parte de la cóclea, pueden generar una distorsión en la audición, provocando que los receptores tengan una percepción musical deficiente (Cai et al., 2013Cai, Yuexin; Zhao, Fei y Zheng, Yiqing (2013). Mechanisms of music perception and its changes in hearing impaired people. Hearing, Balance and Communication, 11(4), pp. 168-175.). En general estos dispositivos no permiten una percepción final de las frecuencias y en consecuencia la percepción del tono musical, la melodía y el timbre se ve significativamente afectada lo que ocasiona la pérdida en parte o en su totalidad del carácter emocional de la música (Darrow, 2006Darrow, Alice-Ann (2006). The role of music in deaf culture: Deaf students’ perception of emotion in music. Journal of music therapy, 43(1), pp. 2-15.). Gracias a la plasticidad cerebral, las personas con hipoacusia compensan la ausencia de este sentido mejorando los procesos cognitivos relacionados con la vista y el tacto (Good et al., 2014Good, Arla; Reed, Maureen J. y Russo, Frank A. (2014). Compensatory plasticity in the deaf brain: Effects on perception of music. Brain sciences, 4 (4), pp. 560-574.), haciendo del tacto un canal alternativo para la percepción musical.

5. DISPOSITIVOS VIBROTÁCTILES PARA COMPARTIR MÚSICA

 

En base a este potencial de percepción vibro-táctil de parámetros musicales, en los últimos años se está desarrollando un nuevo campo de investigación y creatividad basado en la experiencia multimodal de la música. El objetivo no es sólo escuchar la música, sino sentir la música. Existe una cantidad interesante de estudios que defienden que la estimulación vibro-táctil marcando el ritmo de la música, es decir, reproduciendo por vía táctil el rango de bajas frecuencias de la pieza, influye positivamente en la percepción de la música, mejorando la experiencia de la persona usuaria (Baijal et al., 2012Baijal, Anant; Kim, Julia; Branje, Carmen; Russo, Frank y Fels, Deborah (2012). Composing vibrotactile music: A multi-sensory experience with the emoti-chair. En Karon MacLean y Marcia K. O’Malley (eds.). The Haptics Symposium 2012. Vancouver, BC, Canada. March 4-7, 2012. Proceedings. Nueva Jersey: IEEE, pp. 509-515. https://doi.org/10.1109/HAPTIC.2012.6183839.; Merchel et al., 2018Merchel, Sebastian y Altinsoy, M.Ercan (2018). Auditory-Tactile Experience of Music. En Stefano Papetti y Charalampos Saitis (eds.). Musical Haptics. Springer Series on Touch and Haptic Systems. Springer. Cham. https://doi.org/10.1007/978-3-319-58316-7_7 ; Schmitz et al., 2020Schmitz, Anastasia; Holloway, Catherine y Cho, Youngjun (2020). Hearing through vibrations: Perception of musical emotions by profoundly deaf people. arXiv preprint arXiv:2012.13265.) e, incluso, que es beneficiosa para la mejora de síntomas depresivos (Mosabbir et al., 2022Mosabbir, AbdullahA.; Janzen, Thenile B.; Al Shirawi, Maryam; Rotzinger, Susan; Kennedy, Sidney H.; Farzan, Faranak; Meltzer, Jed y Bartel, Lee (2022). Investigating the effects of auditory and vibrotactile rhythmic sensory stimulation on depression: an EEG Pilot Study. Cureus, 14 (2), e22557. https://doi.org/10.7759/cureus.22557.) o relacionados con la enfermedad de Alzheimer (Fang et al., 2021Fang, Yingjie; Ou, Jing; Bryan-Kinns, Nick; Kang, Qingchun; Zhang, Junshuai y Guo, Bing (2021). Using Vibrotactile Device in Music Therapy to Support Wellbeing for People with Alzheimer’s Disease. En Francisco Rebelo (ed.). Advances in Ergonomics in Design: Proceedings of the AHFE 2021 Virtual Conference on Ergonomics in Design, July 25-29, 2021, USA. Springer International Publishing, pp. 353-361.).

medium/medium-ARBOR-199-810-a722-gf6.png
Figura 6.  Dispositivos vibro-táctiles para la transmisión de parámetros musicales. A) Vibrador de pie. Fuente: Carl Hopkins et al. (2016)Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2016). Vibrotactile presentation of musical notes to the glabrous skin for adults with normal hearing or a hearing impairment: Thresholds, dynamic range and high-frequency perception. Plos One, 11(5), e0155807. https://doi.org/10.1371/journal.pone.0155807 . B) Pump-and-Vibe. Fuente: Alice Haynes et al. (2021)Haynes, Alice C.; Lawry, Jonathan; Kent, Christophery y Rossiter, Jonathan (2021). Feel Music: Enriching our emotive experience of music through audio-tactile mappings. Multimodal Technologies and Interaction, 5 (6), 29. https://doi.org/10.3390/MTI5060029 . C) Mobiliario audio-táctil. Fuente: Robert Jack et al. (2015)Jack, Robert; McPherson, Andrew y Stockman, Tony (2015). Designing tactile musical devices with and for deaf users: a case study. En Renee Timmers et al. (eds.) Proceedings of the International Conference on the Multimodal Experience of Music. 23-25 March 2015. Sheffield, UK, pp. 23-25.. D) Chaqueta háptica. Fuente: Travis West et al. (2019)West, Travis J.; Bachmayer, Alexandra; Bhagwati, Sandeep; Berzowska, Joanna y Wanderley, Marcelo M. (2019). The Design of the Body: Suit: Score, a Full-Body Vibrotactile Musical Score. En Sakae Yamamoto y Hirohiko Mori (eds.). Human Interface and the Management of Information. Information in Intelligent Systems Lecture Notes in Computer Science. Thematic Area, HIMI 2019, Held as Part of the 21st HCI International Conference, HCII 2019, Orlando, FL, USA, July 26-31, 2019, Proceedings, Part II. Nueva York: Springer Cham, pp. 70-89. 10.1007/978-3-030-22649-7_7 .

El uso de estos dispositivos es variado -reforzar la experiencia musical en conciertos o en medios audiovisuales, facilitar la sincronización en grupos musicales con miembros con dificultades auditivas o reforzar la práctica de instrumentos musicales- pero también lo son los resultados obtenidos. Se han diseñado distintos tipos de dispositivos como sofás, chalecos, cazadoras, brazaletes, manguitos, pedales y plataformas. Por ejemplo, se han realizado pruebas de transmisión musical con sillones (Jack et al., 2015Jack, Robert; McPherson, Andrew y Stockman, Tony (2015). Designing tactile musical devices with and for deaf users: a case study. En Renee Timmers et al. (eds.) Proceedings of the International Conference on the Multimodal Experience of Music. 23-25 March 2015. Sheffield, UK, pp. 23-25.) que permitieron concluir que las melodías más rítmicas producían experiencias mejores y más positivas mientras que las melodías lentas relajaban. Incluso se han utilizado camas (Sierra et al. 2021Sierra, Miguel C.; Brunskog, Jonas y Marozeau, Jeremy (2021). An audio-tactile artinstallation for hearing impaired people. En Prithvi Ravi Kantan, Razvan Paisa y Silvin Willemsen (eds.). Proceedings of the 2nd Nordic Sound and Music Conference. November 11th - 12th, 2021. Zenodo, pp. 127-132. DOI 10.5281/zenodo.5717859 ) para mejorar la percepción de la respuesta frecuencial de la música, mostrando una mejora en la percepción. También es frecuente el uso de wearables o dispositivos adaptables al cuerpo para transmitir el ritmo musical (ver Ilustración 6), observándose que no todas las partes del cuerpo son susceptibles de aportar una mejora en la experiencia musical (Alves Arujo et al., 2017Alves Araujo, Felipe; Lima Brasil, Fabricio; Candido Lima Santos, Allison; de Sousa Batista Junior, Lucenildo; Pereira Fonseca Dutra, Savio y Coelho Freire Batista, Carlos Eduardo (2017). Auris system: Providing vibrotactile feedback for hearing impaired population. BioMed Research International, 2017:2181380. https://doi.org/10.1155/2017/2181380.; Trivedi et al., 2019Trivedi, Urvish; Alqasemi, Redwan y Dubey, Rajiv (2019). Wearable musical haptic sleeves for people with hearing impairment. En Fillia Makedon (ed.). Proceedings of the 12th ACM International Conference on PErvasive Technologies Related to Assistive Environments. Nueva York: Association for Computing Machinery, pp. 146-151.; De Guglielmo et al., 2021De Guglielmo, Nicolas; Lobo, Cesar; Moriarty, Edward J.; Ma, Gloria y Dow, Douglas E. (2021). Haptic Vibrations for Hearing Impaired to Experience Aspects of Live Music. En Tadashi Nakano (ed.): Bio-Inspired Information and Communications Technologies: 13th EAI International Conference, BICT 2021, Virtual Event, September 1-2, 2021, Proceedings 13. Springer International Publishing, pp. 71-86.; Sun et al., 2021Sun, Qirui; Li, Shugin; Yao, Zhihao; Feng, Yuan-Ling y Mi, Haipeng (2021). PalmBeat: A Kinesthetic Way to Feel Groove With Music. En François Boyer, Jean-Marc Seigneur, Amine Choukou, Redha Taiar (eds.). AH 2021: 12th Augmented Human International Conference. Geneva Switzerland, May 27-28, 2021. Nueva York: Association for Computing Machinery, pp. 1-8.; Turchet et al., 2021Turchet, Luca; West, Travis y Wanderley, Marcelo M. (2021). Touching the audience: musical haptic wearables for augmented and participatory live music performances. Personal and Ubiquitous Computing, 25, pp. 749-769.). Otro tipo de dispositivo son pequeñas plataformas vibradoras para las manos (Papetti, 2021Papetti, Stefano; Järveläinen, Hanna y Schiesser, Sebastien (2021). Interactive vibrotactile feedback enhances the perceived quality of a surface for musical expression and the playing experience. IEEE Transactions on Haptics, 14 (3), pp. 635-645.) o para los pies (Hopkins et al., 2016Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2016). Vibrotactile presentation of musical notes to the glabrous skin for adults with normal hearing or a hearing impairment: Thresholds, dynamic range and high-frequency perception. Plos One, 11(5), e0155807. https://doi.org/10.1371/journal.pone.0155807 ; Mariscal Rock, 2017Mariscal Rock. Redacción (12 de julio 2017). La “Plataforma Musical” Feel the Music! para personas con discapacidad auditiva llega al Garage Sound Festival. Mariscal Rock. Disponible en: https://mariskalrock.com/noticias/la-plataforma-musical-feel-the-music-para-personas-con-incapacidad-auditiva-llega-al-garage-sound-festival/ ), que según han demostrado algunos estudios proporcionan una experiencia musical más enriquecedora (Cavdir, 2022Cavdir, Doga (2022). Touch, Listen, (Re)Act: Co-designing Vibrotactile Wearable Instruments for Deaf and Hard of Hearing. En: Proceedings of the International Conference on New Interfaces for Musical Expression. NIME 2022.https://doi.org/10.21428/92fbeb44.b24043e8 ; Remache-Vinueza et al., 2022Remache-Vinueza, Byron et al. (2022). Mapping Monophonic MIDI Tracks to Vibrotactile Stimuli Using Tactile Illusions. En Charalampos Saitis, Ildar Farkhatdinov y Stefano Papetti (eds.). Haptic and Audio Interaction Design. HAID 2022. Lecture Notes in Computer Science, vol 13417. Springer. https://doi.org/10.1007/978-3-031-15019-7_11 ). En estos dispositivos se transmite una señal vibro-táctil que mapea la señal acústica. Como el rango de percepción táctil es de 50 Hz - 1.000 Hz frente a 20 Hz - 20.000 Hz de la auditiva, es frecuente el uso de filtros paso-bajo2Circuito electrónico que filtra las frecuencias de una señal de entrada, transmitiendo únicamente las frecuencias por debajo de una cierta, que dejan pasar las frecuencias inferiores a la frecuencia de diseño o de corte, haciendo que el sonido se perciba más grave que el original. Otra técnica empleada habitualmente es separar en distintas bandas de frecuencia la señal acústica y transmitir la vibración correspondiente a cada banda mediante distintos actuadores colocados en distintas partes del cuerpo, aunque ofrece resultados dudosos respecto de la percepción musical. Las respuestas de los usuarios al uso de estos dispositivos son positivas cuando la música, traducida a vibración táctil, es muy rítmica, con muchos componentes en bajas frecuencias, mientras que músicas más armónicas con ritmos poco marcados producen sensaciones difusas (Jack et al., 2015Jack, Robert; McPherson, Andrew y Stockman, Tony (2015). Designing tactile musical devices with and for deaf users: a case study. En Renee Timmers et al. (eds.) Proceedings of the International Conference on the Multimodal Experience of Music. 23-25 March 2015. Sheffield, UK, pp. 23-25.; Haynes et al., 2021Haynes, Alice C.; Lawry, Jonathan; Kent, Christophery y Rossiter, Jonathan (2021). Feel Music: Enriching our emotive experience of music through audio-tactile mappings. Multimodal Technologies and Interaction, 5 (6), 29. https://doi.org/10.3390/MTI5060029 ). En general, aunque hay mucha investigación, faltan datos rigurosos sobre las respuestas de las personas usuarias.

Hoy en día queda mucho por avanzar en el estudio de la transmisión de la señal acústica, sobre todo en lo que se refiere a la transmisión de la estructura tonal y armónica que no se sabe cómo abordar. Además, existen otros temas técnicos sin resolver como puede ser, por ejemplo, la transmisión inalámbrica de la música al dispositivo táctil, o el diseño de baterías de larga duración (Fletcher, 2021Fletcher, Mark D. (2021). Can haptic stimulation enhance music perception in hearing-impaired listeners? Frontiers in Neuroscience, 15, 723877. https://doi.org/10.3389/fnins.2021.723877 ).

6. CONCLUSIONES

 

A pesar del enorme interés que despierta el estudio de la emoción musical, quedan muchas incógnitas por resolver. Se han determinado las zonas cerebrales que intervienen en el procesamiento de la música, pero todavía no se conoce en detalle los mecanismos cerebrales que conducen a la percepción subjetiva de emoción musical, ni el motivo por el que la música es, de todos los sonidos, la que produce emociones más intensas y placenteras. Tampoco se conocen los detalles de los mecanismos del procesamiento táctil de las vibraciones mecánicas análogas a las ondas sonoras, pero si existe una evidencia de la existencia de un mecanismo perceptivo común de las vibraciones mecánicas en los sentidos del oído y tacto, con rangos perceptivos más limitados en el caso del tacto, que abren la posibilidad de transmitir parte de le emoción musical, establecida a través de su relación con la estructura y parámetros musicales en el caso de la música occidental tonal, a través de canal táctil.

A pesar del auge de la investigación en el ámbito de los dispositivos vibro-táctiles, queda mucho camino por recorrer para poder transmitir las sutilezas frecuenciales de las estructuras musicales mediante dispositivos cuyo uso resulte sencillo. Pero es un reto importante ya que la transmisión táctilmente de la emoción musical facilitaría el acceso a la música a millones de personas con dificultades auditivas, permitiendo el disfrute de experiencias musicales o audiovisuales más completas o podría servir de experiencia aumentada a las personas sin estas dificultades.

NOTAS

 
1

https://dle.rae.es/músico

2

Circuito electrónico que filtra las frecuencias de una señal de entrada, transmitiendo únicamente las frecuencias por debajo de una cierta

7. REFERENCIAS

 

Abad, Federico (2006). ¿Do re qué? Guía práctica de iniciación al lenguaje musical. Córdoba: Berenice.

Alves Araujo, Felipe; Lima Brasil, Fabricio; Candido Lima Santos, Allison; de Sousa Batista Junior, Lucenildo; Pereira Fonseca Dutra, Savio y Coelho Freire Batista, Carlos Eduardo (2017). Auris system: Providing vibrotactile feedback for hearing impaired population. BioMed Research International, 2017:2181380. https://doi.org/10.1155/2017/2181380.

Argstatter, Heike (2016). Perception of basic emotions in music: Culture-specific or multicultural? Psychology of Music, 44(4), pp. 674-690.

Baijal, Anant; Kim, Julia; Branje, Carmen; Russo, Frank y Fels, Deborah (2012). Composing vibrotactile music: A multi-sensory experience with the emoti-chair. En Karon MacLean y Marcia K. O’Malley (eds.). The Haptics Symposium 2012. Vancouver, BC, Canada. March 4-7, 2012. Proceedings. Nueva Jersey: IEEE, pp. 509-515. https://doi.org/10.1109/HAPTIC.2012.6183839.

Balkwill, Laura-Lee; Thompson, William y Matsunaga, Rie (2004). Recognition of emotion in Japanese, Western, and Hindustani music by Japanese listeners. Japanese Psychological Research, 46 (4), pp. 337-349. https://doi.org/10.1111/j.1468-5584.2004.00265.x

Bidelman, Gavin y Krishnan, Ananthanarayan (2009). Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. The Journal of Neuroscience, 29 (42):13165-71. https://doi.org/10.1523/JNEUROSCI.3900-09.2009

Birnbaum, David M. (2007). Musical vibrotactile feedback [Tesis Doctoral inédita]. Mc Gill University: Montreal. Disponible en: https://escholarship.mcgill.ca/concern/theses/xd07gx894

Bowling, Daniel L. y Purves, Dale (2015). A biological rationale for musical consonance. Proceedings of the National Academy of Sciences, 112 (36) 11155-11160 201505768-. https://doi.org/10.1073/pnas.1505768112

Bresin, Roberto y Friberg, Anders (2011). Emotion rendering in music: Range and characteristic values of seven musical variables. Cortex, 47(9), pp. 1068-1081. https://doi.org/10.1016/j.cortex.2011.05.009

Brewster, Stephen A. y Brown, Lorna M. (2004). Non-visual information display using tactons. En Elizabeth Dykstra-Erickson y Manfred Tscheligi. CHI’04 extended abstracts on Human factors in computing systems, Vienna Austria April 24 - 29, 2004. Nueva York: Association for Computing Machinery, pp. 787-788.

Brown, Lorna M.; Brewster, Stephen A. y Purchase, Helen C. (2005). A first investigation into the effectiveness of tactons. En First joint Eurohaptics Conference and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems. Pisa, Italy, March 18-20, 2005. Los Alamitos: IEEE Computer Society, pp. 167-176. https://doi.org/10.1109/WHC.2005.54.

Caetano, Gina y Jousmäki, Veiklo (2006). Evidence of vibrotactile input to human auditory cortex. NeuroImage, 29(1), pp. 15-28. https://doi.org/10.1016/j.neuroimage.2005.07.023

Cai, Yuexin; Zhao, Fei y Zheng, Yiqing (2013). Mechanisms of music perception and its changes in hearing impaired people. Hearing, Balance and Communication, 11(4), pp. 168-175.

Cavdir, Doga (2022). Touch, Listen, (Re)Act: Co-designing Vibrotactile Wearable Instruments for Deaf and Hard of Hearing. En: Proceedings of the International Conference on New Interfaces for Musical Expression. NIME 2022.https://doi.org/10.21428/92fbeb44.b24043e8

Celeghin, Alessia; Diano, Matteo; Bagnis, Arianna; Viola, Marco y Tamietto, Marco (2017). Basic emotions in human neuroscience: neuroimaging and beyond. Frontiers in Psychology, 8, 1432. https://doi.org/10.3389/fpsyg.2017.01432

Cheung, Vincent K.; Meyer, Lars; Friederici, Angela D. y Koelsch, Stefan (2018). The right inferior frontal gyrus processes nested non-local dependencies in music. Scientific reports, 8(1), pp. 1-12.

Cheung, Vincent K.; Harrison, Peter M.; Meyer, Lars; Pearce, Marcus T.; Haynes, John-Dylan y Koelsch, Stefan (2019). Uncertainty and surprise jointly predict musical pleasure and amygdala, hippocampus, and auditory cortex activity. Current Biology, 29 (23), pp. 4084-4092.

Convento, Silvia; Wegner-Clemens, Kira A. y Yau, Jeffrey M. (2019). Reciprocal interactions between audition and touch in flutter frequency perception. Multisensory Research, 32(1), pp. 67-85. https://doi.org/10.1163/22134808-20181334

Crommett, Lexi E.; Pérez-Bellido, Alexis y Yau, Je M. (2017). Auditory adaptation improves tactile frequency perception. Journal of Neurophysiology, 117 (3), pp. 1352-1362. https://doi.org/10.1152/jn.00783.2016

Darrow, Alice-Ann (2006). The role of music in deaf culture: Deaf students’ perception of emotion in music. Journal of music therapy, 43(1), pp. 2-15.

De Guglielmo, Nicolas; Lobo, Cesar; Moriarty, Edward J.; Ma, Gloria y Dow, Douglas E. (2021). Haptic Vibrations for Hearing Impaired to Experience Aspects of Live Music. En Tadashi Nakano (ed.): Bio-Inspired Information and Communications Technologies: 13th EAI International Conference, BICT 2021, Virtual Event, September 1-2, 2021, Proceedings 13. Springer International Publishing, pp. 71-86.

Di Stefano, Nicola; Vuust, Peter y Brattico, Elvira (2022). Consonance and dissonance perception. A critical review of the historical sources, multidisciplinary findings, and main hypotheses. Physics of Life Reviews, 43, pp. 273-304. https://doi.org/10.1016/j.plrev.2022.10.004

Eerola, Tuomasy y Vuoskoski, Jonna K. (2011). A comparison of the discrete and dimensional models of emotion in music. Psychology of Music, 39 (1), pp. 18-49. https://doi.org/10.1177/0305735610362821

Eerola, Tuomas; Friberg, Anders y Bresin, Roberto (2013). Emotional expression in music: Contribution, linearity, and additivity of primary musical cues. Frontiers in Psychology, 4, article 487. https://doi.org/10.3389/fpsyg.2013.00487

Eerola, Tuomas; Vuoskoski, Jonna K.; Peltola, Henan-Riikka; Putkinen, Vesay y Schäfer, Katharina (2018). An integrative review of the enjoyment of sadness associated with music. Physics of Life Reviews, 25, pp. 100-121.

Ekman, Paul (1992). Are there basic emotions? Psychological Review, 99(3), pp. 550-553. https://doi.org/10.1037/0033-295X.99.3.550

Fang, Yingjie; Ou, Jing; Bryan-Kinns, Nick; Kang, Qingchun; Zhang, Junshuai y Guo, Bing (2021). Using Vibrotactile Device in Music Therapy to Support Wellbeing for People with Alzheimer’s Disease. En Francisco Rebelo (ed.). Advances in Ergonomics in Design: Proceedings of the AHFE 2021 Virtual Conference on Ergonomics in Design, July 25-29, 2021, USA. Springer International Publishing, pp. 353-361.

Fery, Madeline; Bernard, Corentin; Thoret, Etienne; Kronland-Martinet, Richard y Ystad, Solvi (2021). Audio-tactile perception of roughness. En Keiji Hirata, Satoshi Tojo y Tetsuro Kitahara (eds.). Music in the IA Era. Proceedings of the 15th International Symposium on CMMR, Online, Nov. 15-19, 2021. Springer, pp. 245-250.

Fletcher, Mark D. (2021). Can haptic stimulation enhance music perception in hearing-impaired listeners? Frontiers in Neuroscience, 15, 723877. https://doi.org/10.3389/fnins.2021.723877

Fontana, Federico; Camponogara, Ivan; Cesari, Paola; Vallicella, Matteo y Ruzzenente, Marco (2016). An exploration on whole-body and foot-based vibrotactile sensitivity to melodic consonance. En Rolf Großmann y Georg Hajdu (eds.). Proceedings of SMC 2016. 13th Sound & Music Computing Conference 31.8.2016-3.9.2016, Hamburg, Germany. Hamburg: Zentrum für Mikrotonale Musik und Multimediale Komposition (ZM4), pp. 143-150.

Fritz, Thomas; Jentschke, Sebastian; Gosselin, Nathalie; Sammler, Daniela; Peretz, Isabelle; Turner, Robert; Friederici, Angela y Koelsch, Stefan (2009). Universal recognition of three basic emotions in music. Current Biology, 19 (7), pp. 573-576. https://doi.org/10.1016/j.cub.2009.02.058

Frühholz, Sascha; Trost, Wiebke y Kotz, Sonja A. (2016). The sound of emotions-Towards a unifying neural network perspective of affective sound processing. Neuroscience y Biobehavioral Reviews, 68, pp. 96-110. https://doi.org/10.1016/j.neubiorev.2016.05.002

Gabrielsson, Alf y Lindström, Erik (2010). The role of structure in the musical expression of emotions. En Patrik N. Juslin y John A. Sloboda (eds.). Handbook of Music and Emotion: Theory, Research, Applications. Oxford: Oxford University Press, 367-400. https://doi.org/10.1093/acprof:oso/9780199230143.003.0014

Gold, Benjamin P.; Pearce, Marcus T.; Mas-Herrero, Ernest; Dagher, Alain y Zatorre, Robert J. (2019). Predictability and uncertainty in the pleasure of music: a reward for learning? Journal of Neuroscience, 39(47), pp. 9397-9409.

Gorzelańczyk Edward; Podlipniak, Piotr; Walecki, Piotr; Karpiński, Maciej y Tarnowska, Emilia (2017). Pitch Syntax Violations Are Linked to Greater Skin Conductance Changes, Relative to Timbral Violations - The Predictive Role of the Reward System in Perspective of Cortico-subcortical Loops. Frontiers in Psychology, 8, article 586. https://doi.org/10.3389/fpsyg.2017.00586.

Good, Arla; Reed, Maureen J. y Russo, Frank A. (2014). Compensatory plasticity in the deaf brain: Effects on perception of music. Brain sciences, 4 (4), pp. 560-574.

Gosselin, Nathalie; Peretz, Isabelle; Johnsen, Erica y Adolphs, Ralph (2007). Amygdala damage impairs emotion recognition from music. Neuropsychologia, 45(2), pp. 236-244. https://doi.org/10.1016/j.neuropsychologia.2006.07.012

Gu, Simeng; Wang, Fushun; Patel, Nithes P.; Bourgeois, James A. y Huang, Jason H. (2019). A model for basic emotions using observations of behavior in Drosophila. Frontiers in Psychology, 10, article 781. https://doi.org/10.3389/fpsyg.2019.00781

Gu, Simeng; Wang, Fushun; Cao, Caiyun; Wu, Erxi; Tang, Yi-Yuan y Huang, Jason H. (2019). An integrative way for studying neural basis of basic emotions with fMRI. Frontiers in Neuroscience, 13, article 628. https://doi.org/10.3389/fnins.2019.00628

Hailstone, Julia C.; Omar, Rohani; Henley, Susie M. D.; Frost, Chris; Kenward, Michael G. y Warren, Jason D. (2009). It’s not what you play, it’s how you play it: Timbre affects perception of emotion in music. Quarterly Journal of Experimental Psychology, 62(11), pp. 2141-2155. https://doi.org/10.1080/17470210902765957

Haynes, Alice C.; Lawry, Jonathan; Kent, Christophery y Rossiter, Jonathan (2021). Feel Music: Enriching our emotive experience of music through audio-tactile mappings. Multimodal Technologies and Interaction, 5 (6), 29. https://doi.org/10.3390/MTI5060029

Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2016). Vibrotactile presentation of musical notes to the glabrous skin for adults with normal hearing or a hearing impairment: Thresholds, dynamic range and high-frequency perception. Plos One, 11(5), e0155807. https://doi.org/10.1371/journal.pone.0155807

Hopkins, Carl; Maté-Cid, Saúl; Fulford, Robert; Seiffert, Gary y Ginsborg, Jane (2023). Perception and learning of relative pitch by musicians using the vibrotactile mode. Musicae Scientiae, 27(1), pp. 3-26. https://doi.org/10.1177/10298649211015278

Huron, David (2006). Sweet anticipation. Music and the psychology of expectation. Cambridge, Massachusetts: The MIT Press.

Huron, David (2008). A comparison of average pitch height and interval size in major- and minor-key themes: evidence consistent with affect-related pitch prosody. Empirical Musicology Review, 3 (2), pp. 59-63.

Huang, Juan; Gamble, Darik; Sarnlertsophon, Kristine; Wang, Xiaoqin y Hsiao, Steven (2012). Feeling music: Integration of auditory and tactile inputs in musical meter perception. PloS One, 7(10), e48496. https://doi.org/10.1371/journal.pone.0048496

Jack, Rachael; Garrod, Oliver B. y Schyns, Philippe (2014). Dynamic facial expressions of emotion transmit an evolving hierarchy of signals over time. Current Biology, 24 (2), pp. 187-192. https://doi.org/10.1016/j.cub.2013.11.064

Jack, Robert; McPherson, Andrew y Stockman, Tony (2015). Designing tactile musical devices with and for deaf users: a case study. En Renee Timmers et al. (eds.) Proceedings of the International Conference on the Multimodal Experience of Music. 23-25 March 2015. Sheffield, UK, pp. 23-25.

Jack, Rachel E.; Sun, Wei; Delis, Ioannis; Garrod, Oliver G. y Schyns, Philippe G. (2016). Four not six: Revealing culturally common facial expressions of emotion. Journal of Experimental Psychology: General, 145(6), 708.

Jones, Lynette A. y Lederman, Susan J. (2007). Human Hand Function. Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195173154.001.0001

Jones, Lynette A. y Singhal, Anshul (2018). Perceptual dimensions of vibrotactile actuators. En Katherine J. Kuchenbecker, Gregory J. Gerling y Yon Visell (eds.). Proceedings of the IEEE Haptics Symposium 2018, 25-28 March 2018. San Francisco, USA. IEEE, pp. 307-312.

Juslin, Patrik N. y Lindström, Erik. (2010). Musical expression of emotions: Modelling listeners’ judgements of composed and performed features. Music Analysis, 29(1-3), pp. 334-364. https://doi.org/10.1111/j.1468-2249.2011.00323.x

Juslin, Patrik N. (2000). Cue utilization in communication of emotion in music performance: Relating performance to perception. Journal of Experimental Psychology: Human Perception and Performance, 26(6), pp. 1797-1812. https://doi.org/10.1037/0096-1523.26.6.1797

Juslin, Patrik N. (2013a). From everyday emotions to aesthetic emotions: Towards a unified theory of musical emotions. Physics of life reviews, 10(3), pp. 235-266.

Juslin, Patrik N. (2013b). What does music express? Basic emotions and beyond. Frontiers in psychology, 4, article 596. https://doi.org/10.3389/fpsyg.2013.00596

Kayser, Christoph; Petkov, Christopher I.; Augath, Mark y Logothetis, Nikos K. (2005). Integration of touch and sound in auditory cortex. Neuron, 48(2), pp. 373-384.

Koelsch, Stefen; Skouras, Stavros; Fritz, Thomas; Herrera, Perfecti; Bonhage, Corinna; Küssner, Mats B. y Jacobs, Arthur M. (2013). The roles of superficial amygdala and auditory cortex in music-evoked fear and joy. NeuroImage, 81, pp. 49-60. https://doi.org/10.1016/j.neuroimage.2013.05.008

Koelsch, Stefan (2014). Brain correlates of music-evoked emotions. Nature Reviews Neuroscience, 15(3), pp. 170-180.

Koelsch, Stefan y Skouras, Stavros (2014). Functional centrality of amygdala, striatum and hypothalamus in a “small-world” network underlying joy: An fMRI study with music. Human brain mapping, 35(7), pp. 3485-3498.

Koelsch, Stefan; Skouras, Stavros y Lohmann, Gabriele (2018). The auditory cortex hosts network nodes influential for emotion processing: An fMRI study on music-evoked fear and joy. PloS one, 13(1), e0190057.

Kosonen, Katri y Raisamo, Roope (2006). Rhythm perception through different modalities. En Peter Leškovský, Theresa Cooke, Marc Ernst y Matthias Harders (eds.). Proceedings of the EuroHaptics 2006, July 3-6, Paris, France. EuroHaptics Society, pp. 365-370.

Kragel, Philip y LaBar, Kevin (2016). Decoding the Nature of Emotion in the Brain. Trends in Cognitive Sciences, 20(6): pp. 444-455. https://doi.org/10.1016/j.tics.2016.03.011.

Lang, Peter y Bradley, Margaret (2010). Emotion and the motivational brain. Biological Psychology, 84(3):437-50. https://doi.org/10.1016/j.biopsycho.2009.10.007.

Lang, Peter; Bradley, Margaret y Cuthbert, Bruce (1997). Motivated attention: Affect, activation, and action. En Peter J. Lang, Robert F. Simons y Marie. T. Balaban (ed.). Attention and orienting: Sensory and motivational processes. Nueva York: Taylor & Francis Group, pp. 97-135.

Lindquist, Kristeb; Wager, Tor; Kober, Hedy; Bliss-Moreau, Eliza y Barrett, Lisa (2012). The brain basis of emotion: A meta-analytic review. The Behavioural and Brain Sciences, 35(3), pp. 121-143. https://doi.org/10.1017/S0140525X11000446

Lonsdale, Adam y North, Adrian (2011) Why do we listen to Music? A Uses and Gratifications Analysis. British Journal of Psycholy, 102 (1), pp. 108-134. https://doi.org/10.1348/000712610X506831

Mariscal Rock. Redacción (12 de julio 2017). La “Plataforma Musical” Feel the Music! para personas con discapacidad auditiva llega al Garage Sound Festival. Mariscal Rock. Disponible en: https://mariskalrock.com/noticias/la-plataforma-musical-feel-the-music-para-personas-con-incapacidad-auditiva-llega-al-garage-sound-festival/

McDermott, Josh y Oxenham, Andrew (2008). Music perception, pitch, and the auditory system. Current Opinion in Neurobiology, 18(4):452-63. https://doi.org/10.1016/j.conb.2008.09.005.

Menninghaus, Winfried; Wagner, Valentin; Wassiliwizky, Eugen; Schindler, Ines; Hanich, Julian; Jacobsen, Thomas y Koelsch, Stefan (2019) What are aesthetic emotions? Psychological Review, 126(2): pp. 171-195. https://doi.org/10.1037/rev0000135.

Merchel, Sebastian y Altinsoy, M.Ercan (2018). Auditory-Tactile Experience of Music. En Stefano Papetti y Charalampos Saitis (eds.). Musical Haptics. Springer Series on Touch and Haptic Systems. Springer. Cham. https://doi.org/10.1007/978-3-319-58316-7_7

Mohn, Christine; Argstatter, Heike y Wilker, Friedrich-Wilhelm (2011). Perception of six basic emotions in music. Psychology of Music, 39(4), pp. 503-517.

Montagu, Jeremy (2017). How music and instruments began: A brief overview of the origin and entire development of music, from its earliest stages. Frontiers in Sociology, 2, article 8. https://doi.org/10.3389/fsoc.2017.00008

Mosabbir, AbdullahA.; Janzen, Thenile B.; Al Shirawi, Maryam; Rotzinger, Susan; Kennedy, Sidney H.; Farzan, Faranak; Meltzer, Jed y Bartel, Lee (2022). Investigating the effects of auditory and vibrotactile rhythmic sensory stimulation on depression: an EEG Pilot Study. Cureus, 14 (2), e22557. https://doi.org/10.7759/cureus.22557.

Ortony, Andrew (2022). Are all “basic emotions” emotions? A problem for the (basic) emotions construct. Perspectives on psychological science, 17(1), pp. 41-61.

Papetti, Stefano; Järveläinen, Hanna y Schiesser, Sebastien (2021). Interactive vibrotactile feedback enhances the perceived quality of a surface for musical expression and the playing experience. IEEE Transactions on Haptics, 14 (3), pp. 635-645.

Paquette, Sébastien; Peretz, Isabel y Belin, Pascal (2013). The “Musical emotional bursts”: A validated set of musical affect bursts to investigate auditory affective processing. Frontiers in Psychology, 4, article 509. https://doi.org/10.3389/fpsyg.2013.00509

Pehrs, Corinna; Deserno, Lorenzo; Bakels, Jan-Hendrik et al. (2014). How music alters a kiss: Superior temporal gyrus controls fusiform-amygdalar effective connectivity. Social Cognitive and Affective Neuroscience, 9(11), pp. 1770-1778. https://doi.org/10.1093/scan/nst169

Peretz, Isabelle; Aubé, William y Armony, Jorge L. (2013). Toward a neurobiology of musical emotions. En Ekart Altenmüller, Sabine Schmidt y Elke Zimmermann (eds.): Evolution of Emotional Communication. From Sounds in Nonhuman Mammals to speech and Music in Man. Oxford: Oxford University Press, pp. 277-299. 10.1093/acprof:oso/9780199583560.003.0017.

Polo, Nuria (8 de marzo de 2019). Las voces femeninas y su investigación. Sottovoce. Espacio virtual de divulgación científica sobre la voz humana. Disponible en: https://sottovoce.hypotheses.org/1656 (fecha de consulta: 31 de octubre de 2023).

Posner, Jonathan; Russell, James A. y Peterson, Bradley S. (2005). The circumplex model of affect: An integrative approach to affective neuroscience, cognitive development, and psychopathology. Development and Psychopathology, 17(3), pp. 715-734. https://doi.org/10.1017/S0954579405050340

Rahman, Md SHoaubur; Barnes, Kelly Aanne; Crommett, Lexi E.; Tommerdahl, Mark y Yau, Jeffrey M. (2020). Auditory and tactile frequency representations are co-embedded in modality-defined cortical sensory systems. NeuroImage, 215, 116837. https://doi.org/10.1016/j.neuroimage.2020.116837

Reybrouck, Mark; Vuust, Peter y Brattico, Elvira (2018). Brain connectivity networks and the aesthetic experience of music. Brain Sciences, 8(6), p. 107.

Remache-Vinueza, Byron et al. (2022). Mapping Monophonic MIDI Tracks to Vibrotactile Stimuli Using Tactile Illusions. En Charalampos Saitis, Ildar Farkhatdinov y Stefano Papetti (eds.). Haptic and Audio Interaction Design. HAID 2022. Lecture Notes in Computer Science, vol 13417. Springer. https://doi.org/10.1007/978-3-031-15019-7_11

Robinson, Jenefer (2020). Aesthetic emotions. The Monist, 103(2), pp. 205-222.

Rovan, Joseph y Hayward, Vinvcent (2000). Typology of tactile sounds and their synthesis in gesture-driven computer music performance. En M. Wanderley y Marc Battier (eds). Trends in gestural control of music. Paris: IRCAM, 297-320.

Russo, Frank A.; Ammirante, Paolo y Fels, Deborah I. (2012). Vibrotactile discrimination of musical timbre. Journal of Experimental Psychology: Human Perception and Performance, 38(4), pp. 822-826. https://doi.org/10.1037/a0029046

Sachs, Matthew; Ellis, Robert; Schlaug, Gottfried y Loui, Psyche (2016). Brain connectivity reflects human aesthetic responses to music. Social Cognitive and Affective Neuroscience, 11(6), pp. 884-891, https://doi.org/10.1093/scan/nsw009

Saarimäki, Heini; Gotsopoulos, Athanasios; Jääskeläinen, Iiro P. et al. (2016). Discrete neural signatures of basic emotions. Cerebral cortex, 26(6), pp. 2563-2573.

Salimpoor, Valorie N.; Benovoy, Mitchel; Larcher, Kevin; Dagher, Alain y Zatorre, Robert J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music. Nature Neuroscience, 14(2), pp. 257-262. https://doi.org/10.1038/nn.2726

Salimpoor, Valorie N.; van den Bosch, Iris; Kovacevic, Natasa; McIntosh, Anthony Randal, Dagher, Alain y Zatorre Robert J. (2013). Interactions between the nucleus accumbens and auditory cortices predict music reward value. Science, 340 (6129), pp. 216-219. https://doi.org/10.1126/science.1231059.

Sachs, Matthew E.; Damasio, Antonio y Habibi, Assal (2015). The pleasures of sad music: a systematic review. Frontiers in human neuroscience, 9, article 404.

Schmitz, Anastasia; Holloway, Catherine y Cho, Youngjun (2020). Hearing through vibrations: Perception of musical emotions by profoundly deaf people. arXiv preprint arXiv:2012.13265.

Schürmann, Martin; Caetano, Gina; Hlushchuk, Yevhen; Jousmäki, Veikko y Hari, Riita (2006). Touch activates human auditory cortex. NeuroImage, 30 (4), pp. 1325-1331. https://doi.org/10.1016/j.neuroimage.2005.11.020

Senabre, Marc (28 de mayo 2018). Breve historia de los sistemas de afinación. El Rincón Musicológico. Un blog sobre Musicología Empírica en español. Disponible en: https://musicologiaempirica.wordpress.com/2018/05/28/breve-historia-de-los-sistemas-de-afinacion/

Shany, Ofir; Singer, Neomi; Gold, Benjamin Paul; Jacoby, Nori; Tarrasch, Ricardo; Hendler, Talma y Granot, Roni (2019). Surprise-related activation in the nucleus accumbens interacts with music-induced pleasantness. Social Cognitive and Affective Neuroscience, 14(4), pp. 459-470.

Sierra, Miguel C.; Brunskog, Jonas y Marozeau, Jeremy (2021). An audio-tactile artinstallation for hearing impaired people. En Prithvi Ravi Kantan, Razvan Paisa y Silvin Willemsen (eds.). Proceedings of the 2nd Nordic Sound and Music Conference. November 11th - 12th, 2021. Zenodo, pp. 127-132. DOI 10.5281/zenodo.5717859

Šimić Goran; Tkalčić Mladenka; Vukić, Vana; Mulc, Damir; Španić, Ena; Šagud, Marina; Olucha-Bordonau, Francisco; Vukšić, Mario y Hof, Patrik R. (2021). Understanding Emotions: Origins and Roles of the Amygdala. Biomolecules, 11(6), p. 823. https://doi.org/10.3390/biom11060823.

Sun, Qirui; Li, Shugin; Yao, Zhihao; Feng, Yuan-Ling y Mi, Haipeng (2021). PalmBeat: A Kinesthetic Way to Feel Groove With Music. En François Boyer, Jean-Marc Seigneur, Amine Choukou, Redha Taiar (eds.). AH 2021: 12th Augmented Human International Conference. Geneva Switzerland, May 27-28, 2021. Nueva York: Association for Computing Machinery, pp. 1-8.

Teie, David (2016). A comparative analysis of the universal elements of music and the fetal environment. Frontiers in Psychology, 7, article 758. https://doi.org/10.3389/fpsyg.2016.01158

Touroutoglou, Alexandra; Lindquist, Kristen A.; Dickerson, Bradford C. y Barrett, Lisa Feldman (2015). Intrinsic connectivity in the human brain does not reveal networks for ‘basic’emotions. Social cognitive and affective neuroscience, 10(9), pp. 1257-1265.

Trainor Laurel; Tsang, Christine y Cheung, Vivian (2002). Preference for sensory consonance in 2- and 4-month-old infants. Music Perception, 20 (2), pp. 187-194. https://doi.org/10.1525/mp.2002.20.2.187

Tranchant, Pauline; Shiell, Martha M.; Giordano, Marcello; Nadeau, Alexis; Peretz, Isabelle y Zatorre, Robert J. (2017). Feeling the beat: Bouncing synchronization to vibrotactile music in hearing and early deaf people. Frontiers in Neuroscience, 11, p. 507. https://doi.org/10.3389/fnins.2017.00507

Trivedi, Urvish; Alqasemi, Redwan y Dubey, Rajiv (2019). Wearable musical haptic sleeves for people with hearing impairment. En Fillia Makedon (ed.). Proceedings of the 12th ACM International Conference on PErvasive Technologies Related to Assistive Environments. Nueva York: Association for Computing Machinery, pp. 146-151.

Turchet, Luca; West, Travis y Wanderley, Marcelo M. (2021). Touching the audience: musical haptic wearables for augmented and participatory live music performances. Personal and Ubiquitous Computing, 25, pp. 749-769.

Verma, Tushar; Aker, Scott C. y Marozeau, Jeremy (2023). Effect of vibrotactile stimulation on auditory timbre perception for normal-hearing listeners and cochlear-implant users. Trends in Hearing, 27, 23312165221138390.

Vieillard, Sandrine y Gilet, Anne-Laure. (2013). Age-related differences in affective responses to and memory for emotions conveyed by music: A cross-sectional study. Frontiers in Psychology, 4, p. 711. https://doi.org/10.3389/fpsyg.2013.00711

Vieillard, Sandrine; Peretz, Isabelle; Gosselin, Nathalie; Khalfa, Stéphanie; Gagnon, Lise y Bouchard, Bernard (2008). Happy, sad, scary and peaceful musical excerpts for research on emotions. Cognition and Emotion, 22(4), pp. 720-752. https://doi.org/10.1080/02699930701503567

Vuust, Peter; Heggli, Ole A.; Friston, Karl J. y Kringelbach, Morten L. (2022). Music in the brain. Nature Reviews Neuroscience, 23(5), pp. 287-305.

Wang, Fushun; Yang, Jiongjiong.; Pan, Fang; Ho, Roger C. y Huang, Jason H. (2020). Editorial: Neurotransmitters and emotions. Frontiers in psychology, 11, p. 21. https://doi.org/10.3389/fpsyg.2020.00021

Wang, Tianyan (2015). A hypothesis on the biological origins and social evolution of music and dance. Frontiers in Neuroscience, 9, 30. https://doi.org/10.3389/fnins.2015.00030

West, Travis J.; Bachmayer, Alexandra; Bhagwati, Sandeep; Berzowska, Joanna y Wanderley, Marcelo M. (2019). The Design of the Body: Suit: Score, a Full-Body Vibrotactile Musical Score. En Sakae Yamamoto y Hirohiko Mori (eds.). Human Interface and the Management of Information. Information in Intelligent Systems Lecture Notes in Computer Science. Thematic Area, HIMI 2019, Held as Part of the 21st HCI International Conference, HCII 2019, Orlando, FL, USA, July 26-31, 2019, Proceedings, Part II. Nueva York: Springer Cham, pp. 70-89. 10.1007/978-3-030-22649-7_7

Wong, Patrick C. M.; Skoe, Erika;, Russo, Nicole et al. (2007). Musical experience shapes human brainstem encoding of linguistic pitch patterns. Nat Neuroscience 10, pp. 420-422. https://doi.org/10.1038/nn1872

Yamazaki, Yusuke; Mitake, Hironori y Hasegawa, Shoichi (2016). Tension-based wearable vibroacoustic device for music appreciation. En Fernando Bello, Hiroyuki Kajimoto y Yon Visell (eds.). Haptics: Perception, Devices, Control, and Applications: 10 th International Conference, EuroHaptics 2016, London, UK, July 4-7, Part II 10. Springer International Publishing, pp. 273-283.

Yamazaki, Yusuke; Mitake, Hironori y Hasegawa, Shoichi (2022). Implementation of Tension-Based Compact Necklace-Type Haptic Device Achieving Widespread Transmission of Low-Frequency Vibrations. IEEE Transactions on Haptics, 15(3), pp. 535-546.

Yoo, Yongjae; Hwang, Inwooky y Choi, Seungmoon (2014). Consonance of vibrotactile chords. IEEE Transactions on Haptics, 7(1), pp. 3-13. Https://doi.org/10.1109/TOH.2013.57

Young, Gareth W.; Murphy, Davidy y Weeter, Jeffrey (2015). Vibrotactile discrimination of pure and complex waveforms. En Joseph Timoney y Thomas Lysaght (eds.). Proceedings of the 12 th Sound and Music Computing Conference, 26 July-1 August, 2015, Maynooth, Co. Kildare, Ireland. Zenodo, pp. 359-362. Https://doi.org/10.13140/RG.2.1.3205.3608

Zioga, Ioanna; Di Bernardi Luft, Caroline y Bhattacharya, Joydeep (2016). Musical training shapes neural responses to melodic and prosodic expectation. Brain Research, 1650, pp. 267-282. https://doi.org/10.1016/j.brainres.2016.09.015