Abstracts der Vorträge zur DGM-Jahrestagung 1999

"Musikalische Wahrnehmung und ihr Kontext"

17.-19.9.99, Karlsruhe, Schloß Gottesaue

(http://musicweb.hmt-hannover.de/dgm)

 

Freitag, 17.9.99

14:30 Helga de la Motte-Haber (Technische Universität Berlin):  

Über musikalische Wahrnehmung. Psychologische und ästhetische Forschungsfragen [Abstract wird zu Beginn der Tagung nachgeliefert]

 


15:15 Elena Ungeheuer (Robert-Schumann-Hochschule Düsseldorf):

Multimedial unterstützte Untersuchungen zu professionellen Strategien des Hörens und Verarbeitens von Musik

Die Art und Weise, wie wir Musik hören, hängt maßgeblich von den Umständen ab, unter denen wir diese Musik kennengelernt haben. Um uns eine unbekannte Musik anzueignen, nutzen wir nicht nur die Ohren, sondern auch die Augen, wir verwenden Sprache, bewegen uns und gestalten die akustische Situation aus, in der wir diese Musik wahrnehmen (indem wir die Klangwerte durch die Regler der HiFi-Anlage manipulieren, Musik als Hintergrundberieselung plazieren, Musik in einer Konzerthalle hören oder indem wir Musik aktiv praktizieren, also musizieren, etc.). Die Komplexität im Umgang mit Musik soll in ihren Konsequenzen untersucht werden.

Können allgemeine Strategien des Vertrautwerdens mit Musik gefunden werden?

Lassen sich der analytische, der narrative und der manipulative Weg als typische Strategiekomplexe für die Rezeption von Musik betrachten? Gibt es typische Mischformen?

Können wir charakteristische Korrelationen zwischen Rezeptionsstrategien und der beruflichen Orientierung beziehungsweise täglichen Handlungsformen des Musikhörers erkennen?

Wie können wir auf theoretischer Ebene "Musikhören" definieren hinsichtlich der Komplexität von Aktivitäten, die wir aufbringen, um mit einer Musik vertraut zu werden?

Kann Multimedia als Medium dienen, um gezielt zur kreativen Verarbeitung von Musik anzuregen?

Es sei die Hypothese aufgestellt, daß in einer analytischen, einer narrativen und einer manipulativen Herangehensweise idealtypische Strategien zur Rezeption von Musik zu finden sind. Diese Strategiekomplexe finden in der Studie ihren Niederschlag in multimedialen Präsentationen von geeigneten Musikstücken.

Der analytische Weg beruht auf graphischen Illustrationen, die die Architektur des jeweiligen Musikstücks betreffen. Eine Hörpartitur kann ein Maximum an Information über eine Musik bereitstellen, wenn die synchrone Erfahrung von Klang und Bild auf allen Ebenen ermöglicht wird. Der narrative Weg bezieht sich entweder auf die Geschichte, die eine Musik umgibt, also den Komponisten, die Kompositionsästhetik, den kulturellen Kontext u.a.m. betreffend, oder auf die innere Geschichte, die eine Musik als genuine Dramaturgie mitbringt. Der manipulative Zugang stellt animierte audio-visuelle Graphiken bereit, die es in einer Multimedia-Sitzung erlauben, Teile eines Musikstückes, der Klangerzeugung oder der kompositorischen Verfahren zu rekonstruieren.

Um aussagekräftige Profile des musikalischen Verhaltens zu bekommen, werden in dieser Testreihe nur Probanden erfaßt, die einen professionellen Umgang mit Musik aufweisen (Komponisten, Musiker, Musikwissenschaftler und quasi-professionelle Amateure). Die Wahl und Zeitdauer der multimedialen Optionen und die Ergebnisse kreativer Prozesse verbaler und anderer Art werden in der Testreihe ausgewertet.

Der Vortrag beinhaltet eine Vorstellung der Testmethoden und eine auszugsweise Vorführung der multimedialen Anordnungen.

 

Investigating Professional Strategies For Processing Music By Multimedia Arrangements

The way we listen to music depends principally on the fact how we became acquainted with music. In order to learn something about a piece of music, we do not use only our ears, but also our eyes, language, kinaesthetics and we form the acoustical situation for music (such as manipulating the sound qualities of music by the sliders on the high-fi-tower, arranging music as background-performance at home, listening to music in a concert-hall or we work creatively with sounds while practicing music). The complexity of "dealing with music" and its consequences should be examined:

In general: Can typical strategies of familiarization be found?

More specifically: Can the analytical, the narrative and the manipulative way be considered as three typical complexes of receptive strategies? Are there ways in which these forms are combined/mixed?

Can we discover characteristic correlations between receptive strategies and professional orientation?

On a theoretical level: How can we define "listening to music" in relation to the complexity of activities in the process of becoming familiar with music?

Can multimedia serve as a means of encouraging a creative processing music?

Following the hypothesis, that receptive strategies can be characterised as an analytical, a narrative and a manipulative issue, thoses issues are manifested in multimedia presentations.

The analytical issue is based on graphical illustrations concerning the architecture of the respective piece. The most informative analytical tool will be a listening score of a piece which provides a parallel experience of auditive and visual information on all levels.

The narrative issue is divided into two parts: The external story is based on historical documents and on verbal texts around the pieces, about compositional aesthetics, about the cultural context and so on. Some pieces also provide an inner story, a dramaturgy suggesting narrative methods of explanation.

The manipulative issue provides multimedia presentations (animated audio-visual graphics) to the user in order to reconstruct parts of the piece, of the sound-generation and of the compositional procedures.

In order to get distinctive profiles of daily musical behaviour, only professionals (composers, performers, musicologists and well-educated amateurs) are tested. The choice of multimedia options, the duration of these choices and the results of creative processes will be evaluated in the tests.

The methods of the test-series and parts of the multimedia arrangements will be presented during the conference.


15:45 Martha Brech (Technische Universität Berlin):

Der Weg zum Verständnis. Untersuchung zu auditiven Strukturierungsprozessen in elektroakustischer Musik

Das Erfassen musikalischer Strukturen erfordert im allgemeinen mehrere Hördurchgänge. Untersuchungen zeigen, daß nicht alle Hörer die Strukturen gleichermaßen erkennen, doch meist werden abweichende Ergebnisse als nicht vollständig erfüllte Aufgabe eingestuft. Allerdings gibt es auch Ansätze, wie der von Delalande, die diese verschiedenen Hörresultate als gleichwertig erachten. Seine Forschungsergebnisse legen z.B. nahe, daß beim Musikhören verschiedene typisierbare Hörstrategien zu differenzieren sind. Üblicherweise werden sie im Laufe der Komposition gewechselt, und so stehen am Ende individuelle Hörresultate, die sich sehr eng an der Kompositionsstruktur orientieren. Mit einem Versuch sollte der Frage nachgegangen werden, wie es zu den verschiedenen akustischen Gestaltbildungen und Strukturierungen kommt. Wie ändern sich die wahrgenommenen Strukturen über mehrere Hördurchgänge? Wie breit sind die Wahrnehmungsresultate im Vergleich zwischen den Hörern am Ende gestreut? Führt die Annäherung an eine Komposition und ihre Struktur auch zu einer veränderten Bewertung?

Zur Untersuchung wurde elektroakustische Musik herangezogen, denn aufgrund der immer neuartigen Klangwelten in dieser Musik gilt es für die Hörer, gleichermaßen parallel verlaufende Klänge und vertikale Strukturen zu differenzieren ohne nennenswert auf die eigene Hörerfahrung zurückgreifen zu können. Lerneffekte durch Mehrfachhören sind stärker ausgeprägt. Zudem sind die verschiedenen Hörweisen hier erfahrungsgemäß besonders reichhaltig und reichen von abstrakten (spektral, formal etc.) bis zu konkreten (bildlich, assoziativ) Hörstrategien. So besteht die Möglichkeit, daß auch zahlreiche verschiedene Strukturen wahrgenommen werden können. Um die 34 Versuchspersonen aus unterschiedlichen Fachgebieten und mit verschiedenem Musikgeschmack nicht mit allzu fremdartiger Musik zu überfordern, wurde der Versuch mit einer Komposition durchgeführt, deren Komponist auf "Verständlichkeit" besonderen Wert legt: "Vox 5" von Trevor Wishart. Außerdem wurde für das wiederholte Hören ein ca. 1'50" langer Abschnitt herausgesucht, der es gleichermaßen ermöglicht, eine metaphorische Ebene wahrzunehmen, wie abstrakte musikalische Strukturen im Klangspektrum wie im formalen Aufbau zu entdecken.

Den Versuchspersonen wurde zuerst die rund sechsminütige Komposition vollständig präsentiert und anschließend waren vier Wiederholungen des Kompositionsausschnittes zu hören. Bei dreien der Durchläufe (der 1.,2. und 5.) wurden die Testpersonen gebeten, auf Einschnitte zu achten und bei einem Einschnittsempfinden einen Knopf zu drücken (vertikale Differenzierung). Zwei weitere Durchläufe (3. und 4.) galten der Konzentration auf die gehörten Klänge (horizontale Differenzierung). Nach allen Durchläufen wurden die Testpersonen gebeten, einige Fragen zur eigenen Einschätzung der Komposition oder der gehörten Klänge zu beantworten bzw. auf einem Polardiagramm anzukreuzen. Um der Frage nachzugehen, ob und in welcher Weise zusätzliche Informationen zur Komposition die individuellen Strukturierungen und Verständnisweisen beeinflussen können, wurde 15 Versuchspersonen vor dem letzten Hördurchgang ein kurzer Text mit dem Programm der Komposition &endash; einem indischen Mythos &endash; vorgelesen.

Die Auswertung des Versuches ist derzeit noch nicht vollständig abgeschlossen, doch ist schon abzusehen, daß die überwiegende Mehrheit trotz anfänglich verschiedener Hörstrategien am Ende gleiche vertikale Strukturen wahrnimmt, die der Kompositionsstruktur entsprechen. Im Verlauf der Durchgänge wurde die Klangwahrnehmung zunehmend verfeinert, subjektive Assoziationen revidiert und klangliche Zusammenhänge entdeckt. Die Reaktionen auf die Offenlegung des Programmes waren uneinheitlich: Etwa die Hälfte der Versuchspersonen meinte, damit einen vertieften Einblick in die Komposition erhalten zu haben oder fühlte sich in ihrer Hörweise bestätigt, während die andere Hälfte enttäuscht war und die Komposition nun schlechter bewertete.

 

The Process Of Understanding. Auditory Structuring Processes In Electroacoustic Music

The perception of musical structures requires repeated listening. Although surveys show that perception results are different between listeners these results are generally valued right or wrong. Only a few researchers, like Delalande, focus these differences and qualify them as different listening strategies of the same value. During the perception process listeners usually change their strategies and when different perception results are compared each result is both individual and very close to the composed structure of the piece. Regarding this, a test was designed in order to find out how the perception results change during repeated listening. And additionally, do listeners value a composition differently when they have approached it?

Subject of the test was electroacoustic music because of the new world of sounds usually presented by this kind of music. Listeners have to find their way through it by separating both parallel appearing sounds and vertical structures without being able to rely strongly on their memory and experience. Learning effects that occur during repeated listening are therefore much stronger. Additionally, there are more different perception strategies to be found in electroacoustic music. They include more abstract (i.e. spectral or formal listening) as well as metaphorical or associative listening strategies. This may even lead to the perception of different composition structures. In order not to shock the 34 subjects (students from different departments and with different musical taste) with strange sounds, an electroacoustic piece was chosen for the test that was composed to be easy to understand: "Vox 5" by Trevor Wishart. Additionally, for repeated listening, a section of 1`50" was chosen that allows perception of the metaphorical level as well as abstract musical structures in the formal organization and the sound spectrum.

In the test the subjects first listened to the composition as a whole and later four times to the section. During listening they were either asked to mark vertical breaks with a button or concentrate on the sound qualities. After listening they were asked to answer some questions concerning the sounds they had perceived or their estimation of the composition. In order to find out if additional information has an effect on the perception, to 15 of the subjects the program of "Vox 5" &endash; an Indian myth &endash; was presented.

The test is not completely analyzed yet. Still, it is foreseeable that the majority of subjects perceived the same vertical structures in the end although they had different listening strategies in the beginning. During the stages of the test the sensibility for sound parameters became higher, subjective associations were revised and connections between sounds were discovered. The reactions to the reading of the program were different: Some of the subjects had the impression of a deeper understanding of the piece, others were disappointed and valued the composition much worse.


17:00 Michael Grossbach, Helen Kuck, Marc Bangert & Eckart Altenmüller (Hochschule für Musik und Theater Hannover):

Verarbeitung musikalischer Zeitstrukturen: Dissoziierte neuronale Netzwerke für Rhythmus- und Metrum-Wahrnehmung

In hierarchisch organisierten Kognitionsmodellen wird davon ausgegangen, daß Rhythmus-Wahrnehmung als "lokaler" Verarbeitungsmodus eher auf linkshemisphärischen, Metrum-Wahrnehmung als "globaler" Verarbeitungsmodus eher auf rechtshemisphärischen neuronalen Netzwerken beruht. Intakte rechtshemisphärische Netzwerke scheinen Voraussetzung zur korrekten Verarbeitung lokaler und globaler zeitlich strukturierter akustischer Reize durch die linke Hemisphäre zu sein (Schuppert et al., Brain, in revision). Die elektrophysiologische Registrierung der kortikalen Aktivierung während der Rhythmus- und Metrum-Diskrimination soll zur Aufklärung der beteiligten Netzwerke beitragen.

Mit der Methode der 32-Kanal-Gleichspannungsenzephalographie wurden bei 18 musikalisch vorgebildeten Versuchspersonen kortikale Aktivierungsmuster während der Diskrimination komplexer Rhythmen oder komplexer Metren erfaßt. Randomisiert wurden aufeinanderfolgend zwei rhythmisch bzw. metrisch akzentuierte, jeweils vier Sekunden dauernde Sequenzen (160 insgesamt) präsentiert. Eine davon konnte sich in einer Sechzehntelnote oder im Metrum oder gar nicht von der anderen unterscheiden. Aufgabe der Probanden war es, die Tonsequenzen als "gleich" oder "verschieden" zu diskriminieren.

Deutliche interindividuelle Unterschiede der Aktivierungsmuster in Abhängigkeit von der Verarbeitungsstrategie (Rhythmus oder Metrum) konnten nachgewiesen werden. Eine eindeutige Lateralisation "lokaler" bzw. "globaler" Verarbeitungsmodi war bei allen Probanden verifizierbar.

Die schon in anderen Modalitäten gefundene Differenzierung bei der Analyse lokaler und globaler Eigenschaften eines Stimulus' scheint bei den hier untersuchten musikalischen Parametern eine Rolle zu spielen.

In zukünftigen Experimenten soll durch zusätzlichen Einsatz von visuell kodierten Rhythmen und Metren der aktivatorische Einfluß der Reizmodalität erfaßt und rechnerisch aus den Aktivierungsmustern eliminiert werden, um so ein möglicherweise supramodal zeitverarbeitendes Zentrum im Kortex zu lokalisieren.

 

Processing Of Temporal Structures In Music: Dissociated Neural Networks For Rhythm And Metre Perception

In hierarchically organized cognition models it is assumed that the perception of rhythm as a "local" mode of processing is restricted to left hemispheric neuronal networks whereas metre as a "global" mode of processing is primarily assigned to the right hemisphere. Intact right hemispheric networks seem to be a prerequisite to correctly process locally and globally temporally structured acoustic stimuli in the left hemisphere (Schuppert et al., Brain, in revision). Electrophysiological recordings of the cortical activity during the discrimination of rhythm and metre are used to distinguish between the responsible networks.

The electroencephalogram of slow potentials (DC EEG, 32 channels) was used to record the cortical activation patterns of 18 musically trained subjects while they analyzed complex acoustic rhythm or metre sequences. Randomly shuffled pairs of either rhythmically or metrically stressed sequences were played to the subjects. The set of acoustic stimuli consisted of 160 four-second sequences. One sequence within a pair could differ from the other in respect to either one sixteenth beat, to metre or not at all, respectively. The subjects' task was to discriminate the sequences as "identical" or "different".

We were able to show substantial inter-individual differences in cortical activation patterns due to processing strategies (rhythm or metre). An unequivocal lateralisation of the two processing modes could be verified in all subjects.

As in other modalities, the differential analysis of a stimulus' local and global characteristics seems to play a major role in the processing of the aforementioned musical parameters.

In future experiments activatory influence of the stimulus modality will be seized by additionally using visually coded rhythm and metre. By eliminating these influences we hope to be able to locate a possibly modally independent and temporal structure processing network in the cortex.

 


17:30 Piotr Steinhagen & Reinhard Kopiez (Hochschule für Musik Würzburg/Hochschule für Musik und Theater Hannover):

Die Mitspielreaktionen afrikanischer Trommler auf unvertraute Rhythmen: Das Zusammenspiel von exakter Reproduktion und permanenter Variation

Einleitung: Die vorliegende Studie ist die Fortsetzung einer früheren Studie (Kopiez, Langner & Steinhagen, im Druck) zum Nachspielverhalten afrikanischer Meistertrommler auf erklingende europäische Rhythmen. In der ersten Studie zeigte sich, daß die Meistertrommler bei ihnen unvertrauten Rhythmen, wie z.B. dem Bolero-Rhythmus, Schwierigkeiten hatten, diesen mittels eines Play-along-Bands zu erlernen. Die Analyse der Mitspielreaktionen zeigte jedoch frühzeitig, daß die Kategorien von "richtig" und "falsch" bei der Bewertung der Nachspielleistung unangemessen sind, da das zu beobachtende Prinzip der "freien Variation" des vorgegebenen Rhythmus völlig dem afrikanischen Musikbegriff entspricht. Vielmehr verstehen wir die erklungenen Reaktionsprodukte der Spieler als akustischen Spiegel ihres spezifischen musikalischen Denkens, das es zu begreifen gilt.

Die Forschungsleitfrage war: Wie reagieren afrikanische Trommler beim Nachspielen auf ihnen unbekannte Rhythmen und welche Wahrnehmungs- bzw. Verarbeitungsstrategien lassen sich aus diesen "Reaktionsprodukten" ableiten?

Methode: Elf ghanaische Meistertrommler erhielten durch einen tragbaren Kassettenrekorder sechs europäische Rhythmen in einer Deadpan-Version vierfach wiederholt vorgespielt. Mit dieser Play-along-Methode war es möglich, den Spielern einen realen Kontext zu bieten, der einem Ensemble ähnlich war. Nach Abschalten des Abspielgeräts spielten die Versuchspersonen beliebig lange allein weiter. Der Lernprozeß wurde durch ein zweites Aufnahmegerät protokolliert (Die verwendeten sechs europäischen Rhythmen sind auf der Webseite http://musicweb.hmt-hannover.de/ghana dokumentiert.). Die Lernprotokolle wurden zur weiteren Analyse transkribiert.

Ergebnisse: Da sich beim Bolero-Rhythmus besondere Schwierigkeiten beim exakten Nachspielen zeigten und zahlreiche Varianten zu beobachten waren, wählten wir diesen Rhythmus aus den sechs zu erlernenden als exemplarisch für die weitere Transkriptionsanalyse aus.

Die Transkriptionen lassen im wesentlichen vier Reaktionsmuster der Spieler auf den ihnen unbekannten Bolero-Rhythmus erkennen:

1. Verständnis für die dem Rhythmus zu Grunde liegende Struktur

2. Segmentierung und Rekombination des Vorgegebenen

3. Adaptierung an in ihrer Musikkultur bekannte Strukturen

4. Realisierung im Sinne einer "Impulsdichtekontur"

Es zeigte sich beim Bolero-Rhythmus, daß er von den Spielern als Ausgangsmaterial für den weiteren kreativen Umgang mit seinen rhythmischen Teilmotiven aufgefaßt wird. Der Einsatz des Mitspielens erfolgte fast immer auf der Zählzeit "und" statt auf dem Schlag. Der originalen Grundstruktur mit der Ordnungszahl 18 (ein Vielfaches der 2 x 3/4-Takt-Struktur) wurde häufig eine Struktur mit der Ordnungszahl 12 bzw. 24 (ein Vielfaches einer 2 x 2/4-Takt-Struktur) übergestülpt. Die Reaktionen auf bestimmte Segmente waren bei verschiedenen Spielern ähnlich. Einige Spieler realisierten die unterschiedlichen Impulsdichte-Ebenen aus Achtel-Puls und Sechzehntel-Triole, indem sie sie durch Varianten im Verhältnis von höherer (z.B. Zweiunddreißigstel) zu niedrigerer Impulsdichte ersetzen.

Diskussion: Die Realisierungen des Bolero-Rhythmus lassen erkennen, daß es in der afrikanischen Rhythmuswahrnehmung &endash; analog zur beim melodischen Gedächtnis bekannten Funktion der Kontur &endash; offensichtlich auch eine rhythmische Kontur gibt, die durch die Verteilung von dichten und weniger dichten Impulsfolgen charakterisiert ist. Wir nennen dies die "Impulsdichtekontur". Damit werden die Kategorien von "richtig" und "falsch" als Beschreibungskategorien hinfällig. Vielmehr findet eine Performanceleistung in verschiedenen Wahrnehmungsbereichen statt, und die unterschiedlichen Segmentierungsstrategien lassen personenspezifische Wahrnehmungskonzepte der Spieler erkennen. Die Performance bewegt sich vor diesem theoretischen Hintergrund auf einem Kontinuum zwischen den Polen "exakte Reproduktion" (Stillstand) und "permanente Variation" (Bewegung).

 

Play-Along Reactions Of African Drummers With Unfamiliar Rhythms: The Interplay Of Accurate Reproduction And Continuous Variation

Introduction: The present study is a continuation of a previous study (Kopiez, Langner & Steinhagen, in press) regarding the play-along behavior of African master drummers using European rhythms. The first study revealed that master drummers had problems learning unfamiliar rhythms such as the Bolero rhythm using a play-along method. Analysis of their play-along performances showed early on that categories of "right" and "wrong" were inappropriate, because the observed free variation of the presented rhythms corresponded well with the African understanding of music performance. Instead, we have to consider the sounding results of the musicians' reproduction as an acoustical mirror of their specifically musical thinking, which beckons to be understood.

Our research question was: How do African drummers react when imitating an unfamiliar rhythm and which perceptual or other cognitive strategies can we deduce from their productions?

Method: Eleven Ghanaian master drummers were presented with six European rhythms in a deadpan version. The examples were played four times from a portable cassette recorder (all six examples can be accessed at http://musicweb.hmt-hannover.de/ghana). This play-along method provided a realistic setting for the musicians who are used to playing with an ensemble. After the presentation the subjects continued playing as long as they wanted. The whole process (presentation and continuation) was being recorded on a second machine. The musical productions were transcribed for further analysis.

Results: Since the Bolero rhythm had proven to be particularly difficult for imitation and many variants were recorded, this rhythm was selected from the six examples for further analysis of the transcriptions. The transcriptions seem to suggest that musicians generated four main musical patterns in response to the presented rhythm:

1. Understanding for the underlying rhythmic structure

2. Segmentation and recombination of the presented pattern

3. Assimilation of the rhythm to known musical structures in their culture

4. Imitation as a contour of impulse density

It became obvious that the Bolero rhythm had been used as a starting point for continued creative work with individual rhythmic motives. The entrance with the accompaniment occurred mostly on the "and", not on the beat. A 12 or 24 element structure (a multiple of the 2 x 2/4 beat structure) was slipped over the original structure with its 18 elements (a multiple of the 2 x 2/4 beat structure). The reactions to certain segments were similar among the different players. Some players performed the different impulse density levels of 8th-pulse and 16th-triplet by substituting them with variants of higher (e.g., 32nd) to lower proportions.

Discussion: The performances of the Bolero-rhythm attest to the fact that African rhythm perception apparently operates on the basis of some sort of rhythmic contour &endash; analogous to the known function of the melodic contour. This contour is characterized by the distribution of dense and less dense impulse sequences. We termed this "impulse density contour". This renders the descriptive categories of "right" and "wrong" useless. It appears as if a performance involves different areas of perception, and the different strategies for segmentation allow personal concepts of perception to shine through. From this theoretical perspective performance operates on a continuum between the "precise reproduction" (standstill) and "continuous variation" (development).

 

References

Dowling, W.J. (1982) Melodic information processing and its development. In: D. Deutsch (ed.), The psychology of music. New York: Academic Press.

Kopiez, R., Langner, J. & Steinhagen, P. (in press). Afrikanische Trommler (Ghana) bewerten und spielen europäische Rhythmen. In: Musicae Scientiae.

 


 

Samstag, 18.9.99

9:00 Rolf Bertling, Stefan Harenbrock & Markus Agelink (Ruhr-Universität Bochum): 

Musik und Vegetativum

Einleitung: Die emotional beeinflussende Wirkung von Musik ist unstrittig. Vielfach wird ihr eine relaxierende, angstlösende, schmerzlindernde oder stimmungsaufhellende Wirkung zugeschrieben. Während man früher aber davon ausging, daß es so etwas wie "beruhigende" oder "stimulierende" Musik an sich gäbe, hat die Präferenzforschung gezeigt, daß Hörpräferenzen und die Wirkung einer speziellen Musik auf einen Probanden in einer speziellen Situation durch sehr unterschiedliche Faktoren beeinflußt werden. Welche physiologisch-vegetativen Parameter durch Musik in welcher Richtung beeinflußt werden, wurde bislang immer wieder kontrovers diskutiert. Ziel der vorliegenden Pilotuntersuchung war es, einen "beruhigenden" oder "stimulierenden" Effekt von Musik auf Parameter des sympathisch-parasympathischen Systems mittels einer standardisierten Untersuchung der Ruheherzfrequenzvariabilität (HRV) in Verbindung mit einer Spektralanalyse nachzuweisen.

Hypothesen: Unter der Annahme einer beruhigenden Musikwirkung sollte es zu einem Abfall der Ruheherzfrequenz und einer Verschiebung zugunsten parasympathischer Funktionsparameter und bei einer stimulierenden Musikwirkung zu gegenläufigen Veränderungen kommen.

Methode: Untersucht wurden bei 15 freiwilligen Normalprobanden (Alter X= 31,8; Range 22-41 Jahre) time-domain und frequency-domain-Parameter einer fünfminütigen Ruheuntersuchung der Herzfrequenzvariabilität (HRV, Task-Force-Report 1996). Der Variationskoeffizient (CVr), die Root Mean Square of Successive Differences (RMSSDr) sowie die hochfrequenten Anteile der Spektralanalyse (HF-Power) werden im wesentlichen durch parasympathische Einflüsse vermittelt, während die niederfrequenten Anteile der spektralen Power (VLF/LF) auch von der sympathischen Aktivität abhängen. Es wurden unmittelbar nacheinander 3 HRV-Messungen durchgeführt:

Ausgangsuntersuchung nach 15-minütiger Ruhezeit im Liegen;

Darbietung von "beruhigender" Musik (Claude Debussy, Suite Bergamasque, 3. Satz: Clair de lune, Naoko Yoshino (Harfe))

Darbietung von "stimulierender" Musik (Jòn Leifs, Hekla (Volcano), Helsinki Philharmonic Orchestra, Leif Segerstam).

Beide Musikstücke erfüllen die von Smeijsters (1996) postulierten musikalischen Kriterien, die zu einer Veränderung vegetativer Funktionen führen sollen. Nach jeder Einzelmessung wurde ein Befindlichkeitsfragebogen appliziert, um Übereinstimmung oder Diskrepanz zwischen objektiver vegetativer Reaktion und subjektivem Erleben zu ermitteln. Zusätzlich wurde nach Gefallen oder Nichtgefallen der eingespielten Stücke gefragt.

Resultate:

Im Vergleich zur Ausgangsuntersuchung kam es zu einem kontinuierlichen Abfall der Ruheherzfrequenz, der für den Vergleich zwischen Ausgangsuntersuchung und dem letzten Untersuchungszeitpunkt signifikant wurde. Dies ist am ehesten auf einen unspezifischen Liegeeffekt zurückzuführen.

Für das Gesamtkollektiv der untersuchten Probanden ergaben sich unter Darbietung der unterschiedlichen Musikstücke keine signifikanten Änderungen der HRV im Verlauf. Dies galt sowohl für die "beruhigende" als auch die "stimulierende" Musik.

Probanden, denen das "beruhigende" Musikstück gefiel, zeigten im Vergleich mit Probanden, denen das Stück nicht gefiel, einen im Vergleich zur Ausgangsuntersuchung vor Musikpräsentation tendenziell größeren Anstieg der HF-Power nach Hören der "beruhigenden Musik" (vgl. Abb. 1).

 

Abb. 1: Individuelle Veränderungen der HF- Power in Abhängigkeit vom Gefallen des "beruhigenden" Musikstücks (in %)

 

Probanden, denen die "stimulierende" Musik gefiel, zeigten im Vergleich zu Probanden, denen die Musik nicht gefiel, einen im Vergleich zur Ausgangsuntersuchung signifikant größeren Anstieg der unspezifischen VLF-Power und einen tendenziellen Anstieg der RMSSDr nach Darbietung des stimulierenden Musikstücks.

 

Diskussion: Die Ergebnisse deuten darauf hin, daß unabhängig vom Charakter der applizierten Musik funktionelle Veränderungen das Resultat des Zusammenspiels sympathischer und parasympathischer Funktionen sind. Neben den musikinhärenten Faktoren scheinen für Musikeffekte Bewertungsfaktoren wie Gefallen oder Nichtgefallen eine wichtige Rolle zu spielen.

 

Music And Vegetative Functions

Introduction: It is indisputable, that music influences our emotions. Usually it is ascribed a relaxing, anxiolytic, analgetic or antidepressant effect. While it was assumed in the past, that there is something like "sedative" or "stimulating" music in the true sense of the word, preference research has demonstrated, that musical preferences and the special effects of music in a given situation are determined by numerous factors.

Objective: Aim of the presented study was to prove whether a "sedative" or "stimulating" effect of music on vegetative parameters can be shown using a standardized examination of heart rate variability (HRV) and spectral analysis.

Hypothesis: If there is a "sedative" effect of music, we should find a decrease of heart rate and a shift in favor of parasympathetic function parameters, whilst under "stimulating" music there should be opposite effects.

Methods: In 15 male volunteers (mean age=31,8 years, range 22-41 years) we determined time-domain and frequency-domain parameters calculated from the examination of heart rate frequency variability (HRV) during five minutes at rest (Task Force Report 1996). Coefficient of variance (CVr), Root Mean Square of Successive Differences (RMSSDr) as well as high frequent parts of spectral analysis (HF-Power) are mainly mediated by parasympathetic influences, while low frequent parts of spectral power (VLF/LF) also depend on sympathetic activity. Three examinations of heart rate variability were performed directly after another:

Baseline examination after 15 minutes at rest in lying position; presentation of "sedative" music (Claude Debussy, Suite Bergamasque, 3. Movement: Clair de lune, Naoko Yoshino (harp)); presentation of "stimulating" music (Jon Leifs, Hekla (Volcano), Helsinki Philharmonic Orchestra, Leif Segerstam).

Both pieces of music met the musical criteria postulated by Smeijsters (1996) that are assumed to be related to changes in vegetative functions. After each measurement a questionnaire concerning current feeling was applied to determine an eventual discrepancy between subjective changes in feeling and objective vegetative reactions. Additionally we asked, whether music was liked or disliked.

Results: Compared to the baselineexamination there was a continuous decrease of heart rate at rest, that became significant for the comparison between U1 and U3. This may be explained by some unspecific effect of lying. Neither "sedative" nor "stimulating" music resulted in significant changes of HRV. Persons, that liked the "sedative" piece of music, showed some tendency towards a higher increase in HF-Power in relation to the baselineexamination before presentation of music, if they were compared with persons that disliked the music. Persons, that liked the "stimulating" music showed a significant increase of unspecific VLF-Power (indicator for unspecific arousal reaction; physiological basis of the so-called thrills) and some tendency towards an increase of RMSSDr after presentation of the "stimulating" piece of music.

Discussion: Results implicate that independent of the character of presented music, functional changes are the result of interaction of both sympathetic and parasympathetic functions, as one might be stimulated and though relaxed at the same time. Besides factors inherent to music personal judgments (liking vs. disliking) may be important for the explanation of musical effects.

 


9:30 Heiner Gembris & Andreas C. Lehmann (Martin-Luther-Universität Halle-Wittenberg):

Situativer Kontext und entspannende Wirkungen des Musikhörens

In vielen Alltagskontexten ist zu beobachten, daß keineswegs nur sedative Musik, sondern ein breites Spektrum unterschiedlichster Musik zur Entspannung gehört wird. Außerdem kann dieselbe Musik, die in einer bestimmten Situation eine entspannende Wirkung hat, in anderen Kontexten völlig anders erlebt werden. Daraus ergeben sich eine Reihe von Fragen: Warum kann unterschiedlichste Musik entspannende Wirkungen ausüben? In welcher Weise beeinflußt der situative Kontext die Wirkungen von Musik? Welche Prozesse kognitiver, physiologischer, emotionaler und kontextueller Art spielen dabei eine Rolle?

Bisherige Forschungen: Mit dem Ziel, kognitiv-emotionale und motorische Komponenten und Prozesse der Entspannung durch Musikhören unter Berücksichtigung des situativen Kontextes zu beschreiben, wurde das Modell der "zustandsbezogenen Entspannungsverläufe" entwickelt (Gembris 1985). Dieses Modell geht davon aus, daß der Grad der situativen psychovegetativen Erregung als Kontextvariable von entscheidender Bedeutung dafür ist, welche Art von Musik als entspannend erlebt wird. In Abhängigkeit vom Grad der situativen Aktivierung ergeben sich auch unterschiedliche Verlaufsprozesse der Entspannung durch Musikhören. Bei relativ geringer psychophysiologischer Ausgangsaktivierung kann das Hören von sedativer Musik direkt zu einem Entspannungsprozeß führen. Im Unterschied dazu führt bei relativ hoher situativer Aktivierung ein zweiphasiger Verlauf zu einer Aktivierungsreduktion, wobei die psychophysische Aktivierung einer ersten Phase durch stimulative Musik weiter gesteigert wird und in einer zweiten Phase durch sedative Musik unter das Ausgangsniveau gesenkt wird. Diesem hypothetischen Verlauf liegt das Prinzip der Spannungsreduktion durch vorherige Spannungsinduktion zugrunde, das auch anderswo beschrieben worden ist (z. B. Progressive Muskelentspannung nach Jacobson, s. Hamm 1993; ästhetisches Erleben, s. Kreitler & Kreitler). Für einige zentrale Elemente des Modells der zustandsbezogenen Entspannungsverläufe gibt es bereits experimentelle Belege (Gembris 1985) und unterstützende Ergebnisse (Holbrook & Anand 1990).

Fragestellung und Hypothesen: Diese Studie sollte verschiedene Aspekte des vorgestellten Modells überprüfen. Bei hoher situativer Aktivierung sollte stimulative (schnelle) Musik als angenehmer und entspannender empfunden werden als sedative (langsame) Musik. Bei geringer situativer Erregung sollte es sich umgekehrt verhalten. Der höchste Entspannungseffekt sollte bei erhöhter Aktivierung durch die Kombination von stimulativer Musik mit nachfolgender sedativer Musik auftreten.

Methode: Eine Gruppe von 28 Probanden (16 weiblich, 12 männlich; Median Alter = 21,5) wurde zweimal in einen Zustand relativ hoher Aktivierung und einmal in den Zustand relativ niedriger Aktivierung versetzt. Im Anschluß füllten die Testpersonen einen Kontrollfragebogen aus. Nach jeder experimentellen Beeinflussung der Aktivierung hörten die Probanden dann zwei Musikstücken von je vier Minuten Dauer in der Reihenfolge stimulativ-sedativ oder umgekehrt. Nach jedem Musikbeispiel füllten die Probanden einen Fragebogen aus, der die Beeinflussung des Aktivierungsgrades durch die gehörte Musik erfaßte.

Ergebnisse: Die Manipulation des Aktivierungsgrades als Antezedenzbedingung des Musikhörens war erfolgreich, wie die Auswertung der Kontrollfragebögen ergab. Erste vorläufige Ergebnisse zeigen, daß sich bei hoher Aktivierung sowohl durch langsame als auch durch schnelle Musik eine statistisch signifikante Reduktion der Spannung einstellt. Keine signifikante Reduktion der Spannung konnte bei geringer Aktivierung nachgewiesen werden. Bei hoher Aktivierung werden langsame Stücke im Vergleich zu schnelleren Stücken nicht signifikant angenehmer, stimmungskongruenter oder positiver erlebt. Die Daten sind gegenwärtig noch in der Auswertung, allerdings zeichnet sich ab, daß nicht alle Ergebnisse mit dem Modell der "zustandsbezogenen Entspannungsverläufe" vereinbar sind.

 

Situational Context And The Relaxing Effects Of Music

Not only sedative (slow) music, but rather the whole gamut of musical styles, is being consumed with the goal of relaxation. Also, a certain music that has a relaxing effect in one situation may be experienced totally different in another context. This gives rise to a number of questions: How can divergent musical pieces have relaxing effects? How does the situational context contribute to the relaxing effects of music? What cognitive, physiological, emotional, and situational processes are involved?

Existing research: The model of "state-dependent trajectories of relaxation" (Gembris 1985) was developed to describe the cognitive, emotional and motor aspects involved in relaxation while listening to music. It takes into account the situational context. The model posits that the current state of psychophysiological arousal is an important contextual variable which determines what kind of music will be experienced as having a relaxing effect. Relaxation is hypothesized to proceed along different trajectories depending on the current state of psychophysiological arousal. With relatively low psychophysiological activation, listening to sedative music may lead directly to relaxation. In contrast, in the state of elevated psychophysiological activation, relaxation should proceed along a two-stage process. First, psychophysiological activation is further increased through stimulating music. And it is only in the second stage through sedative music that the arousal drops below the starting level. The latter trajectory is based on the idea that reduction of arousal can be achieved through prior increase in arousal (similar ideas e.g., progressive muscle relaxation according to Jacobson, cf. Hamm 1993; aesthetic experience, cf. Kreitler & Kreitler). Some of the central elements of the model have already been demonstrated (Gembris 1985), and supporting independent findings exist (Holbrook & Anand 1990).

Purpose and hypothesis: The purpose of this study was the validation of various aspects of the above mentioned model. We expected that with high situational arousal, stimulating (fast) music would be experienced more agreeable and relaxing than sedative (slow) music. Conversely, low situational arousal should lead to a less positive and relaxing experience when combined with fast music. The most effective relaxation with high arousal should result from the combination of stimulating followed by sedative music.

Method: Twenty-eight participants (16 female, 12 male; median age = 21,5) were subjected to manipulations of their current state of arousal, leading twice to high levels and once to a lower level of arousal. A short questionnaire validating the success of the manipulation was administered following each manipulation. Once the state of arousal was manipulated, subjects listened to two musical excerpts of four minutes each. One was slow, the other fast, and the order was counterbalanced across conditions. Following each musical example, another survey was completed concerning the effects the music might have had on the state of arousal.

Results: The questionnaires prior to music listening validated the successful manipulation of the current states of arousal. First preliminary analyses show that in the case of high activation, slow and fast music both result in a statistically significant reductions of arousal. No further significant relaxation through music listening was achieved with lower levels of arousal. Under the high arousal condition, slow music was not experienced more appropriate, agreeable or more positive than fast music. Although the analysis is still underway, it is clear that not all findings will be consistent with the proposed model.

 

References

Gembris, H. (1985) Musikhören und Entspannung. Theoretische und experimentelle Untersuchungen über den Zusammenhang zwischen situativen Bedingungen und Effekten des Musikhörens, Karl Dieter Wagner: Hamburg.

 


10:00 Johanna Ray (Universität Uppsala, Schweden/Universität Heidelberg):

Eine qualitative Studie über das Erleben von Musik und das Ausdrucksverstehen

Diese qualitative Studie ist Teil eines von Alf Gabrielsson und Siv Lindström Wik (Universität Uppsala, Schweden) geleiteten Forschungsprojektes über starke Musikerlebnisse (SEM = Strong Experiences of Music). Innerhalb dieses Projektes hat man Personen aufgefordert, ihre stärksten Musikerlebnisse zu beschreiben. Als Resultat einer Inhaltsanalyse ist ein aus acht Hauptkategorien bestehendes Klassifikationsschema entwickelt worden. Die Hauptkategorien, die jeweils noch Untergruppen umfassen, sind: Allgemeine Charakterzüge der SEM (z.B. "Es war ein einmaliges Erlebnis", "Es ist sehr schwierig, das Erlebnis zu beschreiben"), Physische Reaktionen (z.B. "Mein Herz schlug schneller", "Ich bewegte mich zur Musik", "Ich fühlte mich schwebend"), Wahrnehmung (z.B. "Es war eine kurze Phrase gespielt von der Flöte", "Ich habe mir die Musiker sehr genau angesehen"), Kognition (z.B. "Ich war voll auf das Hören konzentriert", "Die Musik rief verschiedene Assoziationen und Erinnerungen hervor"), Emotion (z.B. "Die Musik machte mich glücklich"), Existentielle und transzendentale Aspekte (z.B. "Ich fühlte mich als ob ich in einem heiligen Moment meines Lebens war", "Es war als ob ich in Trance war"), Persönliche Entwicklung (z.B. "Ich kam zu tiefen Einsichten", "Ich fühlte die heilende Kraft der Musik") und Motivation (z.B. "Ich wollte es immer wieder hören").

Hauptziel der hier vorgestellten Studie war es herauszufinden, in welchem Ausmaß man das SEM-Klassifikationsschema benutzen kann, um einerseits Erlebnisse und Reaktionen zu beschreiben und zu klassifizieren, die von Studenten beschrieben worden als sie zwei kurze klassische Musikstücke des finnischen Komponisten Einojuhani Rautavaara hörten, und anderseits zu untersuchen, ob das Schema auch für deren Beurteilung des Ausdrucks der Musik anwendbar ist. Insgesamt nahmen 57 Studenten an der Studie teil. Eine Hälfte (Studenten der Musikpsychologie) hörte "Jacob Könni" (Klaviermusik), und die andere Hälfte (Studenten der Musiktherapie) hörte "Jonas Kopsi" (Streichorchestermusik; beide Stücke sind Teil des 1952 komponierten Opus 1: "Spielleute"). Die Versuchspersonen wurden aufgefordert, in freier schriftlicher Form zu beschreiben, wie sie die Musik erlebten und was die Musik nach ihrer Ansicht ausdrückte. Zu beiden Befragungen wurde die Musik dreimal nacheinander vorgespielt.

Die Beschreibungen wurden einer Inhaltsanalyse unterzogen. Dieses Verfahren führte zu einer Liste von unterschiedlichen Erlebnissen und Reaktionen der Studenten, und zu einer Aufstellung von verschiedenen Interpretationen des Ausdrucks der Musik. Das SEM-Klassifikationsschema erwies sich als sehr geeignet, diese Aspekte zu beschreiben und zu klassifizieren. Die am meisten beschriebenen Erlebnisse und Reaktionen konnten verschiedenen Untergruppen der Kategorien Perzeption und Kognition zugeordnet werden. Nur eine geringe Anzahl wurde als Physische Reaktionen, Existentielle und transzendentale Aspekte, Persönliche Entwicklung und Motivationen klassifiziert. Die in Zusammenhang mit dem Klassifizieren der Ausdrücke der Musik meist benutzten Kategorien waren Wahrnehmung, Kognition und Existentielle und transzendentale Aspekte. Beispiele werden im Vortrag erläutert.

Der zusätzliche Versuch, das Verhältnis zwischen dem Erleben und der Reaktionen der Studenten und dem Ausdrucksverstehen zu analysieren, ließ sich schwer durchführen. Grund dafür war, daß die Studenten oft die Beschreibung des Ausdrucks von der Beschreibung des eigenen Erlebens und Reaktionen nicht trennten. Um in Zukunft einen solchen Vergleich auf qualitativer Basis machen zu können, müßte man die Versuchspersonen deutlicher auffordern, zwischen eigenen Reaktionen einerseits und dem Ausdrucksverstehen anderseits, zu differenzieren.

 

A Qualitative Study On The Experience And Expression Of Music

This study is related to a research project on Strong Experiences of Music (SEM) conducted by Alf Gabrielsson and Siv Lindström Wik at the Department of Psychology, Uppsala University (Sweden). People have been asked to describe the strongest experience of music that they have ever had. Content analysis of their reports has resulted in a classification consisting of eight basic categories, each of them comprising several sub-categories. The basic categories are: General characteristics of SEM (such as "It was a unique experience", "It's hard to describe the experience"), Physical responses (such as "My heart beats quicker", "I was moving to the music", "I felt weightless"), Perception (such as "It was a short phrase played by the flute", "I was watching the performers carefully"), Cognition (such as "My listening was fully concentrated", "The music evoked various associations and memories"), Emotion (such as "The music made me feel happy"), Transcendental and existential aspects (such as "I felt like being right in a holy moment of life", "It was like being in trance"), Personal development (such as "I came to deep insight", "I experienced the healing power of music") and Motivation (such as "I wanted to hear it over and over again").

The main aim of the present study was to find out to what extent the SEM classification scheme could be used when describing and categorizing students' experiences of two short pieces of music by the Finnish composer Einojuhani Rautavaara, and also if the SEM scheme was applicable to how they perceived the expression of these pieces. A total of 57 students participated. One half of them (music psychology students) listened to "Jacob Könni" (piano), the other half (music therapy students) listened to "Jonas Kopsi" (string orchestra; both pieces are part of Opus 1: "The Fiddlers", composed in 1952). They were asked to write down how they experienced the music, and what they thought was expressed through the music. The music was presented three times for each of these tasks.

Content analysis of the written descriptions resulted in a list of many different responses and a long list of various features expressed through the music. The SEM scheme turned out to be very useful when categorizing these aspects. The listeners' experiences and responses mainly belonged to various sub-categories of Perception and Cognition, whereas only a few statements were classified as being Physical responses, Existential and transcendental aspects, Personal development, or Motivation. When applying the SEM scheme to features expressed through the music, the dominant categories were Perception, Cognition, and Existential and transcendental aspects. Examples will be provided in the oral presentation.

An attempt to analyze the relation between the perceived expression and the listeners' own experience failed, since listeners often mixed descriptions of expression and of their experience in ambiguous ways. More explicit instructions for separating these aspects must be made in future attempts to analyze this relation on a qualitative basis.

 


11:00 Jörg Fachner (Universität Witten/Herdecke):

Cannabis und Musikwahrnehmung

Im Kontext der Entwicklungen der Popkultur hatten Drogen mit euphorisierender, sedierender und psychedelischer Wirkung einen Einfluß auf den Lebensstil und auf die Art und Weise des künstlerischen Ausdrucks. Schon seit der Entwicklung des Jazz wird über Drogenkonsum, Kreativität und Musik nicht nur in der Öffentlichkeit kontrovers diskutiert.

Doch warum bevorzugen Musiker, Mixer oder DJ's und Hörer im kreativen Umgang mit Musik Cannabis? Welche psychophysiologischen Prozesse bewirken die Veränderung der Musikwahrnehmung? Was passiert beim Musikhören und Cannabisrauchen im Gehirn ? Eine Literaturübersicht und eine EEG-Pilotstudie sollen hier Erklärungsansätze liefern.

Temporäre Cannabis-induzierte EEG-Signaturen sind aus Laboruntersuchungen bekannt, Set und Setting von Cannabislaborstudien ließen jedoch oftmals an Sensitivität vermissen und waren zumeist auf einen (erfolglosen) Nachweis von Hirnschädigung bei Gelegenheits- oder Langzeitkonsum konzentriert.

So wurden im Sinne einer Lebenswelt-begleitenden Forschung beimpre-/post THC EEG-Brainmapping (topographische Darstellung der Gehirnaktivität mit 28 EEG-Elektroden auf Intensität und Lokalität; NeuroScience-Gerät)

im gewohnten Setting des eigenen Wohnzimmers einer freiwilligen, entspannt im Sessel sitzenden Versuchsperson (keine Musiker) drei selbst gewählte Musiktitel (Neo-Klassik, Folk, Psychedelic-Rock) bei geschlossenen Augen vor/nach dem Rauchen von nepalesischem Hasch vorgespielt.

Die sechs Meßphasen (jeweils 3 ohne/mit ca. 20 mg D 9 THC) wurden anhand der EEG-Rohdatenwerte statistisch gemittelt (Individual-/Gruppenstatistik) und mit dem T-Test auf Unterschiede überprüft. Durch eine qualitative topographisch-phänomenologische Analyse wurden die Gemeinsamkeiten innerhalb der Meßphasen bestimmt.

Die größten Unterschiede (p < 0.01) im pre-/post-Vergleich waren rechtshemisphärisch auf dem Beta-(b )-I-, und dem Theta-(J )-Band und parietal entlang des motorisch-sensorischen Cortex zu erkennen. Das Alpha-(a )-Band zeigte Unterschiede in der rechten Stirnhirnregion. Dies weist u.a. auf verstärkten Blutfluß in den Regionen hin.

Als Gemeinsamkeit ist im Post-THC-EEG bei allen Musikstücken eine Abschwächung der Aktivitäten auf dem b -I+II-, dem Delta- und J -Band zu erkennen. Dies weist auf einen Entspannungszustand hin. Das a -Band zeigte eine verstärkte Aktivität parietal/occipital hinten links (insbesondere um Meßpunkt P 3 durchschnittlich 4-6µv), was auf verstärkte analytisch-rezeptive Wahrnehmung hindeutet.

Das Ergebnis wiederholte sich im Follow-up und die EEG-Reziprozität zeigte sich auch bei weiteren fünf Freiwilligen.

In der wissenschaftlichen Literatur ist die durch Cannabis induzierte Veränderung der Zeit-, Raum-, und Bewegungswahrnehmung, der Imaginations- und Assoziationsvorgänge und der Emotionen belegt. Auswirkung auf die Zeitwahrnehmung wurden als eine reziproke Beziehung von subjektiv verlangsamter Zeit, im Sinne einer Zeitdehnung und einer Cannabis-induzierten Beschleunigung der ‚inneren' Uhr erklärt. Das veränderte Zeitempfinden ermöglicht temporär einen gesteigerten Einblick in den ‚Zwischenraum der Töne'. In audiologischen Tests veränderte Cannabis die auditorische (Intensitäts-)Metrik von Versuchspersonen und induzierte Frequenzpräferenzen zugunsten höherer Frequenzen. Beschreibungen synästhetischer Effekte, geschwächte Zensur visueller Tiefenwahrnehmung, kreativere Rorschachmuster-Interpretationen und ein Übergang zu divergentem Denkstil deuten hier auf eine Intensivierung der individuellen cerebralen Hörstrategie hin im Sinne einer Hyperfokussierung der Wahrnehmung auf den akustischen Raum-Sound und die (Zeit) Struktur der Musik.

Das reziproke Verhältnis von abgeschwächter Gehirnaktivierung und temporär subjektiv intensivierter Erlebnis- und Erfahrungsqualität der Musik bei gleichzeitigem Anstieg der Alpha-Signalstärke könnte eine auf den Synästhesie-Raum bezogene neurale Verbindung der akustischen und optischen Arealen der tertiären Projektionsrindenfelder repräsentieren. Cannabis scheint demnach wie ein vierdimensionales 'Vergrößerungsglas' zur Hyperfokussierung des musikalischen Zeitraumes zu wirken.

 

Cannabis And Music Perception

In the context of pop cultural developments drugs with euphoric, sedative and psychedelic effects had an influence on life-style and on the manner of artistic style. Since the beginnings of jazz, consumption of drugs, creativity and music has been controversially discussed. But why do musicians, mixers or DJ's and listeners prefer cannabis for music perception? Which psycho-physiological processes cause modification of music perception? What happens in the brain after smoking cannabis and listening to music? An overview on scientific literature on Cannabis and a EEG pilot study was made.

Transient cannabis induced EEG signatures are known from laboratory tests, but the setting of laboratory studies lacks of sensitivity and is mostly centred on a proof of brain damage with casual or long-term use.

EEG-Brainmapping (topographic representation on intensity and locality of brain activity, 28 EEG traces interpolated; NeuroScience mapper) was performed while Subjects (non musicians) listened with closed eyes to three kinds of music (Neo-classic, Folk-, Psychedelic-Rock) in an habituated private setting. Music was heard before/after smoking Nepalese Hash (20 mg D 9 THC) in a joint. Data were averaged (individual/group) and treated with a t-Test and a phenomenological schedule.

Differences (p > 0.01) appeared in the right hemisphere, along motor-sensorial cortex on beta-(b )-I, theta-(J )-, and on alpha-(a )-frequencies in right frontal cortex. This could be effect of cerebral blood flow changes.

A common finding in all averages of altered state was a low intensity of EEG-activity on delta-, J - and b -I+II-frequencies, as it is known (on b ) from relaxation studies. On a-frequencies we found a strong activity peak around P3 electrode (average 4-6µv) in parietal-occipital left, the analytic and receptive hemisphere. This cortical area is known as a part of tertiary auditory and visual association areas.

Subject's results were repeated in a Follow-up and EEG reciprocity was observed under same conditions in EEG of five other Subjects.

In scientific literature cannabis is found to change or enhance time-, space-, body- and movement perception, emotion, imagery and association processes. Effects on time perception were explained as a reciprocal relationship of subjectively slowed down time, i.e. time expansion and cannabis induced acceleration of the 'internal' clock. Changed time estimation may enable temporarily an increased insight into the 'space between the notes'. In audiological tests cannabis changed metric units of auditory (intensity) perception and induced frequency preferences in favor of higher frequencies. Descriptions of synaesthetic effects, weakened censorship of visual depth perception, more creative Rorschach-test interpretations and a transition to a divergent style of thinking, suggesting intensification of individual cerebral hearing strategy, resulting in a hyperfocusing on sound, on acoustic space and musical time-structure.

The reciprocal relation of low EEG-Activity and transient intensified perception of music with simultaneous correlative rising of a -signal strength on tertiary association cortex areas could represent a neural connectivity of acoustic and optical centers, inducing synaesthesia processes for enhanced sound perception. Cannabis seems to work like a four-dimensional 'magnifying glass' for the hyperfocusing of the musical time-space.


 

11:30 Dietrich Parlitz, Marc Bangert, Wolfgang Trappe & Eckart Altenmüller (Hochschule für Musik und Theater Hannover):

Tonhöhenwahrnehmung und -abstimmung beim aktiven Musizieren: Eine experimentelle Studie an Sängern, Posaunisten und Braschisten

Ziel der Studie: Die exakte Feinstimmung bzw. Intonation der Singstimme und aller Musikinstrumente, die die Erzeugung einer kontinuierlichen Tonhöhe erlauben, setzt einen gesunden und hochtrainierten audio-motorischen Regelkreis des Singenden/Spielenden voraus. Ein schneller adaptiver Feinabstimmungsmechanismus korrigiert kleinere Tonhöhenabweichungen, die z.B. durch physikalische Veränderungen im Stimmapparat/Instrument oder durch veränderte Umgebungsbedingungen wie der Raumtemperatur entstehen können. Ziel des Sängers/Instrumentalisten ist dabei entweder der Abgleich mit einer intern repräsentierten Tonhöhe oder die Abstimmung mit begleitenden Instrumenten/Sängern.

Methode: Zur Beantwortung der Frage, ob an diesem Mechanismus kortikale Strukturen beteiligt sind, wurde ein Reaktionszeitexperiment entwickelt, bei dem ein rechnergesteuerter Audio-Pitch-Shifter in die audiomotorische Schleife eingefügt ist, der kontrollierte Tonhöhenverschiebungen des Stimm- bzw. Instrumentensignals ermöglicht. Gemessen wurde die Latenzzeit, nach der die Versuchspersonen auf diese Störung mit einer Grundfrequenzkorrektur reagiert. Verglichen wurden Gruppen von (a) Sängern, (b) Posaunisten und (c) Bratschisten jeweils auf Anfänger- und Profi-Niveau mit einer Kontrollgruppe von Nichtmusikern.

Ergebnisse: Für professionelle Sänger ergab sich eine zweigipflige Verteilung der Reaktionszeiten um die Mittelwerte 113 ms und 260 ms herum, die auf eine parallele kortikale und subkortikale Verarbeitung hindeutet. Bei Nichtsängern dagegen fehlte der zweite ("kortikale") Gipfel in der Reaktionszeitenverteilung. Posaunisten und Bratschisten zeigten wesentliche längere Latenzen, die unimodal um ~380 ms verteilt waren und mit einer schrittweisen Verkleinerung der Tonhöhenverschiebung von 100 cent auf 25 cent auf ~500 ms anstiegen.

Diskussion: Lerneffekte sowie mögliche Unterschiede in der Wahrnehmung der Tonhöhe der eigenen Stimme/des eigenen Instrumentes vs. begleitender Stimmen/Instrumente werden auf der Basis neuerer psychoakustischer Hörmodelle diskutiert.

 

Perception And Fine Tuning Of Pitch: An Experimental Study With Singers, Trombone And Viola Players

Aim of the study: For the singer's voice as well as for many musical instruments a precise intonation relies on a quickly adaptive fine-tuning mechanism, i.e. a motor response-adjustment for deviations of the produced pitch due to physical changes of the vocal-system/instrument as well as due to environmental parameters. Aim of the procedure is either to be in tune with an internal representation of the correct pitch or to be in harmony with accompanying instruments or singers.

To answer the question whether cortical structures are necessarily involved in this mechanism we developed a reaction time design in which singers/players had to compensate for abrupt pitch-manipulations in the auditory feedback loop. How fast and accurate are the reactions ? Are there training effects on the reaction times ? What role does expertise play ?

Methods: All subjects were students or professors of our academy. A group of professional singers/trombone players/viola players was compared to a control group of non-musicians from our faculty of journalism and communication science. In a non-reflecting studio environment the subjects were singing/playing into a microphone connected to a real-time audio pitch shifter which was switched randomized via MIDI (100 cent up or down). The output of the pitch-shifter was amplified and then presented to the singer/player via headphones (84dB(A)) and additional monitor speakers. Subject's task was to sing/play a straight tone and to compensate any alteration of the audible pitch by instantaneous fine-tuning. Subsequently we calculated pitch estimates from the time signal and then pitch shift reaction times (PSRTs) were analyzed.

Results: After the experiment all singers reported that they were not aware of any change in their own voice. They were absolutely surprised when hearing the record of theirs voices with a compensating rise or fall of 100 cent. Professional singers showed a bimodal frequency distribution of PSRTs with an early peak at ~110 ms and a later one at ~260 ms. These results will be discussed in the light of parallel subcortical and cortical anatomic pathways between the ear and the vocal folds and their respective neural propagation times. Interestingly the control group of non-singers produced only a unimodal distribution with a mean latency of ~130 ms. The trombone and viola players showed longer latencies with a unimodal distribution around ~380 ms for a 100 cent pitch shift. A stepwise decrease of the pitch shift from 100 to 25 cent increased the reaction times up to ~500 ms.

Discussion: Together with our previous findings in a longitudinal EEG-study on the development of piano players we conclude that musical training predominantly produces changes at the cortical level whereas subcortical reflex-like loops do not differ in singers and untrained non-singers.

 


12:00 Gudrun Liebert, Wilfried Gruhn, Dietrich Parlitz, Wolfgang Trappe, Marc Bangert & Eckart Altenmüller (Hochschule für Musik und Theater Hannover):

Kurzzeit-Lerneffekte musikalischer Gehörbildung spiegeln sich in kortikalen Aktivierungsmustern wider

Musikalische Gehörbildung über einen Zeitraum von Monaten führt nachweislich zu spezifischen Veränderungen der kortikalen Aktivitätsmuster: in Abhängigkeit von unterschiedlichen Lernstrategien kommt es zu einer Modifikation rezeptiver Felder im Sinne einer Fokussierung (vgl. Altenmüller et al. 1997, IJAM 5: 28-33). Gegenstand dieser Studie war zu hinterfragen, ob ein Kurzzeit-Gehörbildungstraining (Dauer: 30 min) von ähnlich spezifischen Änderungen der kortikalen Aktivierungsmuster begleitet ist unterschiedliche Trainingsstrategien wie auch der Erfolg des Trainings sich widerspiegeln in systematischen Änderungen der Aktivitätsmuster.

36 musikalisch vorgebildete Probanden hatten die Aufgabe, insgesamt 140 Dur-, Moll-, verminderte und übermäßige Akkorde (n = 35 pro Akkordtyp) zu hören und zu identifizieren. Gemessen wurde die Hirnrindenaktivierung durch Registrierung der topographischen Verteilung mit Hilfe von 28 Elektroden (10-20-System). Anschließend erhielten die Probanden entweder ein an verbalem Erklären orientiertes oder ein an eigenem Musizieren ausgerichtetes Training. Eine dritte Kontrollgruppe hatte eine Kurzgeschichte zu lesen. Nach diesem Training wurde die EEG-Messung wiederholt und die Meßdaten vor und nach dem Training statistisch verglichen.

Das Hören und Verarbeiten von Akkorden ist begleitet von einer bilateralen fronto-temporalen Aktivität, die beide Hemisphären gleichermaßen einbezieht. Kurzzeit-Gehörbildungstraining hat mehrere Effekte: es läßt sich hochsignifikant eine Zunahme der Gesamtaktivität nachweisen. Weiterhin spiegeln sich unterschiedliche Trainingsstrategien wie auch das Maß des Erfolges in spezifischen Aktivitätsmustern wider.

Die Analysen der Versuchsdaten einzelner Probanden zeigen, daß das Verarbeiten musikalischer Signale in hochgradig individuell gewachsenen neuronalen Netzwerken zum Ausdruck kommt. Lerneffekte musikalischer Gehörbildung gehen daher möglicherweise mit einer Aktualisierung mentaler Repräsentationen der während der Musikerziehung erworbenen Muster einher.

 

Effects Of Short-Term Musical Ear Training On Auditory Brain Activation Patterns

In previous studies, it has been demonstrated that long-term musical training produces large changes in auditory brain activation patterns due to modification of receptive fields and acquisition of specific cognitive strategies (cf. Altenmüller et. al. 1997, IJAM 5: 28-33). The objective of the present study was to investigate, whether short-term 30 minute ear training produces similar systematic changes in auditory brain activation patterns different training strategies and the success of training produces systematic changes of cortical activation patterns.

The topographical distribution of cortical DC-potentials was assessed with 28 electrodes while 40 musically trained subjects had to listen and to identify 140 diminished, augmented, minor or major chords (n = 35 each). Subsequently subjects received either musically or verbally based ear training. A third control group had to read a short story. After the training EEG-measurements were repeated and cortical activation patterns before and after training were compared.

Listening to the chords caused a bilateral fronto-temporal activation pattern without a consistent dominance of either hemisphere. Short-term ear training had various effects: In the majority of subjects, an increase of overall brain activation could be observed. Different training strategies as well as the success of training is reflected in specific brain activation patterns.

The data indicate that processing of musical chords depends on highly individually developed neuronal networks. Effects of ear training may be due to an actualization of mental representations acquired earlier during music education. These mental images reflect the biography of personal experiences during learning.


 

14:00 Maria Schuppert, Thomas F. Münte, Bernardina M. Wieringa & Eckart Altenmüller (Hochschule für Musik und Theater Hannover/Medizinische Hochschule Hannover):

Ausfallmuster rezeptiver musikalischer Leistungen nach cerebralen Erkrankungen

Bislang konnten die an der Musikwahrnehmung beteiligten neuronalen Netzwerke nicht zufriedenstellend definiert werden. Auch die hemisphärenspezifische Verarbeitung verschiedener musikalischer Komponenten wird noch immer kontrovers diskutiert.

Daher untersuchten wir die rezeptiven musikalischen Fähigkeiten bei 20 Patienten mit umschriebenen links- oder rechtshemisphärischen kortikalen Läsionen nach Schlaganfall. Mittels MIDI-Technik wurde eine standardisierte, kurze Testbatterie entwickelt, welche als Bedside-Test angewendet werden kann. Sie erfaßt Störungen der Musikverarbeitung, sogenannte rezeptive Amusien und berücksichtigt dabei sowohl lokale als auch globale kognitive Strategien bei der Verarbeitung melodischer und musikalisch-zeitlicher Strukturen (lokal: Intervall, Rhythmus; global: Kontur, Metrum). Die Messungen erfolgten am 5.-10. Tag nach Auftreten der Erkrankung. Dieses enge Zeitfenster wurde gewählt, um einerseits den Effekt früher unspezifischer Aufmerksamkeitsdefizite zu vermeiden, andererseits aber auch rezeptive Amusien zu erfassen, die aufgrund der cerebralen Plastizität eventuell bereits kurze Zeit nach Eintritt der Schädigung wieder abklingen. Zur Untersuchung einer möglichen Regeneration musikalischer Funktionen unterzog sich die Hälfte der Patienten 6-12 Monate nach dem Schlaganfall einer Wiederholungsmessung.

Zum Zeitpunkt der ersten Messung konnten bei 69% der Patienten verschiedenartige Beeinträchtigungen der Musikwahrnehmung nachgewiesen werden. Patienten mit linkshemisphärischen Läsionen zeigten signifikante Defizite bei der Verarbeitung von Intervall, Kontur, Rhythmus und Metrum. Rechtshemisphärisch erkrankte Patienten hatten, bei ebenfalls insgesamt reduzierter Musikverarbeitung, eine signifikant eingeschränkte Wahrnehmung von Rhythmen und Metren. Somit fand sich keine durchgehende Hemisphärenlateralisation lokaler und globaler Verarbeitungsweisen. Detailanalysen zeigten jedoch eine hierarchische Organisation der zentralnervösen Musikverarbeitung: die intakte Wahrnehmung von Kontur und Metrum in der rechten Hemisphäre ist Voraussetzung für eine linkshemisphärische Entschlüsselung von konkretem Intervall und Rhythmus und geht dieser auch zeitlich voraus. Weiterhin konnten frühere Studien bestätigt werden, nach welchen die Verarbeitung von melodischen und zeitlichen Strukturen auf separaten, wohl aber partiell integrierten oder eng benachbarten neuronalen Substrukturen beruht. Das Auftreten rezeptiver Amusien war weder mit unspezifischen Aufmerksamkeitsdefiziten noch mit aphasischen Störungen korreliert. Auch fanden sich keine spezifischen Ausfallsmuster für anteriore oder posteriore Läsionen.

Die Wiederholungsmessungen zeigten &endash; bei großer interindividueller Variabilität &endash; die Möglichkeit der Regeneration geschädigter musikverarbeitender neuronaler Strukturen: bei vier Patienten konnten in mindestens einem Untertest Verbesserungen bis in den Normbereich nachgewiesen werden.

Zusammenfassend widersprechen unsere Daten einer klaren Lateralisation rezeptiver musikalischer Funktionen. Die verschiedenartigen Muster postläsionaler musikalischer Wahrnehmungsdefizite bei unseren Patienten, sowie die in früheren Studien beschriebenen heterogenen Manifestationen rezeptiver Amusien lassen vermuten, daß die Verarbeitung musikalischer Stimuli auf hochgradig individuell geformten neuronalen Netzwerken beruht. Es ist davon auszugehen, daß die kognitiven Strategien bei zentralnervöser Musikverarbeitung sich auf fragmentierte, beide Hemisphären umfassende Subzentren gründen, welche vermutlich durch individuelle Aspekte von Musikalität und Musikverhalten sowie durch andere kognitive Funktionen stark modulierbar sind. Wiederholungsmessungen zeigen, daß sich verlorengegangene musikalische Funktionen im Verlauf der Rehabilitation als Ausdruck der cerebralen Plastizität regenerieren können.

 

Patterns Of Music Perception Deficits Following Brain-Damage

The neuronal networks underlying music processing strategies have not yet been outlined sufficiently. Furthermore a hemispheric specificity concerning the various components of music perception is still discussed controversially.

We therefore examined receptive musical abilities in 20 patients presenting with left- or righthemispheric focal brain lesions due to cerebro-vascular disease. Using MIDI-Technique, a standardized short test-battery was developed that can be run as a bedside test. It is supposed to assess music perception deficits, i.e. receptive amusia, covering local as well as global cognitive strategies in the processing of melodic and temporal musical structures (local: interval and rhythm; global: contour and metre). Measurements were performed 5 to 10 days postlesion. This limited time frame was chosen in order to minimize the effects of early unspecific attentional deficits but on the other hand to avoid missing receptive impairments, that might already have subsided soon after the event due to short-time cerebral plasticity changes. For assessing a potential regeneration of music perception deficits, retest measurements were performed in 10 patients 6 to 12 months postlesion.

At the time of the first measurements, 69% of our patients presented with various symptoms of receptive amusia. Left-hemisphere damaged patients revealed significant deficits in the processing of interval, contour, rhythm and metre. Right-hemisphere damaged patients showed an overall impaired performance as well, reaching significance in the processing of rhythm and metre. Thus a clear lateralization of local and global music processing strategies could not be verified. Detailed analysis, however, outlined a hierarchical system underlying music perception: processing of contour and metre via right-hemisphere networks precedes left-hemisphere decoding of precise intervals and rhythms and is a prerequisite for left-hemisphere identification of local stimuli. Furthermore our data underline earlier studies, indicating that the processing of melodic and temporal musical structures is based on autonomous, yet partially integrated or adjacent neural subsystems. Receptive amusia was neither correlated with unspecific attentional deficits nor with symptoms of aphasia. Also, anterior or posterior lesions did not reveal specific patterns of impairments.

Retest measurements revealed a highly variable course of rehabilitation with four patients having improved on performance up to normal range in at least one subtest.

In conclusion our data contradict a clear lateralization of receptive musical functions. The diverse patterns of postlesional music perception deficits in our patients, taken together with the heterogeneous manifestations of receptive amusia shown in earlier studies give rise to the supposition, that musical stimuli are processed by highly individual neuronal networks. We have to assume, that the cognitive strategies in music perception are based on fragmented, cross-hemisphere neural subsystems, that may be modulated by individual aspects of musicality and music behavior as well as by other cognitive functions. Retest measurements proved, that impaired musical function may regenerate in the process of rehabilitation due to short-time cerebral plasticity changes.


 

14:30 Heinz Stolze (STAF Bremen):

Eigenwahrnehmung von Sängern - gesangspädagogische Ansätze zur Objektivierung

Sängerische Eigenwahrnehmung ist insbesondere in der Gesangspädagogik bedeutsam. Von wissenschaftlichem Interesse sind vor allem Wahrnehmungen, die sich klar auf akustische, physiologische und mentale Funktionen der Stimmproduktion beziehen. In diesem Zusammenhang ist vor allem der Ansatz des "Funktionalen Stimmtrainings" zu nennen, wie er u.a. in den achtziger Jahren in Darmstadt und Lichtenberg erforscht und umgesetzt wurde. Aus heutiger Sicht ist es notwendig, die Möglichkeit des Einsatzes von Funktionswissen für gutes sängerisches Handeln prinzipiell zu hinterfragen. Der wesensgemäße Unterschied zwischen akustischen Strukturen und Wahrnehmung muß dabei klarer herausgestellt werden als bisher. Watzlawick unterscheidet zwischen Realität erster Ordnung, und Realität zweiter Ordnung, der Autor schlägt bezogen auf die Stimme die Gegenüberstellung von "Schallwelt" und "Klangwelt" vor. Der Sänger organisiert seine Stimme prinzipiell aus der Klangwelt heraus. Der Versuch, in Schallwelt-Begriffen denkend Stimmfunktionen zu etablieren oder Schallstrukturen zu erzeugen, ist fragwürdig. Für den Gesangspädagogen ist vor allem die Fähigkeit, Beziehungen zwischen beiden Welten herzustellen und zu nutzen, förderlich. Ein Satz dafür geeigneter Begriffe und ihre Anwendung werden vorgestellt. Eine gute Übung, um funktional orientiertes Hören differenzierter auszubilden, ist das Hören auf den Klang eines gesungenen Tones in gezielt variierter akustischer Umgebung. Typische Klangstrukturen von Sängerstimmen, die einen Kontext-Einzelton-Bezug auf akustischer und klanglicher Ebene vermitteln, werden in dieser Funktion diskutiert: Brillanz und Vibrato sowie Tonhöhe und Vokal. Die Bedeutung, die aktive Prozesse des Hörens dabei haben, wird anhand von Erfahrungen mit dem sogenannten Klangkontakttraining, bei dem zu speziellen akustischen Signalen gesungen wird, erläutert.

 

Selfperception Of Singers - A Pedagogical Approach Aiming At More Objectivity

For the pedagogy of singing the selfperception of singers is an important topic. For researchers such perceptions are of interest which clearly refer to acoustical, physiological or mental functions of voice production. Some work in this field was done during the 1980-ies in Darmstadt and Lichtenberg following the concept of "functional voice training" in research and pedagogical application. Looking back it seems to be necessary to study thoroughly and fundamentally the question, of how to apply the knowledge of function to improve the action of singing. The essential difference between acoustic structures and perceptions must be taken into account strictly. Watzlawick uses the concepts of "reality of first order" and "reality of second order". Concerning sung tones the author proposes a clear separation between the German expressions "Schallwelt" and "Klangwelt": the first referring to acoustic waves, the second to perceived sound. The singer organizes his voice mentally in the "Klangwelt". Trying to improve this by giving him information about function and acoustics may often not be helpful. For the pedagogue it is important to know the relations between these two fields. A set of adequate terms and the way to use them is proposed. A good exercise to train functional hearing is to listen to several presentations of a tone presented in different acoustical environments. The role of some sound parameters as brilliance, vibrato, pitch and vowel is discussed in the establishment of the relation between individual tones and a context. Also the contribution of active processes of hearing is reported referring to experiences with the "Klangkontakttraining" (training of the voice by singing to special synthetic or natural tones).

 


15:00 Berthold Gunreben (Universität Würzburg):

Methoden der Singstimmensynthese: Eine kritische Bestandsaufnahme

In diesem Beitrag wird der Leistungsstand von vier Forschungsmodellen zur Singstimmensynthese - Pavarobotti, mathematisches Modell von I. Titze, MUSSE-DIG-Synthesizer und der Ansatz von Ken Lomax - durch eine empirische und eine mathematische Untersuchung beurteilt.

Bei der empirischen Untersuchung wurden 16 professionelle Musiker gebeten, die Synthesizer anhand von Bewertungsadjektiven mit der echten Stimme von Callas zu vergleichen. Zuerst sollten sie die Stimmen nach bestimmten Kriterien beurteilen - natürlicher oder synthetischer Klang, Verständlichkeit des Textes und die Frage nach der Ausbildung der Stimme - , anschließend ein Klangbild anhand von neunzehn selbst gewählten Adjektiven generieren, mit denen ein synthetischer von einem natürlichen Klang differenzierbar ist. Die Stimme von Callas wurde von allen Musikern als echte Stimme erkannt. Der MUSSE-DIG-Synthesizer, erstaunlicherweise als sehr natürlich empfunden, benötigt nur im Bereich "klingt synthetisch" eine Verbesserung. Das Beispiel von Ken Lomax weist einen unverständlichen Text auf und schneidet in allen anderen Bereichen verhältnismäßig schlecht ab. Beim Pavarobotti wurde noch eine ausgebildete Stimme erkannt, das mathematische Modell von Titze lediglich als interessante Studie gewertet. Beide Beispiele empfanden die Teilnehmer nicht als natürlich.

Von den neunzehn Klangadjektiven im zweiten Teil der Befragung charakterisierten "voll", "rund", "strahlend", "warm" und "glockig" die natürliche Stimme, "nasal", "gepreßt", "eng", "flach", "näselnd" und "heiser" dagegen die synthetische Stimme. Die übrigen Adjektive konnten aufgrund ihrer Nähe zu der Stimme von Callas zu keiner deutlichen Differenzierung herangezogen werden.

Bei der rechnergestützten Untersuchung wurde zur Erstellung von Sonagrammen der Klangbeispiele das Programm kpe80 verwendet. Zur näheren Untersuchung des Spektrums an ausgewählten Stellen diente xfreq.

Die Stimme von Callas ergibt optisch ein sehr rundes Bild. Sie setzt Formantverschiebungen zur Klangbildung ein. Die hierbei beobachtete Filtersteilheit ist wesentlich höher als bei den Synthesizern. Trotz der guten Möglichkeit, am Sonagramm des MUSSE-DIG-Synthesizers die Theorie zur Vokalbildung abzulesen, ergibt sich kein natürliches Bild wie bei Callas. Der Synthesizer ist sofort erkennbar. Ähnlich verhält es sich beim Pavarobotti. Daß er schlechter beurteilt wird, läßt sich anhand der vorliegenden Untersuchung nicht erklären. Ken Lomax verwendet die Stimme von Callas als Datengrundlage. Es ergibt sich somit kein synthetisch logisches Bild wie beim Pavarobotti oder beim MUSSE-DIG-Synthesizer. Lomax gelingt es jedoch nicht, die Formanten von Callas vernünftig zusammenzusetzen. Am Sonagramm des mathematischen Modells erkennt man lediglich eine Annäherung an die Wirklichkeit. Dennoch könnte dieses Modell als guter Ausgangspunkt zum Verständnis der Singstimme dienen.

Das Ergebnis dieser Untersuchung zeigt, daß die Entwicklung der Gesangssyntheseforschung in den letzten Jahren deutliche Fortschritte gemacht hat. Die Klangqualität wurde erheblich verbessert, zum einen durch Verwendung echter Stimmen wie im Beispiel von Ken Lomax, zum anderen aber auch durch die verbesserte Erzeugung des synthetischen Klangmaterials, was dem MUSSE-DIG-Synthesizer eine sehr gute Bewertung einbrachte. Im Vergleich hierzu zeigen sich der Pavarobotti und das mathematische Modell noch nicht zu dieser Qualität ausgereift.

 

Methods Of The Singing Synthesis: A Critical Assessment

In this presentation the performance level of four research models of the singing synthesis - Pavarobotti, mathematical model by Ingo Titze, MUSSE DIG Synthesizer and the approach of Ken Lomax - is evaluated by an empirical and a mathematical analysis. For the empirical analysis 16 professional musicians were asked to compare the different synthesizers with the genuine voice of Callas. First they were asked to judge the voices using certain criteria (i.e. natural or synthetic sound, comprehensibility of the text and the question about the formation of the voice), afterwards to describe the sound with suitable adjectives, with which synthetical sound could be differentiated from natural sound.

The voice of Callas was identified by all musicians as genuine voice. The MUSSE DIG Synthesizer, which, surprisingly, was perceived as sounding very natural needs only some improvement within the area "klingt synthetisch". The example of Ken Lomax has incomprehensible text and performs badly in all other areas, too. The Pavarobotti was still perceived as a trained voice; the mathematical model of Titze was only credited as being an interesting study. Both were not perceived as natural voices by the users.

Of the nineteen adjectives characterizing sound in the second part of the questioning "voll", "rund", "strahlend", "warm" and "glockig" were used to describe the natural voice, "nasal", "gepresst", "eng", "flach", "naeselnd" and "heiser" the synthetic voice. The remaining adjectives could not be included in the evaluation due to their proximity to the voice of Callas. In the computer-aided analysis the program kpe80 was used for the creation of Sonagramms of the sound examples. Xfreq was used for a closer examination of the spectrum in selected places.

The voice of Callas results in an optically very round picture. It uses formantmovements for sound formation. The quality of filtering observed here is substantially higher than with the Synthesizers. Despite the good opportunity of reading off the theory of vowel formation from the Sonagramm of the MUSSE DIG Synthesizers no natural picture results as in the case of Callas. The Synthesizer is immediately recognizable. The Pavarobotti behaves similarly. The fact that he is even more negatively judged cannot be explained on the basis of this investigation. Ken Lomax uses the voice of Callas as basis. Thus no synthetically logical picture results as in the Pavarobotti or MUSSE DIG Synthesizer. However Lomax does not succeed in assembling the formants of Callas in a reasonable fashion. The sonagram of the mathematical model only approximates reality. Nevertheless this model could serve as good starting point to understand the singing voice.

The result of this study shows that the research of the singing synthesis has made clear progress over the last few years. The quality of sound has improved substantially by the use of genuine voices as in the example of Ken Lomax, and also by the improved production of the synthetic sound material, which resulted in a very good evaluation for the MUSSE DIG Synthesizer. Compared to those two approaches, the Pavarobotti and the mathematical model have not reached this level of performance.

 

References

Berndtsson, G. (1995) The KTH rule system for singing synthesis STL-QPSR 1/1995, pp. 1-22; Stockholm. [http://www.speech.kth.se/docs/qpsr/abstracts95.htm]

Lomax, K. (1996) The analysis and synthesis of the singing voice, Summary, Oxford University. [http://www.phon.ox.ac.uk/lomax]

Story, B. H., Titze, I. R. & Hoffman E. (1995) Vocal tract area functions from magnetic resonance imaging Department of Speech Pathology and Audiology, National Center for Voice and Speech, University of Iowa, Iowa City, Iowa 52242.

Sundberg, J. (1997) Die Wissenschaft von der Singstimme, Deutsche Übersetzung von Friedemann Pabst unter Mitarbeit von Dirk Mürbe, ORPHEUS Verlag.

 


15:30 Stefanie Stadler Elmer (Universität Zürich):

Über das Wahrnehmen von musikalischen Strukturen am Beispiel von Kindergesang

Gewöhnlich untersucht man musikalische Wahrnehmung aufgrund von verbalen Aussagen und physiologischen Daten. In vielen Kontexten, z.B. bei Kindern und oft auch bei Erwachsenen, sind verbale Daten äußerst unzuverlässige Quellen, um musikalische Wahrnehmung zu erforschen. Wir erforschen das kindliche Singen, weil diese elementare musikalische Produktion - sofern zuverlässig und detailliert analysiert - interessante Einblicke in Prozesse gibt, wie musikalische Ideen entstehen und ausgedrückt werden. Im vorliegenden Kontext lautet unsere Frage: Was läßt sich aus dem Singen von Kindern darüber aussagen, was sie wahrnehmen?

Das Wahrnehmen der eigenen Stimme und derjenigen von anderen ist eine notwendige Voraussetzung dafür, daß der stimmliche Ausdruck sich zum Sprechen und Singen (Erfinden und Reproduzieren) hin entwickeln kann. Ohne gehörsmäßige Kontrolle wäre es nicht möglich, den vokalen Ausdruck nach inneren Vorstellungen und äußeren Modellen zu gestalten und zu steuern (vgl. taubstumme Personen).

Unsere Studie darüber, wie die Kontrolle zwischen der Wahrnehmung und vokalen Produktion funktioniert, basiert auf einem mikrogenetischen Verfahren. Wir entwickelten eine computerunterstützte Methode (Stadler Elmer & Elmer 2000), welche akustische Daten zum Verlauf der Tonhöhen und der Zeit von Gesang liefert. Diese Daten werden in einem grafischen System dargestellt, das differenzierter ist als die konventionelle musikalische Notation. Dieser Zugang zu den Strukturen von aktuell erfolgtem Singen erlaubt es zu rekonstruieren, wie neue Lieder erzeugt werden, sei es in Form von spontanen oder aufgeforderten Imitationen oder Erfindungen.

Wir haben Audio- und Video-Aufnahmen von Kindern zwischen zwei und zehn Jahren zur Verfügung, die sowohl das Lernen von neuen Liedern betreffen und auch spontanes und erfindendes Singen. Soweit als möglich wurden die Untersuchungen standardisiert durchgeführt. Bei den Analysen steht im Vordergrund, individuelle Veränderungsprozesse beim Singen zu beschreiben, dies mitsamt den umgebenden Bedingungen wie soziale Interaktion. Mit solchen mikrogenetischen Analysen ist es möglich, wiederkehrende Produktions-Muster (Strategien) zu identifizieren, die ein Kind verwendet, um Sing-Strukturen herzustellen und zu verändern. Diese Strategien geben Aufschluß darüber, wie Kinder auf verschiedenen Entwicklungsniveaus ihre Wahrnehmung einsetzen, um strukturelle Eigenschaften zu übernehmen, beizubehalten und zu verändern, und welche Rolle dabei die inneren Vorstellungen spielen. Die Ergebnisse legen nahe, daß die Fähigkeit von Kindern, musikalische Strukturen wahrzunehmen und in ihren vokalen Ausdruck zu integrieren, bisher unterschätzt wurde. Um das Verhältnis zwischen Wahrnehmung und Produktion zu klären, wird vorgeschlagen, Entwicklungsaspekte mit einzubeziehen.

 

On The Perception Of Musical Structures As Revealed In Children's Singing

Usually, musical perception is investigated by using some kind of verbal data or physiological measures. In the context of research on child development but often as well on adults, verbal data are inappropriate to study the perception of music. We study children's singing since it offers - when analyzed reliably and in detail - deep insights into how musical ideas are created and expressed. In the present context our question is, what does children's singing reveal about how and what they perceive?

To perceive ones own voice and that of others is a necessary prerequisite to develop speaking and singing (inventing and reproducing). Without aural perception the vocal performance could not be organized and monitored according to mental representations and to external models (cf. deaf people).

Our study on how the control between perception and production works, is based on a microgenetic approach. We devised a computer aided method (Stadler Elmer & Elmer 2000) that supplies acoustic data on pitch and time of vocal productions. These data is represented in a graphic system more differentiated than the conventional music notation. The access to the structure of song singing actually produced allows to reconstruct the process of creating new songs (spontaneous or requested imitations and inventions). We analyze audio and video recordings of children's learning and inventing new songs, and of spontaneous singing between the ages of two and ten years. As far as possible, data collection was carried out in systematic and standardized ways. The focus of data analyses is gaining detailed descriptions of individual cases (including social interactional conditions) and how changes occur. With such microgenetic analyses, recurrent patterns (strategies) can be identified that a child uses to create and change singing structures. The strategies reveal how children at different developmental levels make use of their aural perception and of their mental representation in order to organize and to control their singing throughout a process. The results suggest that children's ability to perceive musical structures and to integrate them into their vocal expression had been underestimated so far. Finally, it is proposed to frame the relationship between perception and production within a developmental perspective.

 


16:30 Andreas Kehr (Hochschule für Musik Würzburg):

Telefonwarteschleifen aus musikpsychologischer Sicht

Obwohl Telefonwarteschleifen heutzutage schon zum Alltag in der Telekommunikationswelt gehören, scheint es bislang sowohl von Seiten der Öffentlichkeit als auch von Seiten der wissenschaftlichen Forschung nur wenig Interesse an diesem Medium zu geben. Demgegenüber steht aber ein immer größer werdendes Angebot an Warteschleifen, das nahezu unüberschaubar geworden ist. Anhand einer ersten Analyse von 41 stichprobenartig gewonnenen Warteschleifen ließen sich in der Studie sechs verschiedene Warteschleifenkategorien belegen, die sich über unterschiedliche Strukturierungs- bzw. Komplexitätsgrade definieren: angefangen von sehr "primitiven" und einfachen einstimmigen synthetischen Melodien über echte klassische Musikeinspielungen bis hin zu sehr aufwendig produzierten Radio- und Werbespots am Telefon.

Im Zentrum der vorliegenden Studie stand die Frage, in welcher Weise ausgewählte Warteschleifen von einem breitgefächerten Publikum bewertet und beurteilt werden.

Um möglichst viele Menschen unter möglichst geringem Kosten- und Zeitaufwand nach der persönlichen Meinung über Warteschleifen zu befragen, eignete sich eine Meßmethode, die in dieser Studie entwickelt und durchgeführt wurde, die "Telefonwarteschleifen-Party":

Diese Meßmethode basiert auf der Idee, Versuchspersonen unterschiedlichen Alters zu einer Party einzuladen, sie also an einem einzigen Ort zu versammeln, und ihnen über die Lautsprecher einer Stereoanlage auf CD aufgenommene Warteschleifen (genauer gesagt 41 Warteschleifen aus den Bereichen "Behörden", "Kleinfirmen", "mittelständische Firmen" und "Großbetriebe") vorzuspielen, um diese anschließend mit Hilfe eines Fragebogens beurteilen zu lassen. Entscheidend für das Gelingen dieser Versuchsmethode war folgende Instruktion: die Gäste der Party sollten sich vorstellen, sie würden bei der jeweiligen Firma oder Behörde anrufen und dann die entsprechende Warteschleife hören. Erst mit Hilfe dieser Vorstellung, im Grunde der Simulation eines Telefonats, konnte eine hohe Authentizität erreicht werden, die der echten Telefonsituation etwas näher kam. Die auf dem Fragebogen angegebene siebenstufige Bewertungsskala für die Warteschleifen erstreckte sich, angefangen von "gefällt mir überhaupt nicht" (-3), "gefällt mir nicht" (-2), "gefällt mir weniger" (-1), "weiß nicht" (0), über "gefällt mir ein wenig" (+1), "gefällt mir gut" (+2) bis hin zu "gefällt mir sehr gut" (+3).

Insgesamt wurden 60 Versuchspersonen (davon 13 Schüler und Studenten, neun Angestellte, zwei Selbständige, zehn Beamte, sechs Hausfrauen und 20 Rentner und Rentnerinnen) nach dieser Methode befragt, die sich gezielt in drei gleich große Gruppen mit je 20 Versuchspersonen unterteilen ließen: in das jüngere Publikum (15 bis 40 Jahre), das kritische Publikum (41 bis 60 Jahre) und das ältere Publikum (61 bis 85 Jahre).

Die Auswertung der Fragebögen ergab, daß die Versuchspersonen weder die sehr einfach strukturierten noch die sehr komplexen Warteschleifen eindeutig positiv bewerteten, sondern gerade die Warteschleifen mit einer mittleren Komplexität. Eine rechnerische Überprüfung des Zusammenhangs von Komplexität der Warteschleifen und Gefallen (Bewertung) der Versuchspersonen erbrachte folgendes Ergebnis: Es gibt keinen linearen Zusammenhang zwischen der Komplexität der Warteschleifen und dem Gefallen (der Bewertung) der Versuchspersonen, etwa im Sinne "je höher desto besser", sondern gerade einen nicht-linearen Zusammenhang, der durch ein optimales Verhältnis von Komplexität und Gefallen bestimmt wird. Somit konnte diese Hypothese, die ausgehend vom Yerkes-Dodson-Gesetz theoretisch vorhersagbar ist, im wissenschaftlichen Simulationsversuch eindeutig bestätigt werden.

 

The Psychology Of Telephone Hold Music

Although telephone hold music has become part of everyday life in the telecommunications world, there has been relatively little interest in this medium from either the public or the scientific research community. This lack of interest is contrasted by the ever-greater supply and diversity of hold music. The present study is based on the first analysis of 41 randomly selected samples of hold music, divided into six different categories. The categories are defined by the structure or degree of complexity of the music, ranging from simple monophonic synthesized melodies to traditional classical music and to very complex radio programs and commercials produced exclusively for the telephone.

The aim of the present study is the evaluation of selected samples of hold music by a large and diverse sample of subjects.

In order to include as many subjects as possible in the study while keeping cost and time to a minimum, the survey method which was developed and executed in this study was the "Hold Music Party". This survey method involves inviting test subjects of different ages to a party to hear and evaluate different samples of hold music, thus meeting at only one place and time. Samples of hold music were played from a CD over the loudspeakers of a stereo system, and participants were asked to evaluate the samples afterwards with the help of a questionnaire. Forty-one samples were played from four different categories: authorities, small companies, medium-size companies, and large-scale enterprises. In order to guarantee the success of this test method, the following instruction was crucial: the guests of the party should imagine that they had called the respective company or authority and were put on hold with the respective hold music. Only with this assumption, the simulation of a telephone call, a high authenticity could be achieved. The seven-level evaluation scale on the questionnaire contained the following choices: very unpleasant (-3), unpleasant (-2), slightly unpleasant (-1), don't know (0), slightly pleasant (+1), pleasant (+2) very pleasant (+3).

The study involved 60 test subjects (13 students, nine private-sector employees, two self-employed persons, ten public officials, six housewives and 20 retired individuals) who were questioned according to this method. The test subjects were divided by age into three equal large groups of 20 test subjects each: younger people (15 to 40 years), middle-aged people (41 to 60 years) and older people (61 to 85 years).

The analysis of the questionnaires showed that the test subjects preferred neither the very simplest nor the most complex hold music, but rather the music with moderate complexity. A calculation of the relationship between the complexity of the hold music and the test subjects' enjoyment of the music furnished the following result: There is no linear connection between the complexity of the hold music and the test subjects' enjoyment of the music, in the sense that more complex music would be more enjoyable. There is, however, an even nonlinear connection, which is determined by an optimal relation of complexity and enjoyment. Thus this hypothesis, which is theoretically predictable as derived from the Yerkes Dodson law, is clearly confirmed by the scientific simulation test.

 


17:00 Klaus Nürnberger (Hochschule für Musik Würzburg):

Immer gleich oder Immer anders? Interpretationsvariabilität im expressiven Timing bei Pianisten

Fragestellung: In Anlehnung an die von Carl Czerny (1839) vertretene These der unendlichen Möglichkeiten der Interpretation, wurde die Variabilität der Interpretation sowohl zwischen verschiedenen Pianisten als auch innerhalb des gleichen Spielers bezüglich des Timings untersucht.

Experiment 1

In einer eigenen Studie wurde anhand der Werke Für Elise von Ludwig van Beethoven und Musette aus dem Notenbüchlein für Anna Magdalena Bach die Intervariabilität zwischen verschiedenen Interpreten untersucht. In Anlehnung an Repp (1992) ging es dabei um die Frage, ob verschiedene Spieler ein Stück auf verschiedene Weise interpretieren können. Um herauszufinden, ob unterschiedliche Expertisegrade der Spieler einen Einflußfaktor bilden, wurden die Versuchspersonen aus den Bereichen "Klavierprofessoren", "Schulmusikstudenten" und "Schüler" ausgewählt.

Drei Klavierprofessoren und drei Schulmusikstudenten der Musikhochschule Würzburg sowie vier Schüler eines Würzburger Gymnasiums spielten auf einem Yamaha Disklavier II DKC100R Flügel die Stücke ein. Alle Midi-Daten wurden in eine Tabellenkalkulationen übernommen, standardisiert und anschließend sowohl in eine Graphik übertragen, um eine Timinganalyse vorzunehmen, als auch einer Faktorenanalyse unterzogen.

Ergebnisse: Aus zehn Einspielungen der Versuchspersonen ergab sich durch Analyse der Interonset-Timingverläufe und anschließender Faktorenanalyse der Interonset-Intervalle (IOI) bei beiden eingespielten Werken nur ein einziger Interpretationsfaktor.

 

Experiment 2

Da die Analysemethode das Ergebnis entschieden mitbestimmt, wurden die Timing-Daten der Musette-Aufnahmen zusätzlich mit einer neueren Methode, der "Theorie der oszillierenden Systeme" (TOS) untersucht, die Jörg Langner und Reinhard Kopiez (1996) entwickelten. Ein Teil dieses Systems beinhaltet die Analyse des Timings in Form eines sogenannten Tempogramms. Mit Hilfe dieser graphischen Auswertung lassen sich weitaus differenziertere Aussagen über die Art einer Interpretation bezüglich der Zeitgestaltung machen, als es die Faktorenanalyse zuläßt. Eine besondere Stärke des Verfahrens ist die Sichtbarmachung des Zusammenhangs zwischen der formalen Struktur des Stückes und der expressiven Gestaltung. Timingverläufe sind nicht nur auf die IOI beschränkt, sondern werden auf ihre zeitliche Mehrdimensionalität hin untersucht. Hierdurch werden Aussagen nicht nur über die lokale, sondern auch über die globale Zeitgestaltung möglich.

Ergebnisse: Mit Hilfe der TOS wurden die IOI der Musette aus Experiment 1 analysiert. Das Ergebnis war gegenüber der Faktorenanalyse weitaus differenzierter: Die graphische Auswertung ergab ein sehr genaues Bild vom Zusammenhang zwischen Denken und Spielen bei den Interpreten. Unterschiedliche Expertisegrade aufgrund der Ausbildung spielten auch eine wichtige Rolle bei der Interpretation des Stückes.

 

Diskussion: Die vorgestellten Studien zeigen auf, inwiefern verschiedene Analysemethoden des expressiven Timings unterschiedliche Ergebnisse hervorbringen: Bruno Repp verwendete Anfang der 90er Jahre die Faktorenanalyse zur Bestimmung der Intervariabilität. Die TOS kann dagegen zur Zeit als ein sehr leistungsfähiges System zur Performanceanalyse angesehen werden. Durch die TOS wird es möglich, Informationsanteile einer Performance zu analysieren, die mit herkömmlichen Verfahren nicht erfaßt werden können. Sie scheint ein Weg zu sein, um die Komplexität musikalischer Interpretation adäquat darzustellen.

 

Variability Of Interpretation In The Expressive Timing Of Pianists

Question: Following the thesis of the infinite possibilities of interpretation as outlined by Carl Czerny (1839), the variability of interpretation both between different pianists and one single player concerning their timing were to be examined.

 

Experiment 1

In an own study on the basis of Ludwig van Beethoven´s Für Elise and the Musette from the Notenbüchlein fürAnna Magdalena Bach the intervariability between different interpreters has been examined. According to Repp (1992), the question of interest was whether different players can interpret a piece in different ways. In order to find out whether varying degrees of expertise among the players would be influence, the test subjects were selected among "piano professors", "school music students" and "pupils".

Three piano professors and three school music students of the Würzburger Musikhochschule and four pupils of a grammar school recorded the pieces on a Yamaha Disklavier II DKC100R grand piano. All Midi data were converted into a format readable for spread-sheet analyses, were standardized and were transmitted into a graph, on the one hand, in order to make a timing analysis, and were submitted to a factor analysis on the other hand.

Results: Of ten recordings only one interpretation factor resulted from the analysis of the timinggraph and the following factor analysis of the interonset intervals (IOI) of both recorded pieces.

 

Experiment 2

Since the method of analysis strongly influences the final result, the timing data of Musette of the 1st experiment were additionally examined with the help of an even newer method, the "Theory of oscillating systems" (TOS), which was developed by Jörg Langner and Reinhard Kopiez (1996). This system consists partly of the analysis of timings in form of a so-called tempogram. With the help of this graphic analysis far more differentiated predicates about the character of an interpretation concerning the timing structure can be made than a factor analysis would ever permit. A major advantage of TOS is that it clearly shows the connection between formal and expressive structure of a piece. Timing processes are not limited to the IOI but are examined with respect to their temporal multidimensionality. Thus it is possible to make predicates not only about local but also about global time structuring.

Results: With the help of TOS the IOI of the Musette from the 1st experiment were analyzed. The result was far more differentiated in relation to the factor analysis: This graphic analysis resulted in a very exact picture of the connection between comprehension and the act of playing in the case of the interpreters. Different degrees of expertise due to the varying levels of musical education/proficiency also played an important role in the interpretation of the piece.

Discussion:The studies presented here clearly point out how different methods of analysis lead to different results: at the beginning of the 90´s Bruno Repp employed factor analysis for the determination of intervariability. TOS, on the other hand, can presently be regarded as a very efficient system for performance analysis. By means of TOS it is now possible to analyze information of performance that could not be found out by means of traditional methods of analysis. It seems to be a way to describe the complexity of musical interpretation adequately.

 

References

Czerny, C. (1839) Von dem Vortrage, Dritter Theil aus: Vollständige theoretisch-practische Pianoforte-Schule op.500. Reprint U. Mahlert (Hg.) Breitkopf: Wiesbaden 1991.

Langner, J. & Kopiez, R. (1996). Entwurf einer neuen Methode der Performanceanalyse auf Grundlage einer Theorie oszillierender Systeme. In: Behne, K.-E., de la Motte-Haber, H. & Kleinen, G. (Hg.) Musikpsychologie. Jahrbuch der Deutschen Gesellschaft für Musikpsychologie 1995, Band 12, Noetzel: Wilhelmshaven, pp. 9-27.

Repp, B. (1992). Diversity and communality in music performance: An analysis of timing microstructure in Schumann's "Träumerei". In: Journal of the Acoustical Society of America, 92 (5), pp. 2546-2568.

 


17:30 Reinhard Kopiez & Jörg Langner (Hochschule für Musik und Theater Hannover/Humboldt Universität Berlin):

Empirische Evidenz für multiple Oszillationsmaxima beim spontanen Klopfen. Eine Metaanalyse

Einleitung: Wenn Personen gebeten werden, spontan zu klopfen, entspricht die Verteilung der gewählten Tempi einer Normalverteilung mit einem Maximum der Interonset-Intervalle im Bereich von 500-600 ms (MM = 100-120). Dieses Phänomen beschreibt Paul Fraisse (1982) im Kapitel "Rhythm and Tempo" in Diana Deutschs Buch The psychology of music. Die Beobachtung eines Tempomaximums in der Rhythmusproduktion entspricht dabei einem Sensitivitätsmaximum der Rhythmuswahrnehmung. Der Einfluß dieses Modells der Rhythmuswahrnehmung und -produktion kann nicht überschätzt werden, und wie Langner & Kopiez (1995; 1996; 1998) im Überblick referieren, läßt sich diese Idee in zahlreichen Publikationen finden.

Ungeachtet der Tatsache, daß die Ergebnisse der Studien zum spontanen Tempo innerhalb der musikpsychologischen Literatur zum Allgemeingut geworden sind, wurde bisher nicht geprüft, ob der angenommene unimodale Charakter dieses Oszillationsmodells tatsächlich zu seiner "wahren" Natur paßt. Könnte es nicht sein, daß differenziertere Modelle einen höheren Erklärungswert für die Rhythmusproduktion und -wahrnehmung in realen Lebenssituationen haben? Mit anderen Worten: Die Frage nach dem spontanen bzw. bevorzugten Tempo ist überflüssig, wenn keine Annahmen über seine Basismechanismen gemacht werden. Hieraus resultieren folgende Forschungsleitfragen:

 

  • Könnte mehr als ein Sensitivitätsmaximum für die Produktion bzw. Rezeption oszillierender Ereignisse möglicherweise bereits aus der Reanalyse existierender Untersuchungen abgeleitet werden?
  • Hat ein modifiziertes (multimodales) Oszillationsmodell einen höheren Erklärungsgrad für die Rhythmusproduktion bzw. -rezeption in realen Lebenssituationen?

Unsere Annahme ist, daß das innere Oszillationsmodell des Menschen einen multimodalen Charakter mit mehr als einem Sensitivitätsmaximum hat.

 

Methode: Die Studie bestand aus zwei Schritten: (a) in einem ersten Schritt reanalysierten wir bestehende Studien zum "spontanen" bzw. "bevorzugten" Tempo und (b) in einem zweiten Schritt versuchten wir, die gefundenen Ergebnisse auf rhythmische Phänomene anzuwenden, die in realen Lebenssituationen anzutreffen sind, um den Erklärungswert zu überprüfen.

Ergebnisse: Eine Literaturrecherche zeigte, daß die experimentelle Untersuchung des spontanen Tempos bereits mit Wallin (1911a; b) zu Beginn unseres Jahrhunderts begann. Zusätzlich zu dieser Studie nahmen wir folgende Untersuchungen in unsere Reanalyse auf: Frischeisen-Köhler (1933), Collyer, Broadbent & Church (1992), Collyer & Collier (1994) und Kopiez & Brink (1998). Tabelle 1 gibt einen Überblick über die Ergebnisse der Reanalyse.

 

Tabelle 1: Ergebnisse und Bedingungen früherer Studien zum spontanen Tempo.

 

Autor

 

mittleres IOI (ms)

 

s

 

n

 

Bedingung

 

Wallin (1911a)

 

619

(MM = 97)

 

274

 

21

 

Labor (Metronom-Justierung)

 

Wallin (1911b)

 

510*

(MM = 117)

 

-

 

147

 

Theater Gallerie (Fußstampfen)

 

Frischeisen (1933)

 

425

(MM = 141)

 

-

 

507 (Männer)

 

Privatwohnung (Klopfen)

 

Collyer, Broadbent & Church (1992)

 

513/250**

(MM = 117/240)

 

-

 

5

 

Labor (Klopfen)

 

Collier & Collier (1994)

 

451/240***

(MM = 133/250)

 

-

 

186 (Ereignisse)

 

Jazz-Aufnahmen

 

Kopiez & Brink (1998)

 

436

(MM = 137)

 

113

 

70 (Ereignisse)

 

Live-Gesang/Klatschen (Fußballspiel)

Anmerkungen: * = Durchschnittswert für die stärksten Reaktionen, die durch Musik hervorgerufen wurden; ** = Nulldurchgänge aus Tabelle 5; *** = mittleres langsames/mittleres schnelles Tempo.

 

In einem nächsten Schritt wurde die Rohdatenverteilung der angeführten Studien miteinander verglichen, insofern die Daten verfügbar waren bzw. durch Einscannen der Originalabbildungen berechnet werden konnten.

 

Diskussion: Auch die graphische Darstellung der Reanalyseergebnisse (hier aus Platzgründen nicht gezeigt) zeigte alles andere als eine einheitliche Verteilungsfunktion, und das zitierte Maximum im Bereich zwischen 500 und 600 ms fand sich nur in einer kleinen Zahl von Studien. Eine erste Erklärung für diese unterschiedlichen Ergebnisse könnte in der Variablen "Beobachtungssituation" liegen: Es ist vorstellbar, daß Menschen in einer emotional angeregten Situation wie einem Sportstadion eher schnellere Klatschtempi bevorzugen als solche in einer Laborsituation. Die Ergebnisse von Frischeisen-Köhler widersprechen jedoch dieser Erklärung, da ihre Versuchspersonen zwar in deren Privatwohnung untersucht wurden, diese jedoch trotzdem ein relativ schnelles Tempo bevorzugten.

Als erste Erklärung nehmen wir deshalb an, daß Menschen grundsätzlich mehr als ein Oszillationsmaximum zur Verfügung haben, um flexibel auf rhythmische Ereignisse reagieren bzw. diese produzieren zu können. Die Erhebungssituation ist dabei nur eine von mehreren beeinflussenden Variablen.

In unserem Vortrag werden wir die Vorhersagequalität dieses multimodalen Oszillationsmodells und die Probleme seiner experimentellen Evaluierung diskutieren.

 
Evidence For Multiple Oscillation Maxima In The Spontaneous Generation Of Tempo: A Reanalysis

Introduction: If people are asked to tap spontaneously, it is a well known fact, that the distribution of the chosen tempi corresponds to a Gaussian distribution with a maximum in the interonset-interval (IOI) vicinity of 500-600ms (MM = 100-120). This well known fact has been published in Paul Fraisse's (1982) influential chapter "Rhythm and tempo" in Diana Deutsch's book The psychology of music. The finding of a tempo maximum in rhythm production corresponds to that of a sensitivity maximum in perception. We cannot overestimate the influence of this model of rhythm perception and production, and as Langner & Kopiez (1995; 1996; 1998) refer, we can find this idea in numerous publications.

Despite the fact that the findings of these studies in preferred/spontaneous tempo have become common sense in music psychology it has never been checked, if the assumed uni-modal character of this oscillating model fits best to the oscillation system's "true" nature. Couldn't it be that more differentiated models have a higher degree of explanation for "real-live" phenomena of rhythm perception and production? In other words: The question of spontaneous/preferred tempo would be superfluous if no account for its underlying mechanism(s) is made. Resulting from this, our main questions are:

Could more than only one sensitivity-maximum for the perception/production of oscillating events already be derived by reanalysis of publications on spontaneous tempo?

Does a modificated (multi-modal) oscillation-model have a higher degree of explanation for real-life rhythm perception/production?

Our assumption is that the oscillating system's character is multimodal with more than one sensitivity maximum.

Method: The study consisted of two steps: (a) in a first step we started to reanalyze existing studies relating to "spontaneous" or "preferred" tempi and (b) in a second step we tried to match the findings to rhythmic phenomena found in real-life situations.

Results: A review of literature showed that the experimental investigation of spontaneous tempo was begun by Wallin (1911a; b) as early as 1911. In addition to this study the following studies were included in the reanalysis: Frischeisen-Köhler (1933), Collyer, Broadbent & Church (1992), Collier & Collier (1994), and Kopiez & Brink (1998). For an overview of the most important results see Table 1.

 

Table 1: Results and conditions of earlier studies of spontaneous tempo.

 

Author

 

mean IOI (ms)

 

s

 

n of subjects

 

condition

 

Wallin (1911a)

 

619

(MM = 97)

 

274

 

21

 

laboratory (metronome-adjustement)

 

Wallin (1911b)

 

510*

(MM = 117)

 

-

 

147

 

theatre gallery (foot stamps)

 

Frischeisen (1933)

 

425

(MM = 141)

 

-

 

507 (male)

 

subjects’ home (tapping)

 

Collyer, Broadbent & Church (1992)

 

513/250**

(MM = 117/240)

 

-

 

5

 

laboratory (tapping)

 

Collier & Collier (1994)

 

451/240***

(MM = 133/250)

 

-

 

186 (events)

 

Jazz-recordings

 

Kopiez & Brink (1998)

 

436

(MM = 137)

 

113

 

70 (events)

 

live-singing/clapping (soccer games)

 

Notes: * = average for the most rigorous responses evoked by music; ** = zero crossing points from Table 5; *** = mean slower tempo/mean faster tempo.

 

In a next step the raw data distribution of the above mentioned authors were compared (as far as data were available by authors or by rescanning of original graphs).

Discussion: The graph (due to space limitations not represented) showed everything but a uniform distribution and the often cited maximum between 500 and 600 ms is represented only by a small number of responses.). A first explanation for these divergent results could be that the variable "situation of observation" has not been respected. People in an emotionally more stimulating atmosphere like a sports stadium or theatre could tend to prefer tempi with shorter IOIs. Frischeisen's results (tapping at the subject's home) are contrary to this explanation.

We prefer the explanation that people have more than one oscillating maximum at their disposal to produce or flexibly react to rhythmic events. The subject's situation is only one variable which has to be considered.

The predictive quality of this bimodal/multimodal oscillating model and problems of empirical testing of the model's predictions will be discussed.

 

References

Collier, G. L. & Collier, J. L. (1994) An exploration of the use of tempo in jazz. In: Music Perception, 11(3), pp. 219-242.

Collyer, C. E., Broadbent, H. A. & Church, R. M. (1992) Categorical time production: Evidence for discrete timing in motor control. In: Perception & Psychophysics, 51(2), pp. 134-144.

Fraisse, P. (1982) Rhythm and tempo. In: D. Deutsch (Ed.), The psychology of music. New York: Academic Press.

Frischeisen-Köhler, I. (1933) Das persönliche Tempo. Eine erbbiologische Untersuchung. [The personal tempo. A hereditary investigation] Leipzig: Thieme.

Kopiez, R. & Brink, G. (1998) Fußball-Fangesänge. Eine FANonemologie. [Singing at soccer games. A FANomenology].Würzburg: Königshausen & Neumann.

Langner, J. & Kopiez R. (1995) Oscillations triggered by Schumann's "Traeumerei": Towards a new method of performance analysis based on a "theory of oscillating systems" (TOS). In: A. Friberg & J. Sundberg (Eds.). Proceedings of the KTH Symposium on Generative Grammars for Music Performance. Stockholm, May 27.

Langner, J. & Kopiez, R. (1996). Entwurf einer neuen Methode der Performanceanalyse auf Grundlage einer Theorie oszillierender Systeme. [Towards a new method of performance analysis based on a Theory of Oscillating Systems]. In: K.-E. Behne, H. de la Motte-Haber & G. Kleinen (Eds.), Musikpsychologie. Jahrbuch der Deutschen Gesellschaft für Musikpsychologie (Vol. 12). Wilhelmshaven: Noetzel, pp. 9-27.

Langner, J., Kopiez, R. & Feiten, B. (1998) Perception and representation of multiple tempo hierarchies. In: R. Kopiez & W. Auhagen (Eds.), Controlling creative processes in music. Frankfurt: Lang, pp. 13-35.

Wallin, J. E. W. (1911a). Experimental studies of rhythm and time [I.]. In: Psychological Review, 18, pp. 100-131.

Wallin, J. E. W. (1911b). Experimental studies of rhythm and time [II.]. In: Psychological Review, 18, pp. 202-231.


 

18:00 Matthias Hornschuh (Universität Köln):

Musikwissenschaftliche Filmforschung statt Filmmusikforschung. Ein systemischer Ansatz

"Ich sehe Kino als die Hochzeit von Musik, Ton und Bild. Ich habe eine Leidenschaft fürs Kino und da ist im ästhetischen Sinne alles eigentlich gleichwertig." (Tom Tykwer)

Dies gilt nicht nur im ästhetischen Sinne, möchte man Tykwer ergänzen, sondern auch in bezug auf die Wahrnehmung, das Kinoerlebnis. So gesehen ist die Geschichte der Filmmusikforschung von Mißverständnissen bestimmt: Noch heute wird häufig davon ausgegangen, sauber zwischen dem Film - gemeint ist in der Regel die Bildebene - und der Musik zum Film unterscheiden zu können, ja sogar beides unabhängig voneinander analysieren, dann als Bild-Ton-Verhältnis aufeinander beziehen und dieses schließlich als Funktion systematisieren zu können.

Sicher ist aus produktionsästhetischer Sicht ein solches Verfahren als Heuristik notwendig, will man z.B. Annahmen über mögliche Intentionen der Produzenten treffen. Geht es aber um die Wirkung von Musik im filmischen Zusammenhang, ist die Ganzheitlichkeit des filmischen Erlebens unabdingbare Voraussetzung für sinnvolle Aussagen, denn wie Flinn (1992, S. 46) es formuliert: "There is no separation of I see in the image and I hear on the track. Instead, there is the I feel, I experience, through the grand total of picture and track combined."

Ganzheitlichkeit und Konstruktivität als Grundprinzipien des aktiven Prozesses der Wahrnehmungsorganisation (u.a. Louven 1998; Mattusch 1998) gewinnen für den Bereich der Musik zunehmend an Akzeptanz. Für die musikwissenschaftlichen Betrachtung filmischer Wirkung - und das heißt zunächst einmal: Wahrnehmung - werden diese Prinzipien hingegen bis heute überwiegend vernachlässigt, ja, noch nicht einmal eingefordert. Hier wird das Fehlen einer Theorie der Filmmusik, wie von Klüppelholz (1998) postuliert, deutlich: weder gibt es eine verbindliche Trennung produktionsästhetischer und wirkungsorientierter Umgangsweisen mit dem Film, noch wird der "Eingebundenheit der Phänomene in ein Netz von Interdependenzen" (Fricke 1998, S. 161) Rechnung getragen.

Aus einer systemischen Perspektive muß sich das Selbstverständnis einer musikwissenschaftlichen Befassung mit Filmmusik zwangsläufig ändern: weg von der Filmmusikforschung, hin zu einer musikwissenschaftlichen Filmforschung. Nur so läßt sich der überfällige Schritt vom umgangssprachlichen "Film-Sehen" über das "Film-Hören" (Bullerjahn et al. 1993) zum "Kino-Erleben" vollziehen. Der Vortrag versteht sich als Beitrag zu einer Theorie der Filmmusikforschung und möchte dafür werben, diese als Theorie einer musikwissenschaftlichen Filmforschung zu entwickeln.

 

Musicological Film Research Vs. Film Music Research. A Systemic Approach

"For me, cinema is a marriage of music, sound and picture. I have a passion for the cinema, and aesthetically everything is of equal importance." (Tom Tykwer)

This is not only true in an aesthetic sense, one would like to add, but also with regard to the question of perception, the "cinematic experience". Viewed from this perspective the history of film music research is dominated by misunderstandings: till today we encounter approaches that try to differentiate neatly between the film - usually referring to the visual level - and the level of music seen as added to the film. It is common to analyze both levels separately and to link them again only to determine a system of functions.

Such a procedure is valid as a necessary heuristic, if one wishes to describe the intentions of the producers from an aesthetic viewpoint. If one intends to grasp the effect of film music in the context of the actual film though - as opposed to film music on CD, for example - , one needs to examine the "cinematic experience" as a holistic event. "There is no separation of I see in the image and I hear on the track. Instead, there is the I feel, I experience, through the grand total of picture and track combined." (Flinn 1992, S. 46)

The assumption that holism and construction (Louven 1998; Mattusch 1998) are the basic organizing principles underlying processes of perception is gradually gaining acceptance in musicology. In the area of musicological research on films though this approach has largely been neglected. At this point the lack of a theory on film music, as postulated by Klüppelholz (1998), becomes apparent: there is neither a consistent distinction drawn between the levels of production and effect, nor is taken into account that phenomena are embedded in a web of interdependencies (Fricke 1998).

A systemic perspective demands a different conception of a musicological approach to film music. Film music research needs to be replaced with a holistic concept of musicological film research. Only in this way it is possible to leave "watching a film" and "hearing a film" (Bullerjahn et al. 1993) behind and arrive at "experiencing a film". The paper is intended as a contribution to a theory of film music which should be developed as musicological film research.

 

References

Bullerjahn, C., Braun, U., Güldenring, M. (1993) Wie haben Sie den Film gehört? Über Filmmusik als Bedeutungsträger - Eine empirische Untersuchung. In: K.-E. Behne; G. Kleinen; H. de la Motte-Haber (Eds.) Musikpsychologie. Jahrbuch der Deutschen Gesellschaft für Musikpsychologie, pp. 140-158

Flinn, C. (1992) Strains of Utopia. Gender, Nostalgia, and Hollywood Film Music, Princeton: Princeton University Press.

Fricke, J. P. (1998) Systemische Musikwissenschaft - eine Konsequenz des Dialoges zwischen den Wissenschaften. In: R. Kopiez et al. (Eds.) Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift Helga de la Motte-Haber zum 60. Geburtstag, Frankfurt: Lang, pp.161-171.

Klüppelholz, W. (1998) Thesen zu einer Theorie der Filmmusik. In: R. Kopiez et al. (Eds.) Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift Helga de la Motte-Haber zum 60. Geburtstag, Frankfurt: Lang, pp. 295-300.

Louven, Chr. (1998) Die Konstruktion von Musik. Theoretische und experimentelle Studien zu den Prinzipien der musikalischen Kognition, Frankfurt: Lang.

Mattusch, U. (1998) Das Gestalthafte in der Musik. Zur Systemik musikalischer Zeichenprozesse. In: K. Niemöller, B. Gätjen & W. Auhagen (Eds.) Systemische Musikwissenschaft. Festschrift Jobst P. Fricke zum 65. Geburtstag. [http://www.uni-koeln.de/phil-fak/muwi/fs_fricke/mattusch.html (Druck i.V.)]

 


Sonntag, 19.9.99

9:00 Gabriele Hofmann (Universität Augsburg):

Untersuchungen zum Selbstkonzept bei Musikern mit berufseinschränkenden medizinischen Problemen

Bei kaum einer anderen Berufsgruppe müssen die Weichen für die Berufslaufbahn so früh gestellt werden wie bei Musikern. Deshalb liegt der Schluß nahe, daß bei diesen die Entwicklung des persönlichen Selbstkonzeptes in engem Zusammenhang mit dem sich entwickelnden beruflichen (musikbezogenen) Selbstkonzept steht. Diese Annahme steht neben anderen Fragestellungen in dem Projekt zur Überprüfung an.

Die Untersuchungen setzen an der Stelle an, wo das Selbstkonzept eine Destabilisierung erfährt. Das ist bei der großen Zahl der Musiker der Fall, die mit berufsspezifischen Krankheitssymptomen belastet sind, welche zu erheblichen Einschränkungen und im Extremfall zur Berufsunfähigkeit führen können. Der Untersuchungsansatz zum Zeitpunkt einer Krisensituation ist in der Erwartung begründet, daß durch die Berufseinschränkung Änderungen im Selbst(wert)erleben der Betroffenen auftreten. Es ist davon auszugehen, daß die krankheitsbedingte Einschränkung der gewohnten musikalischen Ausdrucksfähigkeit zu Defiziten im Erleben der Musiker führt. Daraus können sowohl aktuell als auch retrospektiv Hinweise auf den Stellenwert der Musikaktivität für die Persönlichkeit des Musikers erschlossen werden. Ergänzend werden die Coping-Strategien der Betroffenen zu untersuchen sein.

Erste Ergebnisse der auf qualitativen und quantitativen Verfahren beruhenden Studie sollen vorgestellt werden und als Diskussionsgrundlage dienen. Anhand des Einsatzes leitfadenstrukturierter Interviews sowie standardisierter Testverfahren (Frankfurter Selbstkonzeptskala und Narzißmusinventar) werden Korrelationen zwischen dem persönlichen und beruflichen Selbstkonzept entsprechender Probanden aufgezeigt.

Für dieses Projekt besteht eine Zusammenarbeit zwischen dem Lehrstuhl für Musikpädagogik der Universität Augsburg und dem Institut für Musikphysiologie und Musiker-Medizin der Hochschule für Musik und Theater Hannover sowie der Abteilung für Psychosomatik der Medizinischen Hochschule Hannover.

 

Studies Of The Self-Concept Of Musicians With Profession Restricting Medical Problems

With hardly another occupational category the course for the vocational career has to be set as early as with musicians. For this reason, it is obvious to conclude that in their case the development of the personal self-conception is closely connected with the developing professional (music-oriented) self-concept. This assumption, in addition to other questions, is up for examination in this project.

The studies start at the point where the self-conception suffers destabilization. That's true for a great number of musicians burdened with profession specific symptoms possibly leading to considerable restrictions and, at the worst, to disability. The starting point for the examinations at the time of a crisis situation is motivated by the expectation that the occupational restriction will cause changes in the self-esteem of the concerned persons. It must be proceeded on the assumption that the restriction of the habitual ability of musical expression caused by the disease will result in deficits in the musician's ability of experiencing. Therefrom can be inferred both actually and retrospectively indications of the importance of the musical activity for the musician's personality. Additionally, the coping of the person concerned will have to be examined.

First results of the study founded on qualitative and quantitative methods will be presented and serve as base for discussion.

By means of guide-structured interviews as well as standardized test methods (Frankfurter Selbstkonzept-Skala and Narzißmus-Inventar) correlations between the personal and the vocational self-concept of corresponding test subjects will be made evident.

For this project there is a cooperation between the Department Of Music Education of the Universität Augsburg and the Institute For Music Physiology and Musician's Medicine of the Hochschule für Musik und Theater Hannover, as well as the Department Of Psychosomatics of the Medizinische Hochschule Hannover.

 


9:30 Stefanie Rhein & Renate Müller (Pädagogische Hochschule Ludwigsburg):

Umgehen mit Musik im Kontext jugendlicher Fankulturen. Ergebnisse einer Befragung von Teenie-Fans mit dem MultiMediaComputer

Das vorgestellte Forschungsprojekt geht der Frage nach, ob Fantum als Beitrag zur jugendlichen Selbstsozialisation und Identitätskonstruktion begriffen und als aktives Handeln gedeutet werden kann, das sich im sozialen Kontext der Fangruppe bzw. Fangemeinde vollzieht.

Fantum wird aufgefaßt als Mitgliedschaft in einer Jugendkultur, die sich über ihren musikalischen Geschmack und über spezifische Umgehensweisen mit populärmusikalischen Angeboten definiert und von anderen Gruppierungen bzw. Personen (z.B. Nicht-Fans) abgrenzt. Fan-Sein beinhaltet die Aneignung von Wissensbeständen, Kompetenzen und Handlungsmustern, die sich auf die Lieblingsgruppe, den Lieblingsstar oder die Lieblingsmusik beziehen.

Es wird angenommen, daß Fans sich untereinander danach unterscheiden, welche Bedeutung Fantum für ihr Leben hat und mit welcher Intensität sie Fantum betreiben. Vermutungen darüber, daß sich Fans und Nicht-Fans in ihren Umgehensweisen mit populärmusikalischen Angeboten unterscheiden, wurden u.a. mit den folgenden Hypothesen überprüft:

 

  • Fans sind aktiver als Nicht-Fans in Bezug auf die Vielfalt und die Häufigkeit der von ihnen unternommen songbezogenen Aktivitäten für präferierte Musikstücke (z.B. eigene Tanzschritte erfinden), musikbezogenen Aktivitäten (z.B. Musik machen) fanbezogenen Aktivitäten (z.B. Gedichte über den Lieblingsstar schreiben).
  • Fans nutzen die populärmusikalischen Angebote stärker als Nicht-Fans zur Aneignung populärkulturellen Kapitals (z.B. Expertenwissen).
  • Fans und Nicht-Fans unterscheiden sich in bezug auf Kriterien, die ihnen bedeutsam erscheinen, um Musik bzw. Musikstars und -gruppen besonders zu mögen (z.B. Aussehen der Stars).

Durchgeführt wurde eine Befragung von 11-15jährigen Jugendlichen am MultiMediaComputer in Schulen und Jugendhäusern. 217 Teenie-Fans und Nicht-Fans beantworteten Fragen u.a. über ihren Musikgeschmack (erhoben mittels erklingender Musik, musikalischer Wahlentscheidungen, offener Fragen zur Lieblingsmusik), ihr Eingebundensein in musikalische Fankulturen, ihre Umgehensweisen mit populärmusikalischen Angeboten, ihre musikbezogenen Freizeitaktivitäten und deren Einbettung in den sozialen Bezug des Freundeskreises bzw. der Fangemeinde.

Um die 75,6% der Befragten, die sich selbst zu den Musikfans rechnen, differenziert betrachten zu können, wurden sie hinsichtlich der Bedeutungen, die sie dem Fan-Sein in ihrem Leben zuschreiben, einer Clusteranalyse unterzogen. Die Unterschiede zwischen den drei sich ergebenden Clustern lassen sich als unterschiedliche Intensitätsgrade von Fantum interpretieren. Entsprechend wurden drei Fantypen unterschieden, deren Umgehen mit Musik varianzanalytisch mit dem der Nicht-Fans verglichen wurde.

Die Nutzungsweisen populärmusikalischer Angebote zur Aneignung populärkulturellen Kapitals und die Kriterien für die Bildung musikalischer Vorlieben wurden über eine Reihe von Items abgefragt, die jeweils faktorenanalytisch zu Dimensionen gebündelt wurden.

 

Ergebnisse: Fans wenden sich intensiver musik- und fanbezogenen Aktivitäten zu und üben vielfältigere und anspruchsvollere songbezogene Aktivitäten aus als Nicht-Fans. Die Aneignung und die Verfügung über populärkulturelles Kapital sowie die damit verbundene Anerkennung durch andere sind für Fans wichtiger als für Nicht-Fans und machen ihnen mehr Spaß als den Nicht-Fans. Dabei nehmen die Unterschiede zwischen Fans und Nicht-Fans jeweils mit dem Fan-Intensitätsgrad ab. Für Fans ist die Dimension musikbezogenerKriterien des Musikgeschmacks (Musik, musikalisches Können der Stars) bedeutsamer als für Nicht-Fans. Fantum ist mehr als Schwärmerei: Im fankulturellen Kontext entwickelt sich ein aktives und kreatives fanspezifisches Umgehen mit Musik, über das sich Fans von anderen abheben.

 

Musical Interaction In Fan Cultural Contexts. Results Of A Teeny-Fan Survey With The MultiMediaComputer.

The research project addresses the question whether fandom can be looked upon as part of young people's selfsocialization and identity construction and as an active social process in the context of the fan group.

Fandom means being a member of a youth culture which is defined by musical taste and a specific use of popular music supplies and which therefore is distincted from other groups and persons such as non-fans. Being a fan includes the acquisition of knowledge, competence and patterns of behavior related to the favorite musical style, group or star.

It is assumed that fans can be differentiated according to the social meaning they ascribe to being a fan as well as to the intensity of their fandom. Expectations on the differences between fans' and non-fans' musical interaction were investigated by the following hypotheses:

 

  • Fans are more active than non-fans according to the variety and the frequency of song related activities based on preferred pieces of music (e.g. creation of dance), music related activities (e.g. making music), fan related activities (e.g. writing poems about the favorite star).
  • Fans make use of popular music supplies in order to acquire popular cultural capital (e.g. expert knowledge) to a greater amount than non-fans.
  • Fans and non-fans differ with respect to the criteria of preferring musical styles, stars and groups (e.g. the star's outer appearance).

Computer assisted interviews of young people aged from 11 to 15 years were carried through with audiovisual questionnaires. 217 teeny-fans and non-fans answered questions on their musical taste (investigated by sounding pieces of music, musical choices and open questions about the favorite music), their engagement in musical fan cultures, their use of popular music supplies, and their musical interaction in the social context of peers and fan groups.

In order to differentiate among those interviewees (75,6%) who referred to themselves as fans a cluster analysis was carried through according to the social meaning of fandom. Differences among three clusters are interpreted as distinct levels of intensity of fandom. Thus the musical interaction of the three types of fans was compared to that of non-fans by variance analysis.

The usage of popular music supplies in order to acquire popcultural capital and the criteria of musical preference were explored by specific items which were bundled into dimensions by factor analysis.

 

Results: Fans engage in music and fan related activities more intensively and carry out more manifold and more pretentious song related activities than non-fans do. Acquiring popular cultural capital as well as being appreciated as an expert by others is more important and more amusing for fans than it is for non-fans. Differences among fans and non-fans decrease with decreasing intensity of fandom. Fans' preference for musical styles, stars or groups is orientated to a greater extent along musical criteria (music, musical skills of stars) than that of non-fans. Fandom is more than enthusiasm or fanaticism: in fan cultural contexts active and creative forms of fan-specific music interaction seem to develop. By carrying out these activities fans distinct themselves from others.


 

10:00 Hans Neuhoff (Technische Universität Berlin):

"Open mind - closed mind": Die musikalische Geschmacksbreite im Kontext sozialer Ungleichheit

Kultureller Geschmack und kulturelle Zugehörigkeitsentscheidung verweisen nicht nur auf differentielle kognitive Dispositionen, sondern bilden auch ein wichtiges Zeichensystem zur Vermittlung sozialer Orientierung und Stratifizierung. Musikalische Geschmacksprofile besitzen daher nicht nur eine Innenseite immanent-struktureller Wahrnehmung, sondern auch eine Außenseite sozialer Wahrnehmung. Charakteristisch ist dabei ein selbstverstärkendes Moment: handlungstheoretische (soziologische) wie psychologische Ansätze stimmen darin überein, daß die Ausprägung erfahrungsabhängiger Schemata den Aufbau weiterer Erfahrung (im Modus der Nähe oder Distanz zu Personen und Sachen) wesentlich mitbestimmt. Strittig ist jedoch, ob kulturelle Stratifikation heute noch nach dem Gegensatz von volkstümlich-populär orientierten Massen und hochkulturell-exklusiven Funktionseliten begriffen werden kann. Das große Paradigma dieses Ansatzes, die Distinktionstheorie von Bourdieu, ist immer wieder als überholt kritisiert worden, gewinnt aber unter dem Eindruck verstärkter gesellschaftlicher Inklusions- und Marginalisierungsprozesse erneut an Boden.

Peterson (1992) postuliert speziell für das Musikleben einen kategorialen Wechsel "from elite and mass to omnivore and univore". Demnach zeigen Angehörige der höheren Statusgruppen eine Tendenz zum musikalischen "Allesfresser", während Angehörige der unteren Beschäftigungsgruppen sich tendenziell für nur eine, dabei non-elitäre, Musikart interessieren. Bryson (1996) weist nach einer Sekundäranalyse des American Social Survey die Hypothese einer "high status exclusiveness" zurück. Sie erkennt hingegen einen Zusammenhang von höherer Bildung und allgemeiner musikalischer Toleranz, die sich jedoch nicht auf diejenigen Musikarten erstreckt, die von den untersten Bildungsschichten bevorzugt werden.

Beide Thesen stehen zur Diskussion. Datensätze von Publikumsanalysen nach dem Lebensstilkonzept der neueren Kultursoziologie wurden einer Teilauswertung zum Zusammenhang von musikalischer Geschmacksbreite mit sozioökonomischem Status, Bildung und statusorientierten Lebenszielen unterworfen. Konzertbesucher in Berlin wurden gefragt, von welchen sonstigen Musikarten sie Veranstaltungen besuchen (aktive Geschmacksbreite) und außerdem um Gefallensurteile zu 14 Musikarten gebeten (rezeptive Geschmacksbreite). Die Daten zum Status wurden nach dem Klassifikationsschema der Allgemeinen Bevölkerungsumfrage Sozialwissenschaften des ZUMA/Mannheim erhoben. Die Analyse erfolgt zunächst von Seiten der sozioökonomischen Kategorien mit Blick auf die aktive, dann von Seiten der Musikpublika auf die rezeptive Geschmacksbreite. Codierung und Gruppierung der genannten Musikarten zum Auszählen der (diskreten) Geschmacksbreite wurde nach Maßgabe einer Faktorenanalyse über die 14 Gefallensurteile vorgenommen. Unterschiedliche Formen und Spektren der musikalischen Geschmacksbreite können nunmehr als Außenseite musikalischer Wahrnehmung auf den Zusammenhang mit vertikalen und horizontalen Dimensionen sozialer Ungleichheit geprüft werden.

 

""Open Mind - Closed Mind": Width Of Musical Taste And Social Inequality

Cultural taste and participation do not only relate to individual cognitive dispositions, but also form an important symbol system for the mediation of social orientation and stratification. Therefore, profiles of musical taste have an "inside" of immanent-structural perception and an "outside" of social perception as well. Here, a factor of self-reinforcement seems to be at work: both theory of action and constructivism agree that the development of learning-based schemata thoroughly influences the process of further learning. It remains controversial, however, if cultural stratification may still be modeled in terms of a discriminating and exclusive elite on the top and an undiscriminating mass at the bottom.

Peterson (1992) postulates a shift from an elite-to-mass status hierarchy to an omnivore-to-univore status hierarchy. Bryson (1996) rejects the hypothesis of high status exclusiveness, using data of the American Social Survey. She finds, however, that highly educated people are more musically tolerant, but not indiscriminately so. The genres most disliked by tolerant people are those appreciated by people with the lowest level of education.

Both theses are under discussion. Data from audience analyses at concert halls were used to inquire into the relation of width in musical taste with socioeconomic status, education and status-oriented goals. To count the (discrete) width in musical taste, coding and grouping of the various sorts of music actively attended follow the results of factor analysis over judgments on 14 types of music. Different forms and spectra of width may now be checked on their relation with vertical and horizontal dimensions of social inequality.

 


11:00 Günther Siegwarth (Badische Hörschule Rastatt):

Rhythmus - ein entscheidender Faktor zur Zeitwahrnehmung und seine Bedeutung für das Lernen des jungen Menschen

Die neuronalen Korrelate der Zeitwahrnehmung finden in jüngster Zeit das besondere Interesse der neurowissenschaftlichen Forschung. Als ein wesentliches solches Korrelat gilt der Rhythmus. In kleinsten Zeitbereichen vermengen sich Zeitwahrnehmung und Rhythmuswahrnehmung. Je länger die Wahrnehmung des Menschen braucht, um Zeit- und Rhythmuswahrnehmung korrekt zu verarbeiten, desto weniger gelingt die Segmentierung bewußten Verhaltens, eine Grundlage allen Lernverhaltens.

Die Badische Hörschule wurde gegründet, um im Ineinandergreifen von wissenschaftlichen Studien und pädagogischen Erfahrungen Zusammenhänge von musikalischem Tun und Verbesserung des Lern- und Sozialverhaltens vor allem bei Kindern und heranwachsenden Menschen zu erforschen und nach neuen pädagogischen Wegen zu suchen. Anlaß hierzu waren Erfahrungen von über 20 Jahren pädagogischer Tätigkeit als Musikschulleiter und 10 Jahren wissenschaftlicher Studien über Hörwahrnehmung und Lateralität.

Im Vortrag geht es um die Fragestellung, inwieweit durch die besondere Berücksichtigung des Rhythmus beim instrumentalen und vokalen Musizieren die Zeitwahrnehmung und daraus folgend das Lernverhalten des Menschen, insbesondere des jungen Menschen, positiv beeinflußt werden kann.

Anhand von acht Fallstudien soll verdeutlicht werden, aus welchen Gründen bei den Probanden das Zeitwahrnehmungsverhalten verändert ist, wie es mit Mitteln eines spezifischen Hörtrainings verbessert wird und welche positiven Auswirkungen auf das allgemeine Lernverhalten erzielt werden.

 

Schwerpunkte der Darstellung: Ausschließung pathologischer Verhältnisse der peripheren Hörorgane Erläuterung von Tests zur Zeitwahrnehmungsfähigkeit (Ordnungsschwellen-Meßgerät, Lateral-Trainingsgerät, Hochton-Trainingsgerät) Erläuterung eines strukturierten Interviews mit entwicklungspsychologischem Hintergrund Begründung der Zeitwahrnehmungsstörung der acht Beispiele Beschreibung von Übungen zur Verbesserung der Zeitwahrnehmung mit Evaluation in bestimmten Abständen, Beschreibung des soziokulturellen Umfeldes:

Die Probanden kommen seit 4 bis 6 Monaten regelmäßig zunächst zweimal wöchentlich zum Hörtraining, dann einmal und in Verbindung mit Therapeutischem Musizieren. Das Hörtraining findet mit dem Hochtongerät und dem Lateral-Trainer statt, das Therapeutische Musizieren mit der sogenannten "Veeh-Harfe". Ein wesentlicher Bestandteil jeder Stunde ist das Spielen mit rhythmischen Basismodellen unter Einbeziehung der Körperwahrnehmung (Tastsinn), wobei hier mit Händen und Füßen auch die Lateralität trainiert wird. Bei allen Betroffenen hat sich nach Aussage von Eltern und/oder LehrerInnen die Aufmerksamkeit und Konzentrationsfähigkeit spürbar verbessert, wobei Schwankungen aufgrund psychosozialer Umstände Berücksichtigung fanden. Bei einem Kind hat sich eine vom Ohrenarzt zum Zeitpunkt des Hörtrainingsbeginns audiometrisch festgestellte linksseitige Hörschwäche von ca. 20 dB völlig zurückgebildet. Außerdem zeigen sich bei mehr als der Hälfte der Kinder positive Einflüsse im zeitlichen Ordnungsbereich ihres Tagesablaufs. Die Kinder kommen sehr gern, vermutlich vor allem, weil sie sich in einem Wahrnehmungsbereich ernst genommen fühlen, den sie selbst nur schwer beschreiben können

Ausblick: Kommunikation ist viel stärker an Hörwahrnehmung gebunden als bisher erfaßt wurde. Hören muß aber vor allem als Ereignis eines Zeitablaufs gesehen werden, was die besondere Förderung der Zeitwahrnehmung notwendig macht. Musizieren als konzentrierteste Form der Zeitwahrnehmung ist vielleicht die angenehmste Möglichkeit für diesen Lernprozeß. Das Wissen um solche Vorgänge sollte mehr als bisher Eingang in bildungspolitische Vorhaben finden.

 

Rhythm - A Decisive Factor For Time-Perception And Its Meaning For The Learning Of The Young People

The neuro-scientific research is more and more interested in neuronal correlates of time-perception. One of these significant known correlates is the rhythm. In most little areas of time, time-perception and rhythm-perception are mixed. The more a person needs time in using time-perception and perception of rhythm, the less a segmentation of conscious behaviour, the basis of all behaviour in learning, is possible.

The Listening School of Baden was founded to research connections of making music and improvements in the behaviour of learning and social doing of adolescents and adult people, and searching new ways of education. These research is founded on scientific studies and experience during more of 20 years in musical education and 10 years scientific studies about hearing-perception and laterality of the brain.

By giving this lecture it's about the question, if it's possible to affect the time-perception by training all kind of rhythm in playing an instrument or singing, and following out of that to affect positive the behaviour of learning of people, above all adolescents.

With eight examples we want to show clearly, which reasons are important for changing the behaviour of time-perception, how you can improve it by working with an specific listening-training and what kind of consequences can be obtained in the general behaviour of learning.

The participants are coming first twice a week for making listening-training, afterwards once a week for listening-training in connection with therapeutic playing of music. We are making listening-training with a High-Tone-Gadget and a Lateral-Trainer, the therapeutic playing of music with an instrument called "Veeh-Harp" (in cause of his inventor). In addition we are playing rhythmic elements in connection with body-perception (sensitive sense). This training is also used for lateral training with hands and legs.

Parents of the participants are talking about essential changes in ability of concentration and attention in school (especially in mathematics lessons or during a dictation) and at home. Variations because of psycho-social circumstances were taken in consideration. The audiometric result of one of the participants with a left-ear-hearing-defect (more than 20 dB at the beginning of the listening-training) is after a 6 months training now near 0 dB. More than half of the participants are showing better timing as before all day long. Children are coming willingly and with great pleasure. Perhaps they are happy to find someone, who has more understanding for her situation difficult to describe by herself.

Outlook: Communication is more than till now known bounded at listening-perception. Listening is inevitably an event of time-perception. So it is necessary to support this more than before. To make music and above all training the rhythm while making music is surely one of the most agreeable possibilities for this process of learning. It should be necessary to introduce this knowledge in wide areas of the education policy.

 


11:30 Joachim Stange-Elbe (Universität Osnabrück):

Die klingende Analyse. Zur Modellierung der Interpretation aus dem Notentext

Ist es möglich, auf der Grundlage analytischer Kriterien eine Interpretation zu gestalten? Kann eine analytische Interpretation ein musikalisch sinnvolles Ergebnis liefern?

Ausgehend von dieser Fragestellung wird mit Hilfe der modernen Computertechnologie der Fragestellung nachgegangen, ob und wie sich ein musikalisches Werk aus der Struktur des Notentextes interpretatorisch gestalten läßt. Als Werkzeug wurde hierfür die Performance-Workstation RUBATO® verwendet, mit der es ermöglicht wird, mittels Simulationen von rein analytischen Interpretationen - ganz im Adornoschen Sinne - verschiedene Interpretationsaspekte allein aus dem Text zu begründen. Grundlage hierfür ist eine exakte Repräsentation des Notentextes, der nach den Prinzipien der Prädikatenlogik vollständig parametrisiert wird. Die analytischen Ergebnisse werden aus einer objektiven Analyse der metrischen und motivischen Strukturen gewonnen und dienen als Ausgangspunkt für eine Interpretation.

Anhand einiger gezielter Gestaltungen der Artikulation und der Dynamik versucht der Vortrag nachzuzeichnen, in welchem Maße ein einzelner oder mehrere analytische Aspekte für eine musikalisch sinnvolle Interpretation verwendet werden können. Mit verschiedenen Interpretationsexperimenten an ausgewählten Beispielen von Bachs Kunst der Fuge werden - vergleichbar einer Versuchsreihe - die Möglichkeiten und Grenzen dieser Vorgehensweise aufgezeigt und hypothetisch nach eventuell übertragbaren Regeln im Sinne einer Performance-Grammatik geforscht. Besondere Bedeutung kommt bei diesen Experimenten der Auswahl der analytischen Ergebnisse, des klangerzeugenden Ausgabegerätes (Instrument) und der Bewertung der Interpretationsergebnisse zu; hierbei erhält die Frage, an welcher Stelle die Grenze zwischen klingender analytischer Struktur und musikalisch sinnvoller Interpretation zu ziehen ist, ein besonderes Gewicht.

Ein weiterer Schwerpunkt bei der Diskussion der klingenden Ergebnisse liegt auf unserer traditionellen Erwartungshaltung von Interpretation, gestützt auf Hörgewohnheiten und einer Kenntnis der Werke, die sich fast ausschließlich an interpretierten Vorgaben orientiert; demgegenüber steht bei diesem hier vorgestellten Verfahren die musikalische Erfahrung einer analytischen Struktur: Nicht nur bei einer Interpretation, die mittels Computersimulation auf einer Metaebene der analytischen Struktur ihren klanglichen Ausdruck verleiht, sondern auch bei einer traditionellen Interpretation generell ist es nicht unbedingt leicht, den Eindruck von bestehenden Aufnahmen wegzuwischen und einfach nur zu schauen, was in den Noten steht.

 

The Sounding Analysis. The Creation Of A Musical Interpretation Out Of The Score

Is it possible to create a musical interpretation based on analytical criteria? Can an analytical interpretation result in a musically meaningful experience?

Approaching the question from this point of view, the author will study the possibilities of how and if a musical work can be interpreted from the structure of its score with the aid of modern computer technology. To achieve this, the Performance-Workstation RUBATO¨ was used. Here it is possible, by simply using the structure of the score, to establish different aspects of interpretation by simulating purely analytical interpretations - in the full sense of Th. W. Adorno. The basis for these interpretations is an exact representation of the score, that has been fully parametered according to the principles of (linguistic) predicate logic. The analytical results were obtained by an objective analysis of the metric and motive structures and serve as a point of departure for interpretation.

By means of several deliberate arrangements of articulation and dynamics, the lecture will try to sketch out to what extent a single or several analytical aspects can be used to achieve a musically meaningful interpretation. By performing different interpretational experiments using selected examples from Bach's The Art of Fugue - similar to a series of experiments - , the possibilities and limits of this kind of procedure will be sketched out and researched hypothetically for possible translatable rules in the sense of a "grammar of performance". Special significance will be given to the selection of analytical results, the sound-producing device (instrument) and the evaluation of the results of the interpretations in these experiments; accordingly, special importance will be placed on asking at what point the limits between sound analytical structure and musically meaningful interpretation should be drawn.

In the discussion on the resulting sounds, a further emphasis will be placed on our traditional expectation of musical interpretation and our attitude towards it, which is supported by listening habits and our knowledge of the work and is almost exclusively oriented on previous interpretations. Contrasting this is the musical experience of an analytical structure by the process being presented here: It is not particularly easy to erase our impressions of existing recordings and simply look at what exists in the notes of a score, not only in an interpretation that received its expression in sound on a meta-level of an analytical structure by means of a computer-simulation, but, in general, in traditional forms of interpretation, as well.