Räumliches Hören / Blauert Braasch.

36
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag 1 3. Räumliches Hören JENS BLAUERT 1 ,JONAS BRAASCH 2 1 Institut für Kommunikationsakustik, Ruhr-Universität Bochum, D–44780 Bochum 2 School of Architecture, Rensselaer Polytechnic Institute, Troy NY, USA 1. Vorbemerkung Das, was wir hören ist räumlich zeitlich und eigenschaftlich bestimmt. Unsere Hörereignisse ( … Hörobjekte, Laute) existieren jeweils zu ihrer Zeit an ihrem Ort und sind jeweils mit spezifischen Eigenschaften ausgerüstet. Unter „Räumlichen Hören“ verstehen wir die Beziehungen zwischen den Orten sowie den räumlichen Ausdehnungen der Hörereignisse und den damit korrelierten Merkmalen anderer Ereignisse vorwiegend Schallereignisse, aber z.B. auch physiologische Vor- gänge, Ereignisse anderer Sinnesgebiete usw. (s. hierzu Blauert 1974 etc. Anm.: Hieraus wurden auch einige der folgenden Bilder entnommen). Für die Beschreibung der Hörereignissorte und -ausdehnungen wird vorzugsweise das in Abb. 1 dargestellte „kopfbezogene“ Polarkoordinatensystem verwendet. Dessen Ursprung befindet sich auf der interauralen Achse genau zwischen beiden Gehörkanaleingängen. Die interaurale Achse ist durch die Oberkanten der beiden Ohrkanaleingänge definiert. Die Horizontalebene wird durch die interaurale Achse und die Unterkanten der Augenhöhlen aufgespannt. Auch die Frontalebene enthält die interaurale Achse. Sie ist orthogonal zur Horizontalebene. Die Medi- anebene ist orthogonal sowohl zur Horizontalebene als auch zur Frontalebene. Sie trennt den Kopf in zwei Hälften, da auch sie durch den Ursprung des Koordina- tensystems verläuft. Die Position der Schallquelle wird in den Polarkoordinaten Azimut , Elevation , und Entfernung r dargestellt. Anm.: Im Bereich der Ton- technik wird der Azimut oft statt im mathematisch positiven Sinne im Uhrzei- gersinn gezählt – im Folgenden als notiert. Abb. 1: Kopfbezogenes Koordinatensystem Bei der Bildung der Hörereignissorte und -ausdehnungen werden vom Gehör be- stimmte Merkmale der Schallsignale ausgewertet, die die Trommelfelle erreichen.

description

Räumliches Hören / Blauert BraaschGerman

Transcript of Räumliches Hören / Blauert Braasch.

Page 1: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

1

3. Räumliches Hören JENS BLAUERT1, JONAS BRAASCH2

1Institut für Kommunikationsakustik, Ruhr-Universität Bochum, D–44780 Bochum 2School of Architecture, Rensselaer Polytechnic Institute, Troy NY, USA

1. Vorbemerkung Das, was wir hören ist räumlich zeitlich und eigenschaftlich bestimmt. Unsere Hörereignisse ( … Hörobjekte, Laute) existieren jeweils zu ihrer Zeit an ihrem Ort und sind jeweils mit spezifischen Eigenschaften ausgerüstet. Unter „Räumlichen Hören“ verstehen wir die Beziehungen zwischen den Orten sowie den räumlichen Ausdehnungen der Hörereignisse und den damit korrelierten Merkmalen anderer Ereignisse vorwiegend Schallereignisse, aber z.B. auch physiologische Vor-gänge, Ereignisse anderer Sinnesgebiete usw. (s. hierzu Blauert 1974 etc. Anm.:Hieraus wurden auch einige der folgenden Bilder entnommen).

Für die Beschreibung der Hörereignissorte und -ausdehnungen wird vorzugsweise das in Abb. 1 dargestellte „kopfbezogene“ Polarkoordinatensystem verwendet. Dessen Ursprung befindet sich auf der interauralen Achse genau zwischen beiden Gehörkanaleingängen. Die interaurale Achse ist durch die Oberkanten der beiden Ohrkanaleingänge definiert. Die Horizontalebene wird durch die interaurale Achse und die Unterkanten der Augenhöhlen aufgespannt. Auch die Frontalebene enthält die interaurale Achse. Sie ist orthogonal zur Horizontalebene. Die Medi-anebene ist orthogonal sowohl zur Horizontalebene als auch zur Frontalebene. Sie trennt den Kopf in zwei Hälften, da auch sie durch den Ursprung des Koordina-tensystems verläuft. Die Position der Schallquelle wird in den Polarkoordinaten Azimut , Elevation , und Entfernung r dargestellt. Anm.: Im Bereich der Ton-technik wird der Azimut oft statt im mathematisch positiven Sinne im Uhrzei-gersinn gezählt – im Folgenden als notiert.

Abb. 1: Kopfbezogenes Koordinatensystem

Bei der Bildung der Hörereignissorte und -ausdehnungen werden vom Gehör be-stimmte Merkmale der Schallsignale ausgewertet, die die Trommelfelle erreichen.

Page 2: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

2

Man unterscheidet prinzipiell zwei Ohrsignal-Merkmalsklassen, nämlich

- monaurale Ohrsignalmerkmale … das sind solche, für deren Empfang ein Ohr hinreichend ist, und - interaurale Ohrsignalmerkmale … das sind solche, für deren Empfang beide Ohren notwendig sind.

Bei Hörversuchen unterscheidet man folgende Beschallungsarten:

- monotisch … einohrig, d.h. nur ein Ohr wird beschallt, - diotisch … zweiohrig, beide Ohren werden identisch beschallt,- dichotisch … getrennt-ohrig, beide Ohren werden unterschiedlich beschallt.

Außer über das Gehör gewinnt das zentrale Nervensystem auch über andere Sinne (z.B. Sehsinn, Tastsinn, Lage-Kraft-Richtungssinn) Informationen für die Hörer-eignisbildung. Besonders wichtig ist die Registrierung der Kopfhaltung und deren Änderungen: Bei Kopfbewegungen relativ zu der bzw. den Schallquellen ändern sich die Ohrsignale in jeweils spezifischer Weise. Das Gehör kann auf diese Weise durch „Peilbewegungen“ zusätzliche Informationen gewinnen. In Abb. 2sind hierfür einige Beispiele angegeben. Wegen der Trägheiten bei Kopfbewe-gungen kann nur dann „gepeilt“ werden, wenn die Schallereignisse länger als ca. 200 ms andauern.

Abb. 2: Beispiele zum Effekt von Peilbewegungen auf die Bildung der Hörereig-nisrichtung. Erläuterung: In den Gehörgängen stecken Gummischläuche, die am anderen Ende durch kleine offene Trichter (Ohrmuschelnachbil-dungen) abgeschlossen sind. (a) Kopf und Trichter machen eine Links-drehung: Das Hörereignis entsteht in Vorwärtsrichtung. (b) Kopf und Trichter bewegen sich gegensinnig: Das Hörereignis entsteht rückwärtig, (c) Gleichsinnige Bewegung, aber Schläuche über Kreuz: Das Hörereig-nis entsteht ebenfalls rückwärtig

Information, die das Gehör aus bewusst durchgeführten Peilbewegungen erhält, dominiert in der Regel über rein auditiv empfangene bei der Bildung der Hörer-eignisorte. Auch visuelle Information kann dominieren, man denke z.B. an den Bauchredner-Effekt (engl.: Ventriloquismus). Hören ist also im Prinzip ein multi-modales Phänomen. Weiterhin spielt die emotionale und kognitive Situation des Hörenden bei der Hörereignisbildung eine Rolle. Dies ist beim Studium dieses Kapitels im Gedächtnis zu behalten, da sich das Kapitel vereinfachend auf die Darstellung der akustisch-auditiven Aspekte des Räumlichen Hörens beschränkt.

Page 3: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

3

2. Physikalische GrundlagenDas auditive System kann als ein biologisches Signalverarbeitungssystem aufge-fasst werden, welches über massive Parallelverarbeitung und enorme Speicherka-pazität verfügt. Wesentliche Eingangssignale des Systems sind die Schalle, die über die Luft die beiden Trommelfelle erreichen, die sog. Ohrsignale. Es kommt zwar auch Schallübertragung über den Schädelknochen vor, diese ist jedoch bei gesunden, unverschlossenen Ohren gegenüber dem Luftschall praktisch vernachlässigbar.

Eine wichtige Aufgabe bei dem Studium und der Anwendung des Räumlichen Hörens ist es deshalb, die Ohrsignale zu bestimmen und sie ggf. aufzuzeichnen und nach Speicherung und/oder Übertragung an den Ohren von Zuhörern wieder-zugeben. Sofern man versucht, eine authentische Übertragung dadurch zu errei-chen, dass man die Ohrsignale bei der Wiedergabe denen den bei der Aufnahme möglichst ähnlich macht, spricht man von dem physikalisch-motivierten, oder „physikalistischen“ Ansatz zur Schallübertragung. Dabei wird zwischen „kopfbe-zogener“ und „raumbezogener“ Übertragung unterschieden. Hierauf wird im fol-genden Abschnitt näher eingegangen. Weitere Ansätze zur Schallübertragung; die insbesondere psychoakustische Phänomene des Hörens nutzen, werden in Ab-schnitt 4.4 behandelt.

2.1 Außenohr-Übertragungsfunktionen Unsere beiden Ohren befinden sich in etwa gleicher Höhe links und rechts am Kopf. Der Kopf ist gegenüber dem Rumpf beweglich. Das ganze System (Ohren, Kopf, Rumpf) kann als eine bewegliche Antenne zum Empfang von Schallsigna-len betrachtet werden. Diese Antenne hat eine richtungs-, entfernungs- und fre-quenzabhängige Richtcharakteristik. Schallsignale, die von einer Schallquelle auf den Kopf treffen, werden also bezüglich ihres Frequenzspektrums linear verzerrt, d.h. der Amplituden- und Phasenverlauf des Spektrum ändert sich. Die Verzerrun-gen sind jeweils spezifisch für den Ort der Schallquelle relativ zu den Ohren.

Diese spektralen Veränderungen, die ein Schall auf dem Übertragungsweg von seinem Ursprungsort zum Trommelfell erfährt, können u.a. durch sog. Übertra-gungsfunktionen mathematisch beschrieben werden. Man nennt die hierzu verwendeten speziellen Übergangsfunktionen auch Außenohrübertragungsfunkti-onen. Im englischen Sprachraum hat sich dafür die Bezeichnung „head-related transfer functions (HRTFs)“ eingebürgert.

HRTFs werden zumeist in reflexionsfreien Umgebungen ausgemessen. Hierzu wird der Versuchsperson je ein Miniaturmikrophon in die beiden Ohrkanäle ein-gesetzt. Die Mikrophone sind an eine Messapparatur angeschlossen. Diese sendet z.B. ein breitbandiges Messsignal über einen im Raum platzierten Lautsprecher aus und nimmt den durch die Außenohrübertragungsfunktionen transformierten Schall über die Miniaturmikrophone wieder auf. Anschließend berechnet die Messapparatur die Übertragungsfunktionen zwischen dem Lautsprecher und je-dem der beiden Mikrophone. Auf diese Weise können die spektralen Veränderun-gen nach Betrag und Phase bestimmt werden, die ein vom Ort des Messlautspre-chers aus abgesendetes Schallsignal auf dem Weg zu den Trommelfellen erfährt.

Page 4: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

4

Für den Fall, dass sowohl der Lautsprecher als auch die beiden Mikrophone vorab so entzerrt wurden, dass beide zu den spektralen Verzerrungen nicht beitragen, erhält man ein binaurales Paar von HRTFs, nämlich

),,,( rH l und ),,,( rH r ,

wobei die Frequenz des einfallenden Schalls, r die Entfernung der Schallquelle, der Azimut, und die Elevation der Schalleinfallsrichtung im kopfbezogenen

Kugelkoordinatensystem darstellen. Die HRTFs werden oft zur Analyse der Ohr-signalmerkmale herangezogen.

Abb. 3 zeigt als Beispiel den Betrag der Außenohrübertragungsfunktion in der Pegeldarstellung 20 log10|H( )| [dB] für drei Einfallsrichtungen der Medianebene.

îëð ëðð ïµ îµ ìµ èµ

−10

−5

ð

ë

Ú®»¯«»²¦ ÅئÃ

ª±¸

Abb. 3: Frequenzgang des Betrages dreier Außenohrübertragungsfunktionen des linken Ohres: Schalleinfall von vorne (durchgezogene Linie, 0° Azimut, 0° Elevation), von oben (gestrichelte Linie, 0° Azimut, 90° Elevation), und von hinten (gepunktete Linie, 180° Azimut, 0° Elevation)

In Abb. 4 sind die Frequenzgänge der Beträge des binauralen Paares von Außenohrübertragungsfunktionen für von links einfallendem Schall gezeigt.

Die sog. „interauralen Außenohrübertragungsfunktionen” werden durch Division der entsprechenden HRTFs des linken und rechten Ohres bestimmt, also

),,,(),,,(),,,(

rHrHrH

l

ri .

Für die interauralen Phasen- und Gruppenlaufzeiten gilt folgerichtig (vergl. hierzu die Erläuterungen in Abschnitt 3.2., Abb. 15)

),,,(),,,( rbr iph und

drdbr i

gr),,,(),,,( ,

mit bi ... Phasenmaß von Hi . Das Phasenmaß bi entspricht der interauralen Pha-sendifferenz i .

Anm.: Wenn im Folgenden vereinfachend von interauralen Laufzeitdifferenzen gesprochen wird, so ist die interaurale Phasenlaufzeit ph gemeint.

Page 5: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

5

îëð ëðð ïµ îµ ìµ èµ−20

−10

ð

ïð

îð

Ú®»¯«»²¦ ÅئÃ

´·²µ­®»½¸¬­

Abb. 4: Frequenzgänge des Betrages der Außenohrübertragungsfunktionen (in Pegeldarstellung) für Schalleinfall von links (90° Azimut, 0° Elevation). Durchgezogene Linie, linkes Ohr; gestrichelte Linie, rechtes Ohr

In Abb. 5 sind die interauralen Laufzeitdifferenzen gr für die 90°-Azimutrichtung im Vergleich zur 0°-Richtung gezeigt.

îëð ëðð ïµ îµ ìµ èµ−1.0

−0.5

ðòð

ðòë

ïòð

Ú®»¯«»²¦ ÅئÃ

ðpçðp

Abb. 5: Frequenzgänge der interauralen Laufzeitdifferenzen gr zweier binauraler Paare von Außenohrübertragungsfunktionen. Durchgezogene Linie: 0° Azimut, 0° Elevation; gestrichelte Linie: 90° Azimut, 0° Elevation

Die interauralen Pegeldifferenzen werden aus der interauralen HRTF wie folgt berechnet:

|),,,(|log20 10 rHL ii .

Abb. 6 zeigt den Frequenzgang dieser Pegeldifferenz für die Schalleinfallsrich-tungen = 90° und 0°, = 0°. Durch die Abbildung wird deutlich, dass sich für niedrige Frequenzen keine großen Pegeldifferenzen ausbilden. Für diese Frequen-zen ist die Abschattungswirkung des Kopfes vernachlässigbar, da dessen Abmes-sungen dann klein gegenüber der Wellenlänge sind.

Die HRTFs können auch zur Simulation von Beschallungssituationen verwendet werden. Um z.B. die durch eine Schallquelle erzeugten Ohrsignale zu simulieren,

Page 6: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

6

kann man den abgestrahlten Schall in der Nähe der Quelle mit einem Mikrophon aufnehmen und dies Mikrophonsignal dann durch elektronische Filter schicken, welche die Außenohrübertragungsfunktionen simulieren (z.B. Blauert 1974). Gibt man solche Signale z.B. über geeignet entzerrte Stereokopfhörer wieder, so hört ein Zuhörer ein Hörereignis in der gleichen Richtung wie er es in der entspre-chenden natürlichen Hörsituation hören würde. Solche (künstliche) Hörbarma-chung wird auch „Auralisierung“ genannt. Systeme zur Generierung auditiver virtueller Umgebungen enthalten in der Regel Kataloge von HRTFs für eine Viel-zahl von Schalleinfallsrichtungen. Damit können dann Ohrsignale simuliert wer-den, wie sie in Mehrschallquellensituationen auftreten, z.B. in geschlossenen Räumen mit reflektierenden Wänden.

îëð ëðð ïµ îµ ìµ èµ−10

ð

ïð

îð

íð

Ú®»¯«»²¦ ÅئÃ

ðpçðp

Abb. 6: Frequenzgänge der interauralen Pegeldifferenzen zweier binauraler Paare von Außenohrübertragungsfunktionen. Durchgezogene Linie: 0° Azimut, 0° Elevation; gestrichelte Linie: 90° Azimut, 0° Elevation

2.2 Kopfbezogene Übertragung: Das Kunstkopfverfahren Das Kunstkopfverfahren beruht auf der Erkenntnis, dass praktisch alle akustische Information über das Schallfeld, die das Gehör empfangen kann, in den beiden Ohrsignalen enthalten ist. Grundidee ist es deshalb, die Schalldrucksignale in den beiden Ohrkanälen eines Hörers am Aufnahmeort zum Aufnahmezeitpunkt aufzu-zeichnen und diese dann nach Übertragung und ggf. Speicherung am Wiedergabe-ort zum Wiedergabezeitpunkt möglichst unverändert an den Ohren eines Zuhörers zu reproduzieren (z.B. Blauert et al. 1978, Hammershøi u. Møller 2005). Dies ge-schieht üblicherweise mittels geeignet entzerrter Stereokopfhörer. Man beachte, dass das Verfahren mit zwei Übertragungskanälen auskommt.

Anstelle einen natürlichen Kopfes wird auf der Aufnahmeseite zumeist eine Kopfnachbildung (oftmals inkl. Torso), ein so genannter „Kunstkopf“ (engl.: dummy head) verwendet, der am Platze der Ohren – in den Gehörkanälen oder an deren Eingängen – Mikrophone aufweist. Kunstkopfaufnahmen werden in der Regel als sehr naturgetreu klingend und räumlich korrekt (authentisch) beschrie-ben. Das Verfahren wird deshalb bevorzugt für Archivierungszwecke eingesetzt, ist aber auch in der gehörrichtigen Messtechnik und in der psychoakustischen Forschung verbreitet. Folgende Eigenheiten sind zu beachten:

Page 7: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

7

- Zuhörer von Kunstkopfaufnahmen hören in der Regel sozusagen durch die Ohren eines anderen. Hierdurch kann es zu hörbaren Klangverfärbungen kommen. Weiterhin kommen häufiger Vorne-Hinten-Vertauschungen (In-versionen) und zu geringe Hörereignisentfernungen bis hin zu In-Kopf-Lokalisiertheit vor – vergl. hierzu Abschnitt 3.3.

- Da in der Regel der Zuhörer seinen Kopf nicht synchron mit dem Kunst-kopf bewegt, bewegen sich die Hörereignisse bei der Wiedergabe anders als sie es am Aufnahmeort zum Aufnahmezeitpunkt getan haben/hätten. Bewegt der Zuhörer z.B. seinen Kopf, obwohl der Kunstkopf bei der Auf-nahme still stand, so bewegt sich die wahrgenommene auditive Szene mit der Kopfbewegung entsprechend mit.

Neuere Systeme zur Generierung virtueller auditiver Umgebungen sind in der Lage, die Ohrsignale den Kopfbewegungen anzupassen (z.B. Begault 1994, Blauert 1992, 2005). Zu diesem Zwecke benötigen sie zu jedem Zeitpunkt In-formation über die Position und Lage des Kopfes. Dieses wird durch spezielle Messsyteme (sog. head tracker) ermöglicht. In Systemen mit Head-Tracking tre-ten unerwünschte Im-Kopf-Lokalisiertheit und Vorne-Hinten-Vertauschungen in der Regel nicht auf.

2.3 Raumbezogene Übertragung: Die Wellenfeldsynthese Die Grundidee der Wellenfeldsynthese besteht darin, dass man am Wiedergabeort zum Wiedergabezeitpunkt in einem vorgegebenen Raumbereich ein Schallfeld genau so synthetisiert, wie es in einem entsprechenden Raumabschnitt am Auf-nahmeort zum Aufnahmezeitpunkt herrschte (z.B. Berkhout 1988, Berkhout et al. 1993). Das Orginalschallfeld kann auch fiktiv sein. Die Idee wurde bereits von Steinberg u. Snow (1934) verfolgt. Die damaligen technischen Möglichkeiten be-grenzten den Aufbau jedoch auf drei Audiokanäle – s. Abb. 7. Moderne Systeme verfügen über bis zu mehreren Hundert Kanälen und eine entsprechende Anzahl von Lautsprechern. Ein wichtiger Vorteil der Wellenfeldsynthese ist, dass sich der Hörer innerhalb des Aufbaus frei bewegen kann, ohne dass der räumliche Ein-druck des synthetischen Schallfelds zusammenbricht. Dies ist z.B. bei den in Ab-schnitt 4.4 behandelten, auf Summenlokalisation beruhenden Übertragungsyste-men nicht der Fall. Dort wird die gewünschte Wiedergabequalität zumeist nur in einem sehr eingeschränkten idealen Abhörbereich erzielt – dem sog. „sweet spot“.

In der Praxis funktioniert die Wellenfeldsynthese in der Regel sehr überzeugend, jedoch können technisch bedingte Vereinfachungen des theoretischen Ansatzes deutlich hörbare, unerwünschte Auswirkungen nach sich ziehen:

- Aufgrund einer begrenzten Anzahl verfügbarer Lautsprecherkanäle werden die Lautsprecher oftmals nur in einer Ebene, z.B. in der Horizontalebene angeordnet. Dadurch wird anstelle eines dreidimensionalen Schallfeldes ein nur zweidimensionales erzeugt. Bei Aufstellung aller Lautsprecher in der Horizontalebene sind z.B. Hörereignisse mit Erhebungswinkeln ungleich Null nicht oder nur mit psychoakustischen „Tricks“ darstellbar. Ein Trick

Page 8: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

8

zur Erhebung über die Horizontalebene ist z.B. die Anhebung des Fre-quenzbereiches um 8 kHz – vergl. dazu Abschnitt 3.1.

- Der Abstand zwischen zwei benachbarten Lautsprecher ist für höhere Fre-quenzen nicht mehr vernachlässigbar klein. Die Grenzfrequenz, oberhalb der durch räumliches „Aliasing“ lineare Verzerrungen auftreten, liegt bei f=c/(2 r), mit c … Schallgeschwindigkeit in Luft und r … Abstand zwi-schen zwei benachbarten Lautsprechern. Die oberhalb dieser Grenzfrequenz auftretenden Interferenzen sind in der Regel wahrnehmbar und beeinträchtigen die räumliche Abbildung von Schallquellen.

1

1 2 3 4 5 6 7 8 n

1 2 3 4 5 6 7 8 n

9

9

Mikrophone

Lautsprecher

elektrische Verbindung(verstärkt)

Virtuelle Schallquelle

Schallquelle

Wellenfront

Bühne

Empfänger

Wellenfront eines LautsprechersWellenfront der virtuellen Schallquelle

Abb. 7: Versuchsanordnung nach Steinberg u. Snow (1934)

In den meisten Fällen werden Wellenfeldsynthesesysteme in reflexionsbehafteten Räumen aufgestellt, was natürlich das synthetische Schallfeld beeinflusst. Eine Kompensation der Rückwürfe ist zwar prinzipiell möglich, aber sehr aufwendig.

3 Psychoakustische Grundlagen I: Räumliches Hören bei einer Schallquelle In den folgenden Abschnitten wird zunächst das Räumliche Hören bei einer Schallquelle mit freiem Schallfeld behandelt. Anschließend wird auf mehrere Schallquellen übergegangen. Freie Schallfelder können im Labor in so genannten reflexionsarmen Räumen dargestellt werden. In der Natur würde man ein solches Feld z.B. auf dem Gipfel eines verschneiten Berges beobachten können. Der Fall des freien Schallfeldes ist also letztlich ein seltener Spezialfall. Dessen Betrach-tung hilft uns aber sehr bei der Analyse der Phänomene des Räumlichen Hörens.

Page 9: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

9

3.1 Richtungshören bei Schalleinfall aus der Medianebene Bei Schalleinfall aus der Medianebene sind die beiden Ohrsignale wegen der Symmetrieeigenschaften des Kopfes sehr ähnlich. Es wird also näherungsweise diotisch beschallt. In dieser Situation lassen sich besonders gut die Zuordnungen zwischen monauralen Ohrsignalmerkmalen und der Hörereignisrichtung studie-ren. Ein typisches, sehr anschauliches Experiment ist das folgende (Blauert 1969/70):

Abb. 8: Zum Richtungshören in der Medianebene. Oben: Hörereignisrichtung als Funktion der Mittenfrequenz bei terzbreiten Rauschsignalen. Unten: Mo-naurale Pegeldifferenzverlauf über der Frequenz bei Beschallung von vorne, bezogen auf Beschallung von hinten

Versuchspersonen werden aus wechselnden Richtungen der Medianebene mit Schmalbandsignalen z.B. Terzrauschen beschallt. Sie beschreiben die Hörer-eignisrichtung an Hand einer Nominalskala „v, o, h“ s. Abb. 8, oben. Nach sta-tistischer Auswertung zeigt sich Folgendes: Die Hörereignisrichtung hängt nicht von der Schalleinfallsrichtung, sondern nur von der Terzmittenfrequenz ab. Man kann sog. „Richtungsbestimmende Bänder“ ermitteln, in denen die Hörereignisse überwiegend in jeweils einem bestimmten der Sektoren „v“, „h“ bzw. „o“ auftre-ten. Bei Beschallung mit Breitbandsignalen, z.B. Sprache, Musik, Rauschen, ent-steht das Hörereignis hingegen zumeist in der Schalleinfallsrichtung.

Die Erklärung ist wie folgt: Durch die charakteristische, ausgeprägte Filterwir-kung der Außenohren werden bei einem Breitbandsignal bestimmte Spektralan-teile angehoben, andere abgesenkt. In der Regel stimmen die Anhebungsbereiche mit denjenigen Richtungsbestimmenden Bändern gut überein, deren Hörereignisse in der jeweiligen Schalleinfallsrichtung zugeordnet sind vergl. das Beispiel in Abb. 8, unten. Die Hörereignisrichtung bei Breitbandsignalen wird offenbar durch diejenige Klasse Richtungsbestimmender Bänder bestimmt, in der die Ohr-signale die stärksten Anteile aufweisen. Haben die Ohrsignale z.B. starke Anteile um 8 kHz, so erscheint das Hörereignis oben oder zumindest oberhalb der Hori-zontalebene sog. Elevationseffekt.

Page 10: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

10

Die „richtige“ Zuordnung der Hörereignisrichtung zur Schallquellenrichtungfunktioniert sicherer, wenn der Versuchsperson die Signale bekannt sind. Bei Sig-nalen mit genügend „gleichmäßigem“ Spektrum, z.B. Rosa Rauschen o.ä. entsteht jedoch auch bei unbekannten Signalen die „richtige“ Zuordnung des Hörereignis-ses zur Schalleinfallsrichtung.

3.2 Richtungshören bei Schalleinfall aus seitlichen Richtungen Bei Schalleinfall aus Richtungen seitlich zur Medianebene ergeben sich Unter-schiede zwischen beiden Ohrsignalen. Dem Gehör stehen also neben den monauralen zusätzlich interaurale Ohrsignalmerkmale zur Verfügung. Diese sind für die Präzision der Lokalisation sehr wesentlich: So beträgt z.B. die Lokalisationsunschärfe (engl.: localisation blur) – das ist die kleinste Änderung von Schallereignismerkmalen, die zu einer Änderung des Hörereignisortes führt (Blauert 1974) – für seitliche Abweichungen der Schallquelle von der Vorne-Richtung nur ca. ±4°, während sie für Abweichungen auf- bzw. abwärts ca. ±10° beträgt.

Interaurale Ohrsignalmerkmale lassen sich im freien Schallfeld nicht isoliert un-tersuchen, man kann sie jedoch mit dichotischer Kopfhörerbeschallung realisie-ren. Bei solchen Versuchen lässt man die Versuchsperson in der Regel nicht den Hörereignisort, sondern nur dessen seitliche Auslenkung aus der Medianebene schätzen, d.h. man misst die sog. „Lateralisation“ s. Abb. 9.

Abb. 9: In Lateralisationsversuchen geben die Versuchspersonen die seitliche Hörereignisauslenkung Ln an, z.B. durch Projektion des Hörereignisortes Hn auf die Ohrenachse. Das Beurteilungsergebnis ist also eindimensional

Die interauralen Signalmerkmale ergeben sich aus der interauralen Übertragung-funktion Hi – vergl. Abschnitt 2.1. Aus versuchsmethodischen Gründen unter-scheidet man

(a) interaurale Pegeldifferenzen L, d.h. Unterschiede der beiden Ohrsignale bzgl. ihres Schalldruckpegels, und

(b) interaurale Zeitdifferenzen , d.h. Unterschiede der beiden Ohrsignale bzgl. des Zeitpunktes ihres Eintreffens.

Page 11: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

11

Bei den Laufzeitdifferenzen werden weiterhin Phasenlaufzeitdifferenzen ph und Gruppenlaufzeitdifferenzen gr unterschieden, dieses wird im Folgenden noch erläutert. Zur experimentellen Realisierung der genannten interauralen Ohrsig-nalmerkmale s. z.B. Abb. 10.

Abb. 10: Versuchsaufbau zur Erzeugung interauraler Pegel- oder Laufzeitdifferenzen

Interaurale Pegeldifferenzen führen im ganzen Hörfrequenzband zu seitlichen Hörereignisauslenkungen. Ergebnisse für die Lateralisationsunschärfe und typi-sche Lateralisationskurven sind in den Abbn. 11 und 12 dargestellt. Man beachte insbesondere die erstaunlich lineare Abhängigkeit der seitlichen Hörereignisaus-lenkung von der interauralen Pegeldifferenz.

Abb. 11: Lokalisationsunschärfe für interaurale Pegeldifferenzen. Durchgezogene Linie (a): Sinusschalle. Gestrichelte Linie (b): Gaußton-Schalle, d.h. Si-nusschalle mit glockenförmigen Hüllkurven unterschiedlicher Dauer

Interaurale Zeitdifferenzen von Sinustönen können offensichtlich nur bei Fre-quenzen unterhalb ca. 1,6 kHz ausgewertet werden. Signalanteile oberhalb 1,6 kHz werden auf Grund von Zeitdifferenzen der Hüllkurven und nicht solchen der Feinstruktur dieser Signale lateralisiert. In den Abbn. 13 und 14 sind entspre-chende Lateralisationsunschärfe- und Lateralisationskurven gezeigt. Die vom Ge-hör ausgewerteten Signale werden zunächst im Innenohr spektral zerlegt, d.h. in Bandpass-Signale aufgespalten. Die interaurale Zeitdifferenz der Feinstruktur solcher Bandpass-Signale kann durch die interaurale Phasenlaufzeit ph, diejenige

Page 12: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

12

der Hüllkurven durch die interaurale Gruppenlaufzeit gr beschrieben werden s. hierzu Abb. 15.

Abb. 12: Lateralisationskurven für Töne und Rauschen bei interauralen Pegeldifferenzen

Abb. 13: Lateralisationsunschärfe bei interauralen Zeitdifferenzen. Anm.: Die Feinstruktur (Träger) von Schmalbandsignalen wird oberhalb ca. 1,6 kHz nicht mehr ausgewertet, jedoch die Hüllkurve

Page 13: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

13

Abb. 14: Lateralisationskurve, wie man sie z.B. für Breitbandrauschen oder Knackimpulse erhält

Abb. 15: Interaurale Zeitdifferenzen von Bandpass-Signalen:i

phb

ddbi

gr ,

mit bi interaurales Phasenmaß bzw. interaurale Phasendifferenz

Das zentrale Nervensystem wertet sowohl interaurale Pegeldifferenzen wie auch Phasen- und Gruppenlaufzeitdifferenzen bei der Bildung der Hörereignisrichtungaus. Hierbei kann es ggf. zu einer gegenseitigen Kompensation dieser interauralen Merkmale kommen, z.B. keine seitliche Auslenkung bei einer Zeitdifferenz und gleichzeitig entgegengesetzt wirkender Pegeldifferenz – sog. „Trading“. Weiter-hin kann es bei „widersprüchlichen“ interauralen Merkmalen zu einem Zerfall des Hörereignisses in mehrere Anteile unterschiedlicher Richtung kommen, die „Tie-fen“ erscheinen zum Beispiel in einer, die „Höhen“ in einer anderen Richtung.

Page 14: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

14

3.3 Entfernungshören und Im-Kopf-Lokalisiertheit

Welche Ohrsignalmerkmale werden vom Gehör bei der Bildung der Hörereignis-entfernung ausgewertet? Man kann nach dem Entfernungsbereich wie folgt unter-scheiden:

(a) sehr geringe Schallquellenentfernungen, d.h. r 25 cm:

Monaurale und interaurale Übertragungsfunktionen ändern sich stark mit der Schallquellenentfernung in spezifischer Weise. Damit ändert sich das Spektrum der Ohrsignale in einer vom Gehör erkennbaren Weise – sog. „bi-naurale Parallaxe“. Nähert sich „eine“ Schallquelle einem Ohr, so steigt u.a. die interaurale Pegeldifferenz wegen der Schirmwirkung des Kopfes. Wei-terhin erhöht sich der Signalpegel mit wachsender Annäherung.

(b) mittlerer Entfernungsbereich, d.h. r = ca. 25 cm bis 15 m:

Der Signalpegel ändert sich mit der Entfernung – bei Kugelstrahlern 0. Ord-nung im freien Schallfeld mit 1/r, entsprechend 6 dB/Abstandsverdopplung.Dies kann das Gehör bei ihm bekannten Quellen auswerten. Mit steigendem Pegel ändert sich bei Breitband-Signalen ggf. auch der Klang, denn die Li-nien gleicher Lautstärke (Isophonen) werden mit steigendem Pegel flacher.

In diesem Entfernungsbereich ist weiterhin das Intensitätsverhältis von Di-rektschall zu reflektiertem Schall ein wirksames Merkmal, welches auditiv ausgewertet wird. Dies wird in der Audiotechnik häufig dadurch ausgenutzt, dass man in geeigneter Weise Nachhallsignale hinzumischt.

(c) große Entfernungen, d.h. r > 15 m:

Auf dem Ausbreitungswege ergibt sich eine frequenzabhängige Zusatz-dämpfung, die mit steigender Frequenz ansteigt fernes Donnergrollen, ferne Musikkapelle klingen dumpf! So kann man auf ferne Schallquellen schließen. Es gibt allerdings Hinweise dafür, dass die Hörereignisentfernung nicht größer als ca. 15 m werden kann „akustischer Horizont“! Hörereig-nisentfernung und geschätzte Schallquellenentfernung sind keineswegs das-selbe! Dies ist bei Versuchen zum Entfernungshören dringend zu beachten.

(d) Grenzfall: Im-Kopf-Lokalisiertheit

Bringt man von zwei Schallquellen, welche gleiche oder sehr ähnliche Sig-nale abstrahlen – z.B. ein Paar Köpfhörer – je eine sehr nahe an jedes Ohr, so entsteht das Hörereignis in der Regel im Kopf. Diese „Im-Kopf-Lokali-siertheit (IKL)“ ist bei elektroakustischen Übertragungen zumeist uner-wünscht. Man kann sie jedoch durch geeignete Entzerrfilter vermeiden s. dazu Abb. 16.

Page 15: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

15

Abb. 16: Zu Entfernungshören und Im-Kopf-Lokalisiertheit. Links oben: Ge-schätzte Hörereignisentfernung bei unterschiedlichen Schallquel-lenentfernungen. Rechts: Übertragungsfunktion eines Entzerrers, der bei Kopfhörerbenutzung Lautsprecherbeschallung simuliert und somit Im-Kopf-Lokalisiertheit vermeidet

4. Psychoakustische Grundlagen II: Räumliches Hören bei mehreren Schallquellen Nachdem wir bisher den Fall einer einzelnen Schallquelle betrachtet haben, wird nun auf Mehrschallquellensituationen übergegangen. Hierbei wird sich zeigen, dass man zwar die Schallfelder der einzelnen Quellen linear überlagern kann, nicht jedoch die den einzelnen Quellen zugeordneten Hörereignisse. Bei mehreren Schallquellen kann es sich um mehrere unabhängige Schallquellen handeln. Meh-rere Schallquellen in unserem Sinne liegen aber auch dann vor, wenn eine Quelle und Reflexionen d.h. sog. Spiegelschallquellen vorhanden sind. Der Fall von einer Quelle im geschlossenen Raum fällt also in der Regel unter die Kategorie „mehrere Schallquellen“.

4.1 Summenlokalisation

Es wird exemplarisch die Situation betrachtet, dass zwei Schallquellen identische oder sehr ähnliche Signale abstrahlen, wobei die eine Schallquelle das Signal ge-genüber der anderen verzögert und/oder mit unterschiedlichem Pegel abstrahlt. Drei Fälle sind prinzipiell unterscheidbar – die Einteilung ist sinngemäß auf mehr als zwei Quellen erweiterbar:

(a) Es entsteht ein Hörereignis, dessen Ort von den Orten und Signalen beider Quellen abhängt: sog. „Summenlokalisation“.

(b) Es entsteht ein Hörereignis, dessen Ort von der zuerst ertönenden Quelle und deren Signalen abhängt: sog. „Präzedenzeffekt“.

Page 16: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

16

(c) Es entstehen zwei Hörereignisse „Primarhörereignis“ und „Echo“. Der Ort eines jeden hängt von Ort und Signalen je einer der beiden Quellen ab.

Zunächst soll die von der Stereophonie her weit bekannte Summenlokalisation besprochen werden. Abb. 17 zeigt zwei Lautsprecher in Stereo-Standardaufstel-lung. Spielt man über die Lautsprecher genügend breitbandige Signale, z.B. Spra-che oder Musik, so erhält man die in Abb. 18 gezeigten Abhängigkeiten der Hör-ereignisrichtung von der Pegel- und Zeitdifferenz der Lautsprechersignale. Die Hörereignisse sind allerdings durchweg weniger scharf lokalisiert als bei Schall-darbietung durch Einzelschallquellen im freien Schallfeld. Bei genauem Hinhören kann man oftmals sogar mehrere Hörereignisanteile in unterschiedlichen Richtun-gen erkennen.

Abb. 17: Zwei Lautsprecher in Stereo-Standardaufstellung. Man wählt üblicher-weise einen Basiswinkel von = 60°

Abb. 18: Summenlokalisationskurven für Pegel- bzw. Laufzeitdifferenzen der bei-den Lautsprechersignale. Durchgezogene Linie, Zuhörerkopf fixiert; ge-strichelte Linie: Kopf frei beweglich (nach Wendt 1961)

Jedes der beiden Ohrsignale setzt sich aus zwei Anteilen zusammen, je eines von jeder Schallquelle. In Abb. 19 sind die so zusammengesetzten Ohrsignale sche-matisch für impulsförmige Lautsprechersignale dargestellt. Es ist noch nicht voll-ständig geklärt, wie und wieso das Gehör aus diesen Signalen im Wesentlichen

Page 17: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

17

nur ein Hörereignis bildet. Die Tatsache, dass bei steigenden Zeitdifferenzen der Lautsprechersignale schließlich keine zeitliche Überlappung der Ohrsignalanteile von linken und rechten Lautsprecher mehr stattfindet, wird als Erklärung für die Knicke in der Lateralisationskurve diskutiert (Abb. 19, rechts). Bei sehr schmal-bandigen Signalen, z.B. Sinustönen, können Zeitdifferenzen der Lautsprechersig-nale zu Pegeldifferenzen der Ohrsignale führen und umgekehrt. Bei sehr hohen Frequenzen erhält man keine monoton ansteigenden Summenlokalisationskurvenmehr. Vergl. hierzu auch Abb. 33 hinsichtlich eines Frequenzbandes um 5 kHz.

Abb. 19: Schematische Darstellung der Ohrsignale bei Stereo-Standardaufstellung und impulsförmigen Lautsprechersignalen

Abb. 20: Summenlokalisation bei seitlicher Lautsprecheranordnung

Bei Anordnungen mit seitlichen Lautsprechern ist ebenfalls eine präzise Sum-menlokalisation nicht möglich (Abb. 20). Hieraus ergeben sich Grenzen für die technische Nutzbarkeit der Summenlokalisation in der Audiotechnik, insbeson-dere bei Surround-Sound-Verfahren wie dem in Abschnitt 4.4.4 beschriebenen.

Page 18: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

18

4.2 Präzedenzeffekt und Echos

In Abb. 21 ist dargestellt was geschieht, wenn man in einer Stereo-Standardauf-stellung das eine Lautsprechersignal um mehr als ca. 1 ms verzögert. Das Hörer-eignis entsteht dann in der Richtung der zuerst beim Zuhörer eintreffenden Wel-lenfront. Die vom zweiten Lautsprecher verzögert eintreffende Wellenfront hat auf die Hörereignisrichtung kaum Einfluss.

Dieser sog. „Präzedenzeffekt“ früher auch Gesetz der ersten Wellenfront ge-nannt ist dafür verantwortlich, dass wir in geschlossenen Räumen das Hörereig-nis in Richtung der Ur-Schallquelle bilden. Zum Beispiel hören wir einen Spre-cher, der nicht verstärkt wird, in der Regel in der Richtung, in der wir ihn sehen. Der von den Wänden reflektierte Schall geht bei der Bildung der Hörereignis-richtung also nicht ein. Überschreitet die Verzögerungszeit der weiteren Wellen-front(en) gegenüber der ersten einen signal- und pegelabhängigen Grenzwert, so hört man ein räumlich getrenntes Hörereignis – ein sog. „Echo“ – in Richtung der verzögerten Wellenfront. Der entsprechende Verzögerungsgrenzwert heißt „Echoschwelle“. Anm.: Bei schmalbandigen Signalen kann es im Bereich der Gültigkeitsgrenzen des Präzedenzeffektes zu interferenzbedingten periodischen Schwankungen der Hörereignisrichtung kommen – s. Abb. 21.

Abb. 21: Hörereignisrichtung als Funktion der Verzögerungszeit des Signals St zur Erläuterung des Gesetzes der ersten Wellenfront und seiner Gültig-

keitsgrenzen

Der Wert der Echoschwelle kann in praxi zwischen 5 ms und mehreren 100 ms liegen. Bei Sprache mittlerer Sprechgeschwindigkeit kann bei 10 dB Pegelminderung zwischen erster Wellenfront sog. Primärschall und verzögerter Wellenfront sog. Rückwurf mit 50 ms, für Musik mit 80 ms gerechnet werden. Bei ca. 20 ms Rückwurfverzögerung kann der Rückwurfpegel sogar um ca. 6 bis 10 dB höher sein als der des Primärschalls, ohne dass ein Echo hörbar wird sog. „Haas-Effekt“ (Haas 1951). Dieser Effekt wird in der Beschallungstechnik häufig ausgenutzt. Wie der Präzedenzeffekt und der Haas-Effekt psycho- und physioakustisch zu Stande kommen, ist z.Zt. Gegenstand intensiver Forschung (s. z.B. Blauert u. Braasch 2005)

Page 19: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

19

Abb. 22: Wahrnehmbarkeit eines Rückwurfes in Abhängigkeit von der Pegeldif-ferenz von Primärschall und Rückwurf Verläufe unterschiedlich defi-nierter Schwellen

Im Abb. 22 ist die Echoschwelle für normale Sprache als Funktion von Rück-wurfverzögerung und -pegel angegeben. Weitere Schwellen sind eingezeichnet: Die absolute Wahrnehmbarkeitsschwelle ist diejenige Schwelle, bei der Ver-suchspersonen die Anwesenheit des Rückwurfs erstmals auf irgendeine Weise feststellen können – z.B. an Hand von Klang-, Lautheits- oder Ausdehnungsände-rungen. Bei sehr hohen Rückwurfspegeln kann der Rückwurf den Primärschall sogar verdecken – sog. „Primärschallunterdrückung“.

4.3 Einfluss der interauralen Kohärenz

Für das Räumliche Hören spielt die Ähnlichkeit der Zeitfunktionen der beiden Ohrsignale eine wichtige Rolle. Als Ähnlichkeitsmaß wird z.B. die normierte Kreuzkorrelationsfunktion der Ohrsignale in der Schreibweise für Leistungssig-nale verwendet (Anm.: Für Energiesignale existiert eine ähnliche Definition), nämlich

effeff

T

TT

yxnorm tytx

dttytxT

R)()(

)()(21lim

)(,,

mit dem rechten Ohrsignal x(t) und dem linken Ohrsignal y(t). Das Maximum ih-res Betrages im physiologischen Bereich von , in der Regel also

|)(| ,,max

yxnormRk , für 1 ms < < +1 ms

wird in der Psychoakustik oftmals „interauraler Kohärenzgrad, k“ genannt. Er kann Werte zwischen Null und Eins (0 … völlige Unähnlichkeit, 1 … völlige Ähnlichkeit) annehmen. Man beachte, dass sich bei einer frequenzunabhängigenPegeldifferenz und/oder verzerrungsfreien Verschiebung eines der beiden Signal

Page 20: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

20

im Vergleich zu dem anderen der Kohärenzgrad nicht ändert. Beliebige Kohä-renzgrade lassen sich im Labor z.B. mit einer Schaltung nach Abb. 23 darstellen.

Abb. 23: Erzeugung von Testsignalen mit einstellbarem Kohärenzgrad nach der Überlagerungsmethode

Im Abb. 24 ist gezeigt, wie sich das Hörereignis verhält, wenn man Signale unter-schiedlichen interauralen Kohärenzgrades über Kopfhörer darbietet. Die Ver-suchspersonen sollten Hörereignisorte und Ausdehnungen in einen Frontalschnitt ihres Schädels eintragen. Es trat Im-Kopf-Lokalisiertheit auf, deshalb sind die Hörereignisorte innerhalb des Kopfes eingezeichnet. Bei hohem Kohärenzgrad entsteht ein relativ scharf lokalisiertes Hörereignis in Kopfmitte, welches mit sin-kendem Kohärenzgrad räumlich immer ausgedehnter wird. Bei sehr kleinem Ko-härenzgrad zerfällt das Hörereignis in zwei getrennte Anteile, jedes einer Schall-quelle zugeordnet.

Abb. 24: Hörereignislage und -ausdehnung in Abhängigkeit vom Kohärenzgrad bei unentzerrter Kopfhörerdarbietung. Die Prozentzahlen kenn-zeichnen die relativen Häufigkeiten, mit denen die Hörereignisse in den entsprechenden Bereichen auftraten

Bei Beschallung im freien Schallfeld sind die Ohrsignale nie völlig inkohärent schon wegen des Übersprechens zwischen den Ohren. Rückwürfe führen zu einer weiteren Dekorrelation der Ohrsignale. Teilkohärente Ohrsignale gehen mit diffus lokalisierten, räumlich ausgedehnten Hörereignissen einher. Zum Beispiel ist im diffusen Schallfeld der ganze Raum vom Hörereignis erfüllt. In Konzertsälen wird eine auditive Verbreiterung des Orchesters und der Eindruck des auditiv Einge-hülltseins als sehr positiv bewertet, ist also ein auditives Qualitätsmerkmal.

Page 21: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

21

Das Gehör ist in der Lage, bei teilkohärenten Ohrsignalen ggf. vorhandene stark kohärente Anteile herauszufinden und ihnen jeweils ein scharf lokalisiertes Hörer-eignis zuzuordnen, z.B. Sprecher in lärmerfüllter Umgebung – s. hierzu Abb. 36.

4.4 Anwendungen der Psychoakustik: Stereophonie und 5-Kanal-Surround-Sound Das Ziel, eine akustische Szene räumlich aufzeichnen und wiedergeben zu können wird bei den so genannten stereophonen, d.h. zweikanaligen Verfahren mittels des beschriebene Phänomens der Summenlokalisation erreicht, welches die räumliche Abbildung einer Schallquelle, d.h. die Bildung von Hörereignissen in dem Be-reich zwischen zwei Lautsprechern ermöglicht. In der Tat nutzen alle Mehrkanal-verfahren mit Ausnahme der in den Abschnitten 2.2 und 2.3 behandelten „physi-kalistischen“ die Summenlokalisation aus und beruhen somit auf einem Effekt der Psychoakustik. Einige solcher „psychoakustisch-motivierten“ Verfahren verwen-zusätzlich den Präzedenzeffekt und die auditiven Wirkungen der Dekorrelation der Ohrsignale. Es gibt in diesem Zusammenhang eine fast unüberschaubare An-zahl von Verfahrensvarianten, die sich insbesondere durch die Art der verwen-deten Kodierung der beiden übertragenen Signale unterscheiden. Im Folgenden wird auf einige verbreitete Varianten exemplarisch eingegangen.

4.4.1 Das Blumlein-Verfahren

Das Verfahren nach Blumlein (Blumlein 1931) ist das älteste mikrophonbasierte Verfahren zur Schallübertragung mit räumlicher Information. Bei dem Verfahren werden zwei Mikrophone mit achtförmiger Richtcharakteristik im Winkel von 90° zueinander so aufgestellt, dass sich die Membrane beider Mikrophone faktisch am selben Ort befinden – s. Abb. 25.

Abb. 25: Mikrophonaufstellung beim Blumlein-Verfahren (1931). Die beiden Mikrophone weisen Achtercharakteristiken auf, deren Hauptachsen um 90° zueinander versetzt sind

Um die psychoakustische Wirkungsweise der räumlichen Kodierung beim Blumlein-Verfahren zu verstehen, muss zunächst die Kodierung zwischen beiden Stereokanälen betrachtet werden. In der Regel geht es beim Blumlein-Verfahrenum die räumliche Aufzeichnung einer Bühnendarbietung. Der Winkelbereich, in dem Primärschallquellen akustisch kodiert werden sollen, umfasst die Azimut-winkel von 45° bis +45°. Da das Mikrophon des linken Kanals in Richtung

45° zeigt, ist es, bedingt durch seine Achtercharakteristik, für diese Richtung am empfindlichsten, während das rechte Mikrophon für diese Richtung am unemp-findlichsten ist. Letzteres nimmt im Idealfall aus dieser Raumrichtung gar keinen Schall auf – s. Abb. 26, die die richtungspezifischen Empfindlichkeiten beider

Page 22: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

22

Mikrophone zeigt. Für einen aus +45° einfallenden Schall verhält es sich genau umgekehrt: Das Mikrophon für den rechten Kanal zeigt maximale Empfindlich-keit, während das für den linken Kanal aus dieser Raumrichtung keinen Schall aufzeichnet. Ein Schall, der von vorne ( = 0°) auf beide Mikrophone trifft, wird beide Mikrophone aus Symmetriegründen gleichermaßen erregen, wenn auch nicht mit der maximalen Empfindlichkeit. Abb. 27 zeigt das Verhältnis beider Mikrophonempfindlichkeiten zueinander. Der Verlauf beider Kurven entspricht in etwa den beiden Kanalverläufen beim Panoramaregler eines Mischpultes, d.h. beim sog. „Amplituden-Panning“.

0.2

0.4

0.6

0.8

1

60

-120

30

-150

0

180

-30

150

-60

120

-90 90

Abb. 26: Mikrophon-Richtcharakteristiken in der Horizonzalebene beim Blumlein-Verfahren. Oben angedeutet: Mikrophonsignale beiBeschallung mit Sinusschall aus unterschiedlichen Azimutal- Richtungen, nämlich = 45°, 0° und +45°

Aus den richtungsabhängigen Unterschieden beider Empfindlichkeiten kann die räumliche Kodierung für die Pegeldifferenzen bestimmt werden – s. die durchgezogene Linie in Abb. 27.

Diese Pegeldifferenzen zwischen den beiden Stereokanälen sind nur dann mit den interauralen Pegeldifferenzen identisch, wenn die Aufnahme über Kopfhörer dargeboten wird. Im Fall der Übertragung über Lautsprechern ist der Fall kompli-zierter, da der Übertragungsweg zwischen den Lautsprechern und den Ohrsigna-

Page 23: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

23

len miteinbezogen werden muss – wie in Abb. 28, skizziert. Durch die frequenz-abhängige Filterwirkung der Außenohren kommt es zu einer Frequenzabhän-gigkeit der richtungsabhängigen interauralen Pegeldifferenz. Abb. 29 zeigt die richtungsabhängigen interauralen Pegeldifferenzen beim Blumlein-Verfahren (ge-strichelte Linie). Sie stimmen im Winkelbereich von 45° bis +45° näherungs-weise mit den natürlichen interauralen Pegeldifferenzen überein (durchgezogene Linie). Außerhalb dieses Bereiches weichen beide Kurven voneinander ab.

−90 −60 −30 ð íð êð çð

−30

−20

−10

ð

ïð

îð

íð

ߦ·³«¬ ÅpÃ

Þ´«³´»·²Ò·»®»²ô ïïðpß³°ò п²ò

Abb. 27: Winkelabhängige Pegeldifferenzen zwischen beiden Stereokanälen für verschiedene Aufnahmeverfahren: Blumlein … Blumlein-Verfahren, Nieren, 110° ... Koinzidenzverfahren mit zwei Nierenmikrophonen im 110°-Winkel zueinander, Amp. Pan. ... Amplituden-Panning

>>

Abb. 28: Übertragungsweg von der Aufnahme über die Wiedergabe zum Hörer bei einer Zweikanal-Aufnahme

Das ist normalerweise kein Problem, da sich dort bei einer Bühnendarbietung keine Primärschallquellen befinden – mit der üblichen Ausnahme des Publikums-applaus. Im Regelfall werden beide Lautsprecher im 60°-Winkel aufgestellt. Da-durch wird der aufgenommene Winkelbereich von 45° bis +45° auf einen Be-reich von 30° bis +30° komprimiert wiedergegeben. Dieser Kompromiss wird eingegangen, um zu vermeiden, dass die Summenlokalisation zusammenbricht. Im letzteren Fall würden beide Lautsprechersignale als separate Hörereignisse wahrgenommen, was einem perzeptiven Loch zwischen beiden Lautsprechern gleichkommt.

Page 24: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

24

−90 −60 −30 ð íð êð çð

−20

−10

ð

ïð

îð

ߦ·³«¬ ÅpÃ

Þ´«³´»·²²¿¬$®´·½¸

Abb. 29: Beim Hörer auftretende interaurale Pegeldifferenzen für ein Frequenz-band um 3,5 kHz als Funktion des Azimuts für eine durch Lautspre-cher wiedergegebene Aufnahme mit dem Blumlein-Verfahren im Ver-gleich zur natürlichen Hörsituation

In der Literatur findet man öfters die Auffassung, dass Konzidenzverfahren, wie dasjenige von Blumlein, ein unnatürliches räumliches Abbild der aufgenommenen auditiven Szene erzeugen, da sie nur Pegel- und keine Laufzeiten kodieren. Diese Annahme ist jedoch grundlegend falsch, da die interauralen Laufzeitdifferenzen durch den Übertragungsweg vom Lautsprecher zu beiden Ohrsignalen generiert werden. Diesen Sachverhalt kann man sich einfach an dem Fall seitlich einfallenden Schalls ( = 45° oder +45°) klar machen, bei dem nur einer der beiden Lautsprecher angesteuert wird. In diesem Fall entsprechen die binauralen Ohrsignalmerkmale denen einer einzelnen, am Lautsprecherstandort befindlichen Schallquelle. Durch die Summenlokalisation ist die kontinuierliche Kodierung der interauralen Laufzeitdifferenzen als Funktion von gewährleistet – s. Abb. 30.

−90 −60 −30 ð íð êð çð

−0.5

ð

ðòë

ߦ·³«¬ ÅpÃ

Þ´«³´»·²²¿¬$®´·½¸

Abb. 30: Beim Hörer auftretende interauralen Zeitdifferenzen für ein Frequenz-band um 700 Hz als Funktion des Azimuts für eine durch Lautspre-cher wiedergegebene Blumlein-Aufnahme im Vergleich mit der natürli-chen Hörsituation

Page 25: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

25

4.4.2 Das ORTF-Verfahren

Statt der Achter-Mikrophone wie bei Blumlein sind auch Mikrophone mit nieren-förmiger Richtcharakteristik im Gebrauch. Wegen der größeren Breite der Richt-keulen eignen diese sich jedoch weniger für die Koinzidenzmethode. Die gestri-chelte Linie in Abb. 27 zeigt die Verläufe der Pegeldifferenz zwischen den beiden Kanälen, wenn beide Mikrophone koinzident im Winkel von 110° zueinander aufgestellt werden. Im Vergleich zum Blumlein-Verfahren (durchgezogene Linie) ist der Verlauf deutlich komprimiert. Theoretisch könnten beide Nieren-Mikro-phone auch im 180°-Winkel aufgestellt werden, um dieses Problem zu lösen. Dann nimmt die Sensitivität des Gesamtsystems allerdings für den Frontalbereich zu stark ab – d.h. seitlich einfallende Wandreflektionen werden in der Aufnahme überbetont.

Eine gängige Lösung für dieses Problem wurde von dem französischen Radiosen-der Office de Radiodiffusion et de Télévision Française (ORTF) angegeben. Beim sogenannten ORTF-Verfahren werden beide Mikrophonkapseln räumlich getrennt aufgestellt. Der Mikrophonabstand beträgt 17 cm, der Winkel zwischen den Mi-krophonachsen ist zumeist 110° – wie in Abb. 31 gezeigt.

Abb. 31: Mikrophonaufstellung beim ORTF-Verfahren. BeideMikrophone weisen eine Nierencharakteristik auf

Die sich ergebende Verengung des Pegeldifferenzbereiches zwischen den Kanälen wird bei diesem – und auch bei andereren, sog. gemischten Verfahren – durch die hinzutretenden Laufzeitdifferenzen ausgeglichen – s. Abb. 32.

−90 −60 −30 ð íð êð çð−0.50

−0.25

ðòðð

ðòîë

ðòëð

ߦ·³«¬ ÅpÃ

Þ´«³´»·²ÑÎÌÚ

Abb. 32: Winkelabhängige Laufzeitdifferenzen zwischen beiden Stereokanälen für das Blumlein- und das ORTF-Verfahren

Page 26: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

26

Da der Abstand beider Mikrophone in etwa dem Abstand zwischen beiden Trommelfellen entspricht, ergeben sich dem natürliche Hören ähnliche winkelab-hängige Laufzeitdifferenzen, nämlich solche, die im Bereich von 1 ms bis +1 ms liegen. Deshalb klingen über Stereokopfhörer abgehörte ORTF-Aufnahmen oft natürlicher als Aufnahmen, die von einem Koinzidenzverfahren stammen.

Bei Lautsprecherwiedergabe wird auch hier der Sachverhalt wesentlich kompli-zierter, da die Übertragungswege zwischen Lautsprecher und Ohren die Signale zusätzlich transformieren.

−90 −60 −30 ð íð êð çð

−20

−10

ð

ïð

îð

ߦ·³«¬ ÅpÃ

ÑÎÌÚ²¿¬$®´·½¸

Abb. 33: Beim Hörer auftretende interaurale Pegeldifferenzen für ein Frequenz-band um 5 kHz als Funktion des Azimuts für eine durch Lautspre-cher wiedergegebene ORTF-Aufnahme im Vergleich zur natürlichen Hörsituation

In Analogie zu Abb. 29 sind in Abb. 33 die winkelabhängigen interauralen Pegel-differenzen gezeigt die – wie bereits erwähnt – insgesamt komprimiert sind und stark mit der Mittenfrequenz des jeweiligen Frequenzbandes oszillieren. Letzterer Effekt wird in Folge der zusätzlichen Zeitdifferenzen zwischen den Kanälen durch Interferenz verursacht. Die beim ORTF-Verfahren auftretenden interauralen Laufzeitdifferenzen zeigt Abb. 34.

−90 −60 −30 ð íð êð çð

−0.5

ð

ðòë

ߦ·³«¬ ÅpÃ

ÑÎÌÚ²¿¬$®´·½¸

Abb. 34: Beim Hörer auftretende interaurale Zeitdifferenzen für ein Frequenz-band um 700 Hz als Funktion des Azimuts für eine durch Lautspre-cher wiedergegebene ORTF-Aufnahme im Vergleich zur natürlichen Hörsituation

Page 27: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

27

4.4.3 Das AB-Verfahren

Beim so genannten AB-Verfahren werden meist Mikrophone mit Kugelcharakte-ristik verwendet, die im größeren Abstand (> 60 cm) zueinander aufgestellt wer-den. Dadurch entstehen Laufzeitdifferenzen, die je nach Mikrophonabstand und Schalleinfallsrichtung mehrere Millisekunden betragen können. Deshalb kommt bei dem Verfahren neben der Summenlokalisation auch der Präzedenzeffekt zum Tragen. Die omni-direktionale Richtcharakteristik der Mikrophone induziert keine Pegeldifferenzen zwischen den beiden Kanälen. Diese können jedoch durch den Abfall des Schalldrucks, der reziprok zur Entfernung erfolgt, hervorgerufen wer-den – was allerdings nur im Nahfeld von Bedeutung ist. Die räumliche Wieder-gabe des AB-Verfahrens zeichnet sich durch die relative große Breite des Berei-ches auf, in dem in „korrekten“ Richtungen Hörereignisse entstehen. Durch den Präzedenzeffekt bedingt ist der ideale Abhörbereich – d.h. der „sweet spot“ – ausgedehnter ist als bei Koinzidenzverfahren und gemischten Verfahren.

4.4.4 Wiedergabeverfahren mit mehr als zwei Kanälen

Neben Zweikanal-Stereosystemen finden sogenannte Surround-Sound-Verfahren in der Unterhaltungselektronik großen Zuspruch. Neben dem linken und rechten Lautsprecherkanal haben Surround-Systeme z.B. noch einen direkt voraus pla-zierten Lautsprecher (Dialog-Kanal) sowie zwei seitlich hinten angeordnete Laut-sprecher (Surround-Kanäle) – s. Abb. 35. Letztere sollen einem Standard der In-ternational Telecommunication Union (ITU) entsprechend zwischen 110° und 130° liegen (ITU 1994). Die Surround-Lautsprecher dienen vorwiegend dazu, den sog. „Raumeindruck“ zu verbessern, was durch die Wiedergabe von frühen seitli-chen Rückwürfen und Nachhall erreicht wird. Dadurch gewinnt die auditive Szene an Tiefe und Breite und der Hörer fühlt sich räumlich von Schall umschlos-sen (vergl. dazu Abschnitt 4.3: Effekte der Dekorrelation der Ohrsignale)

Abb. 35: Lautsprecheranordnung für eine 5-Kanal-Surround-Anlage nach ITU-Standard

Wie bereits im Abschnitt 4.1 erläutert wurde, ist die Summenlokalisation zwi-schen den Frontal- und Surround-Lautsprechern nur bedingt möglich, aber in der Regel befinden sich die Primärschallquellen ohnehin im vorderen Bühnenbereich (Musik) oder auf der Leinwand (Film). Bei elektroakustischen Musikdarbietun-gen, bei denen alle Schalleinfallsrichtungen berücksichtigt werden müssen, wer-

Page 28: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

28

den die Lautsprecher vorzugsweise in gleichen Winkelabständen (z.B. = 45° oder 60°) aufgestellt. Da das Überblenden zwischen seitlich aufgestellten Laut-sprechern trotzdem problematisch bleibt, wird oft mit bewegten Schallquellen oder möglichst kleinen Lautsprecherabständen gearbeitet.

5 Psychoakustische Grundlagen III: Binaurale Signalerkennung, Nachhall- unterdrückung und Klangentfärbung Die Tatsache, dass wir normalerweise zweiohrig hören, erhöht die Leistungsfä-higkeit unseres Gehörs deutlich – nicht nur beim Räumlichen Hören. Wir bespre-chen im Folgenden exemplarisch drei wichtige binaurale Effekte, die im engen Zusammenhang mit dem Räumlichen Hören stehen und anwendungstechnische Relevanz haben, nämlich die binaurale Verbesserung der Signalerkennung, die binaurale Nachhallunterdrückung und die binaurale Klangentfärbung.

Allgemein gilt, dass mit zwei funktionierenden Ohren das Gehör Nutzsignale aus Lärm- bzw. weniger interessanten Signalen besser heraushören kann. Zum Bei-spiel können einohrig Schwerhörige einer Unterhaltung schlechter folgen als Normalhörende, wenn andere Sprecher dazwischen reden. Bei ungestörter Unter-haltung tritt dieser sog. „Cocktail-Party-Effekt“ nicht auf.

Abb. 36: Zur binauralen Signalerkennung: Hörereignisorte, dargestellt durch Projektion in die Horizontalebene. Darbietung über Kopfhörer. (a) Links: identisches Rauschen auf beide Ohren, k = 1 Rechts: interaural unkorrelierte Rauschsignale, k = 0 (b) Links: wie oben, jedoch zusätzlich identische Sprache auf beide Ohren Rechts: wie oben, jedoch zusätzlich identische Sprache auf beide Ohren Anm.: Im Falle (b), rechts kann die Sprache bei gleicher Verständlich-keit um mehrere dB schwächer sein als bei (b), links.

Ein aufschlussreiches Experiment zeigt Abb. 36. Zusätzlich zu Störrauschen wird Sprache dargeboten. Wenn Sprach- und Rauschhörereignis räumlich getrennt er-scheinen, ist die Sprache wesentlich deutlicher zu erkennen. Bei Verschließen

Page 29: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

29

eines Ohres geht diese Verbesserung der Verständlichkeit wieder verloren. All-gemein gilt, dass die sog. „Mithörschwelle“ eines Nutzsignales niedriger ist, wenn das Verdeckungssignal mit anderer interauraler Zeitdifferenz oder interauraler Phasendifferenz als das Nutzsignal dargeboten wird. Eingeschlossene Spezialfälle sind: Nutzsignal einohrig, Störsignal zweiohrig und umgekehrt; sowie Nutzsignal auf ein Ohr, Störsignal auf das andere Ohr.

Man nennt den Betrag der Mithörschwellenabsenkung, die durch geeignete unter-schiedliche interaurale Differenzen gegenüber dem Bezugsfall, d.h. beide Signale monotisch oder diotisch, erzielt wird, die „binaural masking level difference (BMLD)“. Die BMLD für unterschiedlichste Signale und Darbietungsfälle wurde eingehend untersucht. Die Ergebnisse sind u.a. wichtig für die Entwicklung von Modellen des binauralen Hörens (vergl. Abschnitt 6).

Verschließt man in einem halligen Raum ein Ohr, so hört sich der Raum noch halliger an. Durch das Hören mit zwei Ohren wird also die wahrgenommene Hal-ligkeit vermindert. Dieser Effekt heißt „binaurale Nachhallunterdrückung“. Man kann den Effekt wie folgt quantitativ ausmessen – Abb. 37. Ein halliger Raum wird mit Rauschen beschallt, welcher eine zeitlich schwankende Amplitude auf-weist. Durch den Raum wird die zeitliche Schwankung „verschliffen“. Beim Ab-hören mit zwei Ohren kann man geringere zeitliche Schwankungen wahrnehmen als mit nur einem Ohr. Die „Verschleifung“ ist also wahrnehmungsmäßig gerin-ger, wenn man zweiohrig hört.

Abb. 37: Zur Nachhallunterdrückung beim zweiohrigen Hören: Links: Amplitu-denmoduliertes Rauschen mit einstellbaren Modulationsgrad wird in ei-nen halligen Raum gespielt und (a) diotisch, (b) dichotisch abgehört. Rechts: gerade wahrnehmbarer Modulationsgrad in zwei Räumen für (a) und (b).

Verschließt man bei Schalldarbietungen in einem Raum ein Ohr, so klingen die Hörereignisse oft verfärbt, insbesondere wenn starke frühe Reflexionen anwesend sind. Die Verfärbungen ergeben sich auf Grund von Interferenzen zwischen den Direktschallen und den Rückwürfen, die diese überlagern. Interessant ist nun, dass

Page 30: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

30

diese Klangverfärbungen bei zwei funktionieren Ohren wesentlich geringer aus-fallen (binaurale Klangentfärbung).

Theile (1981) bringt diese Beobachtung in Zusammenhang damit, dass bei Über-tragungsverfahren, welche Summenlokalisation ausnutzen, die wahrgenommenen Klangverfärbungen wohl ebenfalls geringer sind, als man auf Grund der Ohrsig-nalspektren annehmen müsste. Er erklärt dies mit der Hypothese, dass das audi-tive System zunächst den Hörereignisort bestimmt und erst anschließend die Klangfarbe bildet – wobei es dann nach Festlegung des Hörereignisortes und in Kenntnis der für diesen Ort spezifischen HRTFs eine Entzerrung vornimmt. Diese sog. „Assoziationshypothese“ erklärt einen Reihe von weiteren, verwandten Klangeffekten. Eine weitergehende Evidenz für ihrer Gültigkeit steht noch aus.

6 Modellierung des binauralen Hörens

Viele Modelle für die psycho- und physioakustischen Abläufe beim zweiohrigen Hören gehen davon aus, dass im Gehör zur Auswertung interauraler Laufzeitdif-ferenzen und zur Schallquellenidentifizierung eine Art „gleitende Kreuzkorrela-tion“ der Ohrsignale durchgeführt wird, und dass dann Hörereignismerkmale wie seitliche Auslenkung, Ausdehnung oder richtungsgemäße Trennung mehrerer Hörereignisanteile (auditorische Szenenanalyse) aufgrund dieser gleitenden inter-auraler Kreuzkorrelationsfunktionen gebildet werden (Blauert 1974, 1997, Colburn u. Durlach 1978, Braasch 2005a). Abb. 38 zeigt das Grundschema eines solchen Modells.

Abb. 38: Grundschema für ein Kreuzkorrelationsmodell der binauralen Signalver-arbeitung (nach Blauert 1974)

Jedes der beiden Ohrsignale wird zunächst im Innenohr spektral zerlegt. Die Aus-gangssignale der Innenohrfilter werden gleichgerichtet und tiefpass-gefiltert. Die Grenzfrequenz des Tiefpasses ist so gewählt, dass ab ca. 800 Hz das Ausgangs-signal zunehmend der Hüllkurve des Eingangssignals entspricht – sog. AM-Demodulation.

Page 31: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

31

Die gleitende Kreuzkorrelation wird dann jeweils interaural über die Tiefpass-Ausgangssignale zweier spektral korrespondierender Bandpass-Bereiche durchgeführt.

Die Zuordnung des bzw. der Hörereignisorte geschieht z.B. aufgrund eines Mus-tererkennungsprozesses, welcher die Schar von Korrelationsfunktionen auswertet. Ein hoher Gipfel bedeutet z.B. einen scharf lokalisierten Hörereignisanteil, die Lage des Gipfels bezeichnet die seitliche Auslenkung des Hörereignisanteils. Fla-che Gipfel bedeuten räumlich ausgedehnte Hörereignisanteile. Abb. 39 lässt ein scharf lokalisiertes Hörereignis in der Medianebene erkennen – d.h. ph = 0 ms.

Abb. 39: Beispiel für ein interaurales, gleitendes Korrelationsprogramm: Musikali-scher Akkord in frontaler Richtung. Zeitfenster: 0 ms bis 5 ms nach Be-ginn des früheren Ohrsignals

Ähnlich wie die Kreuzkorrelationsstufe zur Auswertung interauraler Laufzeit-differenzen gibt es zumeist eine weitere Modellstufe, welche die jeweiligen inte-rauralen Pegeldifferenzen auswertet. Die Ergebnisse beider Stufen können einzeln oder vereint als sogenannte „Binaurale Aktivitätskarten“ graphisch dargestellt werden. Weiterhin kann ein solches Modell zusätzlich beispielsweise Kontrast-verstärkungsalgorithmen und Klassifikatoren enthalten.

Modelle des binauralen Hören haben vielfältige Anwendungsmöglichkeiten, etwa bei der binauralen Szenenanalyse, bei der instrumentellen auditiven Qualitätsbe-urteilung (Sprachqualität, Produkt-Sound-Qualität, akustische Qualität von Auf-führungsstätten) sowie als Elemente binauraler Signalverarbeitungssyteme (z.B. intelligente Mikrophone und Hörgeräte).

Im Folgenden stellen wir exemplarisch einige binaurale Aktivitätskarten dar. Das hierzu verwendete Modell wurde in den vergangenen Jahren von den Autoren und ihren Mitarbeiter am Institut für Kommunikationsakustik in Bochum entwickelt (z.B. Blauert 1997, Braasch u. Blauert 2003, Braasch 2005b). Wir zeigen speziell binaurale Analyseergebnisse, die gewonnen wurden um zu verstehen, wie die von stereophonischen Verfahren dargebotenen Ohrsignale – hier exemplarisch das Blumlein- und das ORTF-Verfahren – vom auditorischen System auswertet wer-den. Gezeigt wird jeweils, welche Hörereignisrichtung (geschätzte Azimutalrich-tung) das Modell aus den auditiv wirksamen Zeit- bzw. Pegeldifferenzen prog-nostiziert, wenn mit dem jeweils untersuchten Übertragungsverfahren eine Schallquelle in einer vorgegebenen Azimutalrichtung abgebildet werden soll (dar-gebotenene Azimutalrichtung).

Page 32: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

32

Die Abbn. 40 bis 42 zeigen hierzu die berechneten binauralen Aktivitätskarten für Anregung mit Breitband-Rauschen als Lautsprechersignalen. Die hellen Bereiche in jeder Karte zeigen eine hohe binaurale Aktivität. Die jeweils hellste Stelle bezeichnet die vom dem Modell prognostizierte azimutalen Hörereignisrichtung. Die interauralen Pegeldifferenzen (jeweils linke Abbildung) wurden dabei mit einem Netzwerk aus Exzitations- und Inhibitionszellen nach Braasch (2003) bestimmt, die interauralen Zeitdifferenzen (jeweils rechte Abbildung) mittels interauraler Kreuzkorrelationsanalyse.

Abb. 40: Mittels eines binauralen Modells berechnete Lokalisationskurven, ausge-hend von interauralen Pegeldifferenzen (links) und interauralen Zeitdiffe-renzen (rechts), wie sie beim natürlichen Hören auftreten. Analysiert wurde eine aus verschiedenen Azimutalrichtungen sendende Breitband-Schallquelle im freien Schallfeld. Die gestrichelte Linie zeigt den Fall, dass die geschätzten Richtungen mit den dargebotenen zusammenfielen

Abb. 41: wie Abb. 40, aber für eine Schallquelle, die mit dem Blumlein-Verfah-ren aufgezeichnet und über zwei Lautsprecher in der 60°-Standardauf-stellung wiedergegeben wird. Die gepunktete Linie zeigt die kompri-mierte ideale Lokalisationskurve, wie sie durch die Verringerung der Lautsprecherwinkel von ±45° auf ±30° entsteht

Page 33: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

33

Abb. 42: wie Abbn. 40 und 41, aber für eine Schallquelle, die mit dem ORTF-Verfahren aufgenommen wurde

Die Modellanalyse zeigt vor allem, dass die prognostizierten Azimutalwinkel für die interauralen Laufzeit- und Pegeldifferenzen beim Blumlein-Verfahren inner-halb des Winkelbereiches von 45° bis +45° sehr gut übereinstimmen – Abb. 41.Beim ORTF-Verfahren dagegen entsprechen die Werte der interauralen Laufzeit- und Pegeldifferenzen nicht den in der Natur vorkommenden Kombinationen – Abb. 42. Die über die Pegeldifferenzen geschätzten Azimutalwinkel fallen kleiner aus als die gepunktete komprimierte Lokalisationskurve vorgibt, während die Werte für die interauralen Zeitdifferenzen im Winkelbereich von 45° bis +45° größer sind als die komprimierte Lokalisationskurve. Die fehlende Übereinstimmung beider Merkmale führt zu einer perzeptiven Verbreiterung der Hörereignisse – die im Sinne einer besseren auditiven „Räumlichkeit“ ggf. durchaus erwünscht sein kann.

7 Schlussbemerkung

Im Folgenden werden zur Verdeutlichung und Zusammenfassung wesentliche Effekte des binauralen Hörens aufgelistet, wie sie sich z.B. dem Zuhörer in einen Konzertsaal darstellen, wenn das Orchester spielt. Entsprechendes trifft auf die Zuhörer von hochwertigen elektroakustischen Übertragungen zu.

Der Hörer bemerkt folgende vorteilhaften Eigenheiten des zweiohrigen Hörens – in Vergleich zum einohrigen:

(a) Es entstehen scharf lokalisierte Hörereignisse an den Orten der Schallquel-len, in der Regel dort, wo man die Instrumente auch sieht.

(b) In guten Sälen werden Rückwürfe nicht als getrennte Hörereignisse wahrge-nommen, d.h. es treten keine störenden Echos auf.

(c) Frühe Rückwürfe und Nachhallfeld führen zu einer Verminderung des interauralen Kohärenzgrades der Ohrsignale. Hierdurch kommt es zu einer wünschenswerten, räumlichen Verbreitung des Orchesterklanges und zu ei-ner Erfüllung des Raumes mit Hörereignisanteilen. Der Zuhörer fühlt sich auditiv von Musik umgeben sog. „Raumeindruck, Räumlichkeit“.

Page 34: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

34

(d) Einzelne Instrumente können infolge der binauralen Signalerkennung aus dem Gesamthörereignis deutlich herausgehört werden, die Musik erscheint „durchsichtig“.

(e) Die Halligkeit erscheint weniger ausgeprägt. Feinheiten der zeitlichen Struktur, und somit der sog. „Artikulation“ bleiben hörbar, ohne dass auf die räumliche Wirkung des Nachhalls verzichtet werden muss.

Zitierte Literatur

Begault D R (1994) 3-D sound for virtual reality and multimedia. AP Professional Cambridge MA

Berkhout A J (1988) A holographic approach to acoustical control. J Audio Engr Soc 36, 979–995

Berkhout A J, Vogel, P, de Vries D (1993) Acoustic control by wave field syn-thesis. J Acoust Soc Am 93, 2764–2779

Blauert, J (1969/70) Sound localization in the median plane, Acustica 22, 205–213

Blauert J (1974) Räumliches Hören sowie 1. Nachschrift (1985) und 2. Nach-schrift (1997). S Hirzel Stuttgart

Blauert J (1997) Spatial hearing: the psychophysics of human sound localization. 2. erweitererte Aufl, MIT Press Cambridge MA

Blauert J (Herausg) (1992) Auditory virtual environments and telepresence. J Appl Acoust 36 (Sonderheft)

Blauert J (Herausg) (2005) Communication Acoustics. Springer Berlin–Heidelberg–New York

Blauert J, Mellert V, Platte H-J, Laws P, Hudde, H, Scherer, P, Poulsen T, Gottlob D, Plenge G (1978) Wissenschaftliche Grundlagen der kopfbezogenen Stereo-phonie. Rundfunktechn Mitt 22, 195–218

Blauert J, Braasch J (2005) Acoustical communication: the Precedence Effect. Proc. FORUM ACUSTICUM BUDAPEST 2005, OPAKFI Budapest

Blumlein A D (1931) Improvements in and relating to sound-transmission, sound-recording and sound-reproducing Systems. British Patents Nr. 394, 325

Braasch J (2003) Localization in the presence of a distracter and reverberation in the frontal horizontal plane. III. The role of interaural level differences, ACUSTICA/acta acustica 89, 674–692

Braasch J, Blauert J (2003), Investigating the Precedence Effect for noise bursts of different bandwidth: II. Model algorithms. Acoust Science & Technol 24, 293–303

Page 35: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

35

Braasch J (2005a) Modelling of binaural hearing. In: Blauert J (Herausg) Com-munication Acoustics. 75–108, Springer Berlin–Heidelberg–New York

Braasch J (2005b), A binaural model to predict position and extension of spatial images created with standard sound recording techniques, Proc 119th AES Con-vention, AES New York NY, Preprint 6610

Colburn H S, Durlach, N I (1978) Models of binaural interaction. In:. Carterette E C, Friedman, M P (Herausg) Handbook of perception Band 4, 467–518, Aca-demic Press New York NY

Hammershøi D, Møller H (2005) Binaural technique – basic methods for re-cording, synthesis and reproduction. In: Blauert J (Herausg) Communication Acoustics. 223–254, Springer Berlin-Heidelberg-New York

Haas H (1951) Über den Einfluss eines Einfachechos auf die Hörbarkeit von Sprache. Acustica 1, 49–58

ITU (1994) Multichannel stereophonic sound system with and without accompa-nying picture. Standard BS.775-1, Intern Telecommunication Union, Genf, 1992–1994

Steinberg J C, Snow W B (1934) Auditory perspective – physical factors, Electr Engr 1934, 12–17

Theile G (1981) Zur Theorie der optimalen Wiedergabe von stereophonen Sig-nalen über Lautsprecher und Kopfhörer. Rundfunktechn Mitt 25, 155–169

Wendt K (1963) Das Richtungshören bei der Überlagerung zweier Schallfelder bei Intensitäts- und Laufzeitstereophonie. Dissertation Rhein-Westf Techn Hochsch Aachen

Weiterführende Literatur

Aschoff V (1963) Über das räumliche Hören. Arbeitsgem Forsch Nordrhein-Westf 138, 7–38, Westdeutscher Verlag Köln

Blauert J (1983) Psychoacoustic binaural phenomena. In: Klinke R, Hartmann R (Herausg) Hearing – psychological bases and psychophysics. 182–199, Springer Berlin–Heidelberg–New York

Blauert J (1996) An introduction to binaural technology, In: Gilkey R, Anderson T (Herausg) Binaural and spatial hearing. 593–610, Lawrence Erlbaum Hilldale NJ

Bloch E (1893) Das binaurale Hören. Z Ohren-Nasen-Kehlkpf-Heilk 24, 25–83

Cremer L, Müller H A (1978) Die wissenschaftlichen Grundlagen der Raum-akustik, Band 1, Teil 3: Psychologische Raumakustik. S Hirzel Stuttgart

Durlach, N I, Colburn H S (1978), Binaural phenomena. In: Carterette E C, Friedman M P (Herausg) Handbook of perception. Band 4, 365–466, Academic Press New York NY

Page 36: Räumliches Hören / Blauert Braasch.

Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag

36

Durlach N I (1972) Binaural signal detection: equalization and cancellation the-ory. In: Tobias J V (Herausg) Handbook of perception. Band 2, 369–462, Academic Press New York NY.

Erulkar S D (1972) Comparative aspects of spatial localization of sound. Physiol Rev 52, 237–360

Franssen N V (1963), Stereophony. Philips Techn Bibl, Eindhoven

Gatehouse R W (Herausg) (1979) Localization of sound, theory and application. The Amphora Press Groton CT

Gerzon M (1974) Surround-sound psychoacoustics. Wireless World 80, 483–486

Gilkey R, Anderson T (1996), Binaural and spatial hearing. Lawrence Erlbaum Hilldale NJ

Hartmann W M (1996) Listening in rooms and the precedence effect. In: Gilkey R, Anderson T (Herausg) Binaural and spatial hearing. 191–210, Lawrence Erlbaum Hilldale NJ

Hartmann W M, Wittenberg, A T (1996) On the externalization of sound images. J Acoust Soc Am 99, 3678–3688

Keidel W D (1966) Das räumliche Hören. In: Handbuch der Psychologie. Band 1, Teil 1, 518–555, Verlag f Psychol Dr C J Hogrefe Göttingen

Kietz H (1953) Das räumliche Hören. Acustica 3, 73–86

Pierce A H (1901) Studies in auditory and visual space perception. Band 1: The localization of sound. Longmans Green NY

Shaw E A G (1974) The external ear. In:. Keidel W D, Neff W D (Herausg) Handbook of sensory psychology. Band 5, 455–490, Springer Berlin–Heidelberg–New York

Trimble O C (1928) The theory of sound localization – a restatement. Psychol. Rev 35, 515–523

Von Békésy G (1960) Experiments in hearing. McGraw-Hill New York NY

Von Hornbostel E M (1926) Das räumliche Hören. In: Bethe A et al (Herausg) Handbuch der normalen und pathologischen Physiology. Band 2, 601–618, Springer Berlin

Wightman F L, Kistler D J (1993) Sound localization. In: Yost W A, Popper N, Fay R R (Herausg) Human psychophysics. 155–192, Springer New York NY

Woodworth R S, Schlosberg H (1954) Experimental psychology. Holt New York NY

Yost W A, Gourevitch, G (Herausg) Directional hearing. Springer New York NY