Schallereignisse hören



…was kommt alles am Ohr an


Was kommt alles am Ohr an?
Wenn z. B. zwei Instrumente in einem Raum spielen, kommt deren Schall irgendwann an beiden Ohren an. Er kommt sogar mehrmals, zeitlich nacheinander und in unterschiedlicher Lautstärke an - als Reflexion. Allerdings nicht in Form von „Einzelschall“ für jedes Instrument und jede Reflexion, sondern immer als Summe von Allem.
Diese Summe „besteht“ also aus dem Direktschall jedes Instrumentes und natürlich aus all den Reflexionen des Direktschalls.


Wenn man mal den Schall von zwei im Raum spielenden Instrumenten und jeweils zwei ihrer Reflexionen betrachtet, sieht das ganze z. B. wie folgt aus:


Um die Darstellung nicht zu komplex zu machen, sind hier nur 4 Reflexionen eingezeichnet (zwei pro Schallquelle - erste starke Reflexionen - und auch nur von den Seiten). In Wirklichkeit kommen natürlich wesentlich mehr Reflexionen zu jeweils unterschiedlichen Zeiten mit unterschiedlichen Pegeln und auch aus unterschiedlichen Richtungen an beide Ohren an - auch wird jede Reflexion an beiden Ohren ankommen und die Reflexionen werden auch durch die Eigenschaften der jeweiligen Reflexionsflächen verändert!


Aber um zu verdeutlichen was prinzipiell am Ohr ankommt reicht diese einfache Betrachtung völlig aus.
Denn letztendlich wird alles, was wir z. B. von den zwei Instrumenten im Raum „hören“ nur aus dem analysiert, was an Schall an beiden Ohren ankommt - nur aus den zwei Ohrsignalen.


Die eigene Hörerfahrung zeigt, was wir alles aus diesen zwei Ohrsignalen an Informationen gewinnen:

  • Anzahl der Schallquellen
  • Raumeindruck (Freifeld, grosser Raum, kleines Studio, hallige Umgebung, etc.)

und separat für jede (erkannte) Schallquelle:

  • Richtung und Entfernung (Lokalisation)
  • Tonale Analyse (hohe Töne, tiefe Töne, Mitten... „Grundtöne“, „Obertöne“...)
  • Art und Grössenordnung (Instrument, Stimme, Geräusch etc.)
  • Klassifizierung (Geige oder Klavier,...; Steinway-Flügel oder Bechstein-Klavier,...;  Männerstimme oder Frauenstimme;... etc.).
  • Auswertung (Melodie, Rhythmus, Gesangstext, gesprochener Text, Nuancierung, Klangfarben, etc.).

All diese Informationen werden sicherlich nicht alle auf einmal erfasst, sondern zum Teil nacheinander und parallel und sicherlich auch über einen „Zeitraum“ hinweg (integrativ).

Rein aus der Logik heraus sind bestimmte „Informationen“ erst möglich, wenn andere „Ergebnisse“ bereits vorliegen.

Z. B. kann eine Klassifizierung oder auch eine tonale Analyse eines Instrumentes erst vorgenommen werden, wenn die (Schall-)Informationen jedes der (erkannten) Instrumente voneinander separiert sind - wenn ich „weiß“, wieviele Instrumente überhaupt vorhanden sind und welcher Schallanteil zu welchem Instrument gehört.
Wie sonst soll mein Gehör unterscheiden, welche der analysierten Töne zur Geige und welche zum Horn gehören - womöglich haben einige Instrumente sogar die gleichen Töne? Und welche dieser Töne gehören zum Direktschall und welche zu den Reflexionen (und welche Reflexionen gehören zu welchem Direktschallanteil)? Oder sind gar Töne neuer Schallquellen dabei (neue Instrumente, Hintergrundgeräusche, Publikum...)?

Ohne Separation der Schallquellen würden wir also nicht das „Hören“, was wir hören - man kann auch sagen, weil wir das Hören was wir hören, ist das Gehirn/Gehör in der Lage die Schallquellen zu separieren.
Wie bereits im Artikel „Stereo = Separation“ geschildert, wird das Gehör diese Separation der Schallquellen wahrscheinlich über eine sog. gleitende Kreuzkorrelationsfunktion mit Mustererkennung vornehmen.
Hierzu ist es interessant mal zu betrachten, welche „Informationen“ dem Gehör/Gehirn für diesen Prozess überhaupt zur Verfügung stehen.

In meinem Artikel „Schallreproduktion“ habe ich ja bereits ausgeführt, was von  natürlichen Schallquellen oder auch von Aufnahmen (z. B. CD oder Schallplatte) an  unsere Ohren kommt.

Neben dem eigentlichen zeitlichen Signalverlauf - also den über der Zeit stetig wechselnden Pegeln - lassen sich auch aus der Tatsache, das es zwei Schallverläufe sind, eine Menge an Informationen gewinnen.
Diese zwei Ohrsignale erfüllen ja einige Bedingungen, die auch „verwertbar“ sind.
In der Mathematik spricht man in diesem Zusammenhang von bekannten Randbedingungen, die einige der Unbekannten eines Gleichungssystems auflösen und damit die Lösung der verbleibenden Unbekannten erleichtern.

1. Randbedingung:
Der Schallverlauf jeder Schallquelle und deren Reflexionen ist prinzipiell immer in  beiden Ohrsignalen - es gibt also in beiden Ohrsignalen immer zusammenpassende Schallanteile für jede Schallquelle. Daraus folgt auch für die Separation der Schallquellen: Es kann in einem Ohrsignal nichts „übrigbleiben“ (ein Ohrsignal kann nicht mehr bzw. weniger Schallquellen enthalten als das andere - wenn doch, stimmt etwas nicht!).

2. Randbedingung:
Die Signalform (bildlich die „Kurvenform“ in der Amplituden-Zeitdarstellung) jeder Schallquelle ist in beiden Ohrsignalen immer identisch (Koherenz der zeitlich versetzten Schallquellenanteile in beiden Ohrsignalen). Jede Signalform einer Schallquelle ist je Ohrsignal sogar mehrmals vorhanden, denn auch jede Reflexion hat ja die gleiche Signalform!

3. Randbedingung:
Die Unterschiede der Signalform einer Schallquelle in den beiden Ohrsignalen (aufgrund der unterschiedlichen Entfernungen einer Schallquelle zu jedem Ohr) sind:

  • ein zeitlicher Versatz und
  • der Pegel.

- jeweils für den Direktschall und für dessen Reflexionen.

Da die zeitlichen und pegelmässigen Unterschiede zwischen den zwei Ohren für jeden Schalleinfallswinkel aufgrund der Kopfgeometrie „bekannt“ sind, kann man das Zeitfenster für die Separation eingrenzen und diese Kenntnis zur Lokalisation  verwenden (und: ein einmal gefundenes Lokalisationsergebnis für eine Schallquelle kann im Weiteren zur besseren/schnelleren Separation dieser Schallquelle genutzt werden).

Die Faktoren der 3. Randbedingung sind für jede Schallquelle verschieden. Damit sind die Möglichkeiten die einzelnen Schallquellen allein aus dem Abgleich der beiden Ohrsignale hinsichtlich dieser Randbedingungen zu separieren schon recht groß.

Folgend mal am Beispiel der Geige welche weiteren Signalanteile prinzipiell neben dem Direktschallanteil des linken Ohrsignals für eine Separation noch „zur Verfügung“ stehen (mit ihren Beziehungen zum Direktschallanteil des linken Ohrsignals):

Damit habe ich also 4 „Angaben“, die in bestimmten - z. T. bekannten - Beziehungen zueinander stehen.
Wie auch immer das Gehör/Gehirn daraus all die Informationen gewinnt, es wird wahrscheinlich diese „Angaben“ dazu verwenden - denn es gibt nicht viele „Alternativen“.

Wenn dem so ist, sollten auch bei der Wiedergabe von Aufnahmen über eine Stereo-Anlage zu Hause diese Randbedingungen „erhalten“ bleiben. Werden diese Randbedingungen verändert, wird dies Auswirkungen auf unsere Hörwahrnehmung haben - auf unsere Höreindrücke!

 

Es macht also Sinn, sich die Separation einmal „gedanklich“ vorzustellen - was für „Verarbeitungen“ sind denkbar? Welchen Einfluss haben z. B. Veränderungen durch eine Musik-Wiedergabeanlage auf diese Randbedingungen?

Wahrscheinlich wird das Gehör zuerst die Direktschallanteile separieren, da sie die größten Pegelanteile haben und die kleinsten Laufzeitunterschiede (was die Erkennungs-Reaktionszeit erhöht).
Die deutlich „später“ ankommenden Reflexionen können hingegen mit Hilfe der bereits vorher separierten Direktschallanteile „herausgefiltert“ werden - denn ein Reflexionsanteil wird immer deutlich später eintreffen und dessen Signalform entspricht immer der eines früheren Direktschallanteils.
Dieses „Herausfiltern“ der Reflexionsanteile (vom Summensignal) verbessert wiederum die „aktuelle“ Separation der Schallanteile, da ja ein Teil bereits „aufgelöst“ ist.
Diese „herausgefilterten“ Reflexionen können zudem die Qualität der früher separierten Direktschallanteile verbessern - sie können zusätzliche Informationen liefern (Sprachverständlichkeit, Klangnuancen etc...) oder z. B. wie eine Plausibilitätsprüfung oder Fehlerausgleich für eventuell „schlecht“ separierte Direktschallanteile wirken.

Die Reflexionen werden zwar durch die Beschaffenheit der Reflexionsflächen verändert, aber es gibt Versuche, die nahelegen, daß das Gehör recht schnell diese Art der Veränderungen erfasst (z. B. beim Betreten eines Raumes) und dies für die (zukünftige) Auswertung verwendet - also diese „Kenntnis“ z. B. auch nutzt um die Reflexionsanteile zu separieren.

Man kann sich das Ganze wie ein Memory-Puzzle vorstellen. Man weiß das es in der Menge verdeckter Karten passende Paare gibt und mit jedem gefundenen Paar, verbessert sich die „Erfolgsrate“ für das Finden der restlichen Paare.

Man muss auch bedenken, das die Separation ein fortlaufender Prozess ist, der sich ständig - durch die Ergebnisse vorangegangener Auswertungen - optimiert.
Mit jeder „gefundenen“ Schallquelle habe ich ja Informationen über diese Schallquelle die ich fortan verwenden kann (Art, Zeit- und Pegeldifferenzen, Tonalität etc.).
Wenn ich z. B. die Geige und deren Richtung „erkannt“ habe, weiß ich das in den folgenden Schallverläufen Signalanteile sein müssen, die denen einer Geige entsprechen und ich weiß auch aus welcher Richtung sie kommen (welche Zeit- und Pegeldifferenzen sie haben - ich kann gezielter danach „suchen“).

Man sollte sich hier nochmal klar machen, daß die Qualität der Schallquellen-Separation entscheidend ist für so ziemlich alle Höreindrücke!
Egal ob Lokalisation, Klang, Auflösung, Dynamik, Raumeindruck oder Gesang, Melodie, Rhythmus etc. - dies alles wird von uns ja für jedes Instrument, für jeden Sänger, für jede „Geräuschquelle“ (Publikum, Nebengeräusche etc.) separat wahrgenommen!
Wie gut wir dies bei jeder Schallquelle wahrnehmen hängt aber davon ab, wie gut wir die zu jeder Schallquelle gehörenden Information von den Informationen der anderen Schallquellen - die ja alle „gleichzeitig“ vorhanden sind - separieren können!

Diese Betrachtung ist auch völlig unabhängig davon, wie das Gehör/Gehirn eine Schallquellenseparation macht.
Das jede Schallquelle separiert wird, geht allein aus den wahrnehmbaren Höreindrücken hervor - schließlich können wir sehr gut mehrere Schallquellen die alle gleichzeitig Schall erzeugen, erkennen, lokalisieren, sie unterscheiden, ihre Art und Größenordnung bestimmen, sie klassifizieren, sie verstehen sie analysieren; ...und vieles mehr.
Da das, was an den Ohren physikalisch ankommt - also die Ohrsignale - bekannt ist, ist alles weitere eine logische Betrachtung.

 

Mit dieser Betrachtungsweise kamen mir jetzt einige Gedanken in Bezug auf die Wiedergabe von Musik in Räumen über eine Stereo-Anlage.

Bei Betrachtung der Wiedergabe einer Aufnahme über eine Stereo-Anlage zu Hause kann man - sehr vereinfacht - das oben aufgeführte Beispiel mit der Geige und dem Horn auf diese Situation übertragen. Die Boxen sind dabei die Instrumente (die die Summe der Direktschallanteile des jeweiligen Stereo-Kanals wiedergeben - das entspricht idealisiert dem jeweiligen Ohrsignal wenn man kive gehört hätte) und die Raumreflexionen entsprechen dem reflektierten Direktschall der Boxen.

Wie die Wiedergabe einer Aufnahme bis an die Ohren prinzipiell aussieht, habe ich ja bereits im Artikel „Schallreproduktion“ ausgeführt. Danach muss das Gehör erstmal die zwei Boxensignale separieren um aus diesen dann die Schallquellen der Aufnahme zu separieren. Die Separation der zwei Boxensignale wird in der gleichen Form erfolgen wie die Separation „natürlicher“ Schallquellen (in diesem Wiedergaberaum!).
Für das Gehör/Gehirn sind die Boxen erstmal „nur“ zwei Schallquellen im Raum.
D. h. wie gut wir die Informationen der Aufnahme analysieren können hängt davon ab, wie gut wir die zwei Boxensignale separieren können.

Prinzipiell kann man sich vorstellen, daß je besser die Boxensignale separiert werden können, desto besser werden die Boxen (bzw. die Wiedergabeanlage inkls. Wiedergaberaum) „ausgeblendet“ und nur noch die Informationen dieser Boxensignale - also der Aufnahme - „verarbeitet“.
Ein Aspekt, der die Separation der Boxensignale - und damit das „Ausblenden“ der Wiedergabeanlage - beeinflusst, ist die Symmetrie der Stereo-Signale. Je besser also die Symmetrie (technisch gesehen die Stereo-Kanalgleicheit) der Wiedergabeanlage ist, desto besser wird diese „ausgeblendet“ und „nur noch“ die Information der Aufnahme vom Gehirn/Gehör „verarbeitet“.


Es gibt noch weitere Aspekte, bei denen die Wiedergabeanlage einen Einfluss auf die Separation hat.
Wenn man sich mal vor Augen hält, daß die Ohrsignale alle Schallquellen (als Summensignal) beinhalten, ist es sicherlich so, daß die Direktschallanteile der lautesten Schallquellen ca. 80% dieser Ohrsignale ausmachen. Somit bleiben ca. 20% für die leiseren Reflexionen und für leisere Schallquellen (Hintergrundgeräusche, Publikum etc.).

Für einzelne solcher „Details“ und Hintergrundgeräusche - die ja meist auch gleichzeitig vorkommen - sind dann nur noch ca. 3% bis 5% Ohrsignalanteil übrig... oder gar noch weniger.
In der folgenden Grafik sind mal die Schallanteile des o. a. Beispiels als Flächenanteile für ein Ohrsignal dargestellt (grafische Summenbildung). Jede farbige Fläche entspricht dem Schallanteil einer Schallquelle bzw. dem einer Reflexion.

Diese relativ leisen Signalanteile (in der Grafik vergleichbar mit dem Anteil der beiden Reflexionen) sind wesentlich „empfindlicher“ gegenüber Signalveränderungen als die „lauteren“ Signalanteile. D. h., wie gut ich diese „leisen“  Signalanteile „höre“ hängt davon ab was nach der Separation des Direktschalls noch übrig bleibt und wie gut die Separation dieser leisen Signalanteile gelingt.

Man kann annehmen, daß die „lauteren“ Signalanteile recht schnell und recht gut separiert werden (auch, weil sie sich aufgrund ihrer Prägnanz gut mit bekannten Signalmustern abgleichen lassen) Wenn dann also die „lauten“ Signalanteile weg sind, bleiben nur noch die „leisen“ Signalanteile übrig. Auf diesen „kleinen“ Signalverlauf  werden sich somit Signalveränderungen (z. B. durch die Anlage) überproportional auswirken. D. h. die ohnehin schon „leisen“ Signalanteile werden durch die Anlage deutlicher verändert als die „lauten“ Signalanteile.

Die Reflexionen (im Wiedergaberaum) haben sicherlich auch einen Einfluss. Passende Reflexionen (des Direktschalls aus den Boxen) helfen die (lauteren) Direktschallanteile besser zu separieren - die der Boxensignale als auch die der Aufnahme. Je besser wiederum die Reflexionen separiert werden (über eine gute Zuordnung zu Direktschallanteilen), desto weniger an „zu separierenden“ leisen Signalanteilen bleibt übrig, die dann wiederum besser separiert werden können.

Das dürfte sich in einer besseren, leichteren Wahrnehmung von mehr Details und Nebengeräuschen etc. bemerkbar machen - und aufgrund der verbesserten Separation der Direktschallanteile natürlich auch in einer verbesserten „Wahrnehmung“ der lauten Signalanteile.

Umgekehrt ist auch vorstellbar, das wenn die Reflexionen nicht zu einem früheren Direktschallanteil passen, können diese unvollständig oder gar nicht separiert werden - was wiederum die Separation aller anderen Schallquellen erschwert... insbesondere die leiseren!
"Nicht passende" Reflexionen können z. B. entstehen, wenn die Abstrahleigenschaften der Boxen unterschiedliche Reflexionen erzeugen...
Das würde die oft guten Klangeindrücke z. B. von BBs oder Koax-Systemen erklären (ähnlich auch bei Dipol- oder Bipol-Boxen). Deren Reflexionen sind ja prinzipbedingt zur Seite und nach oben und unten tonal und bezüglich der Signalform gleich, womit die am Hörplatz ankommenden Reflexionen von der Seite, von oben und von unten nahezu identisch sind... und damit gut separierter!


Bei all diesen Prozessen sollte man immer bedenken, das es sich ja um unbewusste Vorgänge handelt. D. h. die Auswirkungen guter oder schlechter Separation und vor Allem auch wie schwierig oder einfach die Separation für das Gehör/Gehirn ist, wird man nicht bewusst oder anhand einzelner Aspekte „wahrnehmen“. Da die Separation  eine wesentliche Voraussetzung für fast alle Höreindrücke ist, hat die Qualität der Separation Auswirkungen auf fast alle Aspekte der Hörwahrnehmung.

Gute und einfache Separation wird sich z. B. durch ein „ermüdungsfreies“ oder „angenehmes“ Hören bemerkbar machen, oder eben durch eine insgesamt bessere Wiedergabe - besonders von Details, Nebengeräuschen; Klangfarben, etc..

Mal auf die wahrgenommenen Höreindrücke mit verschiedenen Anlagen bezogen, passen die geschilderten Unterschiede ebenfalls recht gut zu den o. a. Einflüssen auf die Qualität der Separation.
Gerade bei Anlagen-Komponenten, deren absoluter Einfluss auf die Signalqualität prinzipiell sehr gering ist (z. B. Netzfilter, Kabel, Übertrager, etc.) passen die Schilderungen über Unterschiede bei bestimmten Höreindrücken recht gut zu den o. a. Auswirkungen auf die Qualität der Separation von leisen Signalanteilen. Die Einflüsse dieser Komponenten werden mehr bei der Separation der leisen Signalanteile zum Tragen kommen die ja im Vergleich zu den lauten Signalanteilen überproportional stark von Signalveränderungen betroffen sind. Genau dies sind dann auch die Unterschiede die durch solche Komponenten „gehört“ werden.

 

Nachtrag 28.12.2016:
Ich habe zu dem Thema Separation natürlich weiter recherchiert. Im Englischen wird dieses Thema als "Auditory Scene Analysis" (ASA) geführt und es gibt hier einige sehr interessante Studien und Beiträge (z. B. http://webpages.mcgill.ca/staff/Group2/abregm1/web/pdf/2004_Bregman_Woszczyk.pdf  und generell auf der folgenden Webseite: http://webpages.mcgill.ca/staff/Group2/abregm1/web/index.htm ).
Prinzipiell gehen diese Arbeiten in die gleiche Richtung wie ich in meinen Artikel ausführe... Wer mehr darüber wissen will findet dort weitere sehr interessante Angaben.

 



Die Informationen in diesem Dokument werden ohne Rücksicht auf einen eventuellen Patentschutz veröffentlicht. Warennamen werden ohne Gewährleistung der freien Verwendbarkeit benutzt. Die Zusammenstellung von Texten und Abbildungen erfolgte mit größter Sorgfalt. Trotzdem können Fehler nicht vollständig ausgeschlossen werden. Die Verwendung der Informationen und Angaben in diesem Dokument erfolgt auf eigenes Risiko des Benutzers. Die Herausgeber und Verfasser können weder eine juristische Verantwortung noch irgendeine Haftung übernehmen.
Alle Rechte vorbehalten, auch die der fotomechanischen Wiedergabe und der Speicherung in elektronischen Medien. Die gewerbliche Nutzung der in diesem Dokument aufgeführten Angaben ist nicht zulässig.
Markennamen, Firmen- und Produktbezeichnungen die in diesem Dokument verwendet werden sind als eingetragene Markenzeichen geschützt. Da es zum Zeitpunkt der Erstellung nicht immer möglich war zeitnah zu ermitteln, ob ein Markenschutz besteht, erfolgt die Nennung ohne Kennzeichnung mit ®, ©, TM.


Diskus_GL
alias
Joachim Liepold
im August 2016

Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

 
 
 
Cookies sind Dateien, die auf der Festplatte Ihres Computers abgelegt werden und der Erleichterung der Navigation dienen. Wenn Sie keine Cookies akzeptieren, kann dies im Einzelfall zu Funktionseinschränkungen unserer Seiten führen. Soweit Sie Cookies akzeptieren, legt der AudioClub Daten innerhalb der Cookies auf Ihrer Festplatte ab und ruft diese Informationen bei späteren Nutzungen wieder ab. Weitere Informationen finden Sie auf unserer Datenschutz-Seite, Bereich "Cookies"