Auditive Wahrnehmung: Unterschied zwischen den Versionen

Aus Organspende-Wiki
Zur Navigation springen Zur Suche springen
 
Zeile 133: Zeile 133:
Im Verlauf der Evolution kam das Gehör erst hinzu, als die frühen Lebewesen begannen, das Land zu erobern. Schall konnten die ersten Landbewohner nur durch Vibrationen im Wasser oder am Boden wahrnehmen. Die ersten Fische hatten dafür an den Seiten eine Reihe von Haarzellen, die Wasserbewegungen wahrnahmen. Aus diesem so genannten [https://de.wikipedia.org/wiki/Seitenlinienorgan Seitenlinienorgan] entwickelte sich bei den Wirbeltieren das [https://de.wikipedia.org/wiki/Innenohr Innenohr] mit der  
Im Verlauf der Evolution kam das Gehör erst hinzu, als die frühen Lebewesen begannen, das Land zu erobern. Schall konnten die ersten Landbewohner nur durch Vibrationen im Wasser oder am Boden wahrnehmen. Die ersten Fische hatten dafür an den Seiten eine Reihe von Haarzellen, die Wasserbewegungen wahrnahmen. Aus diesem so genannten [https://de.wikipedia.org/wiki/Seitenlinienorgan Seitenlinienorgan] entwickelte sich bei den Wirbeltieren das [https://de.wikipedia.org/wiki/Innenohr Innenohr] mit der  
[https://de.wikipedia.org/wiki/H%C3%B6rschnecke Hörschnecke] und dem [https://de.wikipedia.org/wiki/Gleichgewichtsorgan Gleichgewichtsorgan]. Parallel dazu dürfte die Zunahme des Gehirnvolumes verlaufen sein, denn es mussten alle diese Informationen der Sinne verarbeitet werden.<ref>https://www.dasgehirn.info/wahrnehmen/hoeren/hoeren-2013-mehr-als-nur-schall-und-schwingung-2216 Zugriff am 5.8.2016.</ref>
[https://de.wikipedia.org/wiki/H%C3%B6rschnecke Hörschnecke] und dem [https://de.wikipedia.org/wiki/Gleichgewichtsorgan Gleichgewichtsorgan]. Parallel dazu dürfte die Zunahme des Gehirnvolumes verlaufen sein, denn es mussten alle diese Informationen der Sinne verarbeitet werden.<ref>https://www.dasgehirn.info/wahrnehmen/hoeren/hoeren-2013-mehr-als-nur-schall-und-schwingung-2216 Zugriff am 5.8.2016.</ref>
"Unter  den  Säugern  können  Elefanten  Töne  mit  den  niedrigsten  Frequenzen hören,  während  kleine  Tiere  wie  die  Ratte  für  extrem  hohe  Frequenzen  besonders empfindlich  sind.  Der  Mensch  hat,  wie  man  vermuten  würde,  ein  Frequenzspektrum,  das  zwischen  dem  des  Elefanten  und  der  Ratte  liegt.  Katzen  können  Geräusche  zwischen  ungefähr  30  und  70000  Hz  hören.  Fledermäuse  und  Delfine  sind in  der  Lage,  sehr  hochfrequente  Laute  bis  ungefähr  100  000  Hz  (Ultraschall)  wahrzunehmen,  Wie  erwähnt,  senden  diese  Tiere  Salven  von  Hochfrequenzlauten  aus und  bestimmen  aus  deren  Reflexionen  die  Positionen  von  Objekten."<ref>Richard  Thompson: Das  Gehirn. Von  der  Nervenzelle zur  Verhaltenssteuerung. 3.  Auflage. Heidelberg, 2001, 278.</ref>


=== Verarbeitung im Gehirn ===
=== Verarbeitung im Gehirn ===

Aktuelle Version vom 12. November 2024, 08:09 Uhr

Allgemeines

Als auditive Wahrnehmung (aurale, akustische) bezeichnet man die Sinneswahrnehmung von Schall durch Lebewesen. Zur Wahrnehmung des Schalls dienen Sinnesorgane, die durch Schwingungen aus der Umgebung des Lebewesens stimuliert werden. Die Schwingungen können über das Umgebungsmedium (Luft, Wasser) oder über den Untergrund (Vibrationen) übertragen werden. Der Hörsinn ist nicht immer an Ohren gebunden, insbesondere Vibrationen können auch durch Sinnesorgane an entsprechenden Körperteilen wahrgenommen bzw. empfunden werden.

Auditive Wahrnehmung beschreibt den Vorgang des Hörens und in welcher Form Schall von Lebewesen wahrgenommen wird, also z.B. die Hörereignisse, die bei bestimmten Schallereignissen entstehen.

Das autitorische System besteht aus drei Teilsystemen:[1]

  1. Äußeres Ohr: Schallaufnahme
    Über den 2,5 bis 4 cm langen Gehörgang gelangen die Schallwellen zum 0,1 mm dünnen Trommelfell. Dieses bildet die Grenze zum Mittelohr.
  2. Mittelohr: Schallübertragung
    Die Paukenhöhle des Mittelohrs ist 3 bis 6 mm breit. Darin befinden sich die Gehörknöchelchen. Sie geben die Schwingungen vom Trommelfell an das Innenohr weiter.
  3. Innenohr: Sensorisches System
    Die Öffnung der Schnecke nimmt die Schallwellen auf und leitet sie an den sich verjüngenden Gang der Schnecke weiter. Im gleichen Maße verdickt sich die Basilarmembran. Diese schwingt in Resonanz bei der je eigenen Frequenz, d.h. außen (= dünne Basilarmembran) bei 20.000 Hz, innen (= dicke Basilarmembran) bei 100 Hz. Dadurch können viele Töne gleichzeitig wahrgenommen werden, was z.B. den Klang der Sprache ausmacht.

Über das auditive System nimmt der Mensch seine Umwelt wahr: Die Ohrmuschel nimmt die Schallwellen auf und leitet sie über Gehörgang, Trommelfell, Gehörknöchelchen an die Hörschnecke weiter. Dort werden die Schallwellen umgewandelt und über den Hörnerv zum Hörzentrum in der Großhirnrinde weitergeleitet. Dort werden die akustischen Signale verarbeitet und dem Bewusstsein zugeführt.

Hörereignisse nimmt der Mensch als Tonheit, Klangfarbe, Durchsichtigkeit, Raumeindruck und Lautheit wahr.

Wir sind in der Lage, Töne von 20 Hz bis 20 kHz wahrzunehmen. Die höchste Wahrnehmungsempfindlichkeit liegt bei etwa 4 kHz. Töne sind physikalisch nur schnelle Luftdruckschwankungen. Im Gegensatz zum Sehen kann unser Gehör bis zu 20 Signale pro Sekunde als einzelne Ereignisse wahrnehmen.

Die primäre auditorische Rinde entspricht den Heschl-Querwindungen des Gyrus temporalis superior. Ihre Impulse erhält sie vom Corpus geniculatum mediale.[2]

Die beiden Hörbahnen leiten die Informationen des Corti-Organs der Ohren zunächst an die beiden Schneckenkerne im Hirnstamm. Dort werden die Signale nach Lautstärke, Frequenz und Richtung, aus der der Ton kommt, sortiert. Anschließend kreuzen sich die Hörbahnen - ähnlich wie bei den Sehnerven - und kommen zu den "Oliven". Dort treffen die Informationen erstmals aufeinander und werden ausgewertet. Aus der Zeitdifferenz der Information der beiden Ohren, kann die Richtung bestimmt werden, aus welcher der Ton kommt. Die "Oliven" leiten die Informationen an das Mittelhirn weiter, über den Thalamus schließlich zum auditiven Cortex der Großhirnrinde. Die Aufbereitung der Hörinformationen im Gehirn ist so breit gestreut, dass Verletzungen des Gehirns selten zum totalen Hörverlust führen.[3]

Wahrnehmungskette der Auditiven Wahrnehmung

Wahrnehmungskette der Auditiven Wahrnehmung I

Martin Trepel zählt in seinem Buch "Neuroanatomie" jedes einzelne Neuron auf, über die die Informationen vom Ohr zur Hörrinde gelangen:[4]

  • 1. Neuron
    Das 1. Neuron, dessen Perikaryen im Ganglion spirale liegen, leitet die Signale den Ncll. cochleares in der Medulla oblongata zu. Dabei existiert eine tonotopische Gliederung (Gliederung nach Tonhöhe).
  • 2. Neuron
    Das 2. Neuron führt zum geringeren Teil nach oben und zum größeren Teil zur Gegenseite. Die nachfolgende Kreuzung ist wichtig für das Richtungshören. (Die Hörnerven kreuzen sich öfters)
  • 3. Neuron
    Aus der Kreuzung führt das 3. Neuron in die Hörrinde.

Die Hörrinde wird in eine primäre und eine Sekundäre Hörrinde unterschieden:[5]

  • Primäre Hörrinde
    Die primäre Hörrinde ist in der Area 41 nach Brodmann. Dort werden die elektrischen Signale als Töne bewusst wahrgenommen.[Anm. 1]
  • Sekundäre Hörrinde
    Die sekundäre Hörrinde nimmt die Areae 42 und 22 nach Brodmann ein. Dort erfahren die elektrischen Impulse der primären Hörrinde "eine interpretative Verarbeitung. Die Laute werden als Wörter, Melodien, Geräusche etc. erkannt."
    Dabei nehmen die sekundären Hörrinden beider Hemisphären einen unterschiedlichen Stellenwert ein:
    • Dominante Hemisphäre
      In der dominanten Hemisphäre werden die Informationen mehr rational integriert einschließlich des Verständnisses der Sprache. Daher wird sie auch "sensorisches Sprachzentrum" genannt.
    • Nicht-dominante Hemisphäre
      In der nicht-dominanten Hemisphäre erfolgt eher die gefühlsmäßige Verarbeitung, wie das Erkennen und das Verständnis von Musik.
      "Definitionsgemäß ist diejenige Hemisphäre dominant, in der motorisch und sensorisch die Sprache verarbeitet wird (bei Rechtshändern die linke, bei Linkshändern die rechte oder die linke)."[6]
      Die sekundäre Hörrinde ist auch mit dem Gyrus angularis verbunden, der eine zentrale Rolle bei der Verknüpfung von Gesehenem und der Sprache hat. Dies spielt z.B. beim Schreiben oder Lesen eine wichtige Rolle. Der Gyrus angularis erhält die meisten Signale aus der sekundären Sehrinde. "Diese Information der als Schrift erkannten Impulse aus der Sehrinde wird dann vom Gyrus angularis an das Wernicke-Sprachzentrum weitergesandt und dort mit dem Sprachverständnis verknüpft. Auch bei anderen Funktionen, z.B. beim Benennen von gesehenen Gegenständen, gilt dieses Prinzip."[6]

Das Wernicke-Zentrum ist eine zentrale Stelle unserer schriftlichen und mündlichen Kommunikation. Auch "der größte Teil unseres Denkens ist an die Sprache als 'Instrument' und somit an das Wernicke-Zentrum gebunden. Eine vollständige Zerstörung des Wernicke-Zentrums hat deshalb ... meist auch tiefgreifende Persönlichkeitsbeeingträchtigungen zur Folge."[7]

Wahrnehmungskette der Auditiven Wahrnehmung II

Signale aus dem Ohr gelangen über den Thalamus in den primären autitiven Cortex. Dieser liegt in der Furche zwischen Schläfen- und Scheitellappen. Direkt daneben befindet sich das Wernicke-Areal, in dem eintreffende Laute zu Wörtern umgewandelt werden.[8]

Das Corti-Organ besitzt winzige "Haare", die Schallwellen in elektrische Impulse umwandeln. Es gibt ca. 20.000 äußere und 3.500 innere Haarzellen, die ihre elektrischen Impulse zum Hörnerv ableiten.[9]

Die akustischen Informationen werden vom Hörnerv in Form elektrischer Signale vom Ohr über den Hirnstamm und den Thalamus zur Hörrinde (auditiver Cortex) im Temporallappen geleitet und werden dort verarbeitet. In der primären Hörrinde, einer der 3 Areale der Hörrinde, reagieren verschiedene Neuronen auf spezielle Tonfrequenzen. Andere Neuronen reagieren auf die Intensität des Tons, andere auf komplexe Geräusche wie Klicken, Tierlaute oder plötzlicher Lärm. Die sekundäre Hörrinde ist wohl an der Verarbeitung von Harmonien, Rhythmen und Melodien beteiligt. Die tertiäre Hörrinde integriert die Geräuschvielfalt zu einem Gesamteindruck.[10]

Das Gehirn ortet eine Schallquelle - Richtung und Entfernung - durch Schalllokalisation. Dies ist möglich, weil die Schallwellen geringfügig verzögert bei den Ohren ankommen. Wir können Unterschiede von 1500-stel Sekunden wahrnehmen. Areale in der Olive des Hirnstamms vergleichen den Signaleingang aus beiden Ohren (binauralen Input) und deren Verzögerung, um die Schallquelle zu orten:[11]

  • Signal empfangen
    Die Nucleus cochlearis (Nc) empfangen die Signale vom Hörnerv. Dabei empfangen die Nc die Signale des Ohrs ihrer Seite.
  • Verzögerung
    Der Nc der anderen Seite empfängt die Schallwellen Sekundenbruchteile später.
  • Signalweiterleitung
    Die Signale werden zur lateralen oberen Olive weitergeleitet.
  • Seitenwechsel
    Die Signale wechseln vom kontralateralen Nc zum medialen Nc der Gegenseite.
  • Hemmung
    Die vom kontralateralen Nc kommenden Signale bewirken eine Umkehrung der Impulse von erregend zu hemmend.
  • Weiterleitung
    Die Signale werden an die laterals obere Olive geleitet.
  • Signalvergleich
    Die laterale obere Olive erhält Signale von Nc beider Seiten. Die Zellen werden entsprechend der Intensität der jeweiligen Signale aus den Nc erregt oder gehemmt.
  • zum Gehirn
    Die so vom Hirnstamm aufbereiteten Signale gelangen über ein komplexes Bahnsystem, dem Lemniscus lateralis, in den Colliculus inferior im Mittelhirn und dann zur weiteren Verarbeitung in den Thalamus.

Die linke Hörrinde befasst sich vornehmlich mit Bedeutung und Identifizierung von Tönen, die rechte mit deren Qualität.[11]

Wahrnehmungskette der Auditiven Wahrnehmung III

Rita Carta den Ablauf des Hörens von der Schallwelle bis zum bewussten hören mit knappen Worten so:[12]

  • Äußeres Ohr
    Die Schallwellen werden von der trichterförmigen Ohrmuschel eingefangen und in den äußeren Gehörgang gelenkt.
  • Gehörgang
    Die Schallwellen wandern den ca. 2,5 cm langen Gehörgang entlang bis zum Trommelfell.
  • Trommelfell
    Das Trommelfell gerät durch die Schallwellen in Schwingung. Als dünnes Bindegewebe bildet das Trommelfelll die Grenze zwischen äußere Ohr und Mittelohr.
  • Gehörknöchelchen
    Die Schwingungen des Trommelfells werden auf die Gehörknöchelchen übertragen und ins Innenohr weitergeleitet.
  • Hörschnecke
    Die Schallwellen wandern durch die Hörschnecke und regen im darin liegenden Corti-Organ die feinen Härchen bei der Resonanzfrequenz zum Schwingen an, lange Härchen für tiefe Töne, kurze Härchen für hohe Töne. Durch das Schwingen werden elektrische Signale erzeugt.
  • Hörnerv
    Der Hörnerv leitet die elektrischen Signale des Corti-Organs an den Hirnstamm weiter.
  • Hirnstamm
    Im Hirnstamm kommen die Signale im Nuclei cochleares an und in entsprechenden Zentren im Hirnstamm ausgewertet.
  • Pons
    Das Ergebnis wird vom Hirnstamm in die obere Olive im Pons weitergeleitet, um die Richtung des Schalls auszuwerten.
  • Mittelhirn
    Alle aufsteigenden auditiven Bahnen - einige umgehen die obere Olive - vereinen sich im Colliculus inferior des Mittelhirns und werden zumm Thalamus weitergeleitet.
  • Thalamus
    Die Signale werden im Thalamus verarbeitet und an die Hörrinde weitergeleitet, die ihrerseits dem Thalamus Rückmeldung gibt.
  • Hörrinde
    In der Hörrinde werden die Signale interpretiert. Zusammen mit anderen Arealen des Cortex wird der Schall wahrgenommen.


Siehe: Wahrnehmungskette#Hören

Sonstiges

Besonderheiten

Untersuchungen mit dem fMRT an menschlichen Gehirnen zeigen, dass sensorische Neuronen, die bei Hörenden durch Sprache aktiviert werden, bei Tauben der Verarbeitung von Zeichensprachee dienen.[13]

Synästhesie: Einige Menschen hören nicht nur Geräusche, sie "sehen" sie auch, oder sie "schmecken" Bilder. Diese sogenannte Synästhesie tritt auf, wenn sich die neuronale Bahn eines Sinnesorgan teilt und Informationen über eine Art von Reiz auch an Hirnregionen sendet, die sonst andere Reize verarbeiten. Bildern von fMRT zeigen, dass auf einen Reiz bei Synästhetikern mehr Gehirnareale tätig sind als bei normalen Menschen. Vermutlich erleben sie den Alltag reicher an Sinneseindrücken.[13]

Hörbereiche

Art Frequenz
Goldfisch 20-3.000
Ochsenfrosch 100-3.000
Elefant 16-12.000
Eule 200-12.000
Mensch 64-23.000
Hund 67-45.000
Fledermaus 2.000-110.000
Schweinswal 75-150.000

Viele Tiere hören Töne, die für die menschliche Wahrnehmung zu tief oder zu hoch sind. Bei Menschen bleibt der untere Hörbereich lebenslang bestehen, während der obere Bereich im Alter abnimmt. Ein typischer Erwachsener in mittleren Jahren kann Töne bis max. 16.000 Hertz hören.[10]

"Menschen können eine Kerze im Dunkel aus acht Kilometer Entfernung wahrnehmen. Das Gehör ist sogar noch genauer, wenn es darum geht, sich ein Bild vom Geist anderer zu machen. Hören ist unser 'schnellster' Sinn. Das Gehirn braucht eine Viertelsekunde, um visuelle Informationen zu erkennen, Geräusche erkennt es fünfmal so schnell. Das Vermögen, feine Unterschiede in Geräuschen wahrzunehmen, ist sogar noch schneller und gibt Ihnen die Gelegenheit, Veränderungen in weniger als einer Millionstel Sekunde zu registrieren."[14]

Entwicklung des Hörvermögens

Monate Entwicklung
während der Schwangerschaft = Schwangerschaftsmonat
2-8 die Ohren entwickeln sich
5 Kind hört Geräusche
6 Hörapparat voll ausgebildet
6 hört Stimmen
7 erkennt Stimmen
9 erkennt vertraute und fremde Geräusche
nach der Geburt
5 unterscheidet zwischen Sprache und anderen Gräuschen
10 unterscheidet Wörter

Bereits in der 18. Schwangerschaftswoche besitzen Kinder ein gewisses Hörvermögen. Die Fähigkeit zu hören reift mit jedem Monat, wobei niederfrequente Töne von außerhalb des Mutterleibs besser gehört werden als hochfrequente. Nach der Geburt beginnt das Kind im 1. bis 4. Monat auf laute und plötzliche Geräusche zu reagieren und sie durch Drehen des Kopfes zu lokalisieren. Zwischen dem 3. und 6. Monat beginnt das Baby Geräusche zu erkennen und selbst zu äußern. Zwischen dem 6. und 16. Monat fängt es an zu plappern, erkennt einfache Wörter wie "Mama" sowie Stimmen. Ab einem Jahr fängt es an, selbst Wörter zu bilden. Die genauen Zeitpunkte sind bei jedem Kind unterschiedlich.[15]


Evolution des Hörens

Im Verlauf der Evolution kam das Gehör erst hinzu, als die frühen Lebewesen begannen, das Land zu erobern. Schall konnten die ersten Landbewohner nur durch Vibrationen im Wasser oder am Boden wahrnehmen. Die ersten Fische hatten dafür an den Seiten eine Reihe von Haarzellen, die Wasserbewegungen wahrnahmen. Aus diesem so genannten Seitenlinienorgan entwickelte sich bei den Wirbeltieren das Innenohr mit der Hörschnecke und dem Gleichgewichtsorgan. Parallel dazu dürfte die Zunahme des Gehirnvolumes verlaufen sein, denn es mussten alle diese Informationen der Sinne verarbeitet werden.[16]

"Unter den Säugern können Elefanten Töne mit den niedrigsten Frequenzen hören, während kleine Tiere wie die Ratte für extrem hohe Frequenzen besonders empfindlich sind. Der Mensch hat, wie man vermuten würde, ein Frequenzspektrum, das zwischen dem des Elefanten und der Ratte liegt. Katzen können Geräusche zwischen ungefähr 30 und 70000 Hz hören. Fledermäuse und Delfine sind in der Lage, sehr hochfrequente Laute bis ungefähr 100 000 Hz (Ultraschall) wahrzunehmen, Wie erwähnt, senden diese Tiere Salven von Hochfrequenzlauten aus und bestimmen aus deren Reflexionen die Positionen von Objekten."[17]

Verarbeitung im Gehirn

"Laut Forschern an der Universitätsklinik Gergetown spezialisieren sich die linke und die rechte Hirnhemisphäre auf unterschiedliche Arten von Geräuschen. Die rechte Hirnhälfte hört auf sich langsam verändernde Geräusche und ist ausgezeichnet darin, Silben und Intonationen zu verfolgen. Die linke Hirnhälfte ist eher auf sich schnell verändernde Geräusche wie Konsonanten eingestellt."[18]

Anhang

Anmerkungen

  1. Martin Trepel schreibt hierzu: "Bei (experimenteller) Reizung der primären Hörrinde werden dementsprechend immer nur einzelne Laute der Lautmuster unterschiedlicher Frequenz, niemals aber Wörter oder Melodien wahrgenommen. Die sinnvolle Verknüpfung dieser Laute zu Wörtern oder schließlich Sätzen und dergleichen erfolgt erst in der sekundären Hörrinde".

Einzelnachweise

  1. Hermann Bünte, Klaus Bünte: Das Spektrum der Medizin. Illustriertes Handbuch von den Grundlagen bis zur Klinik. Stuttgart 2004, 1506-1509.
  2. Mathias Bähr, Michael Frotscher: Neurologisch-topische Diagnostik. Anatomie - Funktion - Klinik. 10. Aufl. Stuttgart 2014, 416.
  3. Christiane Stenger: Wer lernen will, muss fühlen. Wie unsere Sinne dem Gedächtnis helfen. Reinbeck 2016, 146f.
  4. Martin Trepel: Neuroanatomie. Struktur und Funktion. 7. Auflage. München 2017, 238f.
  5. Martin Trepel: Neuroanatomie. Struktur und Funktion. 7. Auflage. München 2017, 239f.
  6. a b Martin Trepel: Neuroanatomie. Struktur und Funktion. 7. Auflage. München 2017, 240.
  7. Martin Trepel: Neuroanatomie. Struktur und Funktion. 7. Auflage. München 2017, 241.
  8. Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 30.
  9. Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 88.
  10. a b Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 89.
  11. a b Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 90.
  12. Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 92f.
  13. a b Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 76.
  14. David Schnrach: Brain Talk. Wie wir das Gehirn nutzen, um uns selbst und andere besser zu verstehen. München 2020, 256.
  15. Rita Carter: Das Gehirn. Anatomie, Sinneswahrnehmung, Gedächtnis, Bewusstsein, Störungen. München 2010, 91.
  16. https://www.dasgehirn.info/wahrnehmen/hoeren/hoeren-2013-mehr-als-nur-schall-und-schwingung-2216 Zugriff am 5.8.2016.
  17. Richard Thompson: Das Gehirn. Von der Nervenzelle zur Verhaltenssteuerung. 3. Auflage. Heidelberg, 2001, 278.
  18. David Schnrach: Brain Talk. Wie wir das Gehirn nutzen, um uns selbst und andere besser zu verstehen. München 2020, 257.