Machtvolles und verräterisches Körperinstrument

Unsere Stimme

Mit unserer Stimme transportieren wir mehr als nur Worte. © Marisa9/ iStock.com

Wir reden und lachen, flüstern, schreien und singen mit ihr: Die Stimme ist eines unserer wichtigsten Werkzeuge der Kommunikation. Mit ihr vermitteln wir nicht nur das gesprochene Wort. Im Klang der Stimme schwingt in jeder Situation noch viel mehr mit. Sie verrät, wie wir uns fühlen, und kann sogar Hinweise auf ernsthafte Erkrankungen liefern.

Mit unserer Stimme bringen wir Sprache zum Klingen. Doch nicht nur die formulierten Inhalte erreichen beim Sprechen den Empfänger. Aus dem Klang der Stimme lassen sich neben Körpermerkmalen wie Geschlecht und Größe sogar subtile Botschaften zu Emotionen und zwischenmenschlichen Beziehungen herauslesen.

Daneben gibt die Stimme Informationen über unseren Gesundheitszustand preis. Dass wir bei einer Erkältung anders klingen, ist klar. Inzwischen können Mediziner aber auch Krankheiten wie Parkinson und Depressionen anhand von Sprachanalysen erkennen.

Längst sind wir jedoch nicht mehr die einzigen, die in unserem Alltag sprechen. Immer mehr Maschinen verfügen ebenfalls über eine Stimme. Die synthetischen Sprachgeneratoren klingen dabei zunehmend natürlich und sprechen uns fast schon an wie echte Menschen.

Wie und wo die Stimme entsteht

Tönende Luft

Die Lautsprache ist unser wichtigstes Mittel zur Kommunikation – und das Werkzeug dafür ist unsere Stimme. Schon Babys fasziniert es auszuprobieren, zu welchen stimmlichen Äußerungen sie fähig sind. Früh beginnen sie zu brabbeln, zu quietschen oder zu prusten, bevor sie später mit den ersten Worten experimentieren. Doch wie funktioniert Stimme eigentlich?

„Ein Ton ist ausgeatmete schwingende Luft, die zum Klingen gebracht wird – das Ergebnis eines komplexen Prozesses“, erklärt die Psychologin und Phoniatrie-Expertin Christiane Kiese-Himmel. So arbeiten beim Sprechen eine Vielzahl von Strukturen in Bauch, Brust, Hals und Kopf koordiniert zusammen. Das zentrale Nervensystem steuert und kontrolliert diese Abläufe.

Kehlkopf
Der Kehlkopf bildet das Zentrum der Stimmerzeugung. © ericsphotography/ iStock.com

Vokaltrakt als Verstärker

Alles beginnt dabei mit der Atmung: Soll ein Ton entstehen, muss Luft durch den Kehlkopf fließen. Denn dort sitzt das Zentrum der Stimmerzeugung, werden die Stimmlippen in Schwingung versetzt. Diese von Schleimhaut überzogenen muskulären Gewebestrukturen sind im Volksmund als Stimmbänder bekannt, obwohl diese nur ein Teil der Stimmlippen sind.

Vom Kehlkopf strömt die schwingende Luft weiter durch Rachen, Mund und Nase. In diesem sogenannten Vokaltrakt verbirgt sich der eigentliche Klangraum. Er wirkt wie ein Verstärker und macht aus dem von den Stimmlippen erzeugten Geräusch einen gut hörbaren Ton. Die Bewegungen von Zunge, Lippen und Gesichtsmuskeln variieren die Stimme.

Individuell wie ein Fingerabdruck

Im Vokaltrakt entsteht auch der individuelle Stimmklang, die Klangfarbe. Zusammen mit typischem Tonfall und Sprachmustern macht dieser Klang unsere Stimme zu einem ganz persönlichen Erkennungsmerkmal. Sie ist so individuell wie ein Fingerabdruck – sogar polizeiliche Ermittler nutzen die Stimme, um zum Beispiel Entführer oder Erpresser zu identifizieren.

Besonders charakteristische Stimmen merkt sich unser Gehirn schon nach dem ersten Hören. Doch oft prägen wir uns dabei nicht nur den Klang ein. Bestimmten stimmlichen Merkmalen schreiben wir automatisch bestimmten Eigenschaften des Sprechers zu, wie Studien zeigen. So wirkt eine tiefe Stimme kompetenter und durchsetzungsfähiger und macht Politiker erfolgreicher. Manche Menschen wirken durch das Timbre ihrer Stimme zudem besonders charismatisch auf uns.

Was die Stimme preisgibt

Die Seele spricht mit

Über unsere Stimme vermitteln wir mehr als uns mitunter bewusst ist. Nicht nur die formulierten Inhalte erreichen beim Sprechen den Empfänger, sondern auch viele Informationen, die im Klang des Gesagten mitschwingen. Das fängt bei so banalen Dingen wie dem Geschlecht, dem Alter und der Herkunft an. Auch die Körpergröße lässt sich aus der Stimme heraushören, wie Studien zeigen.

Wie Paare miteinander reden, verrät viel über die Qualität der Beziehung. © Anzeletti/ iStock.com

Doch die Stimme gibt noch viel mehr preis: Welcher Typ Persönlichkeit sind wir? In welcher Beziehung stehen wir zu der Person, mit der wir gerade sprechen? Und wie ist es um unseren emotionalen Zustand bestellt? All dies offenbart sich dem aufmerksamen Zuhörer, sobald wir den Mund aufmachen.

Nervös, traurig oder zufrieden?

Wer aufgeregt oder nervös ist, spricht oft mit erhöhter Stimmlage und besonders schnell. Traurigkeit zeigt sich durch eine schleppende und Elan-lose Sprechweise. Zufriedenheit und Sicherheit klingen deutlich und klar. Wenn Mütter mit ihrem Baby oder Kleinkind reden, sprechen sie in einer höheren Tonlage, mit längeren Pausen und artikulieren Vokale überdeutlich. Auch die Klangfarbe, das Timbre der Stimme, verändert sich beim sogenannten „Baby Talk“ ganz subtil.

Unter Liebespartnern variiert die Stimme abhängig von der Qualität der Beziehung. So reden glückliche Paare anders miteinander als solche in einer zerbröckelnden Ehe. Bei Paaren in einer Beziehungskrise lässt sich am Tonfall sogar erkennen, wie groß die Chance auf ein „Happy End“ ist.

Beim Sprechen schwingt immer mehr als der formulierte Inhalt mit - das machen sich mittlerweile auch Marketingexperten zunutze. © Andrea Obzerova/ iStock.com

Nützlich fürs Marketing

Ein anderes Beispiel für die Spuren, die zwischenmenschliche Beziehungen und Emotionen in der Stimme hinterlassen: Findet ein Sprecher sein Gegenüber attraktiv, verändert sich der Grundton im Gespräch – vor allem beim Sprecherwechsel. So fangen Männer in diesem Fall in einer tendenziell tieferen Tonlage zu reden an. Bei Frauen erhöht sich die Stimmlage dagegen, wie Experimente offenbaren.

Aristoteles hat die Stimme augenscheinlich nicht ohne Grund als „Spiegel der Seele“ bezeichnet. Längst machen sich auch Marktforscher die in ihr verborgenen Hinweise zunutze: Mithilfe von Aufnahmen aus Telefongesprächen oder Sprachdaten, die Geräte mit Sprachassistenten wie Amazons Alexa speichern, wollen sie herausfinden, wie Kunden bestimmte Produkte bewerten – oder wann der passende Moment ist, um sie für einen Kauf zu gewinnen.

Von der Stimme zum Gefühl

Der hohe Stellenwert der Stimme bei der Übermittlung von Emotionen zeigt sich auch an dem Erfolg von Emojis. Seitdem wir im Alltag viel häufiger über WhatsApp und Co kommunizieren anstatt zu telefonieren, fehlt der Klang der Stimme als wichtiger Hinweisgeber. Damit es nicht zu Missverständnissen kommt, müssen Piktogramme die sonst beim Sprechen transportierten nonverbalen Informationen übermitteln.

Unsere Gefühle beeinflussen aber nicht nur den Klang unserer Stimme – die Stimme vermag auch Emotionen zu übertragen. Vom Lächeln ist das Phänomen bereits hinlänglich bekannt: Wer die Mundwinkel hochzieht, kann damit andere und sogar sich selbst anstecken. Bei der Stimme geschieht etwas Ähnliches. So bewirkt Freude in der Stimme des Sprechers oft ebenfalls Freude beim Hörer.

Wie sich Leiden in der Stimme zeigen

Die Krankheit auf der Zunge

Weil die Stimme so viel verrät, ist sie auch für Ärzte interessant: Ihr Klang kann Hinweise auf Erkrankungen geben. Schon der griechische Arzt Hippokrates stellte seinerzeit fest, dass sich die Stimme durch gesundheitliche Probleme oder Krankheiten verändert. Bei einer verstopften Nase oder Halsentzündung ist dies ebenso offensichtlich wie bei einem Kehlkopf-Tumor. Doch sogar neurodegenerative Erkrankungen und psychische Störungen lassen sich aus der Stimme heraushören.

Stimmanalyse beim Arzt
Manchen Krankheiten können Ärzte mithilfe von Stimmanalysen auf die Spur kommen. © Adam Höglund/ iStock.com

Wie klingt Parkinson?

Bei Parkinson wird die Stimme zum Beispiel schon in einem frühen Stadium leiser und monotoner, da sich die Erkrankung auch auf die beim Sprechen beteiligte Feinmuskulatur auswirkt. Auch ein subtiles Zittern in der Stimme kann ein Vorbote von Parkinson sein. In fortgeschrittenen Krankheitsstadien wird die Aussprache der Betroffenen dann zunehmend unsauber, abgehackt und „verwaschen“.

Ähnlich charakteristische Merkmale haben Mediziner inzwischen unter anderem für Alzheimer, Autismus, ADHS und Depressionen identifiziert. So sprechen ADHS-Patienten häufig lebendig und unrhythmisch. Betrachtet man einzelne Laute auf der Mikroebene, fällt zugleich jedoch etwas anderes auf: Die Stimme variiert in bestimmten Frequenzbereichen viel weniger als bei Gesunden. Typisch für depressive Menschen ist dagegen, dass sie sich langsam, gleichförmig und mit einer geringen Intensität in der Stimme artikulieren. Außerdem machen sie beim Sprechen viele Pausen.

Diagnose per Stimmanalyse

Für all diese Leiden gilt: Was im Gehirn schiefläuft, lässt sich an der Stimme messen. Der Zusammenhang ist dabei so deutlich, dass er eines Tages für verlässliche Diagnosen genutzt werden könnte. Informatiker arbeiten schon heute an Computerprogrammen, die Krankheiten allein anhand der Stimme erkennen. Die Systeme werden dafür mit Stimmproben bereits diagnostizierter Patienten trainiert und lernen so, welche stimmlichen Eigenschaften typisch für die jeweilige Erkrankung sind.

Allerdings sind nicht nur sich anbahnende oder vorhandene Krankheiten in der Stimme zu hören. Wie der Arzt und Experte für Phoniatrie Horst Gundermann einmal geschrieben hat, zeigen sich auch vergangene Leiden in ihr: „Stimme ist eine lauthafte Biografie. Sie erleidet mit uns Verwundungen, Kränkungen, Zurücksetzungen, die ihre Narben im Ausdruck hinterlassen.“

Stimmveränderung mit Folgen

Mitunter haben diese „Narben“ wiederum Einfluss darauf, wie wir auf andere Menschen wirken. Das haben Forscher am Beispiel des italienischen Politikers Umberto Bossi gezeigt: Nachdem dieser einen Hirnschlag erlitten hatte, schätzten ihn Wähler plötzlich vermehrt als gutmütig ein – vorher hatten sie ihn dagegen als dominant und autoritär wahrgenommen.

Bossi vertrat nach dem medizinischen Vorfall weder andere Inhalte als vorher, noch hatte er sich äußerlich verändert. Der einzige Unterschied ließ sich in seiner Stimme ausmachen. Sie besaß nur noch wenig Tonmodulation, sodass die Sprachmelodie eher flach wirkte. Schon diese kleine Veränderung reichte aus, um Bossis Außenwirkung drastisch zu wandeln.

Was synthetische Stimmen menschlich macht

Sprechende Maschinen

Die meisten von uns begegneten ihnen zunächst durch das Navigationsgerät im Auto. Heute sprechen sie auch an Bahnhöfen und Flughäfen, in Fahrstühlen, aus Smartphones und heimischen Lautsprecherboxen zu uns: Synthetische Stimmen durchdringen zunehmend unseren Alltag. Selbst aus Haushaltsgeräten wie Wäschetrocknern tönen sie inzwischen.

Waren die ersten Computerstimmen noch klar als solche zu erkennen, klingen moderne Versionen immer natürlicher. Egal ob Siri, Google Assistent oder Alexa: Kunststimmen sollen heute möglichst menschlich erscheinen – und das gelingt den Entwicklern bereits erstaunlich gut. Mittlerweile ist es technisch sogar möglich, die Stimmen echter Personen zu kopieren. Schon kurze Stimmproben von weniger als einer Minute reichen dafür.

Sprechendes Smartphone
Synthetische Stimmen durchdringen zunehmend unseren Alltag. © Andrey Popov/ iStock.com

Perfekt unperfekt

Damit synthetische Sprachausgaben wie Menschen klingen, muss aber nicht nur die Stimme selbst lebensecht daherkommen. Auch die Sprechweise ist entscheidend. So hat Amazons Alexa gelernt, zu flüstern und Googles telefonierender Assistent Duplex gerät mitunter ins Stocken und streut „Mmhs“ und „Ähs“ ins Gespräch ein. Es ist diese scheinbare Imperfektion, dank der das System kaum noch von einem echten Menschen zu unterscheiden ist. Menschlich zu sprechen, bedeutet, nicht perfekt zu sprechen.

Sprechende Maschinen wie Menschen klingen zu lassen ist das eine. Doch wie schafft man es, dass sie auf den Hörer auch sympathisch wirken? Wissenschaftler auf der ganzen Welt forschen derzeit daran, durch welche Mittel Kunststimmen soziale Effekte erzeugen und ihr menschliches Gegenüber auf emotionaler Ebene ansprechen.

Zu vertrauenserweckend?

Kritiker halten diese Entwicklungen für nicht unproblematisch. Denn je menschlicher und sympathischer Roboterstimmen klingen, desto mehr schwindet die Distanz zu ihnen. Dadurch steigt zwar die Akzeptanz, andererseits erhöhen sich aber auch die Möglichkeiten des Missbrauchs. Bei Googles Duplex wurde diesem Problem begegnet, indem sich der Assistent direkt zu Beginn als solcher zu erkennen gibt.

Was das bringt, ist jedoch fraglich. So zeigen Studien, dass wir dazu neigen, einer sympathischen Stimme zu vertrauen wie einem Menschen und uns ihr gegenüber im Gespräch zu öffnen. Dieser Effekt tritt auch dann ein, wenn wir wissen, dass es sich um eine synthetische Stimme handelt.

Konkurrenz für Profisprecher

Professionelle Sprecher fürchten sich aus einem anderen Grund vor der stetigen Verbesserung künstlicher Stimmen: Sie könnten ihnen eines Tages den Job streitig machen. Hoffnung wecken die Fortschritte in Sachen Sprachsynthese dagegen bei Patienten ohne Kehlkopf. Ihnen könnten moderne Ersatzstimmen einen individuellen und natürlichen Stimmklang ermöglichen – und dadurch mehr Lebensqualität.