pathdoc – stock.adobe.com

Menschliche Emotionen bestimmen unser Leben. Freude, Trauer, Wut, Ekel, Angst und Überraschung – bis vor einigen Jahren waren es diese sechs Gefühle, die die emotionale Lage der Menschen definierten. In verschiedenen Abstufungen begleiteten sie unser Leben und Erleben. Vor wenigen Jahren jedoch fanden Forscher der Universität Berkley heraus, dass es noch viel mehr Gefühle gibt, die das menschliche Fühlen ausmachen.

Von sechs auf 27 – die menschliche Gefühlswelt

Insgesamt 27 Gefühle konnten sie in einer Studie ausmachen, an der 853 Frauen und Männer teilnahmen. Diese bekamen mehr als 2185 „Emotionen anregende“ Videos zu sehen, die jeweils nur fünf bis zehn Sekunden dauerten und stumm waren. Unter den beobachteten „neuen“ Emotionen waren Sorge, Entsetzen, Romantik, Verwirrung, aber auch Verzückung und Nostalgie.

Damit ist klar: Emotionen sind sehr viel reicher und detaillierter, als wir bislang dachten. Unserem Gegenüber zeigen wir unsere Emotionen durch ein Miteinander von Mimik, Gestik und Stimme. Ein Großteil der aktuellen Stimmung wird dabei über die Mimik gezeigt. Aber der Stimme kommt eine gesonderte Rolle zu.

Die Stimme als Emotionsträger

Was die Übermittlung von Emotionen angeht, stand die Stimme schon immer im Mittelpunkt unserer Aufmerksamkeit. Nicht umsonst sagt man im Volksmund „Der Ton macht die Musik“. In einer persönlichen Unterhaltung ist es für uns sehr schwer, unsere Gefühle zu verbergen. Mit jedem gesprochenen Wort vermittelt unsere Stimme auch unsere Emotionen – sie ist ein entscheidender Faktor, wenn es um die Wirkung auf andere Menschen geht.

Dabei kann die Stimme viel mehr, als nur Informationen zu vermitteln. Sie klingt fröhlich, wenn wir gut gelaunt sind, kann aber auf der anderen Seite auch Trauer und Wut vermitteln. Dazu sind noch nicht einmal Worte nötig. Die Stimmlage und die Melodie des Gesprochenen verraten viel über unsere aktuelle Stimmung. Sind wir beispielsweise deprimiert, sprechen wir eher flach und ohne Betonung. Wut hingegen wird durch lautes Sprechen, bis hin zu Brüllen und quasi ausgespuckte Worte gezeigt.

Als Indikator für Emotionen ist die Stimme also bestens geeignet und auch verlässlich – denn im Gegensatz zu Mimik und Gestik ist die Stimme nur schwer zu manipulieren.Selbst wenn man es versucht, erfordert die Kontrolle der Stimme sehr viel Selbstkontrolle, denn selbst kleinste Nuancen werden vom Gegenüber wahrgenommen.

Gefühle nonverbal vermitteln

Die Stimme ist also quasi eine Stimmungsampel, die dem Gegenüber verrät, ob wir gerade gestresst, erschöpft oder auch gut gelaunt sind. Was aber, wenn wir ohne Stimme kommunizieren?

Wie wichtig die Stimme als Emotionsträger ist, zeigt sich besonders in Chatprogrammen: Weil Worte allein einfach nicht ausdrücken können, was wir gerade fühlen, haben Emoticons diese Aufgabe der Stimme übernommen. Wenn wir direkt miteinander reden, ist das dagegen viel leichter. In der Kommunikationswissenschaft wird angenommen, dass wir beim Sprechen 60 bis 80 Prozent der Information nonverbal vermitteln, das heißt über Mimik, Gestik, Körperhaltung und nicht zuletzt auch über unsere Stimme und deren Klang.

Mit KI zu besserem Service

Stimme und Emotionen sind also eng miteinander verbunden. Diese Einsicht hält auch immer mehr Einzug in den Kundenservice. Denn auch hier bestimmen Emotionen die Kommunikation und in direktem Maße auch den Erfolg der Interaktion und die Zufriedenheit der Kunden.

Denn wer kennt es nicht, egal wo man anrufen will, ob bei einem Onlinehändler, seinem Stromanbieter oder sogar beim Arzt – in vielen Fällen landet man in einem Callcenter. Der Anruf wird meist per Zufall einem verfügbaren Agenten zugeteilt. Oftmals, in über 90% der Fälle, kochen die Emotionen auf Anruferseite schon hoch, bevor der Agent überhaupt Hallo sagen konnte. Denn die meisten Menschen rufen ein Callcenter an, weil sie über Fehler berichten möchten, sich beschweren möchten oder generell ein Problem haben, das gelöst werden muss. Eine positive emotionale Grundhaltung ist hier eher Seltenheit.

Wenn dann im Callcenter auch noch ein ebenso gestresster Agent sitzt, sind Probleme vorprogrammiert. Um die Servicequalität zu verbessern, müssen Callcenter-Agenten also individuell geschult werden – nicht nur fachlich, sondern vor allem auch bezüglich ihres allgemeinen Auftretens gegenüber Kunden. Das geschieht auf der Basis ausgewerteter Anrufe, die aufgezeichnet werden. Dabei sind natürlich Sprach-, Stimm- und Emotionserkennung essentiell und hier kommt die Emotionserkennung ins Spiel.

Emotionserkennung im Callcenter

Callcenter setzen daher vermehrt auf Lösungen zur Emotionserkennung. Wichtig ist hierbei im Hinterkopf zu behalten, dass bei der Analyse der Gespräche, sei es in Echtzeit oder auch im Nachgang, nicht der Inhalt der Konversation analysiert wird. Für die Erkennung des emotionalen Zustandes werden nur Stimmlage, Tempo, Intonation und andere nicht inhaltsrelevante Daten hinzugezogen.

Diese eröffnen zum Beispiel die Möglichkeit, Gespräche im Nachgang zu analysieren und dadurch neue Kennzahlen für das Callcenter zu schaffen. So erfährt man, in welchem Zustand der Kunde anruft – wichtig für jeden guten Agenten, der eine negative Situation drehen kann. Zudem ist es auch möglich, festzustellen, wie die Gesprächsverläufe sind. Wird das System in Echtzeit eingesetzt, besteht sogar die Möglichkeit zu intervenieren. Ist die Stimmung zu schlecht und droht das Gespräch weiter ins Negative abzurutschen, kann der Supervisor eingeschaltet werden, der übernimmt.

Zudem kann das System dem Agenten vorschlagen, dem Kunden beispielsweise einen Nachlass oder Gutschein zu offerieren, um ihn wieder positiv zu stimmen. Für den Agenten besteht der Vorteil, den Empfehlungen des Systems zu folgen, darin, dass er sich später nicht vor seinem Vorgesetzten rechtfertigen muss, da das neutrale System ihm diesen Schritt geraten hat. Der Vorteil, dass ein neutrales System den Anruf bzw. den emotionalen Status visualisiert und dem Agenten Hinweise zum Gesprächsverlauf gibt, besteht darin, dass der Agent – der vielleicht nach einigen emotional negativen Calls abstumpft – aktiv unterstützt wird.

Die systemgesteuerten Analysen zeigen beispielsweise, wie lange das Gespräch dauert, wie oft die Gesprächspartner einander ins Wort gefallen sind und wie sich der gesamte emotionale Verlauf dargestellt hat. Dies gibt Agenten und Supervisor die Möglichkeit, frühzeitig zu intervenieren, den Kunden glücklich zu machen und den Agenten auf der anderen Seite auch stresstechnisch zu entlasten.

Intelligentes Routing

Die neue Technologie hält sogar noch weitere Möglichkeiten bereit. Intelligentes Routing braucht nur zwei oder drei Sekunden, um auszuwerten, wie eine Stimme klingt. Das kann eine große Erleichterung für Anrufer und Agenten sein, denn es wird nicht nur analysiert, wie jemand gelaunt ist, sondern auch, wie alt der Anrufer ist oder ob es sich um einen Mann oder eine Frau handelt.

Basierend auf dieser Analyse sucht das System einen passenden Agenten aus, dem der Anruf zugewiesen wird. Wenn also beispielsweise jemand aus Sachsen anruft, wird der nicht zu einem Agenten aus Bayern durchgestellt, sondern, wenn vorhanden, zu einem „Landsmann“, bei dem er sich wahrscheinlich verstandener fühlt. Das System wertet auch aus, wie viele „stressige“ Anrufe der Agent schon hatte und weist ihm nicht noch den achten zu, wenn er schon sieben schwierige Situationen gemeistert hat. Langfristig sorgt das für zufriedenere Mitarbeiter und niedrigere Krankenstände.

Denkt also in Zukunft nur noch die Maschine für uns und übernimmt bald das ganze Callcenter? Jein scheint hier die richtige Antwort zu sein. Langfristig könnte es in einigen Segmenten passieren, dass in einem Contact Center keine menschlichen Agenten mehr sitzen. Dies gilt besonders bei Low-Price-Produkten, wo Bots auf Dauer die kostengünstigere Alternative sind.

Bis dies auf alle Bereiche, die Contact Center abdecken, zutrifft, müssen aber noch Jahre vergehen, obwohl die Technologie rasante Fortschritte macht. Bei Text-to-Speech-Systemen wie beispielsweise Google WaveNet funktioniert Sprachsynthese heute bereits passabel, auch wenn alles noch etwas abgehackt klingt. Aber die Forschung geht weiter, bei den sogenannten Wave-GANs (Generative Adversarial Networks) werden zwei neuronale Netze miteinander verbunden.

Eine Kommunikation mit der Maschine, die auch eine Emotionskomponente beinhaltet, scheint also in gar nicht allzu ferner Zukunft möglich zu sein. Bis dahin arbeiten Mensch und Maschine gemeinsam daran, den Kundenservice für Unternehmen wie Kunden zu optimieren und emotional positiv zu gestalten.


Detlev Artelt ist Geschäftsführer der aixvox GmbH, einem herstellerunabhängigen Beratungsunternehmen aus Aachen. Der Experte für Online Arbeit des eco e.V. leitet die Kompetenzgruppe Business Communications bei der EuroCloud und ist auch als Sprecher, Moderator sowie Beirat auf internationalen Kongressen tätig. Zudem ist er Co-Founder des Beraternetzwerks NEUWORK. Detlev Artelt ist ebenfalls der Herausgeber und Autor der Fachbuchreihe „voice compass“, dem Standardwerk zu zeitgemäßer Kommunikation, den „PRAXISTIPPS Kundenkommunikation“ sowie der Fachpublikation„EINFACH ANDERS ARBEITEN“.

www.aixvox.com

Kennen Sie schon den aixvox-Newsletter?

Lassen Sie sich einmal im Monat kostenlos über die aktuellsten Workshops, Messen, Seminare und Webinare informieren!

Sie haben erfolgreich den aixvox-Newsletter abonniert!

X