Die 7 wichtigsten Trends bei Sprachassistenten in den nächsten 10 Jahren

Top 7 Voice Assistant Trends for the New Decade

Innerhalb von 10 Jahren ist die Sprachassistententechnologie von Null auf über 100 Millionen Benutzer in den USA hochgeschnellt. Inzwischen nutzt gut ein Drittel der Bevölkerung regelmäßig Siri, Alexa oder den Google Assistant. Ungeachtet aller Erfolge treten die Sprachassistenten bisher vor allem in Privathaushalten in Erscheinung. Das ändert sich jetzt allmählich.

In den nächsten Jahren werden die praktischen Helfer dieses Nest verlassen. Sie werden in immer mehr Geräten (nicht nur einigen Robotern) und Umgebungen – vom Arbeitsplatz bis zum Supermarkt und Krankenhaus – zu finden sein. Sie werden uns in tragbaren und In-Ear-Geräten begleiten und Konversationen mit Maschinen – ob zu Hause oder anderswo – werden ganz alltäglich.

In diesem Jahrzehnt nimmt die Entwicklung bei sprachgesteuerten Benutzerschnittstellen so richtig Fahrt auf. Wir präsentieren Ihnen 7 wichtige Trends, die den Wandel weiter beschleunigen.

 

1. Mehr als nur Smart Speakers

Das Internet der Dinge wird in den nächsten zehn Jahren erheblich besser sprechen lernen. Über Sprache werden wir mit Fernsehern, Thermostaten, Kühlschränken usw. kommunizieren. Und auch neue Arten von tragbaren Geräten, vor allem Audio-Geräte wie moderne Kopfhörer, interaktive Hörhilfen und neue In-Ear-Geräte, werden zusätzlich mit Sprachassistenten ausgestattet sein.

Längst nicht alle werden von Apple oder Amazon stammen. Neue Marken werden auf dem Markt auftauchen und bekannte Marken werden neue Märkte erschließen.

2. Branded Voices für bekannte Assistenten

Alexa, Siri und den Google Assistant kennt fast jeder: Ihre Stimmen assoziieren wir mit bestimmten Geräten, etwa dem Amazon Echo oder dem iPhone. Wenn der Amazon Echo nach den neuesten Air-Jordan-Schuhen gefragt wird, liefert Alexa die Antwort. So wird Amazon mit Nike-Inhalten oder Inhalten einer beliebigen anderen Marke verknüpft. Bei einem Gespräch über unterschiedliche Produkte verschwinden also die Unterschiede zwischen konkurrierenden Marken.

Einige Marken werden ihre eigenen Stimmen für sprachbasierte Kundenkontakte präsentieren. Dann kann Sie z. B. Nike selbst über die neuesten Air Jordans informieren. Wenn kein visuelles Branding möglich ist, kommt es ganz entscheidend auf eine klar erkennbare Branded Voice an. Diese gibt es bereits, und Unternehmen, die sie nutzen möchten, sollten keine Zeit mehr verlieren.

3. Sprachassistenten mit Emotionen für bestimmte Interaktionen

Menschliche Kundendienstmitarbeiter sind Experten darin, den richtigen Ton für die jeweilige Situation zu finden: positiv bei einem Verkauf und besorgt, wenn eine Beschwerde eingeht. In den nächsten Jahren werden sich auch Sprachassistenten dieses Vorgehen zu eigen machen.

Bei einem Anruf bei einer Fluglinie für eine Buchung klingt die Stimme des automatischen Systems dann fröhlich. Bei einem Rückruf wegen einer Stornierung hört sie sich wohl etwas sachlicher an. Und wenn auf eine fröhliche Ansprache eine zornige Reaktion erfolgt, wird der Optimismus der Stimme etwas gedämpft. So entstehen natürlichere und lebensechte Konversationen zwischen digitalen Systemen und den Menschen, die sie nutzen.

4. Neuronale Text-to-Speech-Anwendungen anstelle herkömmlicher Sprachgenerierung

Die Vorläufer der heutigen Sprachassistententechnologie waren automatisierte Fernsprechanlagen, die sog. Sprachdialogsysteme (interactive voice response/IVR). Anfangs wurden dafür Aufnahmen von Sprechern und gescriptete Antworten verwendet – ein recht kostspieliges Verfahren, das die Einführung um Monate oder gar Jahre verzögern konnte.

Mit neuronaler Text-to-Speech-Technologie ist das vorbei. Inzwischen können neuronale Netzwerke mithilfe von ein- oder zweistündigen Aufnahmen von menschlicher Sprache trainiert werden. Anschließend generieren diese Netzwerke neuronale Stimmen und passen Sprechgeschwindigkeit, Intonation und Rhythmus mit extremer Präzision an die Konversation an. Sie sind in der Lage, jedes erdenkliche computergenerierte Skript vorzulesen und klingen dabei wie echte Menschen. Neuronale Stimmen sind langfristig kostengünstiger und außerdem schneller marktreif als Aufnahmen, und noch dazu natürlicher als emotionslose digitale Sprache.

5. Bots als Sprachassistenten im kommerziellen Umfeld

Chatbots und waschechte Roboter werden mithilfe von Sprachassistententechnologie die Kunden in physischen und digitalen Umgebungen besser bedienen können. Hier einige Beispiele:

  • In Supermärkten können Selbstbedienungsterminals auf Angebote hinweisen oder Produkte empfehlen. „Ich sehe, dass Sie Guacamole kaufen. Wir haben auch Nachos im Angebot.“
  • Digitale Portier-Systeme begleiten Gäste in Hotels, auf Kreuzfahrtschiffen und am Flughafen und beantworten ihre Fragen. Berührungsfreie und kontaktlose Services unterstützen Unternehmen bei den Herausforderungen im Zusammenhang mit COVID-19.
  • Sprachfähige Empfangsassistenten – ob Terminals, Lautsprecher oder sogar echte Roboter – begrüßen Gäste in Gebäuden, weisen ihnen den Weg und rufen ein Taxi für den Weg nach Hause.
  • In Fast-Food-Restaurants nehmen Sprachassistenten an Terminals die Bestellungen auf. Sie alle sprechen mit vertrauten Branded Voices und schaffen so auf allen Kanälen ein konsistentes Erlebnis.

Mit fortschrittlichen sprachgesteuerten Benutzerschnittstellen und lebensechten neuronalen Stimmen werden Bots bald online und offline überall auftauchen.

6. Mehr Datenschutz bei digitalen Assistenten

Geräte, die immer und überall online sind und zuhören, stoßen bei Verbrauchern auf Skepsis. Mehr als 40 Prozent der Benutzer von Sprachassistenten zweifeln an der Zuverlässigkeit und am Datenschutz. Und dieser Trend wird sich weiter verstärken. In den nächsten Jahren werden Unternehmen sich intensiver damit befassen müssen, wie sie die Daten ihrer Benutzer schützen.

Die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union enthält die Vorgaben für den Schutz der Benutzerdaten. Bei Konversationen mit Sprachassistenten in neuen Umgebungen müssen ggf. zu Beginn die Datenschutzrichtlinien bekanntgegeben und das Einverständnis des Benutzers eingeholt werden.

7. Trends bei den Sprachassistenten als Verstärker für die neue Voice Economy

Aktuell sind Sprachassistenten das bekannteste Beispiel für maschinelles Sprachverständnis und maschinelle Sprachgenerierung. Dies wird sich aber ändern. Schon 2030 könnten sprechende Verkaufsgeräte üblich sein, die sich auch auf den Dialekt eines Kunden einstellen können. Office-Server werden sprachfähige Terminplaner anbieten. Im Fitness-Studio werden wir mit dem Laufband über unsere Herzfrequenz sprechen. Und wenn man Tesla und Uber glaubt, sind auch selbstfahrende Taxis mit Sprachsteuerung keine Utopie mehr.

All diese Trends gemeinsam werden dazu führen, dass zwischen Marken und Kunden ein völlig neuer Kommunikationskanal entsteht: die Voice Economy. ReadSpeaker ist in diesem Bereich bereits seit 20 Jahren Vorreiter. Kontaktieren Sie uns und erfahren Sie, wie ReadSpeaker Ihr Unternehmen dabei unterstützen kann.

Sprechen Sie mit uns

Noch Fragen? Oder Vorschläge? Nehmen Sie am besten gleich Kontakt mit uns auf. Wir freuen uns, von Ihnen zu hören.

Wenden Sie sich an Readspeaker