Unternehmen experimentieren mit Sprachsteuerung

Sprachsteuerung steckt in der Entwicklungsphase / Künftig wird menschliche Sprache Schnittstelle zu digitalen Systemen

Mit der zunehmenden Beliebtheit von sprachgesteuerten Geräten beginnen die Menschen sich an die Idee zu gewöhnen, durch Sprachschnittstellen mit Computern zu interagieren. Jedes Mal, wenn ein solches Phänomen im Konsumbereich sichtbar wird, ist es nur eine Frage der Zeit, bis es auch in Unternehmen eingesetzt wird.

„Es gibt keine Maus auf Ihrem Handy und Sie möchten auch keine Tastatur auf Ihrem Telefon verwenden. Auch auf einer Smartwatch gibt es kein Tastenfeld. Mit Alexa gibt es keinen Bildschirm. Sie müssen sich andere Möglichkeiten vorstellen, mit Geräten zu interagieren“, so Chuck Ganapathi, Firmenchef von Tact, einem mit Künstlicher Intelligenz gesteuerten Verkaufstool.

Werner Vogels, technischer Direktor bei Amazon, hatte Ende November erklärt, bisher sei man beim Interagieren mit Computern technologisch eingeschränkt. „Wir tippen Stichwörter über eine Tastatur in eine Suchmaschine ein und dies ist aktuell die einzige Möglichkeit, Informationen zu erhalten. Schnittstellen zu digitalen Systemen der Zukunft werden jedoch nicht mehr maschinell gesteuert, sie werden anwender-orientiert sein“, so Vogels. „Wir können natürliche, menschliche Sprach-Schnittstellen zu digitalen Systemen aufbauen. Dadurch wird eine ganze Umgebung aktiv“.

Doch nicht nur Amazon geht mit der Einführung von ‚Alexa for Business‘ neue Wege, auch andere Cloud-Unternehmen stellen Sprachdienste für Entwickler zur Verfügung, wodurch es immer einfacher wird, Sprache zu einer Schnittstelle zu machen. Während Amazon mit diesem Schritt zum ersten Mal direkt auf Unternehmen abzielt, hatten andere Entwickler bereits viel früher mit der ‚Echo‘-Integration experimentiert. Sisense, ein Analysetool-Unternehmen, hatte die Echo-Spracherkennung bereits im Juli 2016 eingeführt.

Doch nicht jeder möchte den großen Cloud-Anbietern eine Stimme geben, egal wie attraktiv sie es für Entwickler machen. Dies war zu beobachten, als Cisco im November den „Cisco Spark Assistant“ für Meetings einführte. Dabei verwendete es die Sprachtechnologie, die Cisco mit dem Kauf von MindMeld im Mai erworben hatte, um Sprachbefehle für häufige Besprechungsaufgaben bereitzustellen.

Ein anderes Start-up, Roxy, das kürzlich 2,2 Millionen US-Dollar Startkapital einsammeln konnte, entschied sich, eine eigene sprachgesteuerte Software und Hardware zu entwickeln, die sich zunächst auf das Hotel- und Gastgewerbe konzentrierte.

Dieses Unternehmen hat zwar noch größeren Ehrgeiz, doch eine Lektion hat es gelernt: nämlich, dass nicht alle Unternehmen ihre Daten an große Player – und Datenkraken – wie Amazon, Google, Apple oder Microsoft weitergeben wollen. Sie wollen die Kontrolle über ihre eigenen Kundeninteraktionen behalten. Und ein Konzept wie von Roxy liefert ihnen das.

Im Jahr 2018 sollten weitere Beispiele für diese Art technologischer Zusammenführungen zu sehen sein – sowohl von den großen Cloud-Anbietern als auch von Unternehmen, die versuchen, unabhängig von diesen Anbietern agieren. Die Tastatur wird ihre Funktion nicht so bald einbüßen. Doch in Szenarien, in denen es Sinn macht, könnte Sprache die Notwendigkeit der Eingabe durch natürlichere Interaktion mit Computern und Software ersetzen.

Kommentare

Schreiben Sie den ersten Kommentar zum Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.