Künstliches, aber lebensechtes Sprechen

Synthetische Stimmen kann man in vielfältiger Weise gestalten und anpassen. Man kann das Geschlecht vorgeben und das Alter, die Tonhöhe, die Klangfarbe und die Lautstärke variieren. Dafür steht zum Beispiel die Speech Synthesis Markup Language (SSML) zur Verfügung. Einige Befehle sind dafür geeignet, die Stimmen lebensechter zu machen. Selbst ein Flüstern kann man mit SSML inzwischen definieren, das ja nicht nur ein leises, sondern ein stimmloses Sprechen ist. Alexa wirkt damit noch menschlicher. Wie Google Duplex eindrucksvoll gezeigt hat, sind auch Pausen wichtig sowie Verzögerungslaute wie „Mmh“ und „Ähh“, also spezifische Sprechweisen. Die Einbindung von Kopf- und Körpergeräuschen könnte den Echtheitsgrad und die Überzeugungskraft weiter steigern. Wenn sich der virtuelle Assistent räuspert, wenn er die Nase hochzieht, die gar nicht vorhanden ist, dürfte kaum noch jemand denken, dass es sich um kein menschliches Gegenüber handelt. Ferner ist es möglich, Neben- und Hintergrundgeräusche zu integrieren. Übertreiben darf man es freilich nicht, und alle Geräusche müssen letztlich zusammenpassen.

Abb.: Die Sprechpyramide

Sprechende Maschinen

Schon vor tausenden Jahren träumte der Mensch davon, künstliche Kreaturen zu schaffen. Diese sollten seine Gehilfen sein, seine Begleiter, Geliebten und Krieger. Bei Homer und Ovid lernen wir sie kennen, schätzen und fürchten. Die meisten dieser Kreaturen, auch in Mittelalter, Renaissance und Barock, waren stumm. Damit wurde die Kluft zwischen ihnen und uns angedeutet. Eine Ausnahme bildeten die sprechenden Köpfe, die in die Zukunft blicken konnten. Heute tragen uns Text-to-Speech-Systeme die Inhalte von Websites vor, plaudern Sprachassistenten wie Siri und Alexa mit uns und melden sich Fahrzeuge laut und vernehmlich zu Wort. Ein weites Feld aus technischer, psychologischer und ethischer Perspektive. Der Artikel „Sprechende Maschinen“ von Oliver Bendel, der im September 2018 in der UnternehmerZeitung erschienen ist, schlägt einen Bogen von der Antike bis zur Gegenwart und zeigt heutige Möglichkeiten und Herausforderungen bei synthetischen Stimmen auf. Der Beitrag kann hier heruntergeladen werden.

Abb.: Sprechende Menschen (mit Maschine)

Künstliche Stimmen künstlicher Wesen

Die 2. VDI-Konferenz „Humanoide Roboter“ am 5. und 6. Dezember 2017 beschäftigte sich wieder – wie die 1. VDI-Konferenz mit diesem Titel – mit „dem Menschen nachempfundenen Robotern“ (Website VDI). Am 6. Dezember 2017 sprach Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) über „SSML für humanoide Serviceroboter“. Es ging darum, wie man künstliche Stimmen so manipuliert, dass sie z.B. zu Informations- und Navigationsrobotern passen. Am Rande stellte er auch Fragen aus der Ethik heraus, etwa mit Blick auf die Stimmen von Pflegerobotern. Der Postprint kann hier heruntergeladen werden. Es folgte Dr.-Ing. Hendrik Wöhrle vom DFKI mit einem Vortrag über „Eingebettete Biosignalverarbeitung und integrierte Regelung eines Ganzkörper-Exoskelettes für die Neuro-Rehabilitation“. Der Moderator, Prof. Dr. Frank Kirchner vom DFKI, ging zusammen mit dem jungen Wissenschaftler auf Fragen aus dem Publikum ein. Prof. Dr. Elisabeth André (Universität Augsburg) referierte dann zur „Personalisierung der Mensch-Roboter-Interaktion durch sozialsensitives Lernen“. Die Teilnehmerinnen und Teilnehmer der Konferenz hatten sich an beiden Tagen interessiert an ethischen Fragestellungen gezeigt. Dem soll bei der nächsten Durchführung verstärkt Rechnung getragen werden.

Abb.: Auch NAO hat eine künstliche Stimme