Sprache zu Text: Dokumentation per Spracherkennungssoftware

Patientendokumentationen einfach diktieren, anstatt sie umständlich in den Computer zu tippen? Moderne Spracherkennungssoftware macht das möglich – allerdings mit Einschränkungen.

Siri, Alexa, Cortana und Co. zeigen, dass Spracherkennung und -steuerung längst keine Science- Fiction mehr sind. Sprache in Text umzuwandeln, ist heute eine Standardfunktion auf dem Smartphone. Wenn die Software die Stimme des Nutzers erkennt und die Phoneme zuordnen kann, also die Worte quasi versteht, ist die Übersetzung in die Schrift nur noch ein kleiner Schritt.

In den Praxen der Heilmittelerbringer könnte dies auch den Alltag erleichtern. Dennoch werden Texte wie die Patientendokumentationen in den meisten Fällen nach wie vor klassisch eingetippt. Obwohl einige Praxismanagementsysteme das Benutzen der Diktierfunktion nicht nur zulassen, sondern explizit damit werben. In Kliniken und Arztpraxen ist man hier mitunter weiter. Gerade Fachärzte, die viel befunden und schriftlich dokumentieren müssen, wollen diese technische Errungenschaft inzwischen nicht mehr missen. Dass man mit ihr viel Zeit sparen kann, ist sogar wissenschaftlich belegt. So berechnete die Universität Düsseldorf in einer Studie eine Ersparnis um rund ein Viertel der Zeit.

Selbst wenn dies nur für die medizinische Dokumentation gilt, ließe sich auch der zunehmende Bürokratieaufwand der Heilmittelerbringer mit Diktierfunktion und Spracherkennung wenn schon nicht beseitigen, so doch wenigstens reduzieren. Warum also die Zurückhaltung, wenn es darum geht, anstatt zur Tastatur zum Mikrofon zu greifen? Diese Frage wird unter Praxisinhabern diskutiert – zum Beispiel in den Foren von Physio.de. Strittig ist dabei vor allem, wie zuverlässig die Spracherkennung funktioniert und wie praktikabel das Arbeiten mit ihr ist. Während die einen Diskussionsteilnehmer betonen, dass die gesprochenen Texte 1:1 übernommen würden, berichten andere von kleinen Katastrophen mit der Diktierfunktion (Neli K: „Die Sachen, die dabei herauskommen, sind super für die nächste Betriebsfeier als Lachnummer geeignet“).

Datenschutz bleibt eine offene Flanke

Diskutiert wird unter Therapeuten auch, ob sie überhaupt sensible Patientendaten einsprechen dürfen, zumal solche digitalen Services der Gerätehersteller cloudbasiert sind, also nicht auf dem Computer und ebenso wenig auf dem Server des Praxis-Softwareherstellers gespeichert werden. Dies bestätigt auch die Hotline von terminheld: „Wenn Sie die Spracheingabe nutzen, gehen die Infos, die Sie in das Gerät sprechen, auf einen amerikanischen Server. Was dort mit den Daten geschieht, wissen wir nicht. Es kann sein, dass es niemanden interessiert, was ein Therapeut in Deutschland eingibt, es kann aber auch sein, dass es ausgewertet und gespeichert wird.“ Und dann heißt es noch lapidar, um datenschutzkonform zu arbeiten, sei es vielleicht doch sinnvoller, die Spracheingabe nicht zu nutzen. Wenn, dann nur so, dass das Gesprochene keiner Person zuzuordnen ist. Letzteres bestätigt auch Kurt Martin, Vorstand der Münchner 4Voice AG, die auf Spracherkennung gerade im medizinischen und juristischen Bereich spezialisiert ist. Ihre Lösungen basieren auf der Dragon-Spracherkennungstechnologie von Nuance und sind ebenfalls seit diesem Sommer cloudbasiert.

Im Unterschied zu den „Kostenlos“-Angeboten von Microsoft, Apple und Co. wird bei 4Voice garantiert, dass alles konform mit der neuen EU-Datenschutzverordnung ist und alle Daten ausschließlich zentral in deutschen Rechenzentren verwaltet werden. Den größeren Vorteil sieht Martin jedoch in der Leistungsfähigkeit einer professionellen Spracherkennungssoftware: „Mit der kostenlosen Software, die auf den Geräten vorinstalliert ist, kann man ganz wunderbar eine E-Mail oder eine SMS aufsprechen, sobald man aber einen längeren Text über mehrere Zeilen diktieren will, funktioniert das alles nicht mehr richtig.“ Spätestens wenn die Software mitten im Diktat abbricht und aufwändig der Anschluss gefunden werden muss, verliert der Nutzer schnell die Lust an der Spracherkennung. Spezialisierte Software ermögliche das gezielte Trainieren derselbigen: Wenn die Spracherkennung zunächst Fachbegriffe wie „Apoplex“ oder „Sensomotorisch-perzeptive Behandlung“ nicht versteht, bringt man sie ihr einfach bei, sodass es das nächste Mal funktioniert.

Allein: Hightech hat seinen Preis. Eine Lizenz für ein professionelles Produkt kostet monatlich zwischen 120 und 150 Euro. Wenn man mobil arbeiten will, muss man diese Option zusätzlich buchen. Dies rechnet sich nur für denjenigen, der einen hohen Dokumentationsbedarf hat. Dann sind Spracherkennungssysteme eine echte Zeitersparnis und erleichtern den Bürokratieaufwand.


Branchen-News automatisch in Ihr Postfach

Geänderte gesetzliche Vorgaben, aktuelle Absetzungen, spannende Events: Wir bringen Wissenswertes per E-Mail für Sie auf den Punkt – immer Mitte des Monats und bei besonderen Ereignissen auch ganz aktuell.  

Jetzt anmelden



Funktionalität eingeschränkt! Bitte aktivieren Sie JavaScript.