Wie Microsoft Teams den drohenden Burnout des sprechenden Mitarbeiters erkennt – auch eine ethische Herausforderung

Burnout entsteht selten plötzlich. Meist kündigt sich die Erschöpfung lange vorher an – leise, schrittweise und oft über Veränderungen in Sprache und Kommunikation. Worte werden kürzer, der Ton nüchterner, die Stimme verliert an Dynamik. Moderne Künstliche Intelligenz kann dies verlässlich erkennen (Trefferquote über 90%). Die automatisierte Sprach-, Stimm- und Textanalyse eröffnet neue technische Möglichkeiten für die Burnoutprävention. Gleichzeitig stellt sich dem Arbeitgeber Staat die zentrale Frage: Was ist technisch machbar – und was ist rechtlich und ethisch erlaubt?

Technisch gesehen kann KI heute geschriebene Sprache sehr differenziert auswerten. In anonymisierten Freitextantworten aus Mitarbeiterbefragungen oder Feedback-Tools erkennt sie Muster in Wortwahl, Themen und emotionaler Färbung. Häufen sich Begriffe wie „Druck“, „Erschöpfung“ oder „keine Zeit“, oder verändert sich der Ton des Sprechenden über Monate hinweg (zum Beispiel in Richtung Resignation), belegt dies eine steigende Belastung. Für die Burnoutprävention ist das wertvoll, weil nicht einzelne Aussagen zählen, sondern Trends über die Zeit sichtbar werden – etwa in bestimmten Teams oder Arbeitsbereichen.

Fürsorgepflicht vs. Persönlichkeitsrechte
Rechtfertigt das den Einsatz? Soll der Arbeitgeber berechtigt sein, diese Prüfung einzelfallweise oder generell, systematisch vorzunehmen – dies mit der Begründung, er könne nur so seiner Fürsorgepflicht genügen?

Als Voraussetzung muss heute gelten, dass diese Texte und Gespräche freiwillig und mit Einwilligung bereitgestellt, anonymisiert und ausschliesslich für präventive Zwecke genutzt werden. Alles andere verletzt die Persönlichkeitsrechte der Mitarbeitenden.

Immerhin: Man kann das – theoretisch – auch anders sehen. Eigentlich müsste bereits die oder der Vorgesetzte im täglichen Umgang mit dem betroffenen Mitarbeitenden erkennen, dass Präventionsmassnahmen eingeleitet werden müssen, weil der Mitarbeitende derart unter Druck steht, dass eine Gesundheitsgefährdung droht. Diese Kenntnis bezieht er aus persönlicher Beobachtung. Diese Beobachtung ist zulässig und gesellschaftlich akzeptiert. Validiert der Vorgesetzte sein Empfinden mit KI basierter Software, macht er eigentlich nichts anderes, nur er macht es nicht mehr selbst. Und höchstwahrscheinlich ist das Resultat zuverlässiger als die eigenen Beobachtungen. Da treten sich Fürsorgepflicht und Persönlichkeitsrechte gegenseitig auf den Füssen herum.