KI ist kein Wunderwerkzeug

Künstliche Intelligenz kann uns das Leben in vielen Bereichen erleichtern. In der Technologie schlummern aber auch zahlreiche Gefahren. Der Rechtswissenschaftler Florent Thouvenin entwickelt mit akademischen Partnern rund um den Globus Ideen, wie KI optimal reguliert werden könnte.

Als Ende des letzten Jahres die amerikanische Firma OpenAI den Chatbot ChatGPT lancierte, staunte die Welt. Viele waren überrascht, was mit Hilfe von künstlicher Intelligenz alles möglich ist. So lassen sich mit dem Chatbot mehr oder weniger elaborierte Texte generieren, wissenschaftliche Papers kurz und knapp zusam- menfassen, aber auch Programme schreiben oder von der einen in eine andere Programmiersprache übersetzten. Zur anfänglichen Euphorie über mögliche Arbeitserleichterungen gesellten sich aber schon bald auch Ängste und Bedenken. Denn der Chatbot kann zwar intelligentes Verhalten simulieren, produziert zuweilen aber schlicht Nonsens. Angesichts der rasanten Entwicklung von künstlicher Intelligenz und der gesellschaftlichen Risiken, die von der potenten Technologie ausgehen, fordert ein offener Brief des amerikanischen Future of Life Institute deshalb einen sechsmonatigen Unterbruch bei der
Weiterentwicklung von KI-Systemen, die leistungsfähiger als ChatGPT4 sind. Dies, um die Software transparenter und vertrauenswürdiger zu machen. Zu den Unterzeichnern der öffentlichen Stellungnahme gehören prominente Köpfe wie etwa der israelische Historiker und Buchautor Yuval Harari und der US-Unternehmer Elon Musk.

Chatbots können nicht denken
Nicht unterschrieben hat dagegen Florent Thouvenin. Der Rechtswissenschaftler der UZH beschäftigt sich schon seit längerem mit den Auswirkungen von algorithmischen Systemen und künstlicher Intelligenz auf die Gesellschaft und mit den Herausforderungen für das Rechtssystem, die damit verbunden sind. Thouvenin ist Professor für Informations- und Kommunikationsrecht und leitet an der UZH das Center for Information Technology, Society, and Law (ITSL). Dem geforderten Unterbruch steht er skeptisch gegenüber. «KI ist kein Wunderwerkzeug», sagt der Rechtswissenschaftler, «Chatbots wie ChatGPT können sehr schnell sehr viel rechnen – sie können aber weder verstehen noch denken und sie haben auch keinen eigenen Willen.»

Thouvenin sieht vor allem zahlreiche Chancen, die die neue Technologie bietet. Wichtig sei es, Anwendungen von künstlicher Intelligenz rechtlich so zu erfassen, dass die Chancen genutzt und die Risiken minimiert werden können. Gedanken dazu hat er sich bereits 2021 gemeinsam mit Kolleg:innen in einem Positionspapier der Digital Society Initiative (DSI) der UZH gemacht (siehe Kasten). Mit Partnern in Japan, Brasilien, Australien und Israel analysiert er nun im «AI-Policy-Projekt», wie verschiedene Rechtssysteme auf die grossen Fortschritte bei der Entwicklung von KI reagieren. Dabei werden Staaten untersucht, die sich – wie die Schweiz – genau überlegen müssen, wie sie sich gegenüber den regulatorischen Supermächten EU und USA positionieren wollen, um die Entwicklung dieser Technologien zu fördern und zugleich die eigenen Bürger vor Nachteilen zu schützen.

Die politische Diskussion zu diesem wichtigen Thema steht vielerorts noch am Anfang. Das gilt auch für die Schweiz. Am weitesten gediehen ist die Regulierung in der EU. Im Juni wurde ein Entwurf für das weltweit erste KI-Gesetz von den EU-Parlamentarier:innen angenommen. Nun wird dieser Vorschlag mit Vertretern der Mitgliedstaaten und der EU-Kommission diskutiert – Ziel ist, dass sich die Beteiligten bis Ende Jahr auf einen Gesetzestext einigen. Das KI-Gesetz der EU fokussiert auf die Risiken, die von künstlicher Intelligenz ausgehen, und teilt diese in vier Kategorien ein: von unannehmbaren Risiken (dazu gehören etwa KI-Systeme, die von Strafverfolgungsbehörden eingesetzt werden können, um Menschen in öffentlichen Räumen in Echtzeit durch biometrische Fernerkennung zu identifizieren) bis zu risikoarmen Anwendungen. Chatbots wie ChatGPT würden in dieser Verordnung erlaubt bleiben, müssten aber transparenter werden (etwa indem Deepfakes als solche erkennbar wären).