| Law & Order

Mit der Zunahme von AI in unterschiedlichen Anwendungen entwickelt sich deren Einsatz immer mehr zu einem Wettbewerbsvorteil. Aufgrund ihrer leistungsstarken Fähigkeiten und ihrer zunehmenden Verbreitung ist die generative AI mittlerweile auch in das Blickfeld der Politik gerückt. Die Gesetzgeber der EU haben deshalb mit dem «EU Artificial Intelligence Act», welcher sich direkt mit dem Aufkommen von hochentwickelten Chatbots und LLMs befasst, einen Gesetzesvorschlag zur Verwendung und Regulierung vorgelegt. Am 13. März 2024 hat das EU-Parlament mit grosser Mehrheit dem «EU AI Act» zugestimmt. Es folgen förmliche Zustimmung der Mitgliedsstaaten, juristische Übersetzung in alle Amtssprachen der EU und Veröffentlichung im Amtsblatt der EU, mit dem Ziel, im Juni 2024 in Kraft zu treten. Aufgrund seiner extraterritorialen Wirkung betrifft der «EU AI Act» nicht nur in der EU ansässige Unternehmen, sondern auch Schweizer Unternehmen, die in der EU tätig sind. Das heisst, Schweizer Unternehmen, die bereits dem Schweizer Datenschutzgesetz (DSG) und der Datenschutz-Grundverordnung (DSGVO) unterliegen, müssen prüfen, ob zusätzliche Verpflichtungen für sie gelten. Es ist davon auszugehen, dass die Schweiz den «EU AI Act» in grossen Teilen übernehmen wird.

Datenschutz

Es ist zu prüfen, welcher Anbieter zum Einsatz kommen soll und welche Daten und Informationen für den Chatbot genutzt werden dürfen. Grundsätzlich sollte auf die Verarbeitung von personenbezogenen und auch anderen sensiblen oder vertraulichen Daten verzichtet werden.

Urheberrecht

Aus Sicht des Urheberrechts ist zu überprüfen, ob die eingegebenen Daten und Informationen urheberechtlichem Schutz unterliegen. Nur so kann sichergestellt werden, dass der Output des Chatbots nicht strafbar ist. Nutzer eines ChatGPT-Accounts können den Custom GPT Recht und Lauterkeit nutzen um auf Gesetzestexte zuzugreifen oder Inhalte zu überprüfen.

Transparenz

Gegenüber dem Nutzer soll der Einsatz von AI-Modellen transparent gemacht werden, einschliesslich der Information, in welchen Abläufen diese zum Einsatz kommen. Zum Beispiel durch Hinweise in den Datenschutzerklärungen für Kunden und Mitarbeitende sowie in den Unternehmensinformationen.

Risikomanagement

Das Augenmerk sollte auf der Identifizierung von technischen, rechtlichen und ethnischen Risiken sowie möglichen Problemen durch Fehlinterpretationen und deren Steuerung durch passende Sicherungsmassnahmen liegen.

Überprüfung

Beim Einsatz von Chatbots soll ein Prozess erstellt werden, der gewährleistet, dass AI-generierte Ergebnisse oder Produkte von einem Menschen überprüft und gegebenenfalls geändert werden können.

Schulung

Der Einsatz von Künstlicher Intelligenz setzt ein gewisses Grundverständnis voraus und benötigt Sensibilisierung im Umgang mit AI-Anwendungen. Interne Vorgaben zum Umgang mit AI sollten in Leitfäden den Mitarbeitenden kommuniziert werden, um Missbrauch vorzubeugen und einem internen Organisationsverschulden entgegenzuwirken.