Jetzt informieren!
otris copilot
KI-Lösung für Ihre Rechtsabteilung. KI rechtskonform und verantwortungsvoll nutzen
Rechtliche Veränderungen sind ein natürliches Beiprodukt des technologischen Fortschritts. Denn wo neue Systeme entwickelt und implementiert werden, tauchen als direkte Konsequenz auch zwangsläufig neue rechtliche Fragen auf. Das aktuell größte fortschrittsbedingte rechtliche Unterfangen betrifft zweifellos den Umgang mit Künstlicher Intelligenz (KI). Wie es aktuell um das KI-Recht steht, was die neuen Regelungen bedeuten und mit welchen Herausforderungen zu rechnen ist, erfahren Sie in diesem Beitrag.
Künstliche Intelligenz (auch oft als engl. “Artificial Intelligence” oder “AI” bezeichnet) gehört zweifelsohne zu den aktuell wichtigsten technologischen Fortschritten. Hierbei handelt es sich um Systeme, die Algorithmen nutzen, um menschliche Problemlösungsfähigkeiten nachzuahmen und basierend darauf verschiedene Aufgaben auszuführen.
Modelle generativer KI – also Künstliche Intelligenzen, die verschiedene Inhalte generieren können – wie ChatGPT, DeepL oder DALL-E können große Datenmengen verarbeiten, aufbereiten und ausspielen. Das kann dazu beitragen, verschiedenste Prozesse im privaten, aber insbesondere im professionellen Bereich zu vereinfachen.
Die Nachfrage nach KI-Lösungen ist groß und entsprechend rasant entwickelt sich das aktuelle Lieblingsthema aller großen Tech-Konzerne auch weiter. Auch die Frage nach dem Zusammenhang zwischen KI und Recht gewinnt dadurch immer mehr an Bedeutung.
Denn wie in so vielen anderen Bereichen gilt auch hier: Wo sich neue Möglichkeiten auftun, ist man immer auch mit neuen Herausforderungen konfrontiert. Es stellt sich die Frage, wie man Künstliche Intelligenz nutzen und vorantreiben und gleichzeitig die Sicherheit der Allgemeinheit gewährleisten kann.
Der Einsatz von KI kann signifikante Risiken mit sich bringen, insbesondere in Bezug auf Grundrechte, Demokratie und Rechtsstaat. Entsprechend werden auch neue gesetzliche Regelungen notwendig, um mit diesen umzugehen. Um diesen Risiken entgegenzuwirken, wurde 2024 das KI-Gesetz der EU verabschiedet.
Die Verordnung über Künstliche Intelligenz der EU (auch bekannt als KI-Gesetz oder engl. AI Act) ist weltweit die erste umfassende Regulation von KI-Recht. Die bereits seit 2019 im Entstehen begriffene Regelung wurde im Mai 2024 endgültig verabschiedet und am 12. Juli 2024 im Amtsblatt der EU veröffentlicht.
Ziel dieser Verordnung ist es, die Verwendung Künstlicher Intelligenz zu regulieren und ein Framework mit Compliance-Vorschriften und Verboten für deren Gebrauch zu schaffen. Sie bietet einen einheitlichen Rechtsrahmen für alle EU-Mitgliedstaaten, was die Fragmentierung der Regulierung in verschiedenen Ländern verhindert. Dies erleichtert wiederum den grenzüberschreitenden Handel und die Zusammenarbeit innerhalb der EU.
Der AI Act zielt grundsätzlich darauf ab, ein Gleichgewicht zu schaffen. Er soll die weitere Einführung von KI fördern und gleichzeitig die Rechte des Einzelnen auf eine verantwortungsvolle, ethische und vertrauenswürdige Nutzung von KI bewahren. Zu den wichtigsten allgemeinen Zielen des AI Acts zählen dementsprechend die folgenden:
Insgesamt soll die Verordnung einen Ausgleich zwischen der Förderung technologischer Innovation und dem Schutz der öffentlichen Interessen schaffen, indem sie einen sicheren und vertrauenswürdigen Rahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz in der EU bietet. Das soll mithilfe eines risikobasierten Ansatzes geschehen – was genau das bedeutet, erfahren Sie im nächsten Abschnitt.
Die KI-Verordnung verfolgt einen risikobasierten Ansatz. Das bedeutet, dass KI-Systeme nach ihrem Risiko für die Gesellschaft und Einzelpersonen eingestuft werden. Basierend auf dem Risiko der jeweiligen KI gelten unterschiedliche Vorschriften für Anbieter und Nutzer – je höher das Risiko, desto umfassender die Anforderungen. Die folgenden Stufen wurden dabei festgelegt:
KI-Systeme, die ein inakzeptables Risiko darstellen, sind verboten. Dies umfasst Technologien und Anwendungen, die die persönliche Sicherheit sowie grundlegende Rechte und Freiheiten verletzen könnten. Beispiele sind KI-Systeme für soziale Bewertung durch Behörden und bestimmte Formen manipulativer Praktiken.
KI-Systeme, die ein hohes Risiko bergen, müssen strenge Anforderungen erfüllen und vor der Anwendung eine Konformitätsprüfung durchlaufen. Darunter fallen KI-Technologien, die beispielsweise in kritischen Infrastrukturen wie dem Verkehr, im Bildungssektor, dem öffentlichen Dienst oder der Strafverfolgung genutzt werden. Anbieter müssen in diesem Fall Nachweise erbringen, dass ihre Systeme sicher und transparent sind und die Rechte der Nutzer gewahrt bleiben.
KI-Systeme mit begrenztem Risiko unterliegen geringeren Vorschriften, die sich hauptsächlich auf Transparenz beziehen. Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren. Beispiele sind Chatbots oder KI-gestützte Bild- und Sprachbearbeitung. Diese Transparenzverpflichtung soll sicherstellen, dass Nutzer informierte Entscheidungen treffen können.
KI-Systeme, die ein minimales Risiko darstellen, unterliegen keinen spezifischen regulatorischen Beschränkungen. Diese umfassen die meisten Anwendungen wie beispielsweise Spamfilter oder KI-gestützte Videospiele. Obwohl in diesem Fall keine speziellen Vorschriften gelten, wird erwartet, dass Entwickler und Nutzer bewährte Praktiken befolgen, um Missbrauch zu verhindern.
Das KI-Gesetz betrifft grundsätzlich all jene, die innerhalb der EU mit KI arbeiten (oder wenn KI-Output aus Drittländern innerhalb der EU verwendet wird). Die meisten Verpflichtungen betreffen natürlich die Entwickler und/oder Anbieter von KI-Systemen. Aber auch Hersteller, deren Produkte KI-Systeme enthalten sowie Nutzer, also Anwender von KI-Systemen in Europa, müssen den AI Act beachten.
Die genauen Pflichten hängen vom jeweiligen KI-System und dessen Anwendungsbereich – also seiner Risikoeinstufung – ab. Höheres Risiko bedeutet strengere Auflagen. Dementsprechend ist eine angemessene Governance in der weiteren Arbeit mit KI-Systemen unabdingbar. Sie sollten also …
Inventarisieren und klassifizieren Sie die aktuelle KI-Landschaft, testen Sie verschiedene Systeme und führen Sie Defizitanalysen durch. Achten Sie zudem immer darauf, dass Ihnen die Risiken des verwendeten KI-Systems bewusst sind und Sie diese priorisieren und angemessen steuern können. Lassen Sie dabei auch eventuell vorhandene Risiken im Zusammenhang mit Dritten keinesfalls außer acht. So sind Sie vorbereitet.
KI-Recht steckt aktuell noch in den Kinderschuhen – folglich ist zum Umgang mit Themen wie Datenschutz, Ethik, Transparenz und Sicherheit in den kommenden Jahren mit rechtlichen Änderungen und Erweiterungen zu rechnen. Entsprechend sollten Unternehmen auch für verschiedene Herausforderungen gewappnet sein.
Eine der größten Herausforderungen besteht wohl darin, mit Blick auf die KI die Unternehmensprioritäten richtig zu setzen. Um Risiken erfolgreich abschätzen zu können, ohne dabei Innovationen zu hemmen, ist von Anfang an eine gut ausgearbeitete Strategie erforderlich, die den Nutzen und mögliche Problematiken der Künstlichen Intelligenz gegeneinander abwägt. Eine angemessene Governance und Strategien zum Umgang mit möglichen Risiken sind definitiv eine der größten Herausforderungen im Umgang mit KI.
Gleichzeitig ermöglicht der kontrollierte und rechtssichere Einsatz von KI-Systemen auch wichtige Chancen. Denn dadurch lassen sich ethische Lösungen entwickeln, die verschiedene Arbeitsschritte vereinfachen und Prozesse effizienter gestalten, ohne dabei das Allgemeinwohl zu gefährden.
Fakt ist also: Die Implementierung neuer Technologien wie KI mag im Zuge des KI-Rechts mit einigen Herausforderungen behaftet sein, dennoch kann sie wichtige Möglichkeiten für die Zukunft schaffen.
Neue Systeme führen unweigerlich zu neuen Errungenschaften – aber im selben Zuge auch zu neuen rechtlichen Grauzonen und Unsicherheiten, was wiederum nach entsprechenden Vorschriften und Regelungen verlangt. Mit dem KI-Gesetz ist der erste Schritt getan und das KI-Recht begründet. Unternehmen sollten dementsprechend spätestens jetzt ihr Augenmerk auf den rechtssicheren Umgang mit Künstlicher Intelligenz legen.
Die Nutzung von KI-Tools wird früher oder später wohl in jedem Unternehmen gang und gäbe werden – egal, ob im großen oder kleinen Rahmen. Doch um einen ethischen und rechtlich einwandfreien Umgang mit den neuen technischen Möglichkeiten zu gewährleisten, ist eine angemessene Governance erforderlich. Wer Risiken und Nutzen abwägt und von Anfang an mit einer klaren Strategie arbeitet, hat vor dem KI-Recht nichts zu befürchten.
Das KI-Gesetz der EU, auch bekannt als “AI Act”, zielt darauf ab, die Nutzung und Entwicklung von KI-Systemen zu regulieren, indem es diese nach ihrem Risiko für die Gesellschaft klassifiziert und entsprechende Vorschriften festlegt. Es soll Sicherheit, Transparenz und ethische Standards gewährleisten.
Das KI-Gesetz ist seit August 2024 in Kraft, es muss jedoch noch in nationales Recht umgesetzt werden (Stand August 2024). Die meisten Vorschriften werden ab August 2026 gelten.
KI-Recht ist notwendig, um die Risiken und Chancen der Künstlichen Intelligenz zu steuern. Es schützt die Rechte und Sicherheit der Bürger, gewährleistet ethische Standards und fördert verantwortungsbewusste Innovationen. Es schafft auch klare Rahmenbedingungen für Entwickler und Nutzer von KI-Systemen.