Algorithmische Systeme werden immer häufiger in allen Lebensbereichen eingesetzt – grenzübergreifende Rahmenbedingungen für den sicheren Umgang gab es bis dato noch nicht. Dies möchte die EU nun ändern.

Ob Empfehlungsalgorithmen und Smart Home oder Texterstellung und Übersetzung: Künstliche Intelligenz nimmt im privaten und beruflichen Alltag eine wesentliche und bleibende Rolle ein. Doch KI birgt das Risiko, als Werkzeug für kriminelle Straftaten missbraucht zu werden.

Wie vergangenes Monat crossmedial berichtet, nahmen Betrugsfälle mit KI-Stimmen in Österreich stark zu. Das sogenannte „Voice Cloning“ ermöglicht es Kriminellen, mithilfe von künstlicher Intelligenz die Stimmen von Freunden oder Verwandten zu imitieren. Ziel der Betrugsanrufe ist es, eine „Notsituation“ zu fabrizieren, um so das sofortige Überweisen von Geld zu provozieren. Doch auch ohne kriminelle Energie können Automatisierungen das Leben auf den Kopf stellen wie etwa, wenn ein algorithmisches System fälschlicherweise den Missbrauch von Sozialleistungen meldet oder Studienplätze wegen eines intransparenten und diskriminierenden algorithmischen Bewertungssystems zurückgezogen werden.

 

EU bestimmt Regeln

Der „Artificial Intelligence Act“ der EU skizziert die nun getroffenen Sicherheitsvorkehrungen rund um den Einsatz von AI. KI-Anwendungen werden ab sofort in unterschiedliche Risikoklassen eingeteilt. Dabei müssen Systeme, die als besonders risikoreich gelten und zum Beispiel in kritischen Infrastrukturen oder im Bildungs- oder Gesundheitswesen eingesetzt werden, strenge Anforderungen erfüllen. Dies hat Einschränkungen zur Folge, wie zum Beispiel in der Nutzung biometrischer Identifikationssysteme mit strafrechtlicher Verfolgung. Ziel ist es, eine europaweit gültige Grundlage für den sicheren Umgang mit Künstlicher Intelligenz zu schaffen, während gleichzeitig Innovationen gefördert werden.

 

Verbotene Anwendungen

Um sicherzustellen, dass grundlegende Rechte, Demokratie, Rechtsstaatlichkeit und Umweltschutz geschützt werden, wurde beschlossen, folgendes zu verbieten:

  • Biometrische Kategorisierung zur Ableitung sensibler Daten
  • Biometrische Erkennung in öffentlichen Bereichen in Echtzeit durch Strafverfolgungsbehörden (hier gibt es Ausnahmen, siehe unten)
  • Internet-Scraping zur Fütterung von Gesichts-Datenbanken
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • Social Scoring
  • Ausnutzung vulnerabler Personen, unterschwellige Techniken zur Entscheidungsmanipulation

Ausnahmen hierbei: Der Gebrauch von biometrischen Identifikationssystemen (RBI) in öffentlich zugänglichen Räumen für strafrechtliche Zwecke wie ZB die gezielte Suche nach Opfern im Falle einer Entführung oder aber auch zur Prävention einer spezifischen und aktuellen terroristischen Bedrohung. Die Strafvollzieher benötigen in diesen Fällen eine vorherige, richterliche Genehmigung.

 

Verpflichtungen für Hochrisikosysteme

Für als hochriskant eingestufte KI-Systeme (aufgrund ihres erheblichen potenziellen Schadens für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit) wurden klare Verpflichtungen vereinbart: Hoch-Risiko-KI-Systeme dürfen zwar entwickelt und genutzt werden, es werden aber zahlreiche Anforderungen an sie gestellt, damit dies rechtmäßig geschehen kann wie unter anderem die Einrichtung eines Risiko- und Qualitätsmanagementsystems. Unter anderem betroffen sind auch der Versicherungs- und Bankensektorsowie KI-Systeme, die den Ausgang von Wahlen und das Wählerverhalten beeinflussen.

 

Durchsetzung und Haftung

Für die Einhaltung der Bestimmungen des AI Act werden daneben nationale Marktüberwachungsbehörden geschaffen. In Österreich ist aktuell eine KI-Servicestelle (bei der RTR GmbH) in Planung, die bereits vor Geltung des AI Act ihre Tätigkeit aufnehmen soll. Betroffene Personen haben ein Beschwerderecht, wenn sie der Ansicht sind, dass ein KI-System gegen den AI Act verstößt. Die Strafen sollen von 35 Millionen Euro für Unternehmen oder 7 % des weltweiten Umsatzes bis zu 7,5 Millionen Euro oder 1,5 % des Umsatzes reichen.

Willkommen in der Zukunft.
Hallo Austrian Roadmap 2050.

Wir liefern die besten Stories und spannendsten Trends direkt in dein Postfach, jeden Freitag! Werde Teil der Community!

Einwilligung

Sie haben sich erfolgreich angemeldet!

Share This