Der Einsatz von künstlicher Intelligenz birgt Chancen und Risiken, die es zu managen gilt – Forscher fordern klare Regeln

Die künstliche Intelligenz hat uns längst erreicht. Und zwar so ziemlich jeden von uns. Wenn auch noch nicht als Super-Intelligenz in Form von Arnold Schwarzenegger, der als Humanoide aus der Zukunft vollkommen autonom auf die Jagd von Bösewichten geht. Aber über eine Diskussion mit Siri oder den Autopiloten von Tesla ist heute niemand mehr erstaunt. Auch das ist künstliche Intelligenz (KI). Doch KI birgt neben Chancen auch grosse Risiken. Die Stiftung TA-Swiss hat sich damit auseinandergesetzt und fordert für den Einsatz klare Regeln.

Künstliche Intelligenz wird bereits an vielen Orten angewendet und man forscht kontinuierlich an deren Weiterentwicklung in allen erdenklichen Bereichen, um den Einsatz im Alltag und im Business voranzutreiben. Sie soll uns unterstützen, uns lästige repetitive Arbeit abnehmen, ja uns produktiver, effizienter und besser machen.

Künstliche Intelligenz bringt scheinbar unendliche Vorteile und grosse Chancen mit sich, viele Probleme der Menschheit endlich erfolgreich anzugehen. Doch es gibt zwei Seiten. Denn neben den vielen nützlichen Aspekten resultieren auch gewisse Risiken und es sind noch sehr viele Fragen offen. Und genau damit hat sich das Forschen Team von TA-Swiss auseinandergesetzt und diese Woche eine Studie veröffentlicht mit dem Titel: “Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz”

Doch warum wird das erst jetzt so relevant? Schliesslich forscht man seit den 50-er Jahren an KI. Das liegt daran, dass die Entwicklung und Nutzung der künstlichen Intelligenz in den letzten Jahren aus zwei Gründen einen exponentiellen Anstieg erlebt hat. Einerseits verdoppelt sich die Rechenleistung unserer Computer nach dem Mooreshen Gesetz alle 18-24 Monate. Wenn man sich nun also überlegt, dass wir vor 50 Jahren mit Computerhilfe auf dem Mond gelandet sind ist es fast schon erschreckend dass die Rechenleistung seither um den Faktor x^25 gestiegen sein soll! Und dennoch sind wir erst jetzt soweit, dass die für KI notwendigen hochkomplexen Berechnungen auch von Handys und Alltagscomputern gelöst werden können – und somit relevant für jeden werden. Der andere Aspekt sind die Daten: Künstliche Intelligenz, Algorithmen, Software etc. sind nur so gut wie die Daten, mit denen sie gefüttert werden. Und die sind unterdessen durch die regelmässige Nutzung von über das Internet vernetzten Smartphones und Computern in riesigen Mengen vorhanden.

Es braucht spezifische Regeln und Transparenz

Nun ist es so, dass die Forscher von TA-Swiss die Chancen und Möglichkeiten sehr wohl anerkennen, aber für den Einsatz von KI Regeln fordern, um die Risiken zu kontrollieren. Sie sind der Meinung, dass Unternehmen, öffentliche Einrichtungen oder der Staat künstliche Intelligenz nach spezifischen Regeln einsetzen sollen und den Einsatz den Betroffenen stets transparent darlegen müssen.

Die Studie hat sich dabei den Einsatz von künstlicher Intelligenz in den nachfolgenden Bereichen angeschaut und gibt sieben generelle und zehn bereichsspezifische Empfehlungen ab:

  • Arbeit
  • Bildung und Forschung
  • Konsum
  • Medien
  • Verwaltung und Gerichtsbarkeit

Generell orientieren sich die Empfehlungen an folgenden drei Leitideen für den Einsatz von künstlicher Intelligenz:

  1. Es braucht fokussierte Regulierungen: Unterschiedliche KI-Systeme weisen zwar einige gemeinsame Charakteristika auf. Die Art der Risiken, die aus den verschiedenen Systemen resultieren sind aber sehr unterschiedlich. Dies wird durch einen Vergleich von Siri mit dem Autopiloten von Tesla klar. Daher fordert die Studie, dass die Notwendigkeit und Ausgestaltung von Regulierungen bereichsspezifisch geprüft werden sollen. Allgemeine Regulierungsansätze (z.B. ein allgemeines KI-Gesetz) wie Regelungen im Datenschutzrecht sind laut Studie oft unzureichend und ungeeignet um KI-Risiken zu managen.
  2. Regelmässiges und integratives Monitoring: Da die Geschwindigkeit der Entwicklung von KI nicht ab- sondern eher noch zunehmen wird, ist eine gewisse Regelmässigkeit des Monitorings der Regulierungen unabdingbar. Was heute als State of the Art gilt und entsprechende Schutzmassnahmen auferlegt bekommt, kann in naher Zeit schon veraltet sein. Auf der anderen Seite könnte eine Technologie, die jetzt noch nicht im Fokus steht, schnell zum Star der Branche werden. Daher ist der Regulierungsbedarf für die Schweiz nach den Verfassern der Studie in regelmässigen Abständen und unter Einbezug internationaler Entwicklungen sowie durch Mitgestaltung eines öffentlichen Dialogs zu prüfen.
  3. Förderungen von Befähigungen: Die zentrale Leitidee für den Umgang mit KI ist die kontextspezifische Umsetzung von Massnahmen, die eine optimale Befähigung der Betroffenen ermöglicht, so dass die Chancen von KI maximiert und deren Risiko kontrolliert werden. Dazu gehört die Einsicht, dass staatliche Nutzung von KI bei hoheitlichem Handeln höheren Anforderungen unterliegen soll und dass Transparenz über die Massgabe des Datenschutzrechtes hinaus die Erkennung von Fehlentwicklungen erlauben soll. Die Regulierungsinstanzen sollen zudem befähigt werden, private KI-Zertifizierungen zu prüfen. Fachleute, welche KI-Systeme entwickeln und implementieren und über den Einsatz entscheiden, sollen sich schliesslich Kenntnisse über ethische, rechtliche und soziale Aspekte der Nutzung von KI aneignen.

Etwas konkreter ausformuliert empfehlen die Studienverfasser für den Einsatz von KI folgende sieben Massnahmen:

  1. Anstelle eines allgemeinen “KI-Gesetzes” sollen bereichsbezogene Probleme und Fehlentwicklungen regelmässig identifiziert, evaluiert und mit geeigneten Rechtsnormen gelöst werden.
  2. Der Einsatz von KI-Systemen darf nicht als ausschliesslich datenschutzrechtliches Problem aufgefasst werden. Das ist zwar nicht falsch, aber unzureichend.
  3. Für staatliche KI-Akteure müssen höhere Anforderungen gelten als für private.
  4. Setzen Private KI ein, die Menschen betreffen, sollen sie neben der aktiven Information des Einsatzes auch Transparenz auf Nachfrage sicherstellen.
  5. Organisationen (z.B. Konsumentenschutz) sollen durch staatliche Unterstützung besser befähigt werden, KI-Zertifizierungen zu überprüfen.
  6. Bildungsinstitutionen, welche KI lehren, sollen auch nicht technische (soziale und ethische) Kompetenzen fördern.
  7. Bund, Hochschulen, Unternehmen und Organisationen sollen den gesellschaftlichen Dialog zu Chancen und Risiken im Bereich der künstlichen Intelligenz fördern.

Es bleibt also abzuwarten, wie sich der Einsatz der künstlichen Intelligenz weiterentwickelt und ob solche Empfehlungen in naher Zukunft umgesetzt werden.

An der Studie beteiligt waren Forscher der Universität Zürich, der Empa und der österreichischen Akademie der Wissenschaften. Die Studie ist als Open Access kostenlos verfügbar. Hier geht es zum Download der Studie