Wenn Künstliche Intelligenz Menschenleben beeinflusst

Künstliche Intelligenz unterstützt Richter, Polizisten und Ärzte. Aber wie wird dieser Entscheidungsprozess geleitet?

Obwohl wir bereits einige der aktuell wichtigsten KI-Probleme auf unserem Blog behandelt haben, vertrauen Nutzer Roboterassistenten noch immer sehr persönliche und wichtige Dinge an. Selbstlernende Systeme helfen Richtern und Ärzten gegenwärtig bereits dabei, relevante Entscheidungen zu treffen und sind sogar in der Lage, Verbrechen zu prognostizieren, die noch nicht begangen wurden. Die Nutzer solcher Systeme tappen jedoch oft im Dunkeln, wenn es darum geht, wie diese Systeme zu einer bestimmten Schlussfolgerung gelangen.

Künstliche Intelligenz vor Gericht

In US-amerikanischen Gerichtssälen wird KI bereits bei Entscheidungen in Bezug auf Strafzumessung, Präventivmaßnahmen und Schadensbegrenzung eingesetzt. Nach einer Analyse aller relevanten Daten prüft das KI-System, ob der Angeklagte zur Rückfälligkeit neigt; diese Entscheidung kann dann beispielsweise eine zur Bewährung ausgesetzte Strafe in eine Gefängnisstrafe verwandeln oder zur Ablehnung einer Kautionszahlung führen.

So wurde US-Bürger Eric Loomis beispielsweise zu sechs Jahren Haft verurteilt, weil er als Fahrer indirekt an einer Schießerei beteiligt gewesen war. Die Entscheidung fällte der sogenannte COMPAS-Algorithmus, der die Gefährdung von Individuen für die Gesellschaft einschätzt und den Angeklagten als „Person mit hohem Risiko für die Gemeinschaft“ einstufte. Die Verteidigung beanstandete die Entscheidung mit der Begründung, dass die Funktionsweise des Algorithmus nicht offengelegt worden sei und somit weder die Authentizität noch die Fairness des Ergebnisses beurteilt werden könne. Das Gericht wies dieses Argument zurück.

Elektronische Hellseher: KI-basierte Kriminalitätsprognose

In einigen Teilen Chinas wird das Ganze noch weiter auf die Spitze getrieben, indem KI verwendet wird, um potenzielle Kriminelle zu identifizieren. Kameras zur Gesichtserkennung überwachen die Öffentlichkeit 24/7 und geben den Strafverfolgungsbehörden Bescheid, sobald ihnen etwas Verdächtiges vor die Linse tritt. Eine Person, die beispielsweise überdurchschnittlich große Mengen Pflanzendünger kauft, plant möglicherweise einen Terroranschlag. Jeder, der sich verdächtig verhält, kann festgenommen oder in ein Umerziehungslager verbannt werden.

Auch in anderen Ländern werden „präventive Kriminalitätstechnologien“ entwickelt. In einigen Teilen der Vereinigten Staaten und Großbritanniens verwendet die Polizei Technologien, um eine Prognose zu stellen, wo es am wahrscheinlichsten zur nächsten Straftat kommen wird. Dabei werden viele Faktoren berücksichtigt: die Kriminalitätsrate der Region, der sozioökonomische Hintergrund und sogar die Wettervorhersage. Bemerkenswert ist, dass die Waffenkriminalität seit dem Einsatz dieser Tools in Stadtvierteln Chicagos um etwa ein Drittel gesunken ist.

Der Computer ist gleich bei Ihnen

Auch im Gesundheitswesen werden neue Technologien weitverbreitet eingesetzt. Künstliche Ärzte befragen Patienten, stellen Diagnosen, analysieren Kontrollergebnisse und unterstützen Chirurgen während der Operation.

Eines der bekanntesten, selbstlernenden Systeme im Gesundheitswesen ist IBM Watson Health. Ärzte trainieren die KI, um Krankheiten zu diagnostizieren und die notwendige Therapie zu verschreiben; Watson Health hat viel positives Feedback erhalten. Bereits im Jahr 2013 wurde die Wahrscheinlichkeit, dass sich der Supercomputer für den optimalen Behandlungsplan entscheidet, auf 90% geschätzt.

Im Sommer 2018 zeigte sich jedoch, dass einige Ratschläge des Systems zur Krebsbehandlung unsicher waren. So empfahl Watson einem Krebspatienten mit schweren Blutungen ein Medikament, das zu weiterem Blutverlust hätte führen können. Glücklicherweise handelte es sich hierbei lediglich um rein hypothetische Szenarien.

Sicher, menschliche Ärzte machen auch Fehler, aber wenn KI involviert ist, sind die Grenzen der Verantwortung nicht mehr klar definiert. Würde ein Arzt aus Fleisch und Blut riskieren, einem digitalen Kollegen zu widersprechen, dessen Entwickler ihn mit Hunderttausenden von wissenschaftlichen Artikeln, Büchern und Fallgeschichten gefüttert haben? Und wenn nicht, würde der Arzt dann irgendwelche negativen Konsequenzen tragen?

KI muss transparenter werden

Eines der Hauptprobleme bei der Verwendung von KI zur Bestimmung des Schicksals der Menschheit ist, dass die Algorithmen oft nicht transparent sind und die Ursachen- und Fehlerermittlung, zur Vermeidung einer Wiederholung, oft nicht leicht sind. Aus Sicht der Entwickler selbstlernender Systeme ist das völlig verständlich: Wer möchte sein Wissen schon mit potenziellen Wettbewerbern teilen? Aber wenn ein Menschenleben auf dem Spiel steht, sollten Geschäftsgeheimnisse dann wirklich oberste Priorität haben?

Politiker weltweit versuchen, sich mit der Regulierung nichttransparenter KI auseinanderzusetzen. In der Europäischen Union haben „Datensubjekte“ das Recht zu wissen, auf welcher Grundlage KI-Entscheidungen, die ihre Person betreffen, basieren. Japan schlägt einen ähnlichen Weg ein, obwohl ein maßgebliches Gesetz derzeit lediglich in Betracht gezogen wird.

Einige wenige Entwickler sprechen sich für Transparenz aus, so auch das Technologieunternehmen CivicScape, das 2017 den Quellcode seines Systems zur vorausschauenden Überwachung veröffentlichte. Dies ist allerdings die Ausnahme, nicht die Regel.

KI wird uns vermutlich für den Rest unseres Lebens begleiten. Das heißt, bis sich KI-basierte Entscheidungen nachweislich als fair und genau erweisen, muss sich der Einsatz von KI auf fundierte Gesetze und die Kompetenz der Entwickler und der Nutzer selbstlernender Systeme verlassen.

Tipps