Kaspersky appelliert an ethischen Einsatz von KI in der Cybersicherheit

Wir stellen sechs Prinzipien für den ethischen Einsatz von KI in der Cybersicherheitsindustrie vor, die auf dem globalen Internet Governance Forum präsentiert werden.

Die rapide Entwicklung von KI-Systemen und die Versuche, sie flächendeckend einzuführen, stimmen optimistisch und besorgt zugleich. Künstliche Intelligenz kann uns Menschen in zahlreichen Bereichen helfen – wie die Cybersicherheitsbranche aus erster Hand weiß. Wir bei Kaspersky setzen seit fast 20 Jahren maschinelles Lernen (ML) ein und wissen mit Sicherheit, dass es ohne KI-Systeme einfach nicht möglich ist, sich gegen die zahlreichen Cyberbedrohungen zu verteidigen, die es gibt. Im Laufe dieser Zeit haben wir allerdings auch eine Vielzahl von Problemen im Zusammenhang mit KI identifiziert – vom Training mit falschen Daten über böswillige Angriffe auf KI-Systeme bis hin zur Nutzung von KI für unethische Zwecke.

Diverse internationale Diskussionsplattformen und Organisationen haben bereits generelle Grundsätze für eine ethische KI entwickelt (hier z. B. die Empfehlungen der UNESCO), doch konkretere Leitlinien für die Cybersicherheitsbranche haben sich bisher nicht durchgesetzt.

Damit KI in der Cybersicherheit ohne negative Folgen eingesetzt werden kann, schlagen wir vor, dass die Branche eine Reihe von ethischen KI-Grundsätzen einführt, deren erste Version wir auf dem UN Internet Governance Forum in Kyoto, Japan, vorstellen. Natürlich bedarf es noch der Diskussion und Klärung in der breiteren Cybersicherheits-Community, doch wir halten uns bereits jetzt an diese Grundsätze, die folgendermaßen lauten:

Transparenz

Nutzer haben das Recht zu erfahren, ob ein Sicherheitsanbieter KI-Systeme einsetzt, und wie diese Systeme Entscheidungen treffen und zu welchem Zweck. Wir haben uns daher verpflichtet, KI-Systeme zu entwickeln, die so weit wie möglich interpretierbar sind und alle notwendigen Sicherheitsvorkehrungen treffen, um sicherzustellen, dass sie valide Resultate liefern. Wer sich mit unserem Code und unseren Arbeitsabläufen vertraut machen möchte, kann eines unserer Kaspersky Transparenzzentren besuchen.

Sicherheit

Zu den Bedrohungen, denen KI-Systeme ausgesetzt sind, gehört die Manipulation von Eingabedaten, um unangemessene Entscheidungen zu treffen. Deshalb sind wir der Meinung, dass KI-Entwickler der Resilienz und Sicherheit Vorrang einräumen müssen.

Aus diesem Grund ergreifen wir eine ganze Reihe praktischer Maßnahmen, um hochwertige KI-Systeme zu entwickeln: KI-spezifische Sicherheits-Audits und Red Teaming, eine möglichst geringe Verwendung von Drittanbieter-Datensätzen beim Training sowie die Implementierung einer Reihe von Technologien für einen mehrschichtigen Schutz. Wenn möglich, bevorzugen wir Cloud-basierte KI (mit allen erforderlichen Sicherheitsvorkehrungen) gegenüber lokal installierten Modellen.

Menschliche Kontrolle

Obwohl unsere ML-Systeme autonom arbeiten können, werden ihre Ergebnisse und Leistungen ständig von Experten überwacht. Die Urteile unserer automatisierten Systeme werden bei Bedarf angepasst, und die Systeme selbst werden von Experten adaptiert und modifiziert, um grundlegend neuen und/oder hochentwickelten Cyber-Bedrohungen zu begegnen. Wir kombinieren ML mit menschlichem Fachwissen und setzen uns dafür ein, dieses menschliche Element der Kontrolle in unseren Systemen stets beizubehalten.

Datenschutz

KI kann nicht ohne Big Data trainiert werden – einige davon können personenbezogen sein. Ein ethischer Ansatz für ihre Nutzung muss daher die Rechte von Einzelpersonen in Bezug auf den Datenschutz respektieren. In der Praxis der Informationssicherheit kann dies verschiedene Maßnahmen umfassen: Begrenzung der Art und Menge der verarbeiteten Daten, Pseudonymisierung und Anonymisierung, Reduzierung der Datenzusammensetzung, Gewährleistung der Datenintegrität und Anwendung technischer und organisatorischer Maßnahmen zum Schutz der Daten.

Entwickelt für Cybersicherheit

Im Bereich der Cybersicherheit darf künstliche Intelligenz nur zu Verteidigungszwecken eingesetzt werden. Dies ist ein wesentlicher Bestandteil unserer Mission, um eine sichere Welt zu schaffen, in der die Technologien von morgen unser aller Leben verbessern.

Offen für einen Dialog

Wir sind davon überzeugt, dass wir nur durch Zusammenarbeit die Hindernisse überwinden können, die mit der Einführung und Nutzung von KI für die Sicherheit verbunden sind. Zu diesem Zweck fördern wir den Dialog mit allen Beteiligten, um Best Practices für den ethischen Einsatz von KI auszutauschen.

Lesen Sie mehr über unsere Prinzipien in Bezug auf den ethischen Einsatz von KI im Bereich der Sicherheit.

Tipps