Künstliche Intelligenz: Unvorhersehbare Risiken und Angriffsmethoden

EU-Behörde warnt vor den Risiken und Schattenseiten Künstlicher Intelligenz

Die Agentur der Europäischen Union für Cybersicherheit, kurz ENISA, äußerte sich unlängst ausführlich über ein Thema, das in naher Zukunft wohl die IT und auch unser Leben massiv verändern wird: die Künstliche Intelligenz. Dabei waren die Anmerkungen der Agentur nicht nur positiver Natur.

ENISA sieht Risiken und Cybergefahren in vielen Bereichen

Künstliche Intelligenz wird in vielen Bereichen des täglichen Lebens zum Einsatz kommen. Gleichzeitig bieten diese Systeme Angriffsflächen für Kriminelle. Als Beispiel nennt die EU-Behörde Bereiche wie autonome Fahrzeuge, Industrie 4.0 oder auch den Gesundheitssektor. Hier gibt es bereits heute erste Systeme, bei denen Künstliche Intelligenz zum Einsatz kommt. Der Vorteil der Künstlichen Intelligenz, nämlich eigenverantwortlich Entscheidungen zu treffen, ist laut ENISA gleichzeitig einer der Schwachpunkte der Technologie. Oftmals analysieren Systeme mit Künstlicher Intelligenz große Datenmengen, die für die Entscheidungsfindung benötigt werden. Hierzu gehören mitunter auch private und kritische Informationen. Diese sind grundsätzlich für Cyberkriminelle interessant, weswegen die ENISA befürchtet, dass die Systeme zu Zielen von Angriffen werden.

IT-Sicherheit und Cyberkriminelle – ENISA warnt vor einem Wettlauf

Die ENISA mahnt dazu, in der Europäischen Union angemessene Sicherheitsmaßnahmen für den Umgang mit Künstlicher Intelligenz zu schaffen. So sollen Systeme vor dem Einsatz in der Praxis strengen Prüfungen unterzogen werden. Dies betrifft besonders die Sicherheit gegenüber Cyberattacken. Die ENISA spricht von konkreten Maßnahmen und Werkzeugen für die Sicherheit von Systemen mit Künstlicher Intelligenz, die hohe Sicherheitsstandards etablieren sollen.

Auf der anderen Seite stehen die Cyberkriminellen. Für diese sind laut ENISA Systeme auf Basis von Künstlicher Intelligenz aus verschiedenen Gründen interessante Angriffsziele. Einerseits liegt dies an den großen Datenmengen, die in diesen Systemen vorhanden sind, wobei vor allem die personenbezogenen und kritischen Informationen von Interesse sind. Andererseits geht es auch um die Integrität dieser Systeme und der gespeicherten Daten. Systeme mit Künstlicher Intelligenz treffen Entscheidungen basierend auf den Daten, die ihnen zur Verfügung stehen. Dringen Angreifer in die Systeme ein und kompromittieren die Informationen, kann das verheerende Auswirkungen auf die Entscheidungsfindung der Künstlichen Intelligenz haben. Nutzt die Künstliche Intelligenz die internen Algorithmen auf Basis von gefälschten Datensätzen, sind die Ergebnisse schnell verzerrt. So können Personen durch solche automatisierten Systeme von bestimmten Rechten ausgeschlossen werden.

Die Privatsphäre und die Grundfreiheiten im Fokus der ENISA

Problematisch sieht die EU-Behörde die Entwicklung in den Bereichen des Datenschutzes sowie der Freiheiten von Bürgern. Systeme mit Künstlicher Intelligenz benötigen häufig persönliche Informationen für die Analyse und Entscheidungsfindung. Durch die maschinelle und automatische Verarbeitung geht die Transparenz über die Nutzung der eigenen Daten verloren. Da solche Systeme teilweise komplett autark agieren sollen, wird die menschliche Kontrolle von einzelnen Entscheidungen schnell an ein solches System abgegeben. Auf diese Weise kommt es möglicherweise zu Ergebnissen, die dem Gegenteil einer Entscheidung durch eine echte Person entsprechen.

Hierbei geht es nicht nur um die automatische und wenig intuitive Entscheidung durch ein Computersystem. Erneut spielt die Integrität der Ausgangsdaten eine Rolle in den Überlegungen der ENISA. Verändert ein Außenstehender Teile der Datensätze, sei es gezielt oder im großen Maßstab, dann wird direkter Einfluss auf die Künstliche Intelligenz genommen. So ist eine großflächige Manipulation durch Cyberkriminelle ebenso möglich wie die planmäßige Beeinflussung einzelner Datensätze, um ein gewünschtes Ergebnis zu erhalten. Verlassen sich die Organisationen, die Systeme mit Künstlicher Intelligenz einsetzen, voll auf die Ergebnisse, dann ist keine Kontrolle über die Ergebnisse vorhanden.

Sicherheit und Kontrolle – ENISA fordert Standards für die Künstliche Intelligenz

Die EU-Behörde spricht explizit den Einsatz von Systemen mit Künstlicher Intelligenz in kritischen Bereichen wie dem Gesundheits- und Finanzsektor oder in Automobilen an. Besonders in diesen Bereichen müssen hohe Standards implementiert werden, was die Verlässlichkeit und Integrität der Systeme betrifft. Diese Standards für die Sicherheit soll nach dem Willen der ENISA die Europäischen Union vorgeben. Weiterhin spricht die ENISA Sicherheitstechniken zur Abwehr neuartiger Bedrohungen an, die spezifisch auf Systeme mit Künstlicher Intelligenz zielen. Zu diesem Zweck sollen sich Forschungsrichtungen auf bestehende Sicherheitslücken und die Sicherheit der Systeme im Allgemeinen konzentrieren. Außerdem fordert die ENISA eine KI-Toolbox, die Maßnahmen für konkrete Situationen festlegt. Auf diese Weise soll ein Label „KI Made in Europe“ entstehen, das die hohe Sicherheit der Systeme sowie ethische Standards garantiert.

Weitere interessante IT-Nachrichten finden Sie in unseren NEWS-Blog unter https://cyberleaks.de/blog/