↖ back to jolocom.io

Vertrauen im Zeitalter KI-gestützter Bots und Fakes: Herausforderungen und mögliche Lösungen

Flashbacks  •  
Nov 10, 2021
 • logged_by: Hannah
SSI als ein nachhaltiger Lösungsweg: Vertrauen in den digitalen Raum zu Zeiten von KI

,,Auf meinem Bildschirm sehen Sie sechs Menschen‘‘, sagte Frank Puscher. ,,Einige mögen Ihnen sympathischer sein, andere weniger. Was beachtenswert ist: keiner dieser Menschen existiert in echt.‘‘ Unter diesem Eindruck begann die Vortragsreihe zum Thema: ,,Vertrauen im Zeitalter KI-gestützter Bots und Fakes: Herausforderungen und mögliche Lösungen‘‘. Am 4. November 2021 luden das BMWi, BMJ und VDE ein, um über exakt dieses Thema virtuell zu diskutieren, Lösungen zu präsentieren, und auf die Fragen der 103 Teilnehmenden einzugehen.   

Der erste Teil der Fachkonferenz begann mit einer Einführung in die Problemstellung: Es ging zum einen um Fake Reviews im Internet, zum anderen um eine Einführung in das Thema Deep Fakes – eine Mischung von Deep Learning und Fakes. Anschließend gab es Impulsvorträge zu der Kernfrage: Wie schützen wir den politischen Diskurs in Zeiten der Aufmerksamkeitsökonomie? Hier wurden die Herausforderungen bei der Regulierung von Deep Fakes herausgestellt und Beispiele aus der Gegenwart. Im zweiten Teil der Konferenz ging es konkret um die Frage: Wie gelingt eine nachhaltige Lösung? Impulsvorträge griffen diese Frage von verschiedenen Ansätzen auf und zeigten Ideen für den möglichen Umgang und Regulierungen von Deep Fakes.  

Teil 1: Wie sieht die Problemstellung aus? KI als globaler Trend. 

Ab wann ist es schädlich, wenn computergenerierte Inhalte auf uns treffen?

Künstliche Intelligenz nimmt mehr Raum in Diskursen ein. Ob in der Altenbetreuung, beim Auftritt in Lernvideos oder Beantworten von Kundenfragen, KI Klone werden uns wohl immer häufiger in der nahen Zukunft begegnen. Dabei handelt es sich durchaus nicht um etwas Exotisches: Eingebettet in unsere Gesellschaft handelt es sich um eine Software, die bereits jeder nutzen kann. Ein anschauliches Beispiel verdeutlicht, dass virtuelle KI Klone sogar CO2 sparen könnten. Wenn Prominente ein Double von sich erstellen, könnten sie zur selben Zeit an verschiedenen Orten sein und müssten nicht selbst reisen. Das führt zwangsläufig zu der Kernfrage: Ist das schlimm? Wann ist es schädlich, wenn computergenerierte Inhalte auf uns treffen?  

Betrachtet man die Rolle von KI in Deutschland fällt zunächst auf: so weit verbreitet wie in anderen Ländern ist es hier nicht. Bereits 2018 benannte eine Studie des Roland-Koch Instituts die USA als führende Nation im Bereich KI. Vom Amazon Go Supermarket, in welchem man ohne Angestellte, Kasse, und Barcode-Scanner einkaufen kann, bis hin zu KI Klonen, die Termine beim Friseur ausmachen: die USA zeigen Ausschnitte einer Welt, die hier noch nicht Realität, aber definitiv Zukunft sein kann (https://www.gtai.de/gtai-de/trade/specials/special/usa/entwicklung-kuenstlicher-intelligenz-ist-in-den-usa-bereits-22718).  

Doch noch ist es hierzulande weniger verbreitet. Auswirkungen von KI gestützter Fakes auf den politischen Diskurs sind überschaubar, dafür im Handel jedoch mehr ausgeprägt. So lässt sich ein Problemfeld von Fake Reviews im Internet deutlich erkennen: Die negativen Folgen von durch Bots kreierter Fake Reviews kreieren die Gefahr, seriöse Anbieter:innen nicht mehr zu erkennen, ein allgemeines Zurückgehen von Vielfalt, und das Abhängen neuerer Plattformen. Wie eine Studie herausstellte, haben 85% aller befragten Händler:innen bereits negative Auswirkungen auf ihre Verkaufszahlen erlebt – durch Fake Reviews. Problematisch hierbei sind vor allem das Fehlen eines Unrechtsbewusstseins und eine effektivere Rechtsdurchsetzung. 

Man sieht: die Grenzen zwischen Realität und Künstlicher Intelligenz vermischen. Ebenfalls ist zu erkennen, dass es sich um ein zukünftiges Problem handelt, welches definitiv Auswirkungen annehmen wird. Freilich bringt das Vorteile mit sich, aber jede Münze hat zwei Seiten. 

So fokussierte man sich in der Fachkonferenz auf das mögliche Ausmaß von KI, wenn keine Regulierungen vorliegen. Auch wenn es sich noch um Zukunftsszenarien handelt, sind negative Folgen bereits absehbar. Diese ziehen sich von der individuellen Ebene (Verletzung von Menschenrechten, Psychologischen Folgen), über die Wirtschaftliche Ebene (Versicherungs- oder Steuerbetrug) bis hin zur ganzen Gesellschaft (Verletzung demokratischer Werte). Kompliziert wird es weiterhin, wenn man die Anonymität der Täter:innen bedenkt oder die rechtlichen Herausforderungen. Das Paradox liegt hierbei zwischen Rechten wie Kunstfreiheit und staatlichen Pflichten, nämlich dem Schutz von Persönlichkeitsrechten. Selbstverständlich ist auch das Erkennen von KI Klonen oder automatisierter Bots nicht immer einfach. Als Bot gilt ein Account, der mehr als 50 Tweets pro Tag twittert. In einer vorgestellten Studie wurde ein Twitter Account eines kanadischen Ingenieurs untersucht, der im Durchschnitt über 300 Tweets pro Tag twitterte. Wie allerdings festgestellt wurde, handelte es sich hierbei allerdings nicht um einen automatisierten Account, sondern um einen echten Menschen. Alles sind Herausforderungen, denen die Regierung sich definitiv wird stellen müssen. KI ist ein globaler Trend, der sich weiterentwickelt. 

Teil 2: Wie gelingt eine nachhaltige Lösung? Die Rolle von SSI. 

,,Wir stehen hier – wie in vielen anderen Bereichen – Infrastrukturfragen gegenüber. Individuelle Pflichten sind da ein winziger Anteil; der Löwenanteil liegt bei systemischen Veränderungen.‘‘

Irene Adamski

Wie herausgestellt, stellt KI aktuell keine Gefahr da. Diese besteht vorwiegend im Bereich von Fake Reviews im Internet und der Verbreitung gefälschter Inhalte durch KI-Klone. Wie ist hiermit umzugehen? 

In der Mitte von Schwierigkeiten liegen die Lösungen. Derlei gibt es einige, und auch Jolocom hat am Donnerstag den von uns verfolgten Ansatz vorstellen dürfen: Selbst-Souveräne Identitäten (SSI) im digitalen Raum.  

Der Grundgedanke: die eigenen Daten kontrollieren. Aufgeschlüsselt: selektiv auswählen, wer Zugang zu seinen und ihren Daten hat, und ablehnen, wer keinen Zugang bekommen soll. Beim Nutzen einer digitalen Wallet kommt dies gut zum Ausdruck: Ich kann ausweisen, dass ich über 18 Jahre alt bin, ohne mein persönliches Geburtsdatum teilen zu müssen. Diese selektive Weitergabe von Daten bringt auch wieder mehr Vertrauen in den digitalen Raum mit sich. So liefert eine sichere Wallet die Möglichkeit, im beginnenden Zeitalter von KI und automatisierter Bots die Autonomie über die eigenen Daten zu behalten und zu schützen. Globale Entwicklungen zeigen den Vorwärts-Trend von KI-Anwendungen. Auch auf EU-Ebene gibt es Ambitionen, digitale Identifikationsnachweise auszugeben. Die eIDAS Verordnung strebt eine digitale Identität an, die von jedem Mitgliedsstaat herausgegeben und von den anderen Mitgliedsstaaten anerkannt werden müssen. 

Es ist wichtig, an der Wurzel des Problems anzusetzen und Vertrauen in den digitalen Raum auszubauen. Dieses Vertrauen kann vor allem durch SSI hergestellt werden.  

Die Sendung zur Konferenz findet sich auf Deutschlandfunk unter folgendem Link: https://www.deutschlandfunk.de/computer-und-kommunikation.683.de.html  

Es sprachen: 

  1. Dr. Lieselotte Locher, Bundeskartellamt: Einführung zu Fake Reviews 
  1. Frank Puscher, puscher.de: Einführung zu Deepfakes und virtuelle Models 
  1. Tatjana Halm, Verbraucherzentrale Bayern: Wirtschaftlich-rechtliche Themen zu Fake Reviews 
  1. Patrick Schwalger, Händlerbund: Studien zu den negativen Folgen von Fake Reviews  
  1. Dr. Jutta Jahnel, Karlsruher Institut für Technologie KIT: Herausforderung bei Regulierung Deepfakes 
  1. Simone Rafael, Amadeu-Antonio-Stiftung: Rechtsextremismus, digitale Gewalt & Extremismus online 
  1. Prof. Dr. Florian Gallwitz, TH Nürnberg: Die Mär von social bots 
  1. Alexander Sängerlaub, futur eins: Die Rolle von Demokratien & dem Mediensystem 
  1. Dr. Andreas Kaminski, High Performance Computing Center Stuttgart (HLRS), RWTH Aachen: Formen & Geschichte des Vertrauens 
  1. Nina Morschhäuser, Twitter, Deutschland: Vorstellung von Richtlinien zur Plattformmanipulation/Spamprüfung auf twitter 
  1. Stefanie Valdés-Scott, Adobe Content Authenticity Initiative: von der Mission, Vertrauen in die Medien zu stärken 
  1. Irene Adamski, Jolocom, Blockchain Bundesverband e.V.: Die Rolle von SSI im Zeitalter von KI 
  1. Dr. Kim Nguyen, Bundesdruckerei GmbH, D-Trust: eIDAS und das europäische Identifikationsprogram 
     

Keep reading about

eventsfakesSSI