Ein Angestellter führt einen Videocall mit seinem Chef. Es handelt sich um den CFO, auch andere bekannte Gesichter aus dem Unternehmen sind Teil des Meetings. Alles wie immer, dachte sich der Mitarbeiter. In der Einladung, die per E-Mail kam, war von einer „geheimen Transaktion“ die Rede. Schnell klärte sich in der Konferenz auf: Er solle eine große Summe überweisen an ein ihm genanntes Konto, mehr als 23 Millionen Euro. Gesagt, getan, denn das hatte er bereits mehrfach genauso gemacht. Was diesen Vorgang allerdings von allen bisherigen unterscheidet, ist, dass es sich um einen wie wirklich erscheinenden KI-Betrug handelte. Alle im Videocall mitwirkenden „Personen“ waren nicht echt, erzeugt durch Technologie auf Grundlage von öffentlichem Video- und Filmmaterial. Sogenannte KI-Deepfakes verbreiteten sich zuletzt rasant – und haben teils immense Auswirkungen.

Anzeige

Verantwortungsbewusstsein schärfen

Künstliche Intelligenz bringt eine Menge Vorteile mit sich, aber auch Herausforderungen. Wie weit diese reichen, zeigt das skizzierte Beispiel. KI-Deepfakes werden mittlerweile von Kriminellen unter anderem dafür genutzt, Gesichtserkennungsprogramme zu umgehen und sich so zu bereichern.

Angesichts der wachsenden Dimensionen solcher kriminellen Handlungen in Unternehmen gewinnt die Sensibilisierung für das Thema heute mehr an Bedeutung als jemals zuvor. Der AI Act – das EU-Gesetz zur künstlichen Intelligenz – definiert Deepfakes als KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die existierenden Personen, Objekten, Orten oder anderen Entitäten oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrhaftig erscheinen würden. Dementsprechend kann es sich also auch um Manipulationswerkzeuge handeln, die bewusst Ereignisse generieren und diese gezielt einsetzen. Auch hierzu ein bezeichnendes Beispiel, das die Problematik veranschaulicht – laut Bloomberg könnte es der erste Fall gewesen sein, in dem ein von der KI erstelltes Bild den Markt beeinflusste. Im Mai 2023 führte ein manipuliertes Bild einer Explosion nahe des Pentagons zu Reaktionen an der New Yorker Börse. Die Vertrauenswürdigkeit der KI muss also zwingend weiter gestärkt werden.

Anzeige

Grenzen schwinden

Grundsätzlich lässt sich festhalten: Zwei Welten verschmelzen nach und nach zu einer, die analoge und die digitale. Große Teile des täglichen Lebens finden online statt. Das reicht vom Wocheneinkauf mit der App über die Abwicklung der Banküberweisung bis hin zum Videocall im Arbeitsalltag. Was noch vor einigen Jahren wie selbstverständlich offline stattfand, spielt sich heute ebenso klar in der digitalen Welt ab. KI-Verfahren kommen deswegen zunehmend mehr zum Einsatz, der Bedarf ist da. Doch wie beschrieben, bringt diese Technologie auch Gefahren mit sich – Stichwort Deepfakes. Hinter ihnen verbirgt sich ein kompliziertes Vorgehen, das Training beinhaltet. Zugrunde liegen Algorithmen des maschinellen Lernens, die mit realem Bild- und Tonmaterial trainieren. Wir sprechen von Deep Learning. Solche Modelle schaffen es durch Lernen, Gesichtszüge, Sprachmuster und Bewegungen nachzuahmen – und zwar so detailliert, dass sie sich so gut wie gar nicht von den realen Aufnahmen abgrenzen. Künstlerisch genutzt entstehen gar Kunstwerke oder neue Filmtechniken. Mit kriminellem Hintergrund sind die Folgen deutlich negativer: Desinformation, politische Manipulation und persönliche Diffamierung sind nur ein paar Beispiele, über welche Macht Deepfakes verfügen.

Weitreichende Auswirkungen

Schaut man sich das einleitende Beispiel des Mitarbeiters an, der fälschlicherweise Geld überwiesen hat, lässt sich die Tragweite von Deepfakes erahnen. Rückt aber die Gesellschaft in den Fokus, sieht das Gesamtbild der Folgen noch mal anders aus: Es ist möglich, Technologie für Desinformation und Propaganda zu nutzen und somit Vertrauen in Medien oder öffentlichen Diskurs gezielt zu beschädigen. Auch vor der Politik machen Deepfakes nicht halt, manipulieren öffentliche Meinung oder beeinflussen gar Wahlen. Wie das gelingt? Kandidatinnen und Kandidaten könnten in falschen Situationen gezeigt werden, was wiederum zu einem veränderten Meinungsbild führt. Reputationen und Persönlichkeiten werden im Handumdrehen beschädigt. Genau deswegen bedarf es rechtlicher Rahmenbedingungen ebenso wie ethischer Richtlinien, um Missbrauch entgegenzuwirken und im selben Zuge Meinungs- und Schaffensfreiheit aufrechtzuerhalten. Hier benötigen wir eine Symbiose aus Technologie, rechtlichen Vorgaben und allgemeinem gesellschaftlichem Verständnis.

Wachsam sein und handeln

Hinschauen und identifizieren – darum geht es bei der Abwehr von KI-Manipulationen und dem korrekten Umgang mit der innovativen Technologie. Ohne genaues Hinsehen lässt sich oftmals kein Unterschied zwischen Original und Fälschung erkennen. Doch Unstimmigkeiten gehören in der Regel zu den generierten Inhalten, beispielsweise nicht zur Situation passende Mimik oder wenig natürliche Gesichtsbewegungen. Auch die Bewegungen der Augen wirken manches Mal unkoordiniert, die Synchronisation der Lippen stimmt nicht – das Gesprochene lässt sich nicht wiedererkennen. Ein weiteres Thema ist die Beleuchtung, die inkonsistent sein kann und somit Licht ins Dunkel bringt.

Anzeige

Man kann davon ausgehen, dass der Fortschritt bei Deepfakes nicht haltmacht. Genau aus diesem Grund befassen sich Forscher und Technologieunternehmen schon seit Längerem mit dem Entwickeln entsprechender Tools und Algorithmen, die bei der Erkennung der Fälschungen helfen. Der Schlüssel: Die Werkzeuge verwenden selbst den eigentlichen Deepfakes ähnliche Technologien – etwa KI oder maschinelles Lernen – die auf Details und Anomalien achten und in der Lage sind, diese zu erkennen. Anders als vielleicht der Mensch, dem diese Dinge nicht auffallen. All dies verliert allerdings seinen Wert, wenn die Öffentlichkeit nicht mit ins Boot genommen wird. Bewusstsein zu schaffen über etwa Informationskampagnen oder entsprechende Programme muss ganz oben auf der Agenda stehen.

Seite 1/2/

Anzeige