AFP

Nach Klitschko-Fake: Botschaften sollen Gespräche koordinieren

26. Juni 2022 · Lesedauer 7 min

Nachdem der Wiener Bürgermeister Michael Ludwig (SPÖ) Opfer eines falschen Vitali Klitschko geworden ist, ersucht das Außenministerium, Politiker, die mit ausländischen Kollegen per Telefon oder Videoschaltung Beratungen abhalten, sich im Voraus mit der jeweiligen Botschaft kurzzuschließen. Das Innenministerium verkündete, dass nun der Staatsschutz ermittle. Ressortchef Gerhard Karner (ÖVP) forderte Wiens Bürgermeister Michael Ludwig (SPÖ) zur Zusammenarbeit auf.

"Deep Fakes sind eine Gefahr für unsere Demokratie und unsere rechtsstaatlichen Werte. Ich ersuche daher den Bürgermeister um rasche, enge und umfassende Kooperation mit der Direktion Staatsschutz und Nachrichtendienst, sodass die Ermittlungen rasch, zielgerichtet und international geführt werden können", so Karner in einer der APA übermittelten Stellungnahme. Am Zug ist hier die Direktion Staatsschutz und Nachrichtendienst "(DSN).

Bisher habe das Büro des Bürgermeisters kaum Informationen übermittelt, beklagt man sich im Innenressort. Für rasche und zielgerichtete Ermittlungen wäre die E-Mail-Korrespondenz mit den Tätern entscheidend, die im Vorfeld des Gesprächs erfolgt sei. Auch ein Gesprächsprotokoll über das erfolgte Videotelefonat sei für die Ermittlungen dringend erforderlich, um den Informationsabfluss genau bewerten und klären zu können, ob und wenn ja welcher strafrechtliche Tatbestand erfüllt wurde.

Rathaus Wien: "Aufklärung der Sache" soll sichergestellt werden

Im Wiener Rathaus hieß es dazu auf APA-Anfrage, dass seitens der Stadt alles unternommen werde, um eine Aufklärung der Sache sicherzustellen. "Die Stadt Wien wird auch engstens mit dem Ermittlungsbehörden kooperieren", wurde erklärt, "so wie das von der Stadt Wien immer praktiziert wird."

Im Außenamt betonte man: "Um solche bedauerlichen Vorfälle künftig zu vermeiden, möchte das Außenministerium darauf hinweisen, dass die Koordination solcher Termine über die zuständige Botschaft erfolgen soll." Weiters wurde auf APA-Anfrage erklärt, man stehe in solchen Fällen für die Kontaktherstellung und Terminvereinbarung mit den offiziellen Stellen in der Ukraine "routinemäßig und jederzeit unterstützend zur Seite"

Weder Außenministerium noch österreichische Botschaft involviert

Im Falle der Planung von Ludwigs Gespräch mit dem Kiewer Bürgermeister Klitschko seien weder das Außenministerium noch die österreichische Botschaft in Kiew involviert gewesen. Der Botschafter sei lediglich vom Büro des Wiener Bürgermeisters am 10. Juni über das durch die Stadt Wien bereits vereinbarte Gespräch in Kenntnis gesetzt worden. "Es war auch kein Mitarbeiter des Außenministeriums oder der Botschaft persönlich oder virtuell anwesend."

Die Botschaft in Kiew konnte den Angaben zufolge dann erst am gestrigen Samstag feststellen, dass Ludwig nicht mit dem wahren Klitschko gesprochen hatte. Weitere derartige Fake-Anrufe sind dem Außenamt nicht bekannt.

Ludwig zum falschen Klitschko-Anruf: "Keine Geheimnisse besprochen"

Berlin und Madrid auch betroffen

Nicht nur Ludwig sondern auch Berlins Regierende Bürgermeisterin Franziska Giffey und das Madrider Stadtoberhaupt José Luis Martinez-Almeida wurden Opfer eines falschen Klitschko. Auch Budapest soll betroffen gewesen sein. Mutmaßlich handelte es sich um sogenannte Deepfakes, also besonders sorgfältig manipulierte Videoschaltungen. Dabei werden mithilfe von Künstlicher Intelligenz realistisch wirkende Medieninhalte erzeugt. Wie das genau im Fall von Klitschko geschah und wer dahinter steckte - etwa Russland, das seit Monaten Krieg in der Ukraine führt - ist bisher unklar.

Mehr dazu:

"Deep Fake": Wenn man den eigenen Augen nicht trauen kann

Was ist ein Deep Fake?

Damit wird ein Medieninhalt bezeichnet, der mit Techniken Künstlicher Intelligenz (KI) manipuliert wurde. Dabei kann es sich beispielsweise um ein vermeintlich authentisches Video oder eine Audio-Aufnahme handeln. Der Begriff "Deep Fake" ist von den Worten "Deep Learning" und "Fake" (Fälschung) abgeleitet. Deep Learning ist ein Verfahren in der KI, bei dem das System durch eine intensive Beobachtung lernt. Dabei werden Lippenbewegungen, Mimik und Körperhaltung analysiert. Beobachtet wird auch, zum Beispiel wie sich eine Person bewegt oder wie sie spricht.

Wie kam der Fake-Klischko in die Videokonferenz?

Für die Auftritte des Fake-Klitschko wurde mit hoher Wahrscheinlichkeit Videomaterial eines echten Klitschko-Interviews mit dem ukrainischen Journalisten Dmytro Hordon verwendet. Dabei wurden in Echtzeit die Lippenbewegungen aus dem Video mit den Aussagen desjenigen zusammengeführt, der tatsächlich mii Ludwig und Co. gesprochen hat.

Seit wann gibt es Deep-Fake-Systeme?

Als Meilenstein in der Entwicklung von Systemen, die für solche Videomanipulationen geeignet sind, gilt ein Experiment der University of Washington. 2017 stellten Forscher der Universität Algorithmen vor, die in der Lage waren, beliebige Audioclips in ein realistisches, lippensynchrones Video der Person umzuwandeln. So legten die Wissenschafter dem ehemaligen US-Präsidenten Barack Obama heikle Aussagen zu Themen wie Terrorismus oder Massenarbeitslosigkeit virtuell in den Mund.

Haben die Forscher damit nicht eine Monster-Technologie geschaffen?

Die Wissenschafter wollten eigentlich ein System entwickeln, um die Bildqualität bei Videokonferenzen zu verbessern. Da das Streaming von Audio über das Internet weit weniger Bandbreite benötigt als Video, wollte man den Ton nutzen, um daraus ein Video in viel besserer Qualität zu produzieren. Die Wissenschafter diskutierten damals aber schon die Gefahr, dass diese Technologie missbraucht werden kann.

Braucht man für Deep Fakes einen Supercomputer?

In den App-Stores gibt es etliche Anwendungen, die eigentlich dazu dienen sollen, Selfies zu optimieren oder Porträts zu retuschieren. Doch diese Apps ermöglichen es auch, in Videos die Gesichter auszutauschen. Andere Programm wandeln Fotos in animierte Videos um. Bei der Bildqualität stoßen diese Apps jedoch schnell an Grenzen. Für ausgeklügelte Deep-Fake-Attacken auf Politiker benötigt man derzeit noch leistungsfähige Rechner.

Setzen Kriminelle Deep-Fake-Technik ein?

Ja. Zum einen kann die Technik für böswillige Fake-Videos missbraucht werden, mit denen sich die Täter strafbar machen. Dazu gehören gefälschte Sex-Videos, bei denen das Gesicht des Opfers in Pornos eingebaut wird, um sie zu kompromittieren oder zu erpressen. Deep Fakes werden aber auch beispielsweise von Kriminellen verwendet, um betrügerische Geldüberweisungen zu veranlassen. Beim Chef-Betrug erhält beispielsweise ein Buchhalter einer Firma eine manipulierte Sprachnotiz seiner Chefin, in der sie eine Überweisung auf ein bestimmtes Bankkonto anordnet. Der Absender ist wie die Audioaufnahme gefälscht.

Die Technik der Videomanipulation wird aber auch von Strafverfolgungsbehörden verwendet. So hat die niederländische Polizei in diesem Frühjahr einen Teenager fast 20 Jahre nach dessen gewaltsamem Tod in einem Video digital zum Leben erweckt - und daraufhin Dutzende Hinweise erhalten.

Wer steht hinter dem Klitschko-Fake?

Der Gesprächsverlauf legt die Vermutung nahe, dass dahinter pro-russische Kräfte stecken. Allerdings kann eine Zuordnung derzeit nicht zweifelsfrei vorgenommen werden, auch weil die wahren Täter oft Spuren hinterlassen, die bewusst in die falsche Richtung zeigen. Denkbar ist beispielsweise auch, dass eine politische Spaßguerilla Ludwig und seine Amtskollegen in Berlin, Budapest und Madrid in Misskredit bringen will.

Wie kann man Deep Fakes erkennen?

Das wird immer schwerer fallen. Die Algorithmen der KI und die verwendeten Hardware-Systeme werden künftig in der Lage sein, gefälschtes Videomaterial zu produzieren, das absolut authentisch aussieht. Man wird also seinen Augen und Ohren allein nicht mehr unbedingt vertrauen können. Um so wichtiger ist es, mit Logik und gesundem Menschenverstand aufsehenerregende Videoclips in Frage zu stellen. Bei einer völlig überraschenden Entwicklung oder weitreichenden Aussage, sollten sich Nutzerinnen und Nutzer stets fragen: Wie wahrscheinlich ist es, dass sie auf diese Weise verbreitet wird? Manchmal kann auch KI bei der Entdeckung von Fake-KI helfen: So kann man auf der Website deepware.ai Videos oder Links zu Videos hochladen, um eine Einschätzung zu erhalten, ob es sich dabei um Deep Fakes handelt.

Quelle: Agenturen / Redaktion / ddj