Generative KI eröffnet in vielen Lebensbereichen völlig neue Möglichkeiten, so auch in der Strafverfolgung. Eine Möglichkeit ist der Einsatz von Deepfakes zur Unterwanderung krimineller Organisationen. Doch wäre ein solcher Einsatz technisch möglich, ethisch vertretbar und rechtlich realisierbar? Und wie würde sich eine Legitimierung von Deepfakes im Kontext der Strafverfolgung auf unseren Umgang mit und unser Vertrauen in Medien an anderer Stelle auswirken? Mit diesen und verwandten Fragen beschäftigt sich das Projekt „For the Greater Good –Deepfakes in der Strafverfolgung (FoGG)“.
1. Was sind eigentlich Deepfakes?
Das Wort Deepfake ist zusammengesetzt aus „Deep Learning“ und „Fake“. Deep Learning ist eine auf künstlichen neuronalen Netzwerken basierende Teildisziplin des maschinellen Lernens. Die Disziplin beschäftigt sich mit lernfähigen Computersystemen, die sich durch Erfahrung stetig verbessern. Mithilfe dieser Deep Learning Technologie können Bilder und Videos erschaffen werden, die von der Wirklichkeit kaum oder gar nicht zu unterscheiden sind. So können bestehende Medien realistisch manipuliert oder gänzlich neu erschaffen werden.
2. Von Enkeltrick bis Bundespolitik…
Deepfakes werden immer häufiger für Straftaten eingesetzt. Gerade Betrügern eröffnet die Technologie ganz neue Möglichkeiten. Ein verbreitetes Vorgehen ist, den sogenannten „Enkeltrick“ durch Deepfakes zu perfektionieren. Dabei werden Privatpersonen mithilfe von gefälschten Fotos, Sprachaufnahmen oder Videos davon überzeugt, dass ein naher Angehöriger dringend ihre finanzielle Hilfe benötigt. Theoretisch kann diese Masche mittlerweile so überzeugend eingesetzt werden, dass nicht nur leichtgläubige Personen darauf hereinfallen. Ein besonders besorgniserregender Trend ist der sogenannte CEO-Fraud: Dabei greifen Betrüger Unternehmen an, indem sie den CEO oder CFO digital imitieren und die Angestellten des Unternehmens dazu veranlassen, Zahlungen auf bestimmte Konten vorzunehmen. Den Unternehmen kann dadurch ein Schaden in Millionenhöhe entstehen. Auch die politische Landschaft kann durch Deepfakes nachhaltig verändert werden. So machte beispielsweise Ende 2023 ein Deepfake von Olaf Scholz die Runde, in dem er angeblich ein Verbot der AfD forderte. Gesellschaftlich stehen wir also vor neuen Herausforderungen, die in ihrer Dimension noch nicht abzusehen sind.
3. Potenzial für die Strafverfolgung
Die neue Technologie ist jedoch nicht nur für Straftäterinnen und Straftäter interessant. Auch für die Strafverfolgung könnten sich dadurch immense Chancen eröffnen. So wäre es denkbar, dass durch Deepfakes teilweise verdeckte Ermittler ersetzt werden könnten, deren Einsatz langwierig, teuer und vor allem extrem gefährlich für die ermittelnden Beamtinnen und Beamten ist. Diese Risiken würden wegfallen, wenn die Strafverfolgungsbehörde eine Person aus einem kriminellen Netzwerk digital klonen und als diese Person auftreten könnte. In diesem Kontext ist ein Klon eine digitale Nachbildung einer Person, mit der sich Stimme und Abbild der Person in Echtzeit imitieren lassen. Ein solcher Klon könnte es den Strafverfolgern ermöglichen, als die geklonte Person Gespräche zu führen und so an benötigte Informationen wie Tatpläne oder Organisationsstrukturen zu gelangen. Es ist bislang jedoch unklar, ob ein solches Vorgehen in Deutschland aktuell rechtlich möglich ist. Es gibt jedenfalls keine Norm, die es der Strafverfolgung ausdrücklich gestattet, Menschen digital zu klonen.
4. Heiligt der Zweck die Mittel?
Neben den genannten Chancen gibt es auch eine Vielzahl ernstzunehmender Risiken. Allen voran bestehen Gefahren für die geklonte Person. Der Einsatz digitaler Klone durch die Strafverfolgung ist – überspitzt formuliert – staatlich legitimierter Identitätsdiebstahl. Die geklonte Person kann dadurch innerhalb ihrer Organisation leicht in den Ruf eines Verräters geraten und entsprechende Konsequenzen nach sich ziehen. Ermittelnde können die geklonte Person somit potenziell in Lebensgefahr bringen.
Beim Einsatz von Deepfakes müssen nicht nur Gefahren für Leib und Leben bedacht werden. Stimme und Abbild sind wichtige Aspekte menschlicher Identität. Die Imitation dieser Merkmale ist somit eine schwerwiegende Täuschung. Wenn diese Merkmale ausgenutzt werden und eine andere Person im Vertrauen auf die Identität des Gegenübers Informationen offenlegt, wird in das Recht auf informationelle Selbstbestimmung eingegriffen. Beim verdeckten Einsatz wird das Vertrauen der getäuschten Person in die Stimme oder das Abbild des Gegenübers ausgenutzt. Ein solches Vorgehen kann das Vertrauen in die digitale Kommunikation langfristig untergraben. Wer einmal auf diese Weise getäuscht wurde, wird sich wahrscheinlich in Zukunft immer fragen, ob die Person, mit der sie (per Video) telefoniert, tatsächlich diejenige ist, für die sie sich ausgibt.
5. Vertrauensverlust?
Aufgrund der leichten Verfügbarkeit immer besserer generativer KI wird sich der Umgang mit digitalen Medien grundsätzlich verändern müssen. Wir werden nicht nur in den sozialen Medien immer häufiger mit gefälschten Bildern, Videos oder Tonspuren konfrontiert sein. Deshalb kann man solchen Aufnahmen nicht mehr auf dieselbe Weise vertrauen wie vor dem Aufkommen dieser Technologie. Auch wenn dies bedeutet, dass die Strafverfolgung nicht allein für den Vertrauensverlust verantwortlich ist, muss die Frage gestellt werden, welche Rolle staatliche Institutionen in diesen Prozessen spielen dürfen und sollten. Der Einsatz von Deepfakes durch die Strafverfolgungsbehörden könnte nicht nur den Vertrauensverlust in digitale Medien beschleunigen, sondern auch das Vertrauen in den Staat untergraben. Dabei sind auch die Auswirkungen eines möglichen Doppelstandards nicht absehbar, wenn der Staat sich selbst den Einsatz von Deepfakes zur Täuschung erlaubt, ihn aber für Bürgerinnen und Bürger verbietet. Diese Risiken müssen gegen die Chancen für die Strafverfolgung und die Aufklärung schwerer Verbrechen abgewogen werden. Nur wenn die Chancen überwiegen, sollte genauer überlegt werden, in welchen Situationen und in welchem Umfang es der Strafverfolgung gestattet sein sollte, Klone einzusetzen.
6. FoGG
Ziel des Projekts „For the Greater Good – Deepfakes in der Strafverfolgung (FoGG)“ ist es, die Effekte von Deepfakes zu erforschen und konkrete Leitlinien für einen verantwortungsvollen Einsatz von Deepfakes zu entwickeln. Dabei werden die technischen Möglichkeiten und juristischen Voraussetzungen des Einsatzes von Klonen untersucht, eingebettet in eine gesamtgesellschaftliche Betrachtung der Risiken und Potenziale von Deepfakes.
Forschungsprojekt
For the Greater Good? Deepfakes in der Strafverfolgung (FoGG)
Die vom bidt veröffentlichten Blogbeiträge geben die Ansichten der Autorinnen und Autoren wieder; sie spiegeln nicht die Haltung des Instituts als Ganzes wider.
Der Beitrag Zwischen Aufklärung und Manipulation: Deepfakes in der Strafverfolgung erschien zuerst auf bidt DE.