Die "Epstein files", Rasterfahndung und künstliche Intelligenz
- Martin Döhring

- vor 7 Tagen
- 2 Min. Lesezeit

Tatsächlich hat die Veröffentlichung der so genannten "Epstein files" international nicht nur für Aufregung gesorgt, sondern auch für Verhaftungen, Rücktritte und ein gewaltiges Medienecho.
Zukünftig wird der künstliche Intelligenz auch im Bereich Kriminalistik eine größere Rolle zukommen. Mehr dazu im Kommentar zu diesem Beitrag. Ich startete zuerst mit der Geschichte vom ersten Computereinsatz in Bereich kriminelle Ermittlungen:
Rote Armee Fraktion (RAF) und die Geburtsstunde der Rasterfahndung
-> Die sogenannte Rasterfahndung entstand in der Bundesrepublik der 1970er Jahre als Reaktion auf den Terrorismus der RAF. Insbesondere während des „Deutschen Herbstes“ 1977, im Kontext der Entführung von Hans-Martin Schleyer, setzte das Bundeskriminalamt (BKA) erstmals systematisch EDV-gestützte Datenanalysen ein.
Technisches Prinzip (damals)
Abgleich großer Meldedatenbestände (Einwohnermeldeämter)
Filterung nach bestimmten Mustern („Raster“), z. B.:
junge Männer
ohne festen Arbeitsplatz
bestimmte Wohnkonstellationen
Ausschlussverfahren: Wer nicht ins Profil passte, wurde „ausgerastert“
Methodisch handelte es sich um eine frühe Form datenbankbasierter Mustererkennung – allerdings ohne KI im heutigen Sinne. Die Rechenleistung beruhte auf Großrechnern mit sequentieller Batch-Verarbeitung.
Im Fall Schleyer gab es tatsächlich einen Hinweis auf eine konspirative Wohnung. Die Täter waren jedoch bereits weitergezogen – ein klassisches Problem zeitverzögerter Datenverarbeitung.
Von der Rasterfahndung zu Palantir
Palantir Technologies
Heute operieren Sicherheitsbehörden mit hochintegrierten Analyseplattformen wie „Gotham“ von Palantir.
Charakteristika moderner Systeme
Datenfusion: Polizeidaten, Telekommunikationsdaten, Finanztransaktionen, Social Media
Graphanalysen (Netzwerkanalyse)
Echtzeit-Visualisierung
semantische Verknüpfung heterogener Datenquellen
Im Unterschied zur klassischen Rasterfahndung:
nicht mehr primär Ausschlussverfahren,
sondern Beziehungs- und Mustererkennung in Netzwerken,
oft mit probabilistischen Modellen.
KI und prädiktive Kriminalitätsanalyse
Die nächste Evolutionsstufe ist der Einsatz maschinellen Lernens:
Technische Verfahren
Supervised Learning (z. B. Random Forests, Gradient Boosting)
Deep Learning für Bild- und Videoauswertung
Spatio-temporale Prognosemodelle (Hot-Spot-Analysen)
Bayesianische Risikoabschätzung
Zielsetzung
Prognose von Tatorten („predictive policing“)
Identifikation von Risikopersonen
Ressourcenallokation (Streifenplanung)
Kritische Dimensionen
1. Rechtsstaatlichkeit
Verhältnismäßigkeit
Zweckbindung
informationelle Selbstbestimmung (BVerfG-Urteile zur Rasterfahndung 2006)
2. Bias-Problematik
KI-Modelle lernen aus historischen Daten. Wenn diese strukturelle Verzerrungen enthalten, werden sie reproduziert oder verstärkt.
3. Prädiktion vs. Prävention
Eine Prognose ist keine Tat. Das zentrale rechtsphilosophische Problem lautet: Darf Wahrscheinlichkeit staatliches Handeln legitimieren?
Historische Linie
1970er Rasterfahndung | 2000er Datenfusion | 2020er KI-Systeme |
statische Filter | relationale Analyse | probabilistische Prognose |
Batch-Rechner | vernetzte Datenbanken | lernende Modelle |
reaktiv | semi-reaktiv | präventiv-orientiert |
Das Thema ist uferlos. Mehr dazu im Kommentarbereich.
Ich erinnere auch an den Film "minority report" mit Tom Cruise, in dem zum ersten Mal die Kriminalitätsvorhersage und daraus resultierende Prävention thematisiert wurde.


Die sogenannten „Epstein Files“ – also die umfangreichen Ermittlungsakten rund um Jeffrey Epstein und sein internationales Netzwerk – stellen analytisch tatsächlich eine hochkomplexe Herausforderung dar, insbesondere wenn man KI-gestützte Ermittlungsansätze betrachtet.
1. Datencharakter der „Epstein Files“
Die Besonderheit liegt weniger in der Datenmenge allein, sondern in der Struktur:
Typische Datenquellen
Flugprotokolle („Lolita Express“)
Telefon- und Kontaktlisten
Finanztransaktionen (Offshore-Konstrukte)
Immobilien- und Firmenregister
E-Mail-Archive
Zeugenaussagen
Gerichtsakten
Das Problem: Diese Daten sind heterogen, unvollständig, politisch sensibel und teils juristisch eingeschränkt zugänglich.
2. Warum KI hier nicht trivial funktioniert
(a) Netzwerkkomplexität
Die zentrale analytische Struktur ist ein sozialer Graph:
Knoten: Personen, Firmen, Orte
Kanten: Flüge, Zahlungen, Kommunikation, gemeinsame Aufenthalte
KI-Methoden:
Graph Neural Networks (GNN)
Community Detection (z. B. Louvain)
Centrality-Analyse (Betweenness, Eigenvector)
Aber:
Korrelation ≠…