Palantir Technologies: Wenn Datenanalyse zur Waffe wird
Eine kritische Bestandsaufnahme des umstrittensten Technologieunternehmens der Welt
Ein Unternehmen im Schatten der Macht
Es gibt Unternehmen, die ihre Produkte mit bunten Werbekampagnen und freundlichen Markenbotschaften vermarkten. Und es gibt Palantir Technologies. Das 2003 in Denver, Colorado, gegründete Softwareunternehmen hat sich bewusst gegen Öffentlichkeitsarbeit im konventionellen Sinne entschieden. Nicht aus Bescheidenheit, wohlgemerkt, sondern weil seine Kernprodukte in einer Welt operieren, in der Transparenz selbst der Feind ist: der Welt der Geheimdienste, der Strafverfolgung, der militärischen Operationsplanung und der Grenzkontrolle.
Palantir ist heute eines der mächtigsten und am wenigsten verstandenen Unternehmen der Technologiebranche. Sein Name entstammt J.R.R. Tolkiens "Herr der Ringe". Die Palantiri sind magische Sehersteine, durch die man über grosse Distanzen sehen kann. Der Name ist kein Zufall und kein literarisches Spielchen. Er ist Programm. Das Unternehmen verkauft Sehkraft, also die Fähigkeit, riesige Datenmassen in verwertbare Erkenntnisse zu verwandeln. Und wer diese Erkenntnisse kauft, bestimmt letztlich, wer in einer Gesellschaft sieht und wer gesehen wird.
CIA-Geld und Silicon-Valley-Ethos
Palantir wurde von Peter Thiel mitgegründet, dem ideologisch libertären PayPal-Mitgründer und Risikokapitalgeber, der auch im engsten Umfeld von Donald Trump aktiv ist. Der entscheidende frühe Investor war In-Q-Tel, der offiziell bestätigte Risikokapitalarm der Central Intelligence Agency. Die CIA investiert also direkt in ein Unternehmen, dessen Kernangebot die Analyse von Massendaten für staatliche Akteure ist. Diese Verbindung ist kein Gerücht und keine Verschwörungstheorie, sondern eine in Gerichts- und Unternehmensunterlagen vielfach bestätigte Tatsache.
Wie das Magazin Fast Company in einer Buchrezension über "The Philosopher in the Valley" dokumentiert, war In-Q-Tel nicht nur ein früher Geldgeber, sondern der erste institutionelle Investor überhaupt. Und die CIA war in den Anfangsjahren Palantirs einziger Kunde. Fortune berichtete 2025 ausführlich, wie In-Q-Tel als strategisches Bindeglied zwischen Silicon Valley und dem amerikanischen Sicherheitsapparat fungiert und dabei Unternehmen wie Palantir und Anduril hervorbrachte.
Diese Entstehungsgeschichte ist deshalb so wichtig, weil sie das strukturelle Problem von Palantir bereits im Keim enthält. Das Unternehmen ist nicht aus einem privatwirtschaftlichen Bedarf nach besserer Datenanalyse entstanden, sondern als Antwort auf spezifische Bedürfnisse des amerikanischen Sicherheitsapparats nach dem 11. September 2001. Der damalige geopolitische Kontext, der "War on Terror", die Ausweitung von Überwachungsbefugnissen durch den Patriot Act und der institutionelle Hunger nach Werkzeugen zur Massenüberwachung, hat Palantir buchstäblich hervorgebracht. Das Unternehmen ist ein Kind seiner Zeit, und diese Herkunft prägt bis heute seine Unternehmenskultur, seine Produkte und seine Kundenbasis.
Dass Peter Thiel politisch aktiv ist und enge Beziehungen zu Akteuren unterhält, die gleichzeitig Palantirs staatliche Auftraggeber beeinflussen, ist eine Interessenverflechtung, die in einer gesunden demokratischen Debatte deutlich kritischer beleuchtet werden müsste als bisher geschehen. Bisher ist das kaum passiert.
Was Palantir tatsächlich macht
Um Palantir kritisch zu verstehen, muss man seine Hauptprodukte kennen. Das Unternehmen bietet im Wesentlichen drei Kernangebote an, die in verschiedenen Varianten für unterschiedliche Märkte adaptiert werden.
Palantir Gotham ist die ursprüngliche Plattform, entwickelt für Geheimdienste und Strafverfolgungsbehörden. Sie erlaubt es Analysten, strukturierte und unstrukturierte Daten aus heterogenen Quellen zusammenzuführen, Verbindungen zwischen Personen, Orten, Ereignissen und Objekten zu visualisieren und Muster zu identifizieren, die menschlichen Analysten verborgen bleiben würden. Gotham wurde unter anderem für die Jagd auf Osama bin Laden eingesetzt.
Palantir Foundry ist das neuere Produkt für den kommerziellen Markt, das dasselbe Prinzip auf Unternehmensebene anwendet: Datenintegration, Mustererkennung, operative Entscheidungsunterstützung. Foundry wird heute von Unternehmen aus Pharma, Energie, Fertigung und Finanzwesen genutzt.
Palantir AIP, also Artificial Intelligence Platform, ist das jüngste Produkt, das generative KI direkt in die Datenanalyse integriert und besonders intensiv für militärische Anwendungen vermarktet wird.
Das Grundprinzip klingt nüchtern: bessere Datenanalyse für komplexe Probleme. Das Problem liegt nicht in der Technologie an sich, sondern in den spezifischen Kontexten ihrer Anwendung, in der fehlenden demokratischen Kontrolle über diese Anwendungen und in der grundsätzlichen Frage, welche gesellschaftlichen Machtverhältnisse durch eine solche Technologie verfestigt oder verschärft werden.
Das Lavender-Programm: KI-gestützte Tötungsentscheidungen in Gaza
Keine andere Episode in der jüngeren Geschichte von Palantir ist so erhellend und so beunruhigend wie die Berichte über das sogenannte "Lavender"-Programm der israelischen Streitkräfte im Gazastreifen. Das israelische Bürgermedium +972 Magazine und sein hebräischsprachiges Partnermedium Local Call veröffentlichten im April 2024 umfangreiche Recherchen, die auf Gesprächen mit sechs ehemaligen israelischen Geheimdienstoffizieren basierten. Sechs Leute, die eigentlich schweigen sollten, und die es nicht mehr konnten.
Der Kern der Berichte: Die israelischen Streitkräfte nutzten ein KI-System namens "Lavender", um Ziele für Luftangriffe in Gaza zu identifizieren. Das System analysierte riesige Datenmengen wie Kommunikationsmuster, Bewegungsprofile, soziale Netzwerke und Datenbankeinträge, und wies jeder Person in Gaza einen sogenannten "Confidence Score" zu. Das ist eine Einschätzung, wie wahrscheinlich es sei, dass diese Person ein Hamas-Mitglied oder ein Beteiligter des militärischen Flügels sei. Personen über einem bestimmten Schwellenwert wurden auf die Abschussliste gesetzt.
Menschliche Analysten, so die ehemaligen Offiziere, verbrachten teils nur 20 Sekunden mit der Überprüfung eines einzelnen Treffers. Zwanzig Sekunden, bevor jemand stirbt. Das System generierte Ziele in einer Geschwindigkeit, die menschliche Prüfung strukturell unmöglich machte. Besonders erschütternd: Das System unterschied nicht zwischen militärischen und zivilen Kontexten. Wohngebäude waren legitime Angriffsziele, solange die Zielperson sich darin befand. Die Berechnungen darüber, wie viele zivile Todesopfer pro militärisches Ziel akzeptabel seien, waren ebenfalls dokumentiert.
Palantirs direkte Beteiligung am Lavender-Programm ist nicht in gleicher Weise dokumentiert wie die Existenz des Programms selbst. Israelische Medien und internationale Journalisten haben jedoch beschrieben, dass Palantir-Technologie breiter im israelischen Verteidigungsapparat eingesetzt wird. Das Unternehmen selbst kommuniziert hierzu so wenig wie möglich. Was die Lavender-Berichte aber unabhängig von der spezifischen Palantir-Frage relevant macht, ist das Grundprinzip: Wenn KI-gestützte Massenanalyse in militärischen Kontexten zur Zielidentifikation eingesetzt wird und Entscheidungen trifft, die über Leben und Tod bestimmen, dann ist das eine fundamentale ethische Grenzüberschreitung. Egal welches Unternehmen die zugrundeliegende Technologie bereitstellt.
ICE und das ELITE-System: Gaza-Methoden in amerikanischen Städten
Der Transfer von Überwachungsmethoden aus Kriegsgebieten in zivile demokratische Kontexte ist kein theoretisches Szenario mehr. Er ist dokumentierte Gegenwart, und das sollte jeden beunruhigen.
Palantir liefert seit Jahren Technologie an die U.S. Immigration and Customs Enforcement, kurz ICE. Das System namens ELITE, also Enhanced Leads Identification and Targeting for Enforcement, erlaubt es ICE-Beamten, Personen zu identifizieren, zu verfolgen und zu priorisieren. Das Investigativmedium 404 Media veröffentlichte das interne Benutzerhandbuch von ELITE und machte damit erstmals öffentlich, wie das System konkret funktioniert: Es befüllt eine interaktive Karte mit potenziellen Abschiebungszielen, erstellt für jede Person ein Dossier und weist ihr einen Confidence Score für ihre aktuelle Adresse zu. Datenquellen sind unter anderem das Gesundheitsministerium, also auch Medicaid-Daten. Gesundheitsdaten für Abschiebungen, jawohl.
Die Electronic Frontier Foundation und der American Immigration Council warnten ausdrücklich: Fehler in diesen Systemen können zu Inhaftierung, Verlust des Aufenthaltsstatus oder falscher Abschiebung führen. Parallel dazu hat ICE im April 2025 einen 30-Millionen-Dollar-Vertrag mit Palantir für das noch umfassendere System ImmigrationOS abgeschlossen.
Was hier entsteht, ist eine Infrastruktur der Massenverhaftung, die nicht auf individueller Schuld basiert, sondern auf statistischen Wahrscheinlichkeiten. Algorithmen irren. Trainingsdaten sind verzerrt. Wenn die Grundgesamtheit der Daten, aus der ein KI-System lernt, strukturell diskriminierende Strafverfolgungsmuster der Vergangenheit widerspiegelt, dann reproduziert der Algorithmus diese Diskriminierung in industriellem Maßstab und verleiht ihr gleichzeitig den Schein technologischer Objektivität. Das ist keine Verbesserung. Das ist Diskriminierung mit besserem Marketing.
Das NHS-Paradox: Gesundheitsdaten und Geheimdienst-Infrastruktur
Im Vereinigten Königreich hatte Palantir einen der symbolisch bedeutsamsten Aufträge der jüngeren Geschichte errungen. Seit der COVID-19-Pandemie bündelt das Unternehmen Gesundheitsdaten von Millionen britischer Patienten auf seiner Infrastruktur. Im November 2023 wurde Palantir ein 330-Millionen-Pfund-Vertrag für die sogenannte Federated Data Platform des NHS zugesprochen, das ehrgeizigste Datenprojekt der britischen Gesundheitsgeschichte. Ausgeschrieben wurde der Auftrag übrigens für gerade mal einen Monat. Wenig überraschend gewann Palantir, das bereits als Pandemiehilfe seinen Fuss in der Tür hatte.
Datenschützer wie medConfidential und die Privacy International haben wiederholt darauf hingewiesen, dass die Verknüpfung sensibelster Gesundheitsdaten mit einer Infrastruktur, die primär für nachrichtendienstliche Zwecke entwickelt wurde, strukturelle Risiken birgt. Die Non-Profit-Organisation Good Law Project hat juristisch dagegen vorgegangen. Die British Medical Association bezeichnete die Entscheidung als "tief beunruhigend" und forderte die Kündigung aller NHS-Verträge mit Palantir. Palantir antwortete darauf, Ärzte würden "Ideologie über Patienteninteressen" stellen. Das ist schon eine bemerkenswerte Formulierung von einem Unternehmen, das Bombenziellisten per Algorithmus generiert.
Besonders aufschlussreich ist, was investigative Recherchen zutage förderten: Weniger als ein Viertel aller englischen Krankenhäuser nutzt die Palantir-Plattform aktiv, weil sie schlicht nicht besser funktioniert als die vorhandenen Systeme. Greater Manchester schrieb intern, dass kein Palantir-Produkt die lokale Kapazität übertrifft. Leeds Teaching Hospitals erklärte offen, die Einführung würde zu einem "Verlust an Funktionalität statt Gewinn" führen. Das ist keine technologische Erfolgsgeschichte. Es ist ein politisch erzwungener Vertragsabschluss, der jetzt 330 Millionen Pfund kostet.
Wer die Daten kontrolliert, kontrolliert die Macht
Ein fundamentales Problem, das in der öffentlichen Debatte über Palantir systematisch unterrepräsentiert ist, betrifft die nationale Souveränität. Wenn staatliche Einrichtungen wie Gesundheitsbehörden, Strafverfolgung, Militär und Einwanderungsbehörden ihre kritische operative Infrastruktur an ein privates amerikanisches Unternehmen auslagern, dann übertragen sie damit auch strukturelle Abhängigkeiten und potenzielle Verwundbarkeiten. Das geschieht leise, schrittweise und meistens ohne grosse öffentliche Debatte.
Die Schweiz hat die Nutzung von Palantir für staatliche Zwecke aus Gründen der Datensouveränität abgelehnt. Frankreich hingegen nutzt Palantir in mehreren staatlichen Kontexten. Das geschah nach einer Debatte, in der die Regierung ursprünglich versichert hatte, die Abhängigkeit zeitlich zu begrenzen. Diese Begrenzung ist faktisch nicht eingetreten. Willkommen in der dauerhaften Abhängigkeit.
Das schafft eine strukturelle Asymmetrie, die gefährlicher ist als sie klingt. Europäische Staaten, die Palantir nutzen, können operative Entscheidungen nur so gut treffen, wie Palantir-Systeme es ihnen ermöglichen. Sie sind abhängig von Softwareupdates, Serviceverträgen und letztlich von der Bereitschaft eines amerikanischen Unternehmens, seine Dienste fortzusetzen. In einer Zeit geopolitischer Spannungen zwischen Europa und den USA ist diese Abhängigkeit keine abstrakte Gefahr mehr.
Die demokratische Kontrollillusion
Eines der wirkungsvollsten Argumente der Palantir-Verteidiger lautet: Das Unternehmen verkauft nur Werkzeuge. Wie diese Werkzeuge eingesetzt werden, liegt in der Verantwortung der staatlichen Nutzer, die demokratisch legitimiert und rechtsstaatlichen Prinzipien verpflichtet sind. Das klingt vernünftig. Es ist es aber nicht.
Erstens ist die Technologie selbst nicht neutral. Sie ist darauf ausgelegt, bestimmte Arten von Entscheidungen zu ermöglichen und zu beschleunigen. Die Infrastruktur, die Palantir verkauft, ist spezifisch für Überwachung, Zielidentifikation und operative Entscheidungsfindung unter Zeitdruck optimiert. Technologie gestaltet die Möglichkeitsräume menschlicher Entscheidungen. Sie schafft neue Handlungsoptionen und macht bestimmte andere faktisch unmöglich oder unwahrscheinlich.
Zweitens ist demokratische Kontrolle über Geheimdienst- und Militärtechnologie notorisch schwach. Parlamente und Gerichte haben bekanntermaßen erhebliche Schwierigkeiten, die operative Realität von Überwachungsprogrammen zu kontrollieren, wie die Enthüllungen durch Edward Snowden 2013 eindrücklich gezeigt haben. Die Kombination aus Geheimhaltung, technologischer Komplexität und institutionellem Druck macht effektive demokratische Aufsicht strukturell schwierig, um es vorsichtig auszudrücken.
Drittens: Wenn KI-Systeme Verhaftungs- oder Tötungsentscheidungen vorbereiten und menschliche Prüfung auf 20 Sekunden pro Fall reduziert wird, dann ist "demokratisch legitimierte staatliche Verantwortung" ein Begriff, der seinen Inhalt verloren hat. Die Verantwortung ist de facto auf den Algorithmus übertragen worden. Auf ein System, das keine moralische Rechenschaft ablegen kann, keine emotionale Empathie besitzt und keine Ausnahmen kennt, die nicht in seinen Trainingsdaten repräsentiert sind.
Das Datenleck-Problem und strukturelle Verwundbarkeiten
Jede Konzentration sensibler Daten auf einer einzigen Plattform schafft ein entsprechend attraktives Ziel für staatliche und nichtstaatliche Akteure mit feindlichen Absichten. Palantir integriert Daten aus Dutzenden oder Hunderten von Quellen auf einer einzigen Analyseplattform. Das ist sein Kernversprechen. Es ist gleichzeitig sein fundamentales Sicherheitsproblem, auch wenn das Unternehmen das naturgemäss nie so formulieren würde.
Wenn eine solche Plattform kompromittiert wird, sei es durch staatlich gesponserte Hacking-Operationen, Insider-Bedrohungen oder technische Schwachstellen, dann ist das Schadensausmaß ungleich größer als bei fragmentierten, dezentralisierten Datensystemen. Eine einzige Kompromittierung von Palantirs Infrastruktur könnte theoretisch Zugang zu Strafverfolgungsdaten, Gesundheitsdaten, Militärdaten und Geheimdienstanalysen verschiedener Länder gleichzeitig ermöglichen.
Das Unternehmen investiert erheblich in seine eigene Sicherheitsinfrastruktur und kann auf eine bisher starke Sicherheitsbilanz verweisen. Aber die grundsätzliche Frage, ob eine solche Datenzentralisierung in einer privatwirtschaftlichen Einheit überhaupt vertretbar ist, stellt sich unabhängig von der bisherigen Sicherheitsbilanz. Sie stellt sich jeden Tag neu.
Ausweitung des Modells
Was Palantir in den vergangenen Jahren getan hat, ist ein Proof-of-Concept für ein neues Modell staatlicher Macht: die Auslagerung von Datenanalyse und operativer Entscheidungsvorbereitung an private Akteure, die selbst keiner demokratischen Kontrolle unterliegen. Dieses Modell funktioniert. Es ist skalierbar. Es ist profitabel. Und es ist international replizierbar. Leider.
Das Unternehmen expandiert aggressiv in neue Märkte: Gesundheit, Finanzen, Energie, Landwirtschaft. Mit der Integration generativer KI wird der Umfang möglicher Anwendungen noch breiter. Gleichzeitig werden die Fragen nach demokratischer Kontrolle, Datenschutz und ethischer Verantwortung nicht lauter, sondern leiser. Weil die Systeme komplexer werden, weil die Öffentlichkeit die technologischen Details nicht versteht und weil die staatlichen Nutzer institutionellen Anreiz haben, ihre Abhängigkeit von diesen Systemen nicht in Frage zu stellen.
Was Gaza uns gezeigt hat, ist das, wozu diese Technologie im Extremfall fähig ist: die industrielle Automatisierung von Tötungsentscheidungen. Was amerikanische Städte zeigen, ist die zivile Variante: die algorithmische Rationalisierung von Verhaftungsentscheidungen, die demokratische Schutzrechte aushöhlt. Was europäische Gesundheitssysteme zeigen, ist die schleichende Variante: die strukturelle Abhängigkeit sensibelster staatlicher Funktionen von einer privaten, nachrichtendienstlich verankerten amerikanischen Infrastruktur.
Die Frage, die gestellt werden muss
Technologie ist kein Naturphänomen. Sie entsteht in konkreten historischen, politischen und wirtschaftlichen Kontexten, sie wird von Menschen mit spezifischen Interessen entwickelt und verkauft, und sie verändert die Verhältnisse, in denen sie eingesetzt wird. Palantir ist ein besonders deutliches Beispiel dafür, wie Technologie nicht als neutrales Werkzeug, sondern als Machtinstrument verstanden werden muss.
Die eigentliche Frage ist nicht, ob Palantirs Technologie im technischen Sinne funktioniert. Sie funktioniert offensichtlich. Die Frage ist: Wessen Interessen bedient sie? Wer profitiert von der Sehkraft, die sie verleiht? Und wer zahlt den Preis, in Form von Verlust an Privatsphäre, an demokratischen Schutzrechten, an nationaler Souveränität oder im schlimmsten Fall an Menschenleben?
Diese Fragen sind keine Spekulation und keine Hysterie. Sie sind die naheliegendste demokratische Reaktion auf eine Technologie, die in den Bereichen Krieg, Strafverfolgung und staatlicher Verwaltung gleichzeitig aktiv ist. Ohne dass die Öffentlichkeit, deren Daten sie nutzt und deren Gesellschaft sie prägt, je gefragt worden wäre, ob sie das so will.
Solange diese Fragen nicht gestellt und ernsthaft diskutiert werden, bleibt Palantir das, was es von Anfang an war: ein Instrument der Macht für diejenigen, die Macht haben. Der Rest bleibt unsichtbar. Oder wird gesehen, ohne es zu wissen.
Für Recherchen zu diesem Artikel wurden öffentlich zugängliche Unternehmensunterlagen, parlamentarische Anfragen in den USA und im Vereinigten Königreich, Berichte der Electronic Frontier Foundation, des American Immigration Council sowie journalistische Untersuchungen von +972 Magazine, The Guardian, 404 Media, Fast Company, Fortune, Built In und Axios ausgewertet. Alle verlinkten Quellen sind zum Zeitpunkt der Veröffentlichung öffentlich zugänglich.
🎁 Artikel hat dir geholfen?
Wenn dir dieser Beitrag gefällt und du unsere Arbeit unterstützen möchtest, freuen wir uns über eine kleine Spende. Danke!
Jetzt unterstützen
