Im Panoptikum des Datenkapitalismus

Telepolis - 16.12.16, 00:00

Smarte Dinge, Social Scoring und Politik als soziale Physik

Würden alle Bundesbürger täglich beim Nachhausekommen ihren Briefkasten aufgebrochen, die Post geöffnet, in die Wohnung eingebrochen und alle Sachen durchwühlt vorfinden, es gäbe sofort einen gewaltigen (medialen) Aufschrei und massive Proteste. Im Reich des Digitalen ist Vergleichbares gängige Praxis, doch es regt sich so gut wie kein Widerstand. Denn das Eindringen staatlicher und privater Akteure in die Intim- und Privatsphäre geschieht dort unfühlbar und ungreifbar. Von wem man wie und warum gelesen, gespeichert, berechnet und gehandelt wird, bleibt im Ungefähren und Fernen.

Einer der größten Datenhändler Deutschlands ist die Firma Schober. In der Datenbank von Schober sind 50 Millionen Privatadressen mit jeweils hunderten Zusatzmerkmalen zu Konsumverhalten, der Wohn- und Lebenssituation und weiteren soziodemographischen Faktoren gespeichert. Mit diesen Daten wird der "Customer Lifetime Value" einer Person bestimmt, sprich deren Kreditwürdigkeit und Kaufkraft. Diese Kategorisierung nennt sich "Scoring" und ist mittlerweile ein Milliardengeschäft - allerdings ohne dass die Betroffenen daran mitverdienen würden beziehungsweise überhaupt nur eine Ahnung davon haben, dass dem so ist. Wie der Bundestagsabgeordnete der Grünen, Malte Spitz, in seinem Buch zum privaten wie staatlichen "Data-Mining"1 ausführt: 

Jeder von uns hat einen solchen Score, ohne es zu wissen. Die Rechenverfahren dazu sind ein Geschäftsgeheimnis, das die Firmen für sich behalten dürfen, wie der Bundesgerichtshof im Januar 2014 geurteilt hat. Dabei entscheidet dieser Score-Wert wesentlich über unser Leben. Nicht etwa nur, wenn wir ein Haus oder ein Auto kaufen wollen. Schon wenn man bei einem Versandhaus bestellt oder einen Handyvertrag abschließen will, fragt die Gegenseite den Score ab.

Der Score hängt zudem nicht nur von der eigenen Bezahl- und Kredithistorie ab, sondern auch davon, wo man wohnt. Dieses Verfahren heißt "Geo-Scoring" und hat erhebliche Konsequenzen. Malte Spitz zitiert hierzu aus einem Gespräch mit Peter Schaar, dem ehemaligen Bundesbeauftragten für den Datenschutz:

Geo-Scoring führt zu einer Diskriminierung von Personen, die sich ohnehin in einer schwierigen Situation befinden. Braucht jemand aus einem weniger betuchten Umfeld einen Kredit, hat er wahrscheinlich einen sehr schlechten Score-Wert und muss dreimal so viel Zinsen bezahlen wie einer, der in einer Gegend mit solventerer Bevölkerung lebt und deshalb ein gutes Kreditrating hat. Das ist eine Art Selffulfilling Prophecy: Hätte er einen günstigen Zinssatz bekommen, hätte er den Kredit wahrscheinlich pünktlich bezahlt. So schafft er das möglicherweise nicht, gerät immer tiefer in die Schuldenkrise und hat keine Ahnung, dass das an einem Score-Wert liegt, von dem er noch nie was gehört hat und den er durch eigenes Verhalten kaum beeinflussen kann.

Dass dies wiederum zu weiteren sich selbst verstärkenden Effekten einer Ghettoisierung führen kann, liegt auf der Hand. Zumal dieses Prinzip nicht nur den Zinssatz von Krediten betrifft, sondern auch die Beitragshöhe von Versicherungen: Wer in einem weniger solventen Stadtteil wohnt, zahlt für eine Kfz- oder Hausratsversicherung eine höhere Prämie.

Und natürlich kann auf Grundlage der persönlichen Datenprofile auch die Werbung individuell angepasst werden. Die Acxiom Deutschland GmbH, eine Tochter der Acxiom Corporation, dem größten amerikanischen Datenhändler, kann laut eigenen Angaben für jeden Straßenabschnitt Deutschlands die Zugehörigkeit zu zehn unterschiedlichen Kulturkreisen ausweisen - mit Kategorien wie "außereuropäisch-islamisch, Spätaussiedler, Balkan oder afrikanisch/südlich der Sahara".2 Solche Informationen verkauft Axciom an Unternehmen, die gezieltes "Ethno-Marketing" betreiben wollen. 

Wie Catriona McLaughlin in einem Artikel für "Die Zeit" berichtet, ließe sich bei Acxiom so zum Beispiel für die USA eine "Liste aller Latinos kaufen, die Linkshänder sind und über 40.000 Dollar im Jahr verdienen". Während in Deutschland bereits 44 Millionen Bürger in den Datenbanken von Acxiom gespeichert sind, ist es in den USA fast jeder - mit über 1500 Merkmalen wie Alter, Wohnsitz, Geschlecht, Hautfarbe, politische Einstellungen, Urlaubsträume, Tiere, Kaufverhalten, Ausbildung, Einkommen, Krankheiten, Finanzen, Familienstand, Zeitschriftenabonnements. 

Anhand dieser Profile lassen sich dann nicht nur die Werbung, sondern auch die Preise, das Design einer Website, Nachrichten, Facebook-Posts oder Suchergebnisse abhängig vom jeweiligen Nutzer individuell gestalten. Ohne dass man es merkt, wird der mediale Blick auf die Welt für einen präkonfiguriert. Es entsteht die mittlerweile viel zitierte "Filter Bubble".

Auch politischen Akteuren eröffnen sich dadurch ganz neue Möglichkeiten der Beeinflussung von Verhalten, Meinungen und Überzeugungen. Größere Aufmerksamkeit erregten jüngst Berichte über die Tätigkeiten des Unternehmens Cambridge Analytica im Rahmen des Wahlkampfs von Donald Trump. Da Cambridge Analytica laut seines Chefs Christopher Nix über "Psychogramme von allen erwachsenen US- Bürgern" verfügt, konnten Wähler mit so genanntem "Microtargeting" passgenau angesprochen werden.

Nix veranschaulichte dies bei einer Präsentation am Beispiel des Waffengesetzes: "Ängstlichen Menschen mit hohen Neurotizismus-Werten" könne man mit einem Bild, auf dem die Hand eines Einbrechers, der eine Scheibe einschlägt, zu sehen ist, die Waffe als "Versicherung" verkaufen, während man mit einem Bild, das einen Mann und ein Kind mit Flinten in einem Feld bei der Entenjagd zeigt, "konservative Typen mit hoher Extraversion" anspreche.3

Ein strategisches Hauptziel der Trump-Kampagne war, potenzielle Clinton-Wähler von der Wahl abzuhalten. So erhielten Einwohner in Miamis Stadtteil Little Haiti Nachrichten über das Versagen der Clinton-Stiftung nach dem Erdbeben in Haiti, während Afroamerikanern Videos zugespielt wurden, in denen Hillary Clinton schwarze Männer als Raubtiere bezeichnet.

Solche Möglichkeiten der Manipulation beschränken sich mittlerweile wiederum nicht nur auf das Internet. In Geschäften oder Einkaufszentren können mit Kameras auch "analoge Passanten" einer Kaufkraft- und Kaufwilligkeitsanalyse unterzogen werden. Gesichtserkennungssoftware analysiert die Filmaufnahmen und erkennt nicht nur, dass jemand ein Produkt betrachtet, sondern anhand der Mimik auch, wie er es betrachtet. Festgestellt wird, welche Emotionen die Person zeigt, auf welchem "Happiness Level" sie sich gerade befindet. 

So gibt es bereits Schaufensterpuppen, die tatsächlich sehen und hören können. In den Augen des EyeSee Mannequins der Firma Almax ist eine Kamera mit Gesichtserkennungssoftware von IBM installiert, die Auskunft über das ungefähre Alter, Geschlecht sowie die Ethnie der Passanten geben kann. Das EyeSee Mannequin hört außerdem, über was sich diese unterhalten, so dass mit einer Schlagwortsuche analysiert werden kann, was einem Kunden warum gefällt oder nicht. Auch an der Kasse können solche Techniken zum Einsatz kommen. "Wenn Sie ein verärgerter Mann um die 30 sind und es ist Freitagabend, kann man Ihnen eine Flasche Whiskey anbieten", erklärt die Marketingchefin der Firma Synquera, die eine Software für Kassengeräte entwickelt hat, welche die Gesichter der Kunden beim Bezahlen liest.4

Ob für Manager oder Personalchefs, die in Geschäftsverhandlungen oder Vorstellungsgesprächen wissen wollen, was ihr Gegenüber "eigentlich" sagt oder denkt, ob für Parteien oder Filmproduzenten, die wissen wollen, wie ihr Werbespot oder Trailer ankommt, bis hin zu Polizei und Geheimdiensten ergeben sich dabei für sämtliche Gesellschaftsbereiche noch kaum auszudenkende Konsequenzen, die unsere Kommunikationsstrukturen fundamental verändern könnten - von den Implikationen für das Privatleben ganz zu schweigen.

Glaubt man Rana el Kaliouby, der Gründerin und wissenschaftlichen Leiterin des Marktführers für "affective computing" Affectiva, dann werden in zehn bis fünfzehn Jahren alle "smart devices" einen "Emotionschip haben, der kontinuierlich unsere Stimmung liest"

Warum man etwas fühlt oder sagt, kann ein "Wearable emotion detection and feedback system", wie es Microsoft für seine HoloLens patentiert hat, zwar noch nicht erkennen, doch die neueste Generation "smarter Fernseher" registriert, wie das Zuhause möbliert ist, was für Bilder an den Wänden hängen, ob Haustiere und wie viele Personen anwesend sind und kann deren Alter, Geschlecht, Gewicht, Körpergröße, Hautfarbe und Haarlänge bestimmen. Die Software in den Geräten erfasst außerdem, welche Sprache man spricht und was man gerade tut - ob man isst, lacht, redet, bügelt, schläft, liest, putzt, kuschelt oder sich streitet. Worauf die Fernsehwerbung an das anpasst werden kann, woran die Anwesenden möglicherweise gerade besonders interessiert sind.

Und auch das einstige Freiheitssymbol Auto wird in seiner smarten Version zum mobilen Daten- und Überwachungscenter für die Insassen und die Umwelt. Durch Kameras, Laserscanner, Ultraschall- und Radarsensoren wird ein vollständiges Abbild der Umgebung erstellt, und ab 2018 müssen Neuwagen in der Europäischen Union zwangsweise mit dem so genannten eCall-System ausgestattet sein, das bei einem Unfall automatisch über das Mobilfunknetz eine Notfallmeldung mit Positionsdaten sendet - was nichts anderes bedeutet, als dass ein Abhör- und Ortungssystem im Auto installiert ist.

Mit einer kleinen Box, die an das Elektroniksystem des Autos angeschlossen wird, lassen sich zudem Daten über das Fahrverhalten an die Kfz-Versicherung weiterleiten, so dass der Versicherungstarif (ein so genannter "Telematik-Tarif") individuell an selbiges angepasst werden kann. Smarte "Warnsysteme" können aus Fahrzeit und Lenkbewegungen auch errechnen, ob der Fahrer eventuell müde ist. Dann erscheint im Display eine Kaffeetasse mit der Frage "Pause"?

Markus Morgenroth, Ex-Mitarbeiter der Datenanalysefirma Cataphora und Autor des Buches "Sie kennen Dich! Sie haben Dich! Sie steuern Dich!" (2014), in dem er zahlreiche solcher Beispiele zusammengetragen hat, stellt hierzu die Frage: "Würde man den Hinweis ignorieren und kurz darauf einen Unfall verursachen, wie würden die belastenden Informationen in einem solchen Fall verwendet werden?"5 In einem Interview mit der Frankfurter Allgemeinen Zeitung erzählt er, dass es vor Gericht bereits zu Szenen kommt, in denen Kafkas Alptraumszenarien einer allwissenden und ungreifbaren bürokratischen Macht gespenstische Wirklichkeit werden: 

Im Falle von Cataphora standen Menschen vor Gericht und mit ihnen ihr digitales Spiegelbild, also die Summe aus all den vielen Datenfragmenten, die ein Mitarbeiter jeden Tag hinterlässt. Die Betroffenen wussten häufig nicht mehr, was sie wann und mit wem getan hatten, wenn sie vor Gericht befragt wurden. Wir wussten es aber. Vor Gericht wissen heute andere sehr viel besser über Sie Bescheid als Sie selbst. Daraus folgt eine neue Deutungshoheit über Personen. …

Vor Gericht heißt es beispielsweise nicht mehr: "Was haben Sie dann und dann gemacht?" Sondern: "Warum haben Sie damals aufgehört, freitags mit Kollege X essen zu gehen?" Sie wissen im Zweifel gar nicht, was die Frage bedeutet. Sie kommen in eine Situation der Verlegenheit und durchschauen das Spiel nicht mehr, das über Ihr Schicksal entscheidet.

Kommentieren

Wer dieses Spiel in Zukunft überhaupt noch durchschauen kann, ist eine offene Frage. Denn während die privaten und staatlichen Datensammler ihre Kunden und Bürger maximal transparent machen, sind diese selbst und ihre Methoden völlig intransparent. Zudem sind - wie jeder Photoshop-Benutzer weiß - digitale Daten problemlos manipulierbar, was im Einzelfall für einen Betroffenen jedoch kaum nachzuweisen sein wird. Es lassen sich zahllose solcher Fälle konstruieren oder bereits dokumentieren, über deren Auswirkungen sich die Gesellschaft noch nicht einmal ansatzweise bewusst ist.

So wird sich nicht nur durch die neuen Möglichkeiten der Biotechnologie6, sondern auch durch die vermeintliche Allwissenheit der Datensammler unser Verständnis von Schicksal fundamental verändern. Man wird bei einer Zu- oder Absage nach einem Vorstellungsgespräch beispielsweise nicht mehr wissen, warum man genommen wurde oder nicht. Stellt einen der potenzielle Arbeitgeber nicht ein, weil man eine Herzkrankheit hat? Oder hat der Algorithmus nur einen falschen Schluss gezogen, weil man entsprechende Medikamente im Internet gar nicht für sich selbst, sondern für einen Verwandten bestellt hat? 7

Im digitalen Taylorismus von Amazon & Co. entscheiden über Einstellung und Kündigung nämlich nicht mehr die (Personal-)Chefs, sondern die Algorithmen der "People Analytics". Diese wissen dann auch, in welcher körperlichen und geistigen Verfassung sich die Mitarbeiter befinden. Die Firma SOMA Analytics bietet hierzu ein "Frühwarn- und Präventionssystem" für Burn-out und Depressionen an. Während eines Telefonats analysiert die App Tonlage und Schnelligkeit des Sprechers. Je gestresster ein Mensch ist, desto geringer falle laut SOMA die Modulation seiner Stimme aus. Auch häufige Tippfehler werden registriert, sie seien ein eindeutiges Stressindiz, denn sie verweisen auf eine "gestörte Hand-Augen-Koordination des Smartphone-Besitzers".8

Einen menschlichen Arzt müssen die - womöglich genau durch solche Überwachungsmethoden9 - gestressten Mitarbeiter in Zukunft allerdings nicht mehr aufsuchen. Der Supercomputer Watson von IBM soll durch die Auswertung sämtlichen verfügbaren medizinischen Wissens zum "besten Diagnostiker der Welt" werden, und die Diagnostik- und Trackingtools, die man am oder im Körper trägt, schlagen sofort Alarm, wenn eine Körperfunktion nicht dem erwünschten Standard entspricht - ob in Form "intelligenter Kleidung" und anderer "wearables" oder durch implantierte Chips und "intelligente Pillen", die mittels Sensor Signale aus dem Körperinneren zu einer auf der Haut getragenen Elektrode senden, welche zusätzlich Herzfrequenz, Atmung und Körpertemperatur misst und die gesammelten Daten auf das Smartphone oder andere Geräte weiterleitet. 

Für den einzelnen Selbstvermesser mag eine dauernde Körperüberwachung sein (masochistisches) Privatvergnügen sein, doch bei Unternehmen und Versicherungen hat dies weitgehende gesamtgesellschaftliche Konsequenzen. Wenn sich etwa die Krankenversicherung, wie bereits stattfindend, in ein "Spiel" verwandelt, in dem die Versicherten ihre Gesundheitswerte mittels smarter Geräte an die Versicherung weiterleiten und dann ihren "Health Score" auf einer Rangliste vergleichen und dementsprechend (monetär) belohnt und bestraft werden, wird das Prinzip der Solidargemeinschaft unterminiert und die Freiheit des Einzelnen eingeschränkt.

Wer sich dem Spiel verweigert, wird ab einer kritischen Masse von Teilnehmern durch die sozialen und finanziellen Nachteile gezwungen sein, die Freiheit seines Nichteinverstandenseins aufzugeben und sich anzupassen - in diesem Fall seine Gesundheitswerte von der Versicherung oder seinem Arbeitgeber überwachen und bewerten zu lassen. In einem Artikel zur Bewegung des "Quantified Self" schreibt Juli Zeh: 

RZ>Die Verknüpfung von Krankheit und Schuld bedeutet nicht weniger als das Ende von persönlicher Freiheit und gesellschaftlicher Solidarität - zwei Werte, die das Fundament einer demokratischen Gesellschaft bilden. Wer glaubt, Gesundheit und Wohlbefinden könne man sich erarbeiten, indem man entlang von Normen alles ‚richtig’ macht, der mag bald nicht mehr einsehen, warum er mit seinen Versicherungsbeiträgen für die Raucherlungen, Säuferlebern und verfetteten Herzen irgendwelcher undisziplinierter Hedonisten aufkommen soll.

::Juli Zeh