Zwei Lego-Spielfiguren der Star Wars-Serie von Lego kämpfen mit Laserschwertern
© canstockphoto.com

Möge die Macht mit uns sein

Die Services von Google, Facebook und Co. sind kostenlos und effizient. Sie sammeln jedoch Daten im großen Stil über uns und bestimmen mit Algorithmen unsere Handlungsoptionen. Verlieren wir dadurch unsere Autonomie und Handlungsfreiheit? Die politische Seite des kommerziellen Interesses an Big Data sieht vielleicht ganz anders aus.

Von Andres Friedrichsmeier


LSD, Hypnose und gezielte Gehirnerschütterungen: Zwar hatten die Verantwortlichen der CIA rechtzeitig die Aktenschredder angeworfen, aber als der US-Senat 1975, gegen Ende des Vietnamkriegs, das Treiben seiner Geheimdienste durchleuchten wollte, fanden sich noch immer schockierende Hinweise. MKULTRA, ein 1953 initiiertes Geheimprojekt, erprobte die Möglichkeiten der Bewusstseinskontrolle. Aus heutiger Perspektive klingt dieses CIA-Programm nicht nur gruselig, sondern auch ein wenig lachhaft. Stichwort Gedankenkontrolle: Haben der Geheimdienst NSA und Unternehmen wie Facebook dafür heute effizientere Instrumente als LSD und Gehirn-OP? 2014 erschreckte Facebook die Öffentlichkeit mit dem Bekenntnis zu einer Studie über die Manipulierbarkeit von 689.003 uneingeweihten Nutzern. Das Studienergebnis: Wem Facebook gezielt negativ gestimmte Beiträge aus dem News-Feed herausfiltert und somit vorenthält, postet dann selbst mehr Inhalte mit positiver Stimmung. Die eigentliche Brisanz liegt jedoch nicht in dem nur eine Woche andauernden Experiment selbst. Sie liegt darin, dass Facebook tagtäglich den News Feed sämtlicher seiner 1,5 Milliarden Nutzer filtert und vorsortiert, mit maschinenlernenden Algorithmen. Im Klartext: Facebook nimmt Einfluss auf die Emotionen von rund 20 Prozent der Weltbevölkerung. Barack Obama regiert nicht einmal ein Viertel so viele Staatsbürger. Anders als Obama müssen sich Facebooks selbstlernende Algorithmen weder gegen feindlich gestimmte Senatoren durchsetzen, noch ihre Entscheidungen öffentlich dokumentieren oder gar rechtfertigen. In Dvorskys Rangliste der 10 weltbeherrschenden Algorithmen reicht das allerdings gerade mal für Platz zwei, weit abgeschlagen hinter Googles „PageRank“. 

Google will aber noch größeren Einfluss als schon heute bei täglich 3,5 Milliarden verarbeiteten Internetsuchen. Bei letzteren beeinflussen Googles Algorithmen bekanntlich nicht nur, was wir finden, sondern mittels Autovervollstandigung der Suchtexteingabe auch, was wir suchen. Das prominente Beispiel ist „Bettina Wulff + Escort“. Künftig sollen wir noch etwas direkter zur Nutzung vorgestalteter Handlungsoptionen verführt werden. Das anschaulichste Beispiel ist der Service Inbox, derzeit noch im Testlauf. Mit ihm lässt man seinen kompletten Mailverkehr – wem man bisher worauf wie geantwortet hat – von Google analysieren. Bei jeder anschließend neu eintreffenden Mail bietet Inbox eine passend vorformulierte Antwort an, die wir mit nur einem Klick zurückschicken können. Oder automatisch in unseren Kalender eintragen lassen. Ideal für stressige und vom Information-Overload bedrängte Büro-Jobs. Googles Algorithmus schlägt uns also effizient vor, wie wir mit anderen kommunizieren und welche Termine wir wahrnehmen oder absagen. Zeitnot auf Seiten der Nutzer vorausgesetzt bedeutet dies schlicht, dass der Algorithmus ihr Verhalten mitbestimmt – und wer ist beruflich nicht von Mails und Terminen gestresst?

“Jeder Nutzer ahnt, worauf er sich einlässt."

Vermutlich ahnt jeder „Inbox“-Nutzer, worauf er sich einlässt. Interessant wird es erst auf überindividueller Ebene. Etwa wenn wir feststellen, dass die individuelle Zustimmungsfähigkeit zu den AGB solcher Dienste zu einer leer gelaufenen juristischen Fiktion degradiert ist: Schon 2007 überschlugen Forscher, dass es jährlich 201 Stunden dauern würde, um die für typische Internetnutzung zustimmungsbedürftigen Datenschutzvereinbarungen bloß zu lesen. Ohne also überhaupt Konditionen verschiedener Anbieter verglichen oder gar Einzelbestimmungen nachverhandelt zu haben, hätte ein durchschnittliche Arbeitnehmer schon 12 Prozent seiner Jahresarbeitszeit aufgewendet. 

Die meisten, die beim Thema Big Data abwiegeln, „mich persönlich betrifft das nicht“, haben jedenfalls in gewisser Hinsicht recht. Nicht, weil ihr persönlicher Lebensbereich unberührt wäre – Big Data fängt schon an, wenn Supermärkte systematisch Käuferverhalten und Preissensitivitäten auswerten –, sondern weil die Relevanz des Themas auf politisch-gesellschaftlicher Ebene liegt und nicht bei der individuellen Konsumentensouveränität. 

Ein persönliches Beispiel: Als ich zu einer Projektgruppe gestoßen bin, die sich über einen gemeinsamen Google-Kalender koordiniert, hatte ich die Wahl, aus persönlichen Datenschutz­erwägungen die Arbeit der ganzen Gruppe zu verkomplizieren – oder bei Google einmal den „Stimme zu“-Button zu klicken. Praktisch ist ein Kalender nur, wenn ich dort alle meine Termine eintrage. Jeder Änderung der Geschäftsbedingungen durch Google stimme ich zu, sonst stünde ich ohne Kalender da. So weit, so mittelprächtig, immerhin nutze ich einen praktischen Service, der nur indirekt über Werbegebühren bezahlt wird. Nicht so mein Bruder, der datenabstinent lebt. Allerdings ist sein Geburtstag in meinem Google-Kalender vermerkt, über „Maps“ habe ich seine Adresse preisgegeben und alle seine Mails an meinen Gmail-Account werden mitausgewertet. Ferner schließt Google aus dem Wissen über mich und weitere, meinem Bruder ähnelnden Google-Nutzern, halbwegs treffsicher auch auf sein Einkaufsverhalten und seine Preissensivitäten. In der Folge sehen sich viele Anbieter, bei denen mein Bruder kauft, faktisch dazu gezwungen, über Google Werbung zu buchen.

Obwohl mein Bruder diese Werbung nie sieht – dank aktiviertem Adblock in seinem Browser – bezahlt er sie ständig mit. Die Werbekosten sind umgelegt auf die Preise seiner Konsumgüter, ob im Supermarkt, im Technikladen oder bei der Pizzabestellung. Auch mein Bruder bezahlt für meine Nutzung von Google-Kalender. Entgeht er als Nicht-Nutzer zumindest dem „Filter Bubble“-Effekt? Damit ist gemeint, dass Algorithmen von Facebook und Google zwar primär auf die Optimierung meiner Nutzerzufriedenheit ausgerichtet sind, mir deswegen aber auch primär vorsetzen, was mir sowieso gefällt. Für Konservative unter uns werden nicht-konservative News weggefiltert, Fußballfans können sich in einer digitalen Blase von Fußballfreunden einrichten usw. Das stimmt bedenklich, doch sollten wir nicht den Fehler machen, die digitale Welt nach Maßstäben zu beurteilen, die auch außerhalb der digitalen Welt unerfüllt bleiben. Schließlich ist auch jeder realweltliche Kegelverein eine Art „Filter-Bubble“ und als Stützen der Meinungsfreiheit wähnen wir meist „überparteiliche“ aber vom Anzeigenmarkt abhängige und von wenigen Privateigentümern kontrollierte Medienorgane wie die Süddeutsche Zeitung, Welt oder Focus. Es ist also längst nicht ausgemacht, ob digitale Dienste pluralen Meinungsaustausch tatsächlich einschränken oder doch erweitern, wie etwa während des arabischen Frühlings in den Jahren 2010 bis 2011.

“Für das Penis-Problem werden Menschen beschäftigt."

Aber nimmt der gesellschaftspolitische Einfluss von Google & Co auch konkrete Richtungen? Am intensivsten diskutiert ist die Nippelzensur, der schier unglaubliche Aufwand, mit dem man Computern die Unterscheidung von männlichen und weiblichen Brustwarzen beizubringen sucht, um letztere aus Googles Bildsuche zu löschen. Auch bei Facebook sehen wir Millioneninvestitionen für ein weiter ungelöstes „Penis Problem“, anstatt rechtsextreme Hetze herauszufiltern. Dass hier Einfluss genommen wird, wird deutlicher bei folgendem Gedankenexperiment: Wie sähe die digitale Welt aus, wenn Google und Facebook nicht in Kalifornien, sondern im konservativen Kansas beheimatet wären (wäre die Wortgruppe „zum Teufel“ noch erlaubt?), oder im südchinesischen Kanton (würde man auf Facebook sein Jahreseinkommen beziffern)? Gleichwohl, wie vermeiden wir, diesen Einfluss zu überschätzen? Etwa, indem wir jüngste Technikfortschritte solcherart extrapolieren, wie es Zeitgenossen des eingangs zitierten CIA-Experiments getan haben, die entsprechend sicher waren, dass wir 2015 in Kolonien auf Mond und Mars leben? Denn im oben zitierten Facebook-Experiment setzten die manipulierten Nutzer gerade mal drei Prozent mehr positive Meldungen ab.

Mächtiger sind die hier diskutierten Algorithmen zweifellos in ihrer Hauptfunktion – also uns dazu zu bringen, mehr Zeit auf Facebook zu verbringen. Jüngst etwa mithilfe einer angeblich zu 83 Prozent zuverlässigen Gesichtserkennung, die Vorschläge macht, mit welchen Freunden wir Bilder austauschen wollen – sogar, wenn sie nur von hinten fotografiert sind. Datenschutztechnisch mindestens bedenklich, aber gefährdet dies unsere Autonomie? Die Frage ist falsch gestellt, denn mit Gesichtserkennung kann man keine einzelnen Menschen gegen ihren Willen fernsteuern. Bis in die 1970er war letzteres für Kinozuschauer noch absolut vorstellbar, Handlungsbestandteil vieler Bond-Filme und sogar Basisplot der Dr. Mabuse-Filme der 1920er und 1960er Jahre. Big Data und seine Algorithmen hingegen arbeiten – egal ob 2015 oder in 50 Jahren – grundsätzlich nur auf Basis von Wahrscheinlichkeiten. Und die, so darf man verallgemeinern, quasi immer über eine gigantische Zahl von Nutzerprofilen hinweg. Auf eine Einzelperson zugeschnittene Big Data wäre nämlich zu aufwendig. Wer eine der inzwischen für das Desktopsegment verfügbaren Anwendungen mit maschinenlernenden Algorithmen ausprobiert, erkennt den Grund dafür: Die Algorithmen benötigen eine gewisse menschliche Kontrolle, um Analyse von Unsinn zu unterscheiden.

Auch für das genannte „Penis-Problem“ werden viele Menschen aus Fleisch und Blut beschäftigt. Auf Einzelnutzer zugeschnittene Big Data sucht deshalb dessen freiwillige Mitwirkung bei der Algorithmuskontrolle („Bitte klicken Sie, ob Sie diesen Vorschlag hilfreich fanden“). Aber bleibt dies so? Setzt sich irgendwann das Szenario des Films Minority Report um, in dem Verbrechen geahndet werden können, bevor der potenzielle Verbrecher von ihnen weiß? Schon heute beurteilen Bewährungshelfer in den USA entlassene Strafgefangene mit Hilfe von Algorithmen, die Polizei lässt ganze Wohnviertel bewerten. Oder führt Big Data bloß das weiter, was schon in den 1970er Jahren unter dem Stichwort Rasterfahndung begonnen hat? Sozialtheoretisch geantwortet: Eindeutig Letzteres. Menschliches Verhalten, genau wie menschliche Sprache, ist grundsätzlich mehr- und uneindeutig. Jeder Sinn, jede Bedeutung ist davon abhängig, wie die Beteiligten den sozialen Kontext interpretieren – und das tun sie dynamisch veränderlich und ferner selten auf übereinstimmende Weise. Aber eben doch auf eine gut in Big Data-basierten Wahrscheinlichkeiten abbildbare Weise. Big Data kann also mehr über uns wissen als wir selbst, wird aber trotzdem immer bloß raten.

“Die Umsonstkultur hat die rasante Internet-Entwicklung erst möglich gemacht."

Google & Co sehen es jedenfalls als Überlebensfrage, mehr von uns zu wissen als wir selbst. Wenn wir künftig immer mehr Geräte ohne oder mit allenfalls winzigem Bildschirm nutzen, wollen sie von Provisionen statt von Werbeeinblendungen leben. Gemeint ist etwa, dass mein Smartphone ahnt, wann ich am Bahnhof einen Taxidienst rufen will und wann bei mir Lust auf eine Pizzeria in Laufweite aufkommt. Denn nur dann werde ich zustimmen – und gegebenenfalls mit dem Algorithmus kooperieren –, damit er mir halbautomatisch einen – gegen geringe Gebühr – bei Google registrierten Anbieter aussucht. Verliere ich dadurch die Autonomie über mein Leben? Nicht wirklich, wenn ich Muße für wichtigere Dinge als eine Preisrecherche unter Taxidiensten gewinne. Aber darf man die dahinter stehenden Einflussmöglichkeiten in die Hand von wenigen Privatunternehmen geben? Mir ist kein Argument bekannt, das dafür spräche. USA Today errechnete jüngst, die weltweite Internetökonomie werde zu 70 Prozent von nur fünf US-Firmen kontrolliert. 

Diese Rechnung mag man in Zweifel ziehen. Kaum aber, dass dem Geschäft mit konsumentenbezogener Big Data (Big Data für Wettermodelle ist ein komplett anderes Thema) die Tendenz innewohnt, marktwirtschaftliche Prinzipien auszuhebeln. Der Grund dafür trägt den Namen Network-Effect. Gemeint sind Dienste, die umso wertvoller sind, je mehr Menschen sie nutzen: Koordination von Terminen über ­Google ist nur dann praktisch, wenn meine Kollegen denselben Dienst nutzen. Und wenn meine Freunde auf Facebook sind, wird man mich nie überzeugen, stattdessen das deutsche „Studi-VZ“ als Social Media-Plattform zu nutzen. Der Netzwerkeffekt erklärt auch, warum ein europäisches Gegen-Google nie erfolgreich sein würde – dank ihm sind die weltweiten Monopolmodelle tatsächlich produktiver. Er steht ebenfalls dafür, dass erst die Big-Data-Business-typische Umsonstkultur die rasante Internetentwicklung der letzten Jahrzehnte möglich gemacht hat. Denn die meisten neuen Dienste werden wertvoller, wenn möglichst viele Menschen frühzeitig mitmachen.

Das klingt marktwirtschaftlich bedenklich – wäre Geld-gegen-Ware nicht das sauberere Prinzip? Sollte, wie der Friedenspreisträger des Deutschen Buchhandels 2014, Jaron Lanier, fordert, zumindest Geld für unsere Daten gezahlt werden? Doch für Google haben unsere privaten Daten keinen nennenswerten Geldwert, sie erlauben lediglich das Angebot kostenloser Services. Wie man mit dem kostenlosen Webcalculator der Financial Times prüfen kann, liegt der Marktwert der eigenen Daten im einstelligen Centbereich oder darunter.

Der Cashflow von Google & Co resultiert daher nicht aus dem Verkauf von Daten, sondern weil sie das Florieren von digitalen Nutzergemeinschaften fördern. Denn darin stehen ihnen exklusive Einnahmequellen offen, welche sie – die Wirtschaftsnobelpreisträger von 2014 machten möglich, das zu überprüfen –,  zumeist nicht einmal ungebührlich ausnutzen: Die Monopole von Google und Facebook haben laut Rochet und Tirole bisher tendenziell zu sinkenden Anzeigepreisen geführt. Damit ist die Preispolitik von Google sozialverträglicher als beispielsweise die der Hersteller von Krebs-, HIV- oder Hepatitismedikamenten, die eine durch Patentschutz gesicherte Monopolsituation schamlos nutzen. Man könnte also sagen, dass die sich durch den „network effect“ fast zwangsläufig herausbildenden Monopole die bisherige Ordnungsvorstellung namens „Marktwirtschaft“ gleichwohl untergraben.

Das aber sollte uns, anders als Lanier und die von ihm begeisterten Verleger, nicht notwendiger Weise entsetzen. Schließlich haben sich Marktwirtschaft und die in die Klima­katastrophe führende Fossilwirtschaft nicht zufällig parallel entwickelt, wie Herman E. Daly und Joshua Farley in ihrem Standardwerk Ecological Economics belegen.  Was ist so schlimm daran, wenn mit dem Geschäftsmodell des kostenfreien Massenzugangs virtuelle Gemeinschaften entstehen – im Gegensatz zum herkömmlichen Modell, das soziale und ökologische Fragen nicht berücksichtigt? Lachen Sie jetzt nicht, aber ist vielleicht etwas dran an Googles ehemaligem Firmenmotto „Don’t be evil“ (Alphabet sagt jetzt "Do the right thing")? Aus der Forschung über Entwicklungsländer ist uns jedenfalls ein Zusammenhang zwischen privatwirtschaftlichem Geschäftsmodell und sozialen Folgen gut bekannt: Unternehmen, die extraktive Rohstoffgewinnung betreiben, haben kein Geschäftsinteresse am Aufbau gesellschaftlicher Beziehungen vor Ort, da sie weiterziehen, sobald die Rohstoffe erschöpft sind.

“… er bleibt der Bösewicht, den es zu entmachten gilt."

Weil eine Fordfabrik besser ausgelastet ist, wenn sich auch Arbeiter einen Ford leisten können, hat man eine ganze Zeitperiode nach diesem Geschäftsinteresse benannt: Fordismus (ca. 1914 bis 1973). „Fordismus“ ist in der Folge zu einer Chiffre dafür geworden, wie sich das Geschäftsinteresse der Warenproduzenten an Warenkonsum gesellschaftlich prägend auswirkte; der deutsche Name ist Wirtschaftswunder, der französische „Trente Glorieuses“. Einige Jahrzehnte später benötigen Google & Co zwar derzeit Warenproduzenten als Werbekunden, zusätzlich aber hängen sie vom Erfolg virtueller Communities ab. Entsprechend zeichnet sich ab, dass ihr Geschäftsinteresse tendenziell besser mit der Pflege sozialer Beziehungen vereinbar sein dürfte. Ein Indiz hierfür ist die Architektur der Firmenzentralen. Während Banken und Industrie­unternehmen ihren Machtanspruch in phallusartige Hochhhausbauten gegossen haben, bauen Google & Co Campi. Vorbild sind dort die Universitäten, Zentren internationaler Austauschnetzwerke. Für weitere Hinweise, über die viel diskutierte Abneigung von Google & Co gegen Dividenden hinaus, lohnt ein Blick in Jeremy Rifkins Buch der Null-Grenzkosten-Gesellschaft. Wie also wird „Googleismus“ aussehen, falls sich das Geschäftsinteresse von Google & Co an florierenden Virtual Communities gesellschaftlich prägend auswirkt? Wir wissen es nicht, sollten es auch noch gar nicht „wissen“, sondern selbst darauf Einfluss nehmen. Denn eins liegt bereits auf der Hand: Die Chancen auf eine Welt ohne Erdölabhängigkeit, die Chancen für eine anders als auf Ressourcenvergeudung gegründete Ordnung stünden besser. Nicht automatisch gut, aber jedenfalls weniger direkt in die Klimakatastrophe hinein als bisher.

Ist also alles gut? Ich erinnere lieber an die erstmals von Fritz Lang 1922 verfilmte Figur des Dr. Mabuse. Mabuse bezweckt nämlich die Schaffung einer besseren Gesellschaft, frei von „Korruption und Fäulnis“. Aber weil er zu viel Macht zur Manipulation anderer konzentriert, bleibt er der Bösewicht, den es zu entmachten gilt. Seinem Romangegenspieler, einem Staatsanwalt, gelingt das nur temporär. Auf Dauer ließe es sich nur politisch bewerkstelligen. Ein Google, das nicht „evil“ sein will (und sich jetzt Alphabet nennt), wäre dafür nicht unbedingt zu zerschlagen. Man könnte es in eine demokratisch von den weltweiten Nutzern mitbestimmte Stiftung umwandeln. In etwas ähnliches wie Mozilla, der bekannten Firefox-Entwicklerorganisation, mit mächtigeren Advisory Committees als die bisherige ICANN, die die Vergabe von Namen und Adressen im Internet koordiniert. Analog dazu sollte Facebook-Chef Marc Zuckerberg nicht einfach seine Aktienmehrheit zugunsten von Hochschulen oder Hilfsprogrammen an Dritte verkaufen, sondern besser sein ganzes Unternehmen in eine gemeinnützige demokratische Entität überführen.

Dr. Andres Friedrichsmeier ist Organisationssoziologe und lehrt am Institut für Kommunikationswissenschaft an der Universität Münster.  Er forscht u.a. zum Einsatz von Managementinstrumenten im öffentlichen Sektor und ist im Beratungs- und Weiterbildungsbereich tätig. Mit der Arbeitsweise selbstlernender Algorithmen musste er sich auseinandersetzen, als in einem von ihm koordinierten Forschungsprojekt viel größere Datenmengen zusammenkamen, als von Menschen bewältigt werden konnten.

Mehr Beiträge zum Themenspektrum Handel, Handeln, Verhandeln gibt es nicht nur online, sondern auch in unserem factory-Magazin Handeln zum kostenlosen Download. Das ist wie immer schön illustriert und gut lesbar auf Tablet-Computern und Bildschirmen – es enthält sämtliche Beiträge und Fotos sowie zusätzliche Zahlen und Zitate.

Übermittlung Ihrer Stimme...
Bewertungen: 5.0 von 5. 1 Stimme(n).
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.

Kommentare

Keine Kommentare


Kommentar hinzufügen







Mehr zum Thema «Handeln»:

News:

  • drucken
 
© 2017 factory - Magazin für nachhaltiges Wirtschaften