Big Data, Big Business und wir – Christoph Rinneberg
In seiner Rede anlässlich der Verleihung des Friedenspreises des Deutschen Buchhandels (12. 10. 2014) skizziert er die digitale Transformation in ihren positiven und negativen Auswirkungen auf unsere Arbeit, auf unser individuelles Leben, auf unsere Gesellschaft und auf unsere Demokratie. Er tut das aus seiner Position eines kenntnisreichen, schöpferischen, hochangesehenen Experten der Digitalisierung und gleichzeitig eines Oppositionellen, der bestens um die Gefahren der Digitalisierung weiß und daher vor dem inhumanen Geist der totalen Machbarkeit und Unfehlbarkeit warnt. Weitestgehend gleichsinnig findet man diese Wertschätzung der außergewöhnlichen Persönlichkeit und Haltung dieses Menschen in den einschlägigen Verlautbarungen während und über die Preisverleihung.
An dieses Zitat aus Bert Brechts Dreigroschenoper wird man erinnert, wenn man an Edward Snowdon denkt, den einstigen Spezialisten des US-amerikanischen Geheimdienstes NSA, den derzeit wohl bekanntesten Whistleblower, der mit derselben Technik wohl ähnlich virtuos wie Jaron Lanier umzugehen versteht. Cum grano salis hätte man Edward Snowdon wohl ähnliche Eigenschaften wie Jaron Lanier zuzubilligen, weil man ihm seinen Kenntnisreichtum, seine Erfahrung und seinen Mut zur Wahrhaftigkeit gewiss nicht absprechen kann. Wieso wird der eine hoch geehrt und der andere gemein verfolgt?
Ohne in Details der Digitalisierung des Wahrnehmens, des Verstehens und des Veränderns der Wirklichkeit eingehen zu müssen, ist es sinnvoll, einen Kernbegriff unter die Lupe zu nehmen, nämlich den des Algorithmus:
Alle Tätigkeiten, die einem
(vermutlich) festlegbaren und
(tatsächlich) festgelegten
Ablaufschema folgen, können algorithmiert, also in Software übersetzt und automatisiert werden.
Der Zusatz „vermutlich“ kann uns einen Schlüssel zum Verständnis liefern: Es genügt die erfahrungsgestützte Ahnung über innere oder äußere Gesetzmäßigkeiten von Prozessen, um beispielsweise wechselnd beanspruchte Teile eines Motors ebenso herstellen zu können wie das gewünschte oder erwartbare Käuferverhalten. Da, wo genaue technische oder soziale Kenntnisse (noch) nicht vorliegen, arbeitet man mit entsprechenden Hypothesen, die natürlich durch eine Vielzahl von Experimenten technologisch und statistisch überprüft werden müssen, ehe sie als Daten fixiert werden können. Damit ist dann die Grundlage für einen tatsächlich festlegbaren Algorithmus gegeben, die Grundlage also für jedwede Umsetzung in automatisierte Prozesse.
Als Beispiel für die zunehmende Kenntnis des in uns und um uns herum Geschehenden mag das fahrerlose Auto gelten. Was bisher nur der menschlichen Erfahrung und Intuition zugetraut wurde, kann inzwischen im Grunde technisch als praktisch gelöst betrachtet werden. Die Vielzahl der beim Fahren in Echtzeit möglichst verzögerungsfrei durch Soft- und Hardware zu treffenden Aktionen ist technisch nur möglich, weil eine fast unvorstellbar große Menge digital erfasster Daten mit der Computern möglichen Geschwindigkeit digital verarbeitet wird. Auf dieser technologischen Grundlage schreitet die „Digitalisierung der Welt“ fort, besser gesagt, wird ihre Transformation nicht nur technologisch und sozial sondern v.a. auch ökonomisch weiter be- oder gar getrieben. So bestimmt die intelligente Verlagerung einfacher Routinetätigkeiten und komplexer Prozesse auf Maschinen die damit den Menschen verbleibende Arbeit qualitativ und quantitativ.
Schauen wir mal in die Werkstatt der digital betriebenen Transformation. Weil durch neue technische und ökonomische Effizienz – wahrnehmbar z. B. beim Online-Banking – die Nutzer neuer Technologien, Verfahren, Apparate und Geräte (bis zu Spielzeugen, „gadgets“) sich bekanntermaßen verführen lassen, scheint es für die Entwickler unwiderstehlich zu sein, mit Innovationen möglichst als erste auf den Markt zu kommen und Gewinnmargen zu erzielen, die nur in der frühen, noch weitgehend konkurrenzfreien Phase erreichbar sind. Sind z. B. neue, hochkomplexe Computer-Betriebssysteme bei den Käufern angekommen, zeitigt die konkrete Anwendung einen gewissen Wartungs- und Korrekturbedarf, wodurch bereits die ersten Daten für die Schaffung des nächsten Systems generiert werden. Die Fülle all dieser durch Computer-Nutzung erzeugten Daten lässt sich wiederum nur durch Computer, und zwar durch erheblich größere Computer bewältigen.
Big Data – ein „natürlich“ englischer Begriff um die Sammlung, Verwaltung und Auswertung riesiger Datenmengen – lässt sich daher nur in Big Companies handhaben. Diese lassen sich aufgrund des nach wie vor erwartbaren technologischen Wandels nur als Big Business betreiben, der seinerseits – von Kapitaleinsatz und Renditeerwartung bestimmt – eine Algorithmisierung des Reichtums auslöst. Dieser fällt freilich nicht vom Himmel. Er ist vielmehr auf eine Vielzahl der Kunden als Datenlieferanten angewiesen. Weil er als Kehrseite des Reichtums geradezu mechanisch irgendwo zur Verarmung führt, bietet die – wiederum menschenbasierte – Kommunikationswissenschaft längst das Instrumentarium für die Kreation von Euphemismen, also von wohlklingenden Namen für Maßnahmen, deren bedenkliche Seiten lieber im Dunkeln gelassen werden. Ein Beispiel hierfür sind die sogenannten Cloud-Services, die von Big Data betreibenden Konzernen unterhalten werden. „Wolken“ von Daten sollen eine faktisch weltweite Zugänglichkeit signalisieren, natürlich gegen Bezahlung.
Die mit obigem Beispiel der Betriebssysteme beschriebene eigen- oder/und fremdbestimmte Dynamik lässt sich ohne weiteres auf unser Verhalten als Käufer der unterschiedlichsten Produkte und Dienstleistungen übertragen. Der Handel kennt praktisch zu jeder Zeit die tatsächlichen Verkaufszahlen seiner Produkte – und bei elektronischer Bezahlung zunehmend mehr über die Kaufs- und Verbrauchsgewohnheiten seiner Kunden. In Lichtgeschwindigkeit gelangen all diese Daten zu den Herstellerbetrieben, die daraufhin ggf. ihre Produktion oder/und ihr Marketing ändern – und zu den Kreditkarten-Betrieben und zu den Banken.
Aktuelle Kommentare