Thinking loudly about networked beings. Commonist. Projektionsfläche. License: CC-BY
2059 stories
·
51 followers

Die maschinenkompatible Gesellschaft

1 Comment

Für die aktuelle Ausgabe des t3n Magazins schrieb ich einen kürzeren Text über die Herausforderungen nach der Digitalisierung. Dieser sollte so 3000 Zeichen haben. Weil ich nicht so gut lese, schrieb ich eher so 3000 Wörter. Im Magazin findet sich sich kurze, auf die Kernthesen reduzierte Variante, der folgende Text ist die sehr ausufernde Form. Für die, die sich für mehr Beispiele und etwas mehr Detail interessieren (oder schlicht die t3n nicht lesen), hier also der erste Ansatz. Er ist aber wirklich ein Ansatz, eine Skizze, noch kein fertiger Text. 

Während sich in Deutschland immer noch Bücher, Texte und Vorträge über Digitalisierung als Zukunftsherausforderung verkaufen lassen, ist bei genauerer Betrachtung festzustellen, dass die Digitalisierung konzeptionell an vielen Stellen eigentlich abgeschlossen ist.

Das bedeutet keineswegs, dass alle gesellschaftlichen, wirtschaftlichen und politischen Prozesse voll digital abgewickelt werden, sondern vor allem, dass die Zugänglichmachung diverser Prozesse für Softwaresysteme – so noch nicht abgeschlossen – eigentlich nur noch an technischer Fleißarbeit, Implementierung und meistens Ressourcen scheitert. In Abwandlung von William Gibson könnte man vielleicht sagen: “Die Digitalisierung ist längst da, sie ist nur noch nicht gleichmäßig verteilt.”

Selbst kleine und mittelständische Unternehmen nutzen heute zur Kollaboration mit Lieferanten und Kunden völlig selbstverständlich integrierte, vernetzte Softwarelösungen und tief in Geschäftsprozesse verwobene ERP Systeme. Vereine und ganze Familien organisieren sich über WhatsApp und andere Messenger. In einen Laden gehen, um Dinge zu kaufen, wird immer mehr zur Ausnahme denn der Regel (Lebensmittel sind dabei noch eher der Sonderfall). Und die eigene Steuererklärung kann (bzw. muss) heute auch komplett oder zu mindest weitgehend papierlos abgewickelt werden.

“Software is eating the world” ist der Leitsatz unserer Zeit. Ein Satz der oft so verstanden wird, als würde immer leistungsfähigere Software die bisher analog abgewickelten Prozesse nun “verstehen” und ersetzen oder zu mindest unterstützen. Dabei ist an vielen Stellen das Gegenteil der Fall und genau hieraus lassen sich für die nächsten Jahre einige Herausforderungen und Projektionen ableiten.

Denn Digitalisierung bedeutet keineswegs, dass Software soziale Prozesse nun perfekt abbildet und sich deshalb durchsetzt: Viel mehr sehen wir eine große Standardisierung, Vereinfachung und Homogenisierung soziotechnischer Abläufe, um sie den digitalen Softwaresystemen zugänglich zu machen. Anstatt dass Maschinen unsere menschliche Lebensrealität verstehen, ist es eher so, dass wir unsere Lebenswelten in digitalten Systemen maschinenkompatibel ausdrücken – und uns dabei den oft sehr einfachen oder scherenschnitthaften Modellen menschlichen Lebens, die die Maschine noch versteht, unterwerfen.

Eine der einfachsten Illustrationen ist vielleicht Social Networking: An Stelle der komplexen, nuancierten sich permanent im Fluss befindlichen Beziehungen zwischen Menschen tritt die “digital Connection” oder “Friendship”, die alles abbildet von “ist der wichtigste Mensch in meinem Leben bis hin zu “keine Ahnung, hat mir ne Verbindungsanfrage geschickt und hat ein lustiges Profilbild”. Und selbst, wenn einfach Qualifikationen wie “ist ein Freund” und “ist ein Bekannter” ermöglicht werden, so läßt sich doch nie die volle Breite unserer Beziehungswelten ausdrücken. Zum Beispiel, dass bestimmte Beziehungsmodelle wie beispielsweise “ist mein zweiter Partner” oft gar nicht wirklich ausgedrückt werden können.

Dieser hohe Vereinfachungs- und Standardisierungsgrad bringt mit sich eben die Vorteile, die dieselbe Bewegung in der Industrietechnik Mitte bis Ende des letzten Jahrtausends gebracht hat: Einfachere Prozesse sind einfacher zu verketten und damit zu automatisieren. Das was wir heute in der IT “Schnittstelle” nennen wird zur Sollklebestelle, an die sich unterschiedliche Anbieter und Organisationen in relevante Prozesse, in unsere Leben integrieren – und das potentiell in immer komplexeren Netzstrukturen. Wir sehen das heute schon darin, dass bestimmte Dienste sich durchaus gerne miteinander verknüpfen lassen, so dass nicht nur das Licht angeht, wenn ich nach Hause komme, sondern die Anlage gleich die richtige Playlist startet und die Heizung versucht, die perfekte Temperatur einzustellen. Dazwischen plappert dann noch der Personal Voice Assistant, der an Sport erinnert oder an die neue Folge der geliebten Fernsehshow. Diese Verknüpfungen zwischen den Diensten, die Menschen einsetzen um sich, um ihre eigene Identität auszudrücken und ihre Wirkmacht in und auf die Welt zu vergrößern, werden sich noch verstärken, werden von den unterschiedlichen Unternehmen als strategische Partnerschaften gepflegt und von den Nutzenden als Service gefordert werden.

Um die Automatisierungsdividende und Effizienzsteigerungen dieser digitalen Verkettung auszuschöpfen, werden nebenläufige Prozesse zunehmend abgeschafft oder verkompliziert werden. Wo es heute schon schwer ist, im Supportfall einen Menschen ans Telefon zu bringen, wird auch hier versucht werden, die Abhängigkeit von geschultem Personal und die Heterogenität der Abläufe zu minimieren und durch automatisierte Systeme wie Chatbots zu verringern. Der Kostendruck auf die Anbietenden von Dienstleistungen wird durch den globalisierten Markt extrem zunehmen: Wenn ein Unternehmen aus z.B. Asien einen Service für 5€ im Monat anbieten kann, dann wird sich ein Unternehmen aus Europa schwer tun, dafür viel mehr Geld zu verlangen. Zugriff auf Dienste wird für Nutzende damit sicherlich tendenziell eher günstiger werden.

Die technischen Systeme in denen wir leben, gestalten aktiv unseren Möglichkeitsraum, bieten uns bestimmte Prozesse an oder machen andere eben schwierig oder unmöglich (man nennt das Affordanz). Die Affordanz der Digitalisierung ist – sehr generell betrachtet -, dass eine Entscheidung gegen vernetzte, digitale Dienste und Softwaresysteme, gegen eine Abbildung der eigenen Lebensrealität in den bestehenden Plattformen und Strukturen, mit zunehmend heftigen Kosten verbunden ist. Das beginnt damit, dass man ohne Facebook Account nicht zu einer Party eingeladen wird und endet damit, dass man seine Steuer schlicht nicht analog einreichen kann und quasi gezwungen ist, einen Computer und die notwendigen Fähigkeiten zur Bedienung einer Steuer-Software zu besitzen oder jemanden dafür zu bezahlen. Die digitalisierte Welt, in der Menschen nicht mehr nur als organisch-psychische Wesen sondern eben als “Cyborgs”, die ihre eigenen auch geistigen Fähigkeiten durch technologie und Services augmentieren, wird zunehmend “feindlich” oder “widerspenstig” gegenüber denen, die sich dieser Technologie verschließen oder die komplexen Technologien nicht oder nicht so souverän, wie andere, einsetzen können. Hierbei wird insbesondere dem Bereich Accessibility, das heißt der Zugänglichmachung von Diensten für Menschen mit Behinderungen oder anderen Einschränkungen bei der Benutzung von Softwaresystemen, eine ganz neue Bedeutung zukommen: Wie Accessibility heute oft schon sträflich vernachlässigt wird, wird diese Tendenz bei zunehmender Alternativlosigkeit der Nutzung von IT Systemen das bestehende politische Problem der Teilhabe nur noch weiter verschärfen.

Konkrete Vorhersagen über die Zukunft™ zu machen, ist immer mit einem gewissen Risiko verbunden. Was aber sicher scheint ist, dass die Abhängigkeit der Menschen in ihrem Alltag von Softwaresystemen und Diensten deutlich steigen wird. Ebenso wachsen wird aber auch die Auswahl an diversen unterstützenden Hard- und Softwaresystemen.

Personal Scale


Während vor einigen Jahren die Musikindustrie noch beklagte, dass Menschen nie wieder Geld für Musik ausgeben würden, wenn man sie nicht mit Gewalt zwänge, nimmt die Nutzung von Musik Streaming Diensten wie Spotify zu. Auch Videostreamingdienste wie beispielsweise Netflix schreiben Jahr um Jahr neue Rekord-Kundenzahlen. Dienste für Backups von Fotos und Videos werden mit abnehmender Zahl von “Hardcopies” dieser Artefakte immer wichtiger, wenn man nicht die Dokumentation der ersten Schritte der eigenen Kinder in einem Kaffee-Unfall verursachten Laptop Kurzschluss verlieren möchte. Die digitalen Daten, die zum Leben der Menschen, zu ihrer Identität und Geschichte gehören und damit von wachsender emotionaler wenn nicht gar identitärer Bedeutung werden, werden zunehmend in Online-Diensten abgelegt werden. Und das hat nicht nur mit der Datensicherheit und der Erstellung von Backups zu tun.

Die Zahl der Geräte, an denen Menschen auf den digitalen Teil ihres Selbst, ihre Notizen, ihre Bookmarks, ihre sozialen und kommunikativen Verbindungen, ihre Bilder, ihre Kontoauszüge usw. zugreifen wollen, steigt. Neben dem eigenen Smartphone und Computer spielen auch Tablets und Rechner bei der Arbeit eine zunehmende Rolle – insbesondere da in vielen Jobs durch Home-Office und flexible Arbeitszeitregelungen die Grenze zwischen Arbeit und Freizeit immer mehr verwischt wird. Um auf allen genutzten Geräten Zugriff auf das volle Selbst, das gesamte mentale Exoskelett zu haben, wird die Abhängigkeit von zentralen Diensten, in die sich alle diese Daten synchronisieren, zunehmen. Dabei ist es keinesweg unmöglich, solche Dienste selbstständig zu betreiben, es ist aber aufgrund der notwendigen Ressourcen wie Zeit und Geld und auch der benötigten technischen Fähigkeiten nur einer kleinen Minderheit vorbehalten. Natürlich könnte jeder und jede einen eigenen Server betreiben, um die eigenen Daten zentral zu speichern und zu synchronisieren, am Ende werden sich die meisten aber eben doch einem Dienst wie Dropbox oder Google Drive anvertrauen, schlicht weil die Fähigkeiten, die Zeit oder schlicht die Lust fehlt, sich mit dem Hosten solcher Lösungen zu beschäftigen.

Die Möglichkeiten der Erweiterung des Selbst durch sich wie Legosteine zusammenfügbarer, oft verhältnismäßig kostengünstiger Dienste werden steigen und damit mehr Menschen einen Zugang ermöglichen. Im Gegenzug wird sich hier allerdings die bestehende ökonomische Spaltung noch stärker zementieren, als sie das bisher tut: Die Menschen, denen nicht genug Geld zur Verfügung steht, um sich aus dem großen Baukasten extrem hilfreicher Werkzeuge die dazuzumieten, die ihre Bedürfnisse unterstützen, werden deutlich größeren Risiken des Datenverlustes ausgesetzt sein oder können bestimmte Dienste, die Zeit (und vielleicht sogar langfristig Geld sparen können) nicht nutzen. Oder sie unterwerfen sich den werbefinanzierten Diensten, die im Austausch für die Bereitstellung des Dienstes die Daten und Aktionen ihrer Nutzenden auswerten. Privacy als bourgeoises Privileg wird auf diesem Weg eher noch weiter ausgebaut.

Als Seiteneffekt der mittlerweile als Standard angenommenen Online-Konnektivität von Diensten und Dienstleistungen wird sich die Besitzbeziehung zu Technologie etwas verändern: Wenn mein Thermometer oder mein Ofen einen Internet-Dienst braucht, um zu funktionieren, und dieser Dienst sich auch finanzieren muss, wird es sich immer mehr dahin entwickeln, dass Hardware eigentlich nicht mehr “gekauft” sondern als Teil eines Services “gemietet” wird. Wir werden vielleicht formal viele Geräte besitzen, sind aber davon abhängig, dass jemand anderes irgendwelche Dienste im Internet betreibt, damit unser Gerät mehr ist als ein Briefbeschwerer. Eigentum an Technologie (und der Gedanke von Autonomie) wird damit zunehmend durch Abhängigkeit von Lieferanten ersetzt werden – mit den oben schon angesprochenen ökonomischen Auswirkungen.

Larger Scale

Aber nicht nur im privaten und individuellen werden die Konsequenzen der Digitalisierung sichtbar werden. Hierbei wird es vor allem zwei Bewegungen geben: Die Regulierung des öffentlichen Raumes um Technologie dort besser einsetzen zu können und die zunehmende Unterstützung diverser bisher nur durch Menschen ausführbarer Aufgaben.

Selbstfahrende Autos sind seit vielen Jahren der Traum vieler – gerade weil diese das Konzept von “Mobilität als Service” vereinfachen und insgesamt deutlich weniger Autos notwendig wären. Das würde nicht nur extrem viel Platz in den Städten sparen, sondern auch die Umwelt entlasten.

Nun hat sich herausgestellt, dass die Welt, in der Menschen spazieren gehen, Fahrräder mal fahren, mal schieben und sich insgesamt sehr unberechenbar verhalten, für autonome KFZs extrem schwierig zu navigieren ist. Dazu kommen noch diverse Probleme mit dem Wetter oder der Größe und des Zustands von Straßen, sobald man kalifornische Highways verläßt.

Um trotzdem die Potentiale selbstfahrender Autos nutzen zu können, ist es nicht unwahrscheinlich, dass bestimmte Bereiche im öffentlichen Raum für Menschen gesperrt werden, um den sicheren und verlässlichen Einsatz selbstfahrender Autos zu ermöglichen. Hierbei wäre es denkbar, dass diese eigene Spuren bekommen oder bestimmte Straßengrößen noch stärker für Menschen gesperrt werden. Um die Umwelt zu entlasten und potentiell weniger Verkehrsunfälle zu riskieren, ist es nicht unwahrscheinlich, dass wir durch Gesetze beginnen werden, die Bewegungsfreiheit von Menschen etwas einzuschränken, ganz im Einklang mit dem schon oben beschriebenen Muster, dass Digitalisierung eben nicht bedeutet, dass die Software sich der Welt anpasst, sondern wir die Welt Software-kompatibel machen.

Viele Prozesse, die bisher nur von Menschen durchgeführt wurden, werden zunehmend auch der (Teil-)Automatisierung zugeführt werden. Ich denke dabei vor allem an Themenbereiche wie zum Beispiel medizinische Diagnostik oder auch Journalismus. Im Journalismus ist es heute schon der Stand der Technik, dass bestimmte Textgattungen (zum Beispiel Spielberichte zu Sportereignissen oder Börsenberichte) aufgrund ihrer großen Homogenität und Strukturgleichheit automatisiert erzeugt werden können. Die Unterstützung von Journalisten insbesondere im Bereich News wird in dieser Hinsicht sicherlich noch zunehmen.

Im Bereich der digitalen Diagnostik sind die Ergebnisse bisher noch nicht immer sehr überzeugend, aber es können zumindest viele Standardfälle durch Softwaresysteme abgedeckt werden, bzw. bestimmte Diagnosen ausgeschlossen oder notwendige Folgeuntersuchungen abgeleitet werden. Insbesondere um dem Kostendruck im Gesundheitssystem zu begegnen, wird die Hoffnung vieler Betreibender und Krankenkassen sein, Ärzte von Standardtätigkeiten zu entlasten um ihre Expertise für komplexe, nicht maschinell entscheidbare Probleme zu nutzen – und damit letzten Endes mehr Patienten mit derselben oder einer kleineren Anzahl Ärzte versorgen zu können. Hierbei wird die besondere Herausforderung sein, den individuellen Krankheitsbildern und -historien gerecht zu werden: Der stark normierende und homogenisierende Charakter automatisierter Hilfssysteme kann an dieser Stelle dazu führen, atypische und ungewöhnliche Krankheitsverläufe oder Symptomatiken falsch zu diagnostizieren.

Es wird spannend sein zu sehen, wie die Verfügbarkeit einer extrem großen Menge vernetzbarer Dienste die Gesellschaft als Gesamtheit und als politisches System beeinflussen wird – und das auch jenseits der schon angesprochenen Frage der ökonomischen Ungleichheit. Die starke Zunahme der Nutzung internationaler Dienste und die Integration von Hardware internationaler Anbieter wird beispielsweise im Bereich des Verbraucherschutzes neue Probleme aufwerfen, da Durchsetzung der hier geltenden Regeln bei irgendwo auf der Welt ansässigen Startups nicht trivial werden wird. Gerade wenn man sich Dinge wie Crowdfunding ansieht, bei dem Produktentwicklung durch die späteren Kunden finanziert wird, können mit sehr wenig Kapital und mit sehr wenig Vorlaufzeit auf dem Papier sehr attraktive Produkte auf den Markt geworfen werden. Die verantwortliche Firma kann aber ohne große Probleme 2 Wochen nach Auslieferung abgewickelt sein. Auch das Thema des Datenschutzes bzw. der Informationskontrolle ist – wie die ersten Reaktionen auf die DSGVO zeigen – keineswegs gelöst und steht vor ähnlichen Problemen.

Grundsätzlich besteht durch die Zugänglichmachung der Welt für Maschinen eine signifikante homogenisierende Wirkung, eine Art “Sog der definierten Normalität”. Der Mainstream hatte schon immer eine normative Kraft, durch die Integration von Softwaresystemen in unsere individuellen und gesellschaftlichen Realitäten wird diese Kraft jedoch ungleich stärker: Nehmen wir an, dass es einen sozialen Netzwerkdienst gibt, mit dem ich nahezu alle Behördengänge und Alltagsprozesse massiv beschleunigen kann, dieser erlaubt allerdings bei der Selbstbeschreibung nur die Auswahl “Mann” oder “Frau” für die Geschlechtsidentität. Für Menschen, deren Identität sich nicht mit diesen zwei Polen abbilden lässt, besteht also nur entweder die Wahl, mit schlechteren, aufwändigeren und weniger leistungsfähigen Lösungen zu arbeiten (implizit also eine Strafe zu zahlen) oder sich – und sei es nur pro forma – dem normierenden System zu unterwerfen.

Die normierende Funktion digitaler Dienste setzt sich aber auch in anderen Bereichen fort: Streaming Dienste wie Spotify bieten Menschen einen verhältnismäßig günstigen Zugang zu Kultur (in diesem Falle Musik). Für einen recht überschaubaren Preis kann man nicht nur beliebig viel Musik hören, sondern sich auch Playlisten potentiell interessanter Musik zusammenstellen lassen. Doch welche Musik findet man auf Spotify? Und was ist mit Künstlern, die aus bestimmten Gründen nicht im Spotify Katalog sind? Streaming Dienste mit ihren auf dem Nutzendenverhalten aufsetzenden Empfehlungsengines haben einen starken kulturell normierenden Charakter: Auf Basis einiger gehörter Stücke werden Menschen sehr schnell in bestimmte Cluster sortiert und mit der zugehörigen Musik versorgt. Diese Empfehlungen bringen definitiv viele Menschen mit neuer Musik in Kontakt, die sie so vor der Existenz solcher Dienste nie gehört hätten. Im Gegenzug findet Musik, die für die (meist westlichen) Anbieter solcher Dienste weniger Relevanz hat, schlicht noch weniger statt als zuvor.

Herausforderungen

Die oben skizzierten Entwicklungen und Vorhersagen stellen uns als Gesellschaft und als politisches System vor einige sehr großer Herausforderungen.

Um die Vorteile, die die neuen, verkettbaren Dienste für das eigene Leben bieten, nutzen zu können, sind signifikante Ressourcen notwendig: Zugang zum Internet (möglichst sogar mobil), technische Kompetenz zur Integration von Diensten in das eigene Leben und natürlich auch die finanziellen Möglichkeiten. Das Recht auf gleichberechtigte Teilhabe am gesellschaftlichen Leben wird hier potentiell stark unter Druck gesetzt, wenn beispielsweise Menschen ohne Job keinen Anspruch auf einen Internetzugang oder Rechner haben. Es kann auch nicht im Sinne einer fairen Gesellschaft sein, wenn sich eine kleinere Menge von Menschen durch Geld aus der heute sehr präsenten und für personalisierte Werbung verwendeten Datenanalyse und -überwachung herauskaufen können und die etablierten Ideen von Privatsphäre noch mehr als schon früher zu einem Privileg der Wohlhabenden werden.
Im Bereich des Verbraucherschutzes wird insbesondere der Shift weg vom “Besitz” hin zu Geräten als dumme Endpunkte von Online-Services zu vielen Konflikten führen: Nicht nur entsteht so mehr Elektroschrott, weil beispielsweise der Betreiber eines Dienstes diesen einstellt und damit die Hardware funktionslos wird, es werden Menschen auch in eine deutlich größere Abhängigkeit von ihrem Anbieter getrieben, wenn nicht durch den Gesetzgeber eingegriffen wird. Hier wären beispielsweise bestimmte Portabilitäts- oder Kompatibilitätsstandards ein Weg, der es ermöglichen könnte, die eigenen Geräte auch weiterzubetreiben, wenn der ursprüngliche Anbieter diese nicht mehr weiter versorgen kann oder will. Es wäre auch denkbar, dass jedes gerät mit Online-Funktionalität beispielsweise eine auf eigene Rechner installierbare Server-Software mitliefern müsste, die den Weiterbetrieb auch ohne den Online-Dienst des Ursprungsanbietenden erlaubt – wenn auch vielleicht mit beschränkter Funktionalität. Dienste, in die Menschen Informationen einpflegen, müssen aus denselben Gründen sinnvolle Exportschnittstellen anbieten, um Anbieter wechseln zu können.

Die tiefe und komplexe Integration diverser Dienste in die individuellen Identitäten der Menschen, die Auslagerung beispielsweise bestimmter mentaler Prozesse in Online-Dienste – wie beispielsweise die Pflege des eigenen Kalenders nicht mehr auf Papier oder im Kopf sondern bei einem digitalen Anbieter – führt zu neuen Ansprüchen bezüglich der Transparenz und der Verständlichkeit. Je wichtiger ein Dienst für das Individuum ist, desto essentieller ist es, zu verstehen, wem dieser Dienst gehört, wie er sich finanziert, von welchen Instanzen er kontrolliert und reguliert wird. Welche Unternehmenspolicies es gibt und wie sich diese auf die Leben der Dienstanwendenden auswirken. Die zur Zeit bestehenden meist sehr barocken Terms of Service sind schon für Menschen mit viel Freizeit und viel juristischer und technischer Kompetenz nicht mehr sinnvoll verständlich.

Der stark homogenisierenden, normierenden Wirkmacht der Digitalisierung müssen Akzente entgegengesetzt werden, die normabweichende Lebensmodelle, Lebensrealitäten und auch kulturelle Artefakte schützt und nicht in ihrer Auslebung einschränkt. Hier können Regulierungen, die Kompatibilitätsstandards definieren, sogar einen Mehrwert bieten, so dass sich bestimmte marginalisierte Gruppen in Plattformen organisieren können, die gewisse Schutzräume bieten, ohne vom gesellschaftlichen Leben grundsätzlich ausgeschlossen zu werden oder sich einer oft traumatisierenden “Normierung” zu unterwerfen.

Die Zugänglichmachung der Welt für Softwaresysteme wird einige Arbeitsplätze kosten und die neu entstehenden Arbeitsplätze werden dieses Problem eher nicht auffangen können: Selbst wenn die Zahl neu entstehender Jobs identisch zu der Zahl der wegautomatisierten wäre, würden die Anforderungen an die Qualifikation zur Ausübung massiv steigen. Wer vorher im Telefonsupport war, wird später nicht automatisch Chatbots programmieren können. Die Automatisierung vieler Tätigkeiten, die Unterstützung von Menschen durch Expertensysteme wird die Produktivität in vielen Arbeitsbereichen massiv steigern können (wir sprechen hierbei wie es leider typisch ist vor allem über die klassischen Wirtschafts- und Industriebereiche, Care-Arbeit wird wie so oft wahrscheinlich nicht so stark betroffen sein, Roboter sind einfach zu schlecht beim Windelnwechseln). Wie wir diese Automatisierungsdividende gesellschaftlich verteilen und ob das traditionelle Modell der freien oder angestellten Erwerbsarbeit überhaupt noch zur gesellschaftlichen und wirtschaftlichen Realität passt, werden die großen politischen Fragen der Post-Digitalisierung werden.

Fazit

Die Digitalisierung ist grundsätzlich inhaltlich abgeschlossen, die Welt wurde den technischen Möglichkeiten angepasst. Diese Umstrukturierung der Welt erlaubt es Menschen potentiell individuell deutlich wirkmächtiger zu werden und sich auch in vielen Aspekten deutlich stärker entlang der eigenen Wünsche und Neigungen zu entwickeln. Die Welt wird – durch die Reduktion auf Maschinenkompatibilität – plötzlich nahezu beliebig kombinierbar.
Über den Potentialen für sowohl Individuen wie auch die Gesellschaft als Ganzes hängt allerdings das Damoklesschwert des stark normativen Charakters digitaler Services, welche in die entgegengesetze Richtung wirken können.
Dieses Spannungsfeld aufzulösen in einer Art, die allen Menschen eine faire Teilhabe ermöglicht, ist eine große Aufgabe, die nur im Dialog aller gesellschaftlichen Gruppen in politische Lösungen überführt werden kann.
Wir haben die Welt durch die Digitalisierung maschinenkompatibel gemacht. Jetzt müssen wir Wege finden, in dieser neu strukturierten Welt unsere Menschlichkeit und unsere Existenz als soziale Gemeinschaft neu zu denken um den Nutzen der Technologie allen Menschen zugänglich zu machen und Technik als Vehikel zur noch besseren Realisierung unserer Menschlichkeit und unserer Menschenwürde zu nutzen.

Falls dir dieser text gefallen hat oder du mich einfach so unterstützen möchtest, kannst du mir gerne auf Paypal oder Ko-Fi ein Getränk ausgeben. Vielen Dank fürs Lesen.

Read the whole story
tante
4 days ago
reply
Die Digitalisierung ist vor allem die Bewegung dahin, die Gesellschaft maschinenkompatibel zu machen. Welche politischen Konsequenzen lassen sich ableiten?
Oldenburg/Germany
Share this story
Delete

Trotz Exportstopp: Rheinmetall liefert offenbar weiter Munition nach Saudi-Arabien

1 Comment
Trotz des von der Bundesregierung verhängten Stopps im Fall Khashoggi gehen die Rüstungsexporte der Firma Rheinmetall nach Saudi-Arabien offenbar weiter. Der Konzern soll dafür eine Tochterfirma nutzen.
Read the whole story
tante
4 days ago
reply
Internationale Konzernstrukturen sind nicht nur für Steuerhinterziehung nützlich. Auch illegaler Waffenhandel profitiert.
Oldenburg/Germany
Share this story
Delete

Comment on Why I can’t write a good personal essay by Katrina

1 Comment and 2 Shares

I have an understanding of how demoralising, dispiriting, and exhausting it is to always have to ask for help, instead of it just being there to easily access, or be offered. My story isn’t the same as yours, but I was in the position of looking after my elderly parents for eight years, and always had to ask members of my family for help. None of them, bar one, thought to act pro-actively in a consistent way. It gave me a good perspective on why those who need help often just stop asking for it. Constantly having to ask for help is soul-destroying, and going through the rigmarole each time gets exhausting, and does one’s head in. It’s a Catch22 situation – if we look as though we’re coping, it looks as though we don’t need help; if we fall apart, few want to be caught up in the fallout of that.

Read the whole story
tante
4 days ago
reply
"Being “successful” in academia when I’ve faced discrimination and structural barriers has meant parroting oppressive beliefs and mythologies, and I can’t do it any more."
Oldenburg/Germany
sarcozona
5 days ago
reply
Share this story
Delete

Karl Marx Gets a Job

3 Comments and 8 Shares



When communism comes, everyone will greet everyone all the time, and the brandy will be free.
Read the whole story
tante
5 days ago
reply
Karl Marx gets a job
Oldenburg/Germany
popular
5 days ago
reply
sarcozona
5 days ago
reply
Share this story
Delete
2 public comments
wmorrell
5 days ago
reply
I want that watch.
jlvanderzwan
4 days ago
Ah, the perfect insult to Karl Mark: the commodification of the revolution!
jlvanderzwan
6 days ago
reply
"Don't you know anything about freedom?"

Getting a little to real there

Ein neues Netzwerk

1 Comment

Ich bin im Netz bisher meist alleine unterwegs gewesen. Das hat diverse Vorteile – man muss sich nicht wegen aller Details abstimmen – aber es schränkt natürlich auch ein, was man erreichen kann.

Während ich mich mit IT Zeugs technisch sehr gut auskenne und ich auch in politischen Fragen ganz okay aufgestellt bin, so gibt es für viele Fragen im Kontext der Digitalisierung (und auch in anderen Kontexten) immer wieder Fragen bei denen ich alleine nicht weiterkomme oder mir einfach der Zugriff auf Experten fehlt.

Manchmal hat man im Leben aber auch Glück. Vor fast anderthalb Jahren bekam ich – nachdem ich auf Twitter mal wieder das Leben als Einzelkämpfer moniert hatte – eine DM auf Twitter. Die DM Gruppe wurde erweitert, es gab Skype Calls und Retreats an der Ostsee und heute, mehr als ein Jahr später, startet unser neues Baby:

The Otherwise Network 

The Otherwise Network ist ein Netzwerk aus Menschen, die einerseits alle besondere Fachexpertise in diversen Domänen mitbringen, die andererseits aber auch alle den Willen haben, die Digitalisierung, die technosoziale Entwicklung der Welt kritisch aber trotzdem optimistisch zu begleiten. Nicht als ein Netzwerk aus Individualist*innen sondern als transdisziplinäre Verbindung aus Menschen, die sich mit Technologie und Gesellschaft gemeinsam beschäftigen. Lösungen suchen für aktuelle Probleme. Regulatorische Herausforderungen gestalten wollen. Und vor allem jenseits von akademischen Elfenbeintürmen und exkludierender Fachsprache mit den Menschen über die laufenden und kommenden Veränderungen reden möchten.

Das Otherwise Network ist noch jung und welchen Weg genau es einschlagen wird, welche Publikations- und Veranstaltungsformen es entwickeln und pflegen wird steht noch nicht fest. Aber wir haben Seitenweise Ideen und Themen, an denen wir alle arbeiten wollen. 

Man kann auf vielen Wegen mit uns in Kontakt treten, am einfachsten sind wahrscheinlich Twitter oder Facebook. Es gibt auch einen Eventkalender, in dem alle Veranstaltungen an denen eine oder einer von uns teilnimmt oder die wir ausrichten.

Ich freue mich auf die kommenden Monate und hoffentlich Jahre auf die Arbeit in einem wahnsinnig inspirierenden Team. 

Read the whole story
tante
17 days ago
reply
Wir haben ein Netzwerk gegründet. Für alles, was die Digitalsphäre berührt (also eigentlich alles ;)).
Oldenburg/Germany
Share this story
Delete

6 core falsehoods about the digital sphere

1 Comment and 2 Shares

A few days ago I spend my lunch break writing a short Twitter thread pointing out the core falsehoods people (and I include experts in this) hold about tech and the digital sphere. But I felt it might be useful to elaborate on these points a little more given the very broad strokes that Twitter’s character limit forced me to paint the situation with.

I call the following 6 ideas “core falsehoods” because they are not held and argued by just one specific stakeholder group: It’s not “what technologists believe” or “what technology sceptics and critics believe” or “what politicians, the general public or journalists believe” but a set of ideas argued by key figures in each of the relevant social and political groups. Ideas that tech evangelists and the most harsh critics do (at least to a significant degree) share. 

Identifying these beliefs is especially relevant today. Governments, activists, corporations and other entities are in a race towards finding the right way to regulate technical systems and the Internet deciding how “AI” (we’ll come to that term later) can be deployed and what it’s requirements are, doing all kinds of panels and debates on “algorithms” (often without a clear definition what specifically that term is supposed to reference in that specific case) and analyzing terms such as “fake news” to death hoping to milk them for meaning. 

And I’m not at all saying that these discussions are irrelevant or not worth having. I just wonder whether they might be more goal-oriented by shedding old and dearly loved (but sadly wrong) ideas about the digital sphere. So here we go. Quick remark for people who saw the Twitter thread: The falsehoods are the same, the explanation is replaced with a longer, more detailed text.

1) “The application of ethics can be operationalized at scale and in a generic form.”

Whether it’s about self-driving cars or automated decision making systems (basically discrimination machines) or “AI” the current topic du jour is to argue for an operationalization of ethics. 

Operationalizing ethics means translating abstract rules and models of (good) behavior into computable, deterministic and supposedly “objective” rules. These rules can then be implemented in code and therefore – supposedly – peer reviewed and checked for bugs making sure that the algorithm or “AI” or robot or whatever is being looked at behaves “ethically”.

But that is a myth. If we look at current approaches like the MIT’s “moral machine” we see that approach failing gloriously. We either end up with clueless, racist results like for example MIT’s recent self-driving cars study  or solutions that just don’t perform given real world circumstances.

The idea that ethics can be put into little rulesets might work in video games where characters might get “good person points” for making “the right decision” but in the real world the application of ethics isn’t as simple as that.

Even given the same ethical codices people with different backgrounds and personal situations will make radically different choices without one of them being necessarily better or worse than the other. Applying ethics is a social practice deeply rooted in the history and mindset of the community an individual comes from. Look at Immanuel Kant who is thought of as an important moral philosopher who was racist to a degree that would probably make him unelectable even in Texas. Sure he thought that human beings should be treated well, he just had very different ideas of who is a human being and who isn’t. 

Trying to break down complex ethical decisions to scorecards or rules that then get applied to “the world” isn’t treating ethics as the complex social construct that it is. Or it just gets racist by implying that one perspective (usually the perspective of rich white people) is “the default”. That this idea also mistakes the map for the territory (as in: applying rules to a super reduced model of the world will make decisions affecting the infinitely more complex real world somehow magically ethical). 

Applying ethics is actually more complex than video games make it look.

2) “Data generates truth and if it doesn’t you just need more/better data.”

Many current discussions focus on bias in data sets. And that is a very important realization that should inform every decision that is made based on data: No data set is “neutral” or “objective”. A set of data is always influenced – even if just subtly – by the implicit assumptions, dogmas and biases the social structure defining it live by.

But whether it’s people trying to save their precious data crunching businesses or journalists and activists casting light on the implicit racism, classism or whatever kind of discrimination you can think of, many people seem to think that “yes, right now our data sets are bad, we just need to fix them”.

That could mean adding more data to a set to make the system perform “better”: Adding diverse faces to image recognition algorithms for example or adding more women to medical data sets. 

Sometimes it means changing the data or it’s structure, changing a data type, removing certain information carrying bias or adding other vectors to make the model more “realistic”. Like for example changing a “male/female” gender selector to a free form text field.  

But while these actions can sometimes limit certain specific biases or vectors of discrimination they never completely get rid of it and can sometimes even create new, implicit structures of discrimination. The real question isn’t how to get bias out of data sets but how to make a bias clear and obvious. How to communicate in which ways a data set is problematic.

People want to “fix” data sets to make them more “true”. Truth is a complex idea and most people’s idea what truth is doesn’t really survive contact with a few unpleasant questions. But why is the idea of truth so connected to data sets? Why do we believe that “the truth is in the data” and we just have to look (or make machines look) intensely to find some truth in there?

This is a mix of false idea of science and how truth is generated (as well as an unfounded belief that abstract and objective truth [as if that existed] would change public discourse). “Truth” (as objective and abstract truth) is a quasi-religious term deeply connected to ethical “good” but just as you won’t find god in your data (the singularitarians might disagree but they are crackpots) you also won’t find that kind of truth in there. You might find your truth but that’s different. I could write more about truth but this would distract from the actual point here, add a comment if you would be interested in more on that.

3) “We will have human-grade AI in 20 years”

We’ve heard that exact sentence for 50 years now. “AI” is always just around the corner and current developments are always very promising. But it never comes.

This has many reasons one of them being that it’s really hard to know what intelligence actually is. After having run against the wall trying to build AI based on rules or top-down models of the world (people still rememberthe semantic web that was supposed to help in that regard?) today the bottom up approach is getting a lot of press: Look what Google’s AI can do, it craps dog-ish features all over your picture. What a brilliant and creative move!

But the currently available technologies like neural nets aren’t even close to any form of what we can reasonably call intelligence. Not even dog-like intelligence and for sure nothing even close to anything that could become human-level intelligent. They are systems of automated statistics that get trained and fitted to ultra-specific use-cases and end up falling apart as soon as the input gets a little funky.

The “intelligence” in those systems is what the spectator imbues the system with. People love seeing intellect in objects or structures in the world and as human being being able to create intelligence is an almost religious act. But that’s projection of hopes and dreams, not what’s there. 

Self-driving cars can’t deal with people on the streets because they are too “erratic”. Yes, but people are on the streets. That’s what streets are for.

If you’d translate the weights and factors in a neural net to a set of equations that can calculate whether a cat-like object is on a given picture we’d probably be impressed. We wouldn’t call the equations intelligent though. 

4) “Algorithmic discrimination is worse than discrimination by human beings.”

This is a very popular tech criticism fallacy. There is a lot of analyses about automated decision making of software systems (hidden behind a magic understanding of “algorithms”): Software decides who gets which healthcare, software decides who gets unemployment benefits, etc. You could even argue that the question whether drones are allowed to kill or not falls into the same category.

These stories come up as tech criticism: How can we have software make these integral, potentially life-threatening decisions? How can we give this power over – literally – life and death to machines?

In reality what happens is that existing, formalized, structured patterns of discrimination, violence and power are being automated through software systems: Yes a machine makes the call not to give you health care very quickly when the person who used to make that call using the same criteria and formal decision trees used to take weeks to come to the same conclusion.

And there is something to say about the way people targeted by that kind of violence could try to talk to a human being on the other side and get them to change their minds but in reality that has very little if any effect: The person “making the decision” is not making the decision at all, it’s just going through the established processes and communicates the result. The “deciders” are more often than not just the friendly – or not so friendly – faces for systemic violence. But you can be sure that they are sorry (they really are!) and probably depressed.

Making discrimination quicker through automation is not the issue. You could even argue that code might be auditable to detect bias and discrimination (I wouldn’t given how currently audits rarely do anything because of “trade secrets”).

The issues are discrimination and violence. Talking about it as a tech problem dilutes the issue and implicitly accepts the actual problems.

5) “Contracts or laws can be expressed in code and their application standardized that way.”

Not just Blockchain Stans believe that contracts should be turned into code (“smart contracts”) but even privacy activists drunk on GDPR and many other people in tech think that the law (usually the “good parts”) can be expressed in standardized, formal ways that can be automatically evaluated. (Ask people about data ownership and these things often come up). The hope is to create “fair”, transparent, objective systems.  

The problem is that that’s neither how the law nor how contracts work. Whether it’s about the law or contracts, obviously people are trying to write them as precise, as waterproof as possible, defining terms and conditions, explicitly modeling and referencing edge-cases and in general trying to predict the future and everything that it might bring.

If that worked as techy people believe, we would need way fewer lawyers and courts. But we do. Cause reality doesn’t map neatly onto the models and systems that we’ve come up with.

Scientists and experts have tried for decades to put supposedly clear-cut parts of law (tax law for example) into code and still those projects failed. Because at some point someone needs to make decisions, interpret reality and apply the law as it was intended to be applied (that’s why laws always come with reasoning to help making these decisions). The law isn’t just about symbols that are being processed by the letter, its strength is its adaptability to the real world by having people, lawyers, judges make decisions. That’s why very old laws often still somewhat work.

You need someone smarter than code to do the heavy lifting of abstracting the world to something that code can actually operate on. And software can’t do that (see point 3 of this list).

6) “Full autonomy of individuals is the high point of digital freedom.”

A lot of talk about the Internet deals with Freedom. Freedom from tyrannic laws, freedom from evil corporations and governments and the restrictions they force upon us.

Open source often comes into play here: You can run your own email-server or social networking node or webserver and never every have to rely on anyone. Because you don’t want to “be the product” and the only way not to be is autonomy.

Autonomy often is framed as an expression of negative freedom: Freedom from restriction or force or violence. The autonomous individual making their own decisions.

But in reality this understanding of autonomy is mostly an expression of privilege: The privilege of a tech education, the privilege to have enough time to keep up with tech to run one’s own services, the privilege to have enough resources (servers, hardware, etc.) to run your own stuff.

It’s also strongly normative and judgmental: If you just don’t want to spend your time running your own server you are suddenly stupid or clueless. But not having to do everything by yourself is a key part of what I’d call freedom: The freedom to choose how and on what to spend one’s time. A freedom that is a lot more about connectedness and community than about individualism.

What kind of freedom forces every user of the Internet to be a programmer or a “product” or “potential victim”? What kind of freedom values tech knowledge over everything else?

The libertarian sources of the Internet ideology show their problematic results here and sticking to that understanding of the freedom that the Internet can bring limits the Internet to a toy at best and a continuation of existing structural violence at worst.

Freedom isn’t everybody struggling for themselves. At least not if it’s supposed to mean anything.

If you liked this text and want to help me out you can buy me a drink on paypal or Ko-Fi. It’s very much appreciated.

Header image: Wrong by AliceNWondrlnd (2008-03-08 22:22:19)

Read the whole story
tante
20 days ago
reply
6 Kernirrtümer über die Digitalsphäre.

(Ich suche immer noch ein Zuhause für eine evtl. deutsche Version des Textes)
Oldenburg/Germany
sarcozona
19 days ago
reply
Share this story
Delete
Next Page of Stories