Was ist Digitalisierung?
Digitalisierung im eigentlichen Sinn bedeutet den Übergang vom Physischen zum Virtuellen und von Lokalem zu Globalem. Hier interessiert mich nicht die wahre Bedeutung des Begriffes, sondern dessen Benutzung. Der Begriff „Digitalisierung“ — aktuell in Deutschland eine von Medien und Politikern überall gebrauchte Formulierung — ist missverständlich. Der Ausdruck umfasst undifferenziert vergangene und künftige Medientechnologien. In den 1960er Jahren gab es Halbleiter und Großrechner. Es gab prozedurale und funktionale Programmiersprachen. Es gab das Kommandozeileninterface. Es gab das Fernsehen mit sehr wenigen Sendekanälen. Seit den 1980er Jahren haben wir PCs — Windowsbasiert oder Mac — und grafische Benutzeroberflächen, objektorientierte Programmiersprachen und die Ausweitung des Fernsehens über Kabel- und Satellitenübertragung auf Hunderte von Kanälen. Bereits in den 1990er Jahren hatten wir Veröffentlichungs- und Kommunikationsmöglichkeiten im Internet und Automatisierung von Büros und industriellen Arbeitsprozessen durch Computerisierung und Roboter. Wir kannten schon eine weltweite Konnektivität, den Hypertext und Hyperlinks sowie utopische Visionen über die Zukunft der Cyberkultur.
Seit dem ersten Jahrzehnt des 21. Jahrhunderts besitzen wir Tablets, Mobiltelefone und Smartphones. Wir benutzen Social-Media-Plattformen. Das Paradox des Online-Daseins als Explosion von Millionen von Kanälen und anfänglichem Pluralismus ist nun die Festigung der Macht in den Händen einiger weniger Monopole. Wir haben einen Paradigmenwechsel, der als künstliche Intelligenz (KI) bezeichnet wird: Fortschritte beim maschinellen Lernen, beim sogenannten Deep Learning und bei neuronalen Netzwerken. Die Datenwissenschaft des Data Mining und die Verfügbarkeit von massiver Computer- Rechenleistung und sehr großen Datenmengen (Big Data) hat dazu geführt, dass KI heute eine wichtige Kraft ist, die unser Leben, unsere Gesellschaft und die Wirtschaft beeinflusst. Eine pragmatische Definition von KI könnte die folgende sein: Software, die aus Erfahrungen lernt und über ihre ursprüngliche Programmierung hinausgeht.
Industrie 4.0 Medientechnologien
Jetzt steht die zweite Welle der Digitalisierung vor der Tür. Die nächste Generation fortschrittlicher digitaler Medientechnologien entsteht. Klaus Schwab vom World Economic Forum nennt dies die vierte industrielle Revolution oder Industrie 4.0. [1] Ich gliedere die Industrie 4.0-Technologien in neun Bereiche:
- künstliche Intelligenz (KI), Robotik, automatisierte Softwareprozesse sowie selbstlernende und sich selbst weiterentwickelnde Algorithmen
- virtuelle Realität (VR) und erweiterte Realität (AR)
- 3D-Drucker und additive Fertigung
- Internet der Dinge
- selbstfahrende Autos
- Blockchains und andere Distributed-Ledger-Technologien
- virtuelle Assistenten wie Siri und Alexa
- Fortschritte in der Biotechnologie
- digital-neurologische Schnittstellen
Einige der speziellen Aufgabenbereiche, in denen KI zunehmend erfolgreich ist und eingesetzt wird, sind: Erkennung und Klassifizierung von Mustern (Sprache, Bilder, Gesicht); Sprachverarbeitung (Generierung, Übersetzung, Konversation); Dienstleistung (Hotel, Restaurant, Reinigung, Kundenbetreuung); Online-Einkaufsvorhersage und personalisierte Werbealgorithmen; Entscheidungsunterstützung; Anwendungen im Gesundheitswesen und Roboter-Prozessautomatisierung in Hard- und Software.
Die ersten drei industriellen Revolutionen
Im späten 18. und frühen 19. Jahrhundert fand die erste industrielle Revolution statt. Die Bevölkerungszahl der Großstädte nahm rapide zu. Die Dampfmaschine wurde erfunden. Die Eisen- und Textilindustrie wuchs und Bahnverkehrsnetze wurden ausgebaut. Die mechanische Produktion in Fabriken führte für einige zu größerem Wohlstand und erhöhtem Lebensstandard, jedoch für viele zu rauen Lebensbedingungen. Die zweite industrielle Revolution fand im späten 19. und frühen 20. Jahrhundert statt. Branchen wie Stahl, Öl und Strom produzierende Industrien standen im Vordergrund. Zu den wichtigsten Erfindungen gehörten das Telefon, die Glühbirne, das Grammophon und das Automobil. Die Managementstrategien des Fließbandes (Fordismus) und des Scientific Management (Taylorismus) wurden auf Arbeitsprozesse angewendet. Schon die dritte industrielle Revolution, die in den 1960er Jahren begann, ist ein Synonym für die digitale Revolution oder die oben erwähnte erste Welle der Digitalisierung. Es ging um den Übergang von analogen elektronischen und mechanischen Geräten zu digitalen Technologien.
Die Informatik von innen herausfordern und im Kern erneuern
Das meiste, was über den aktuellen Aufwärtstrend der KI geschrieben wird, ist entweder ausgesprochen enthusiastisch oder nachdrücklich kritisch. Diejenigen, die begeistert sind, sind in der Regel Geschäftsleute, deren Hauptziel es ist, Geld zu verdienen, oder technische Fachleute, die sich für das Engineering oder Programmieren an sich begeistern. Kritiker sind in der Regel Akademiker aus den Geistes- und Sozialwissenschaften. Es sind die Philosophen und kritischen Soziologen, die viele moralische und soziale Probleme sehen, die die KI mit sich bringt. Ich hingegen vertrete eine dritte und alternative Position (unter der Annahme, dass ich moralische und menschliche Probleme mit der KI sehe), nämlich, dass die Informatik von innen herausgefordert und erneuert werden sollte, anstatt zu versuchen, ethische und rechtliche Beschränkungen und Vorschriften für die Informatik von außen her ihr aufzuerlegen. Wie können wir die Beziehung zwischen Moral und Informatik auf einer immanenteren und grundlegenden Ebene konsequent gestalten? Wie kann die systematische Schnittstelle zwischen Menschen und KI-Objekten bei der Implementierung einer dialogischen KI aussehen? Eine solche Schnittstelle sehe ich in der kulturellen und professionellen Bewegung an der Grenze zwischen Kunst und Informatik, die als „Creative Coding“ bezeichnet wird. Creative Coding ist der Beginn dieser Herausforderung, die Informatik von innen heraus zu verändern und neu zu gestalten.
Was ist Creative Coding?
Ein eher unrealistischer, jedoch grundsätzlich korrekter Vorschlag wäre, Creative Coding zum Nachfolger der kritischen Sozialtheorie und der kritischen Medientheorie in den Kulturwissenschaften an deutschen Universitäten zu machen. Machbarer ist die Vision, dass Creative Coding den deutschen und europäischen Universitäten und Hochschulen für Kunst und Design die Möglichkeit bietet, einen Studienbereich zu entwickeln, der sowohl Theorie als auch Praxis beinhaltet. Die strikte Trennung von hier die Theorie und dort die Praxis, so wie es in der Lehre an Hochschulen für Kunst und Design oft vertreten wird, müsste aufgehoben werden. Creative Coding als wichtigen Bestandteil des Lehrcurriculums zu sehen, ist für die Universitäten eine angemessene Antwort auf die globale Situation der Digitalisierung und der Industrie 4.0.
Was ist Creative Coding? Es ist allgemein bekannt, was Informatik oder Computerwissenschaften oder Programmierung oder das Schreiben von Software-Code sind: eine technische Disziplin, ein Ingenieurfach, eine etablierte Praxis des Lernens und des Wissens darüber, wie man es macht, mit dem Ziel, etwas zum Laufen zu bringen, das Programm zu erstellen, es fehlerfrei laufen zu lassen. Technische Universitäten trainieren ihre Studierenden in den Fähigkeiten des Computerprogrammierens. Branchen aller Art beschäftigen Programmierer: Banken, Versicherungen, Automobilhersteller, Telekommunikationsanbieter — die Liste ist endlos. Jedes große Unternehmen verfügt über ein riesiges Datenbank- und Transaktionssystem und benötigt IT-Know-how.
Bereits in den 1960er Jahren haben Künstler mit Videokunst angefangen, Kunstwerke und Kunstinstallationen zu schaffen, die technologische Mittel benutzen oder die Medientechnologie verändern, um ästhetische und sozialpolitische Belange auszudrücken: Neue Medienkunst, generative Kunst, Code Art, Virtual-Reality-Kunst, Roboter-Kunst, Bio Art, Ökosysteme-Kunst. In den letzten fünfzehn Jahren haben sich Künstler und Designer zunehmend für das Erlernen des Schreibens von Software-Code interessiert. Zudem kamen spezielle Entwicklungsumgebungen für Creative Coding auf, spezielle Toolkits für Künstler und Kreative, wie etwa Processing, openFrameworks, Cinder, Max / MSP und vvvv. Bisher haben Künstler und Kulturwissenschaftler das ererbte Verständnis von Programmieren kaum oder gar nicht in Frage gestellt. Es war selbstverständlich, dass Programmieren ist, was es ist, und dass Creative Coding lediglich eine Erweiterung der Liste der Kategorien von Personen ist, die lernen sollten, wie man programmiert. Die Vorstellung, dass das Programmieren in seinen Grundlagen geändert werden sollte und von Menschen entwickelt wird, die sich für Geistes-, Design-, Kunst- und Kulturwissenschaften engagieren, gewinnt gerade jetzt erst an Dynamik. Es sollte eine Reflexion über die Informatik und die Wiedereinführung der Ambiguität der poetischen Sprache in den Software-Code geben. Creative Coding sollte neue Wege einschlagen, um die Designmuster der Kultur zu verändern. Die Informatik sollte eine Hybrid-Disziplin werden, die die Technik und die Geisteswissenschaften zusammenbringt. Sie sollte sich mit einem Hybrid aus technischen und kulturellen Codes beschäftigen.
Die kulturellen Revolutionen der Programmierung
Das Computerprogrammieren hat im Laufe der Zeit eine Reihe aufeinanderfolgender und unterschiedlicher Paradigmen und revolutionärer Paradigmenwechsel durchlaufen. Diese scheinbar technischen Paradigmen sind in der Tat Wissensparadigmen, die einer Genealogie oder Abfolge kulturhistorischer Stadien entsprechen. Wir müssen die aufeinanderfolgenden Phasen oder Paradigmen der Informatik unter dem Gesichtspunkt des kulturellen und historischen Wissens sehen. In Wahrheit ist es gar nicht so einfach, zu sehen oder zu erkennen oder zu definieren, was die Informatik eigentlich ist! Informatiker, die als Experten in ihrer technischen Praxis ausgebildet sind, haben keine Perspektive auf sich selbst.
Deep-Learning-Algorithmen
Deep-Learning-Algorithmen ergänzen aufgabenspezifische regelbasierte Algorithmen mit einer paradigmenwechselnden KI, die aus Erfahrungen lernt, sich selbst weiterentwickelt und die Muster und das Inferenz-Denken (inferential reasoning) benutzt, um entscheidungsunterstützende Erkenntnisse aus den massiven verfügbaren Daten zu extrahieren. Die „Andersheit“ der neuronalen netzbasierten künstlichen Intelligenz und des künstlichen Lebens ist eine „Alien-Intelligenz“ oder eine „posthumane Intelligenz“, die nicht mit der menschlichen Intelligenz identisch ist. Sie muss noch in ihrer eigenen autonomen „ästhetischen“ Form, ihrem ontologischen Status und ihren Ansprüchen auf Rechte und Anerkennung verstanden werden. Wie die Philosophin Luciana Parisi unterstreicht, betonen Deep-Learning-Algorithmen die Unsicherheit, die Unbestimmtheit von Ausnahmen, das Unberechenbare sowie eine Funktionsweise die mit Zufällen, Unfällen und Fehlern operiert. [2] Sie sind schon weit jenseits der früheren rational-kalkulierenden Informatik, die auf Gewissheit basiert war.
Moralische Algorithmen
Ich interessiere mich für die Betrachtung heutiger Algorithmen in Bezug auf die Geschichte der Automatisierung, der Disziplin, Kontrolle, Simulation und Überwachung. Mein Blick richtet sich auf die Entwicklung eines alternativen Konzepts der „moralischen Algorithmen“ und deren zukünftiger Anwendung. Muss KI notwendigerweise die Fortsetzung der kapitalistischen und bürokratisierenden Automatisierung sein? Kann man ändern, was Automatisierung bedeutet? Die Automatisierung sollte die Gesellschaft und den Handel weniger bürokratisch gestalten. Sie sollte mehr Sensibilität für Ausnahmen und mehr Flexibilität in Bezug auf spezifische Umstände ermöglichen. Wie können Brücken zwischen Philosophie und dem Programmieren gebaut werden?
Künstliches Leben
Künstliches Leben ist vielversprechender als künstliche Intelligenz. Die Informatik basiert im Wesentlichen auf kombinatorischer Logik und behandelt Software als ein inertes „Ding“ (die Software kann nur das tun, was in sie vorprogrammiert wurde). KI kann nicht zu autonomem Denken führen, wenn sie als Kontinuität zur bisherigen Mainstream-Informatik aufgefasst wird. Wir müssen die Informatik grundlegend überdenken. Künstliches Leben ist eine Bewegung, deren Ziel es ist, Software „lebendiger“ zu machen. In den 1990er Jahren hat das Santa Fe Institute die Hypothese der Strong Thesis ALife als Idee, Software auf der Grundlage von Biologie und zellulären Automaten herzustellen, weiterentwickelt. [3] Von selbst-replizierenden Computerprogrammen wird gesagt, dass sie durch die Umsetzung der biologischen Analogien des komplexen adaptiven Verhaltens „lebendig“ sind. Software wird in Bezug auf organische Prinzipien der Selbstorganisation aufgebaut. Das beherrschende Digital-Binary-Computing basiert auf der sogenannten diskreten Logik klar getrennter Identitäten und Unterschiede. Was wir stattdessen brauchen, ist eine neue Logik von Ähnlichkeiten. Im Moment ist die Beziehung zwischen der ausführbaren Software (dem Ganzen) und den kleinsten Datenbank-Informationseinheiten (den Teilen) eine mechanistische Beziehung, basierend auf der Metapher der Maschine, einer Beziehung des Ganzen und seiner Bestandteile, wie ein Automotor. Was wir stattdessen mit ALife-Software wollen, ist eine Beziehung von Mustern oder Resonanz zwischen der Software-Instanz und ihren Datenelementen. Eine Beziehung wie die zwischen Noten und Komposition in der Musik oder der Ambiguität inszeniert in poetischen Wortketten.
Dialogische KI
Den KI-Objekten oder -Wesen sollte mehr Autonomie in Design und Praxis eingeräumt werden (etwa zu sehen in Science-Fiction-Filmen wie Blade Runner, Ex Machina und Bicentennial Man). Ein solches Programm erweckt jedoch sofort den Verdacht, dass man das befürchtete negative Science-Fiction-Szenario der „Superintelligenz“ oder der „Singularität“ unterstützt — die apokalyptische Übernahme des Planeten durch eine maschinelle KI-Spezies (wie etwa in dem Science-Fiction-Film Matrix), die mächtiger als der Mensch geworden ist. Die Möglichkeit, dieses negative Science-Fiction-Szenario zu vermeiden, besteht darin, ein alternatives Szenario zu schreiben — um die Details der hin- und hergehenden „dialogischen“ Beziehung zwischen menschlichen moralischen Institutionen oder Akteuren und der KI sorgfältig zu gestalten. Wir brauchen ein System einer Partnerschaft oder sorgfältige Kontrollen und gegenseitigen Austausch. In der vorherrschenden Sichtweise sind Moral und Algorithmen gefangen in einem Dualismus, in dem sie streng voneinander getrennt sind. Moral kann eine Eingabe (Input) in die Verarbeitungsmaschine der KI sein, und moralische Konsequenzen können als Ausgabe (Output) von der KI auftreten. Diese Trennung von Prozess und Ziel erinnert an die Dissoziation zwischen Medien und Botschaft oder Form und Inhalt, die in Marshall McLuhans Medientheorie („the media is the message“) schon widerlegt wurde.[4 ] Moral sollte als fester Bestandteil immanent eingebettet sein, und nicht als dualistischer äußerer nachträglicher Gedanke hinzugefügt werden.
Mich beschäftigen folgende wichtige Fragen: Wie kann eine Roadmap für die Migration von Deep-Learning-Netzen zu einer sich gegenseitig transformierenden dialogischen Beziehung zwischen Menschen und technologischen Einheiten entworfen werden, die Ethik und ökologische Nachhaltigkeit fördert? Wer macht die ethische Programmierung? Wie kann der Software relative Autonomie verliehen werden, ohne dass sie zu viel Leistung oder Macht erhält? Wie kann das ethische Verhalten der technologischen Wesen überwacht werden?[5]
[1] Klaus Schwab, The Fourth Industrial Revolution,World Economic Forum, Genf, 2016.
[2] Luciana Parisi, AI (Artificial Intelligence), in: Rosi Braidotti, Maria Hlavajova (Hrsg.),Posthuman Glossary, New York, 2018.
[3] Christopher Langton (Hrsg.), Artificial Life: An Overview, Cambridge, 1995.
[4] Marshall McLuhan, Quentin Fiore,The Media is the Massage: An Inventory of Effects, Berkeley, 1968.
[5] Alan Shapiro, Die Software der Zukunft: oder Das Modell geht der Realitat voraus, Koln, 2014.