define('DISALLOW_FILE_EDIT', true);
define('DISALLOW_FILE_MODS', true);
Next Art Education draws upon this assumption by asking for adequate reactions in the field of Art Education.
[1] cf. Dirk Baecker, Studien zur nächsten Gesellschaft. Frankfurt/M. 2007.
[2] cf. Koert van Mensvoort, Hendrik-Jan Grievink, Next Nature: Nature Changes Along With Us. Barcelona/New York 2011.
TK: Sie thematisieren die Bedeutung von Urheberschaft vor allem anhand von digitaler Medienkunst. Handelt es sich dabei um eine zwingende Verbindung?
CS: Für mich ist es wichtig, die vorherrschende Idee von Autorschaft in Frage zu stellen, egal ob digital oder nicht. Das Zentrale ist nicht, ob die Kunst im Netz stattfindet oder anderswo, sondern welchen Parametern sie gehorcht. Dabei ist das Thema Autorschaft gar nicht so innovativ: Ich finde es absurd, dass nach Duchamp oder Warhol, um jetzt mal nur zwei zu nennen, so getan wird, als befänden wir uns mit unseren Malergenies noch im 19. Jahrhundert. Man versucht, ganz angestrengt so zu tun, als sei das alles nicht passiert. Die Popularität, die das Thema Urheberrecht im Moment erfährt, hat damit zu tun, dass dessen Verletzung durch das digitale Medium, die verlustfreie Kopierbarkeit von Daten und deren relativ einfache Verbreitung zu einem Massenphänomen geworden ist. Jeder hat sich schon mal illegal Software kopiert oder Daten aus dem Internet herunter geladen. Und hier besteht auch der Bezug zur Netzkunst: Sie findet im gleichen Medium statt.
Um sich zu schützen, versuchen die Inhaber von Urheberrechten, das Netz enger zu ziehen, strengere Bestimmungen durchzusetzen.
Das wird zu nichts führen, das ist lediglich ein Ausdruck von Hilflosigkeit. Eben weil es bereits eine Massenphä-nomen ist! Da kann man kriminalisieren oder Gesetze verschärfen wie man will, das wird nicht mehr funktionieren. Man kann nicht Millionen von Menschen verfolgen. Letzen Endes kann es nur darum gehen, in diesem Gebiet eine andere Form von Ökonomie zu finden.
Wie begründen Sie diese Notwendigkeit?
Hinter dem Urheberrecht steckt die Idee von etwas Materiellem, das nur begrenzt verfügbar ist. Wenn ich aber Daten von Ihrem Computer kopiere, dann haben Sie die ja immer noch. In so fern ist es kein Diebstahl, sondern eine Vermehrung! Das trifft natürlich auf alles Reproduzierbare zu, aber beim Internet ist es am virulentesten, weil hier das Medium gleichzeitig der Vertriebsweg ist.
Wo sehen Sie da die stärksten Bezüge zu Konzepten aus der jüngeren Kunstgeschichte?
Warhol war wirklich großartig, je mehr ich mich mit ihm beschäftige, desto mehr begreife ich die Ambivalenz seiner Person und seines Werkes. Er hat die Widersprüche wirklich gelebt, die man leben muss. Die ich auch lebe, als Künstlerin: Gleichzeitig das Kunstsystem auf den Kopf zu stellen und trotzdem erfolgreich zu sein. Ich arbeite ja auch unter meinem Namen und mit meinem Namen. Das heißt, ich stelle Autorschaft einerseits in Frage und andererseits beanspruche ich sie.
Hat Warhols Vorgehen aber nicht auch den Kunstmarkt bedient und eine Kommerzialisierung angekurbelt?
Das kann man, wie gesagt, nicht vermeiden. Das ist ganz oft der Fall, wenn Künstler die Dinge so radikal in Frage stellen, die Widersprüche zu ihren Lebzeiten auch lustvoll ausleben. Wenn sie tot sind, bleiben aber nur noch die Juristen übrig, die die Rechte verwalten. Und dann wird es richtig problematisch. Wie die Warhol-Foundation mit seinem Erbe umgeht, das ist ein typisches Beispiel.
Das kann ja auch nicht im Sinne von Warhol sein.
Sicher nicht! Eines meiner Projekte für dieses Jahr wird ein Video sein, in dem ich Andy Warhol besuche und mit ihm über meinen Netzkunstgenerator spreche. Ich werde ihn um die Erlaubnis bitten, seine Bilder weiterverarbeiten zu dürfen, wie damals Elaine Sturtevant, eine amerikanischen Künstlerin, die Zeitgenossen kopiert bzw. „wiederholt“ hat. Sie ist 1965 zu Warhol gegangen und hat ihn um Erlaubnis gebeten, seine „Flowers“ noch mal produzieren zu dürfen. Und er hat ihr sogar seine Druckvorlagen gegeben. Sie hat damit die gleichen Bilder gemacht wie er und diese mit ihrem Namen signiert. Ich bin sicher, wenn ich hingehen würde, fände er das total amüsant. Vielleicht wird er mir sogar die Idee klauen, irgend etwas würde da passieren – aber er würde mir das jedenfalls nicht verbieten. Nur, wenn ich zur Warhol-Foundation gehe, reden die vielleicht nicht mal mit mir. Oder sie verklagen mich. Aber ganz sicher werden sie es mir nicht erlauben.
Die Warhol-Foundation ist ja auch nicht Teil des Kunstsystems, sondern des Wirtschaftssystems.
Das ist eines der Probleme am Urheberrecht: dass es vererbbar ist. Dass mit dem Tod des Künstlers vieles unmöglich wird. Ich knüpfe als seriöse Künstlerin an seine Arbeit an und bringe sie durch das digitale Medium nochmal auf eine andere Ebene, habe aber reell gesehen keine Chance, das auszustellen. Mit einem guten Konzept habe ich immer die Chance, die Erlaubnis eines Urhebers zu bekommen. Aber das geht nicht mehr, wenn er nicht mehr da ist. Keiner seiner Erben kann ihn in künstlerischen Fragen wirklich ersetzen. Es geht dann nur noch um Rechte und um wirtschaftliche Interessen.
Was genau macht denn Ihr Netzkunstgenerator mit den Bildern anderer?
Der Netzkunstgenerator ist ein Computerprogramm, das Texte oder Bilder aus dem Internet nach bestimmten -Kriterien auswählt, die der Benutzer festlegt. Diese Fragmente werden dann neu kombiniert. Diese Rekombination kann nicht vom Benutzer gesteuert werden, sondern geschieht durch Zufallsgeneratoren und Programmstrukturen. Das heißt, die Bilder oder Materialien werden jedes Mal auf einem anderen Weg bearbeitet, auch bei gleichen Eingaben. Ich habe ein paar hundert Bilder mit Warhols „Flowers“ produziert, und jedes sieht anders aus.
Erreicht der Netzkunstgenerator auch Menschen außerhalb der Netzkunst-Gemeinde?
Auf jeden Fall. Das Projekt gibt es schon seit über fünf Jahren. Es wurde seither auch in einigen Ausstellungen präsentiert. Das ist für mich interessant, weil sich Ausstellungsbesucher damit beschäftigen, die sonst nicht ins Internet gehen. Da war zum Beispiel eine ältere Dame, über 60, die neugierig war: „Was kann man denn da machen?“ Ich habe sie bei der Hand genommen und gefragt, was man als Titel eingeben könnte. Und es ist ihr nichts Besseres eingefallen als der Name ihres Sohnes. Der entwirft Lampen, und davon war im generierten Bild tatsächlich was zu sehen. Sie war völlig hingerissen, dass durch eine Eingabe von ihr ein künstlerisches Ergebnis entstanden war, das mit ihrem Sohn zu tun hatte. Der Netzkunstgenerator wurde aber zum Beispiel auch in einem neuen Hamburger Luxus-Hotel installiert. Das Publikum wird dadurch sehr heterogen.
Wurden bis zur Baseler Ausstellung jemals urheberrechtliche Bedenken geäußert?
Es kommt immer darauf an, was man mit dem Netzkunstgenerator macht. Der Gesetzesbruch fängt im Grunde dann an, wenn ich Bilder auf meinen Computer herunterlade. Wenn man aber technisch spitzfindig ist, dann kann ein Computer nur das auf dem Bildschirm darstellen, was er zuvor heruntergeladen hat. Das größte Problem ist die Veröffentlichung. Ein normaler User wird das nicht tun. Das ist bei mir anders.
Warum hatten Sie sich für Basel die „Flowers“ von Warhol als Thema gewählt?
Der ursprüngliche Titel der Ausstellung war „This is not by me“. Der stammt auch von Warhol, der diesen Satz in einer bestimmten Phase benutzte, um seine Bilder zu signieren. Alle Arbeiten in der Ausstellung sollten sich auf Warhol beziehen. Da gab es eine wunderbare hohe Wand, die wir einfach mit den „Flowers“-Paraphrasen aus dem Netzkunstgenerator füllen wollten, so wie Warhol in seinen Ausstellungen mit verschiedenen Hängungen auch ganze Wände gefüllt hat. Die Bilder waren nur ein Teil meines Konzepts, seine Techniken weiterzuführen, aber sie waren der urheberrechtlich problematischste.
Und plötzlich wurde das Problem so groß, dass es nicht mehr möglich war, die Bilder zu zeigen?
Das ging vom Vorstand des Medienkunstforums aus. Also gar nicht mal von der Direktorin selbst, mit der hatte ich das abgesprochen. Es war uns bewusst, dass es eventuell Probleme geben könnte. Sie meinte jedoch zunächst, bei etwaigem Ärger würden wir den Rechtsstreit als Teil des Projektes durchziehen. Im Vorstand war dann aber ein Jurist, der Bedenken äußerte und auf rechtliche Konsequenzen hinwies. Daraufhin musste die Ausstellung abgesagt werden. Uns waren die Hände gebunden. Ein typischer Fall von vorauseilendem Gehorsam. Es gab keine einstweilige Verfügung oder so.
Sie haben daraufhin Interviews mit vier Juristen zum Thema „Urheberrecht“ geführt und als Ersatz in der Ausstellung gezeigt?
Die Interviews waren speziell auf Warhol und meine Generator-Bilder bezogen.
Wie haben die Juristen denn argumentiert?
In vier verschiedenen Strängen: So viele Kunstexperten es gibt, so viele Meinungen gibt es, so viele Juristen, so viele juristische Auslegungen. Von „vollkommen unbedenklich“ bis „in jedem Fall rechtswidrig“. Ich habe aber bei allen sehr genau nachgefragt, wie man argumentieren könnte, wenn bei einer Ausstellung der Bilder tatsächlich Probleme mit der Warhol-Foundation auftauchen würden. Ein Münchner Anwalt schlug vor, es mit dem Grundrecht auf künstlerische Freiheit zu versuchen, da hinter den Bildern, die im Netzkunstgenerator entstehen, ein eigenständiges künstlerisches Konzept stehe. Es sei Unsinn, jene Bilder auszusortieren, bei denen mehr Warhol zu erkennen ist als bei anderen, das Gesamtkonzept stehe im Vordergrund.
Als eine eigenständige künstlerische Bearbeitung sind die Bilder also rechtlich unbedenklich?
Die Grenzen und Definitionen sind sehr fließend. Das hängt alles extrem vom jeweiligen Anwalt oder Richter ab. Das wiederum ist für mich durch die vier Interviews sehr klar geworden. Die Grundfrage ist, ob es meine eigene Kunst ist, die ich ausstelle, oder die von Warhol. Alles eine Frage der Argumentation: was meine Kunst ist, warum ich dazu Warhol benutzen muss oder will, warum es Teil des Konzeptes ist. Der Hamburger Anwalt meinte aber zum Beispiel, Konzept hin oder her, damit käme ich nicht durch. Es läuft darauf hinaus, zu entscheiden, ob es sich bei den ausgestellten Arbeiten um eine freie Bearbeitung handelt oder eine abhängige, eine gebundene. Eine freie Bearbeitung kann man immer machen, da ist das Urheberrecht nicht tangiert, keine Erlaubnis notwendig. Frei ist die aber nur, wenn man das ursprüngliche Werk nicht mehr erkennen kann, wenn die Unterschiede so groß sind, dass es keine Rolle mehr spielt. Auf diese doch sehr oberflächliche Sichtweise ziehen sich die Juristen gern zurück.
Und da fängt juristisch dann die Kunst an?
Die juristischen Definitionen von Kunst beziehen sich stark auf konkrete Artefakte, auf das, was Juristen die „Form“ nennen, im Gegensatz zur „Idee“. Es kann mir wohl keiner streitig machen, dass das Konzept meine eigene Kunst ist. Es folgt aber die Frage, ob nun das Konzept rezipiert wird oder ein Bild. Ich kann keinen Richter dazu zwingen, das Konzept wahrzunehmen. Wenn einer sagt, die konkrete Form, die das Konzept nimmt, sieht leider aus wie die von Warhol, und deswegen geht es nicht, dann habe ich Pech gehabt. Einer der Anwälte meinte wiederum, er würde schon bezweifeln, dass es sich bei den Arbeiten von Warhol, auf die ich mich beziehe, um Originale und damit schützenswerte Werke handelt …
Was ja im Sinne Warhols wäre.
Der Anwalt meinte sogar, er würde sich in dieser Angelegenheit auf einen Rechtsstreit mit der Warhol-Foundation einlassen. Das eigentliche Problem ist aber wohl: Man kann so einen Fall nicht im Vorfeld klären. Deswegen habe ich mehrere Juristen befragt, und da wurde umso deutlicher, dass bis zum Urteil eines Richters keine Gewissheit bestehen kann. Es bleibt so lange unklar, ob ich die verarbeiteten Bilder ausstellen kann oder nicht, bis ein Urteilsspruch ergangen ist. Und der ergeht erst, wenn es anlässlich einer Ausstellung einen Rechtsstreit gibt, der vor Gericht geklärt wird. So lange bewege ich mich in einer Grauzone.
Das gesamte System, in dem da juristisch argumentiert wird, beruht ja auf Begriffen wie „Autor“, „Werk“, „Original“ etc.
Es gibt keine anderen Begriffe. Das hat zu vielen schön absurden Momenten in den Interviews geführt. Dieses sehr reduzierte Handwerkszeug der Juristen lässt sich nämlich nicht auf generative Konzepte wie den Netzkunstgenerator anwenden. Im vergangenen Jahr habe ich versucht, mit juristischen Argumentationen zu klären, wer der Autor eines generierten Bildes ist, ob man das überhaupt feststellen kann. Die Anwälte haben alle gelacht: Einen Autor gebe es immer. Ich habe das sehr sorgfältig geprüft, habe alles mit einbezogen. Also zunächst den Computer als Autor – das ist vom Gesetz aber bereits ausgeschlossen, das kann nur ein Mensch sein. Dann also die verschiedenen Menschen, die beteiligt sind: der User, der Programmierer, der Urheber der Vorlagen, ich als Ideengeberin und so weiter. Und selbst der radikalste und konservativste der Anwälte hat zugegeben, er könne nicht mehr genau sagen, wer in diesem Fall der Autor sei. Das war für mich natürlich ein Sieg, das ist letztlich das, was ich zeigen will: Die Werkzeuge und Begriffe, die benutzt werden, sind nicht ausreichend für das, was in der zeitgenössischen Kunstpraxis passiert.
Das heißt, das juristische System, das auf gewisse Weise eine Definitionsmacht über Kunst ausübt, operiert auf einer Basis, die seit 90 Jahren fragwürdig ist. Nun gibt es aber auch Institutionen im Kunstsystem, die eine Definitionsmacht beanspruchen.
Da stehen sich klar zwei Systeme gegenüber. Wenn man sich das Kunstsystem genauer ansieht, kommt man zu einem Ergebnis, das mich überrascht, aber auch bestätigt hat: dass das Kunstsystem auf den gleichen Parametern beruht, wie das Rechtssystem. Nämlich auf Autorschaft und Werk.
Nur so kann schließlich der Kunstmarkt funktionieren. Da geht es doch vor allem um finanzielle Interessen. Das heißt, da dominiert wiederum das Wirtschaftssystem.
Wenn ein Richter merkt, dass ihm die Sachkompetenz fehlt, dann zieht er Experten zu Rate. Er orientiert sich an Einschätzungen aus dem Kunstsystem. Keiner würde sich Sachkompetenz in schwierigen Fällen anmaßen. Letztendlich liegt das Problem also doch im Kunstsystem. Wenn es mehr Experimentierfreude gäbe, wenn offensiver Freiräume vom Gesetzgeber gefordert würden, die zumindest in der Ideengeschichte der Kunst längst ausgelotet wurden, dann müssten die Gesetze nachziehen. Aber diese Forderungen gibt es nicht.
Will denn die Mehrzahl der Kunstschaffenden eine Relativierung des Urheberrechts?
Ich sage sicher nicht, die Lösung sei, das Urheberrecht abzuschaffen. Aber ich finde es interessant, dass die -Ideengeschichte der Kunst bereits so viele radikale -Entwürfe hervorgebracht hat, die juristisch ohne Kon-sequenz blieben, zum Beispiel das „ready-made“, die -„objets trouvés“ oder eben Warhols „Fabrikation“. Ganz zu schweigen von zeitgenössischen Konzepten. Die westlichen Länder neigen außerdem immer mehr zu einer Verrechtlichung. Die Menschen werden sich ihrer Rechte immer bewusster, und deshalb explodiert die Anzahl der Anwälte. Immer mehr Klagen entstehen, weil auf Rechten bestanden wird. Und gerade im Urheberrecht geht es meistens um Gewinne. Das ist übertragbar auf die Kunst: Keiner nimmt Anstoß an Urheberrechtsverletzungen, solange sie in irgendwelchen Off-Galerien stattfinden und wenig Geld damit verdient wird. Erst bei namhaften Künstlern, und wenn Geld im Spiel ist, werden die Leute empfindlich. Da wird gern geklagt, weil die Rechteinhaber natürlich auch was abhaben wollen.
Der Generator ermöglicht zwar anderen eine Autorschaft, aber letzten Endes sind Sie ja die Autorin des Konzepts. Die Arbeit löst also den Autorenbegriff nicht auf.
Das ist ähnlich wie bei Warhol. Der hat seine Arbeiten auch nicht selbst realisiert, sich gleichzeitig aber wie kein anderer Künstler als Autor etabliert. Diesen Konflikt kann man nicht lösen. Vielleicht kann und muss man ihn gar nicht lösen. Es macht auch Spaß, ihn einfach auszuleben: Das System in und von dem man lebt in Frage zu stellen …
Würde die Auflösung des Autorenbegriffs nicht das Ende des Kunstmarktes bedeuten?
Das ist ein Extrem, das im Moment lediglich als Denkmodell interessant ist. Darüber hinaus gibt es ganz real eine Menge Möglichkeiten, zu dekonstruieren und zu irritieren.
Sehen Sie noch die Notwendigkeit, neue Bilder zu produzieren?
Nein, habe ich noch nie. Nicht im Sinne von Originalen. Für mich sind Bilder Material, das ich verwende. Und es gibt genug davon. Früher habe ich hauptsächlich Bilder und Ästhetiken aus der Werbung benutzt, heute nehme ich alles, was im Internet ist. Aber es liegt mir nicht, allgemeine Wahrheiten zu verbreiten. Jeder Künstler muss für sich selbst herausfinden, was für ihn richtig und stimmig ist. So habe ich auch nichts gegen Malerei. Es soll Menschen geben, die malen müssen – nicht anders können. Mich interessiert mehr die Ideengeschichte der Kunst und wie ich sie in Anbetracht der Herausforderungen des 21. Jahrhunderts weitertreiben kann. Und mit Malerei geht das sicher nicht. Aber sie mag besser geeignet sein zum Geldverdienen …
Braucht zeitgenössische Kunst historische Kunst und wozu?
Natürlich braucht sie die. Es gibt keine Kunst ohne Geschichte! Aber viele Künstler interessieren sich weder für Kunstgeschichte noch für die Kunst ihrer Kollegen. Das hängt vom eigenen Künstlerbild und vom Kunstbegriff ab. Wenn ich glaube, dass mein künstlerisches Schaffen lediglich meinen Eingeweiden entspringt, brauche ich mich auch auf nichts zu beziehen. Aber das würde ich nicht genial nennen, sondern schlichtweg naiv.
Braucht die Welt Bilder oder Ideen?
Ich würde sagen, sie braucht in erster Linie Ideen. Und gute Bilder illustrieren Ideen. An den Ausdruck von Gefühlen als Kunst glaube ich sowieso nicht.
Wiederabdruck
Dieser Text erschien zuerst in: Thomas Kaestle (Hg.), Prozess, Moment, Gültigkeit. Bielefeld 2005, S. 126–131.
1.) Der Kunstverein Hildesheim zeigte im Ausstellungsjahr 2005 die „Flowers“ von Cornelia Sollfrank erstmalig als Teil der Einzelausstellung „This is not by me“.
]]>Prolog
Derzeit gibt es weltweit 3,5 Milliarden Mobiltelefone, die nicht älter als zwei Jahre sind1. Es gibt also mehr als 3,5 Milliarden funktionierende Kameras. Bilder -machen, verschicken, empfangen oder abrufen, für viele kein Problem mehr. Mein Vater war immer entsetzt über meine Art, Schokolade zu essen: „Du isst ja die Schokolade wie Brot.“ Er selbst hat in seiner Kindheit Schokolade nicht gekaut, sondern behutsam im Mund zergehen lassen. Als die Kunst sich entwickelte, war die Herstellung von Bildern aufwändig und kom-pliziert, Bilder waren so selten und begehrt wie Schokolade vor 100 Jahren. Deshalb wurden sie immer wieder und lang angeschaut. Diese Seltenheit hat die Art der Bildbetrachtung hervorgebracht, die seit dem 19. Jahrhundert als Kunsterfahrung gilt. Mit den vielen Bildern ändert sich da momentan einiges.
Institution oder Funktion
Früher war es einfach: Schule hat bewährte Traditionen und Wissen an die nächste Generation „weitergegeben“. Heute ist es schwieriger: Schule, Bildung und Ausbildung werden als Investition gesehen. Damit werden die Zukunft und ihre Herausforderungen interessant.
Den Gegenstand der Kunstpädagogik können wir unter zwei Aspekten sehen. Einmal als das, was Lehrpläne und Veröffentlichungen unter dem Fach verstehen: Kunst, ihre Vermittlung und ihre pädagogischen Möglichkeiten. Wir können sie aber auch von der Funktion her sehen: Als Teil der Schule soll sie den Schülerinnen und Schülern und der Gesellschaft dabei helfen, mit der eigenen Identität, mit den Bildern, der Visualität, den relevanten Formen der Kommunikation etc. -zurechtzukommen. Genauso lässt sich die nächste Kunst als Kontinuität ihrer Institutionen oder ihrer Funktionen betrachten. Neue Medien und Techniken verändern die Welt sozial, ökonomisch und kommunikativ. Das bedeutet oft: Institutionen verlieren an Einfluss oder verschwinden, weil andere Institutionen ihre Funktionen übernehmen. Digitale Techniken und Programme verändern die Gesellschaft und damit auch die Kunst und ihre Pädagogik als Institutionen. Diese verlieren wohl Macht und Kontrolle.
Hard- und Software sind billig und einfach zu bedienen. Mit ihnen lassen sich Bilder und andere visuelle Zeichen ohne aufwändige technische Ausbildung herstellen und manipulieren. Varianten sind schnell gemacht und Rückgängig-Funktionen machen sie schnell wieder ungeschehen. Einfach und angstfrei experimentieren die Nutzer und lernen entsprechend schnell. Tutorials werben auf Videoplattformen um „Schüler“. Künstler wie Kunstlehrer haben Konkurrenz bekommen.
Das gilt nicht nur für die technische Seite. Kreativität lässt sich beschreiben als neuartige Kombination von bereits Vorhandenem. Viele der Videos und Bilder von Laien auf Foto- und Videoplattformen lassen Kunstausstellungen langweilig aussehen, z. B. die derzeit populären Memes (siehe: http://knowyourmeme.com/). Themen und Regeln provozieren hier durch die Arbeit vieler in kurzer Zeit neue unverhoffte Ideen und Bilder.
Mangel an Speicherplatz charakterisiert traditionelle, staatliche Kunstinstitutionen. Er zwingt zur Auswahl: was wird dargestellt, was wird aufgeführt, was wird angekauft, was wird ausgestellt? In der bildenden Kunst gilt das für das Material, für das Können, das in den Körpern der Künstler als Folge aufwändigen und langen Lernens „verfügbar“ ist, und für die Institutionen, die Museen, Ausstellungen, Messen, Galerien und deren Künstler. Das ergibt zwangsläufig einen normativen Kunstbegriff: Kunst ist Qualität. Speichermedien werden größer und billiger. Damit wird diese Auswahl und damit Kontrolle überflüssig. Und: die Bilder sind via -Telekommunikation so gut wie überall zugänglich, man muss nicht eigens anreisen. Die schiere Menge interessanter Bilder beschleunigt wohl auch die Art der Betrachtung.
Die Ausdifferenzierung der Konsumgüter hat zur Ausweitung der ästhetischen und symbolischen Sphäre geführt. Dinge des täglichen Gebrauchs fungieren auch als Zeichen.2 Die Konsumkultur ist in den entwickelten Ländern ein großes ästhetisches Lernprojekt3, das auch den traditionellen Kunstunterricht herausfordert.4 In der zweiten Hälfte des 20. Jahrhunderts sind die Konsumenten zur Kultur tragenden Schicht geworden, sie stehen als Auftraggeber hinter wichtigen kulturellen Leistungen wie Stadien, Flughäfen, Brücken, Computerspielen, Filmen, langen Friedenszeiten, Internet, differenziertes Nahrungsangebot usw.. Diese kulturelle Produktion versteht sich nur in Ausnahmefällen in der Tradition der (bürgerlichen) Kunst.
Und nicht zuletzt: Die Kunst erweist sich als eine Frage des Geschmacks einer mehr oder weniger kleinen Szene, die ihren Anspruch auf Sonderstellung nicht mehr (lange) wird durchsetzen können.5 Die Kunst ist eine von vielen visuellen Kulturen, sie ist lediglich für eine wenige Menschen von Bedeutung.6 Sie kann keinen Anspruch auf allgemeine Verbindlichkeit mehr stellen.
Die Zukunft: Visuelle Kultur
Die zeitgenössische visuelle Produktion außerhalb der Kunst ist spannend und einflussreich. Schülerinnen und Schüler interessieren sich dafür. Bilder und visuelle Gestaltung bestimmen öffentliche und private Kommunikation7 ebenso wie unsere Entscheidungen in Politik und Konsum. In ihnen äußern sich unsere Werte, Hoffnungen und Befürchtungen. Mit ihnen bilden und zeigen wir Zugehörigkeiten und Unterschiede, mit ihnen konstruieren wir unsere Identitäten. Und wir lassen uns von ihnen stundenlang unterhalten. Wir nutzen Bilder als Einstieg in Tagträume ebenso wie zur Dokumentation unseres Lebens und zur Beobachtung und Kritik unserer Kultur. Wir gewinnen mit ihnen wissenschaftliche Erkenntnisse und nutzen sie zur Überwachung des öffentlichen Raums. Bilder und visuelle Gestaltung durchdringen so gut wie alle Lebensbereiche.
Die bildende Kunst ist ein Teil dieser visuellen Kultur. Künstlerische Äußerungen werden im indirekten Modus auf die gesellschaftliche Wirklichkeit bezogen: Sie werden nicht wortwörtlich sondern im übertragenen Sinn verstanden. Als Beuys geschrieben hat „Hiermit trete ich aus der Kunst aus“, hat das niemand ernst genommen; denn er hat es ja als Künstler gesagt. Dagegen sind viele Teile der visuellen Kultur ernst gemeint. Eine Pädagogik, die sich um Bilder kümmern will, muss vor allem die behandeln, die wortwörtlich gemeint sind und Grundlage für unser privates, ökonomisches und politisches Handeln sind. Damit verbunden ist dann immer auch die Frage nach der Macht, nicht zuletzt danach, wer die semiotische Arbeit des Verstehens leisten muss.8 Dafür muss die nächste „Kunst“pädagogik entsprechende Methoden entwickeln.9
Daneben sollte sie auch beobachten, wie Funktionen, die sie heute der Kunst zuschreibt, schon jetzt und in Zukunft außerhalb der Kunstszene erfüllt werden.
– Beobachtung der Kultur leisten z. B. TV-Shows, Konsumprodukte, Comedy, Jugendkulturen, Foto- und Videoplattformen, Computerspiele &c.
– Identität wird im Tourismus10, beim Konsum11, in sozialen Medien und in Spielen ausprobiert, entwickelt und realisiert
– den anderen Blick auf Welt und Gesellschaft bieten Reisen, Spielfilme, Computerspiele, Internetmemes
– Alternativen zur eigenen Weltsicht gibt es in anderen Kulturen und kulturellen Szenen und werden etwa auf Foto- und Videoplattformen präsentiert
– Innovationen und Kreativität gibt in den Medien- und Konsumprodukten
Hinsichtlich der visuellen Kultur wird etwa zu fragen sein:
– Wie funktioniert sie? Wie kann der einzelne sie beeinflussen, sich gegen Macht wehren und selbst Macht ausüben?
– Welche Rolle spielen die verschiedenen Genres?
– Welche sozialen Funktionen werden wie durch Bilder und visuelle Gestaltung erfüllt?
– Wie werden Weltvorstellungen entwickelt und kommuniziert?
– Wie steht es mit der Macht? Welche Interessen zeigen sich? Wer darf wen wie anschauen?
– Wer muss sich um die semiotische Arbeit kümmern?
– Welche Rolle spielen visuelle Elemente in der Unterhaltung?
– …
– Wie können Schülerinnen und Schüler sich dieser Kultur bewusst werden?
– Elemente werden nicht als Texte sondern … verstanden.
Die nächste „Kunst“pädagogik stellt nicht das „Bild“ oder das „Werk“ ins Zentrum, sondern die Situation, in der es verwendet wird, und das Problem, das mit ihm gelöst werden soll.12 Dazu braucht es Methoden und -didaktische Forschung.13
Das ist vermutlich nicht einfach. Im Vergleich dazu ist die zeitgenössische und historische bildende Kunst ein überschaubarer Bereich. Der nächsten Kunstpädagogik muss es gelingen, den Schülerinnen und Schülern an ausgewählten Beispielen allgemeine Strukturen und Regeln visueller Kulturen verständlich zu machen und ihnen ermöglichen, sich aktiv daran zu beteiligen und Einfluss zu nehmen.
Dabei geht es weder darum, die visuelle Kultur affirmativ zu behandeln, noch sie einfach zu kritisieren. Es geht um Verständnis und um die Fähigkeit, sich darin zu verhalten und sie entsprechend zu verändern. Nebenbei: Die ökologischen Kosten dieser Kultur erweisen sich als exorbitant und lebensbedrohlich.
1.) http://de.wikipedia.org/wiki/Mobiltelefon/Tabellen_und_Grafiken#Verkaufszahlen_und_Marktanteile_nach_Unternehmen [4.1.2015]
2.) Helene Karmasin, Produkte als Botschaften. Wien/Frankfurt/M. 1998.
3.) Wolfgang Ullrich, Alles nur Konsum. Kritik der warenästhetischen Erziehung. Berlin 2013.
4.) Franz Billmayer, „Shopping – Ein Angebot zur Entlastung der Kunstpädagogik“, Zeitschrift Kunst Medien Bildung | zkmb, Text im Diskurs, 1.10.2011, www.zkmb.de/index.php?id=73 [6.1.2014]
5.) Christian Demand, Wie kommt die Ordnung in die Kunst? Springe 2010, S. 285.
6.) Ben Lewis, “A Plea for Realism”, in: Johannes M. Hedinger, Torsten Meyer (Hg.), What’s Next? Kunst nach der Krise. Berlin 2013, S. 303f.
7.) Gunther R. Kress, Theo van Leeuwen, Reading images – the grammar of visual design, London 2006, pp. XV, 291.
8.) Gunther R. Kress, Multimodality – Exploring contemporary methods of communication. London 2010, S. 72.
9.) Helene Illeris, Karsten Arvedsen, „Visuelle Phänomene und Ereignisse – Überlegungen zum Lehrplan der visuellen Kulturpädagogik“, in: Kunibert Bering et al. (Hg.), Visual Learning – Positionen im internationalen Vergleich, Oberhausen 2013, S. 366–386.
Karsten Arvedsen, „Probleme im Kunstunterricht – Kunstunterricht mit Problemen“, in: Franz Billmayer (Hg.), Schwierige SchülerInnen im Kunstunterricht, Flensburg 2013, S. 13–29.
10.) Franz Billmayer, „Tourism a Better Kind of Art Education?“ Paper präsentiert bei der InSEA-Tagung in Rovaniemi 2010, www.bilderlernen.at/theorie/tourism_artedu.html [13.1.2014]
11.) Billmayer 2011.
12.) Franz Billmayer, „Bild als Text – Bild als Werkzeug“, in: Barbara Lutz-Sterzenbach, Maria Peters, Frank Schulz, Bild und Bildung. Praxis, Reflexion, Wissen im Kontext von Kunst und Medien, München 2014.
13.) www.bilderlernen.at [4.1.2015]
Die Situation
2011 und 2012 sind weltweit 3,5 Milliarden Mobiltelefone verkauft worden, statistisch gesehen hat damit die Hälfte der Weltbevölkerung einen Apparat zum Bilder machen, verschicken und empfangen. So gut wie alle medialen Kommunikationsangebote haben auch visuelle Elemente.
Wahlmöglichkeiten
Anfang der 1980er Jahre habe ich meine Examens-arbeit mit der Schreibmaschine geschrieben. Die -Gestaltungsmöglichkeiten waren überschaubar: Großbuchstaben, Wortabstände zwischen den Buchstaben, Unterstreichungen und eventuell eine zweite Farbe. Schriftart und -größe waren ebenso fix wie die Zeilenabstände. Die äußere Form spielte damit so gut wie keine Rolle. Bei meinem jetzigen Programm sind rund 100 Schriftarten installiert. Ich kann alles Mögliche einstellen und formatieren, Größe, Zeilenabstände, Farbe, Schriftschnitt, Zeileneinzug. Ich kann Bilder und Diagramme einfügen. Die Entscheidungen, die ich treffe, machen einen Unterschied, der interpretiert werden kann. Der semiotische Kosmos, aus dem Zeichen für die Kommunikation gewählt werden können und müssen, wächst mit den digitalen Medien und -Programmen, damit die Möglichkeiten, Fehler zu -machen.
Bild
Bilder lassen sich einfach und billig herstellen. Sie informieren, erzeugen Aufmerksamkeit, dokumentieren, überzeugen, kommunizieren. Sie sind schnelle Schüsse ins Gehirn, werden schneller wahrgenommen und besser gemerkt.3 Das macht sie für die Kommunikation im Zeitalter der Aufmerksamkeitsökonomie attraktiv. Es macht einen Unterschied, ob die Welt in einem Bild gezeigt wird oder in einem Text erzählt wird. In der Aussage „Eine Zelle hat einen Zellkern.“ hat dieser keinen Ort, in einem Bild muss er irgendwo „platziert“ werden. Nach Gunter Kress hat der Bildschirm (screen) als neues Paradigma das Buch und die Buchseite abgelöst und damit unsere Kommunikationsgewohnheiten geändert.4 Informationen werden eher räumlich als linear präsentiert.
Semiotische Ressourcen
Sprache beruht auf konventionellen Zeichen: Man kann sie im Wörterbuch nachschlagen. Visuelle Zeichen sind weniger eindeutig. Multimodale Kommunikationsangebote kombinieren Codes unterschiedlicher Modi, z. B. Text mit Layout, Schrift mit Farbe, Text mit Ton. Mit der Idee eines Codes kommen wir hier nicht weiter. Kress schlägt daher vor, von semiotischen Ressourcen zu sprechen.5 Mit ihnen werden Zeichen und deren Bedeutung vom Sender wie Empfänger jeweils aktuell produziert. Das Fehlen von genauen Codes macht die Interpretation von Zeichen und damit die Kommunikation zu einer riskanten Angelegenheit.
Inhalte
Die Kunstpädagogen der nächsten Gesellschaft müssen über Unterrichtsinhalte und -methoden entscheiden. Welche Kompetenzen braucht es und wie werden sie -effektiv und nachhaltig erworben? Vielleicht hilft uns ein Blick in die Mediengeschichte. Vor der Erfindung des Buchdrucks waren Lesen und Schreiben etwas für Spezialisten, die sich mehr oder weniger die ganze Zeit damit befassten. Für die anderen reichte es, einen zu kennen, der das konnte. Mit dem Buchdruck wurden Lesen und Schreiben zu Kulturtechniken. Es wurden -Methoden notwendig, mit denen sie schnell und einfach gelernt werden konnten. Die Leute waren im Hauptberuf ja Händler oder Handwerker. Gelernt wurde in Grammar Schools nach Regeln, die in der Grammatik formuliert waren. Implizites Expertenwissen wird zu expliziten Regeln fürs Lernen.
Es ist derzeit schwer vorstellbar, dass sich analog zur Sprache eine (mehr oder weniger universelle) Grammatik der Bilder und der visuellen Gestaltung entwickeln wird. Dennoch wird es wichtig sein, möglichst gut zu verstehen und verstanden zu werden. Das bedeutet, dass wir wissen müssen, wie das entsprechende Publikum angesprochen wird und welche Form dem jeweiligen Inhalt angemessen ist. Dazu brauchen wir Begriffe einerseits, um mit anderen reden, die eigenen Entscheidungen begründen und gegebenenfalls verteidigen zu können. Wir brauchen diese Begriffe aber auch als Denkwerkzeuge, um Alternativen entwickeln und beurteilen zu können.6 Das muss die nächste Kunstpädagogik leisten.
Semiotik und Medientheorie
Die Semiotik als die Wissenschaft und Lehre von den Zeichen, ihrer Interpretation und Anwendung ist ein stabiler Grundpfeiler für das Verständnis multimodaler Botschaften und den Bedingungen, unter denen sie verwendet wird.
Im visuellen Modus gibt es Wahlmöglichkeiten, die unterschiedliche Bedeutungen und Interpretationen -zulassen.
Format / Genre (Regeln, Möglichkeiten und Grenzen, -Erwartungen des Publikums)
Raumaufteilung (Gliederung, Komposition, Abfolge, -Zusammenhänge)
Farben (Schrift, Hintergrund, Markierungen, Dekoration)
Bilder (Machart, Technik, Ikonizitätsgrad, Inhalt, Größe)
Formen (organisch, technoid, geometrisch, symmetrisch, freie Formen)
„Äußere Form“ (Exaktheit, Sauberkeit, verdichtet, locker und luftig)
Technik / Medium (es macht einen Unterschied, ob etwas mit der Hand oder mit dem Computer gezeichnet oder mit einer Kamera aufgenommen ist)
Material
Kontext und Zusammenhang
Dekoration
Kommunikation geschieht immer in einem Medium. Aus der Medienwissenschaft müssen wir entsprechende Modelle für den Umgang mit den visuellen Medien gewinnen. Medien sind immer technische Medien, die Möglichkeiten und Grenzen setzen. Medien neigen dazu, in Gebrauch und Routine unsichtbar zu werden. Durch Begriffe und Übungen lässt sich hier gegensteuern und ein bewusster absichtsvoller Einsatz in der Kommunikation erreichen. Einen guten Überblick bietet Winkler (2008)7.
Kommunikation und Rhetorik
In der Kommunikation zeigen sich Macht und soziale Verhältnisse.8 Das äußert sich etwa in der Frage, wer die semiotische Arbeit zu leisten hat, wer also für das Gelingen der Kommunikation verantwortlich ist. Das äußert sich etwa im Layout: Zeilenlänge, (fehlende) -Gliederung, Schriftgröße, Einsatz oder Verzicht von -erläuternden Grafiken und Bildern können den Zugang erschweren oder erleichtern.
In der multimodalen Kommunikation übernimmt der visuelle Modus wichtige Funktionen, die sich als visuelle Rhetorik analysieren und lernen lassen.9 Die Gestaltung ist ein zentraler Hinweis darauf, welches Publikum wie (Genre) angesprochen werden soll, ob die Botschaft etwa wortwörtlich, ironisch, parodistisch oder unterhaltsam gemeint ist. Auch die Glaubwürdigkeit des Senders wird oft visuell inszeniert. Bilder sprechen die Emotionen des Publikums an. Bilder und Diagramme dienen als Beweise und Belege. Die klassischen Überzeugungsarten der Aristotelischen Rhetorik – Ethos, Logos und Pathos – lassen sich gewinnbringend für die visuelle Gestaltung adaptieren.10
Die öffentliche und soziale Seite der Kommunikation berühren auch Recht, Moral und Ethik.
Methoden
Das Fehlen eines Codes mit genauen Regeln erfordert offene Lehr- und Lernmethoden. Anwendungsorientierte Begriffe werden am besten in der Praxis erworben.
Varianten. Bedeutung entsteht durch Unterscheidungen. Im Gegensatz zur derzeit gängigen Praxis „eine Aufgabe – eine Lösung“ stellen die Schüler verschiedene -Varianten zu einer Aufgabe her. Sie variieren Technik, Absichten, Probleme, Zusammenhänge, Ziele, Komple-xität, Gestaltung, Farbe, Medium, Größe, Betrachterstandpunkt, Schriftarten, Formen etc..
Entscheidungen. Gestaltung erfordert Entscheidungen und deren Begründung, dazu braucht es jeweils Alternativen.
Medientransformation. Botschaft wird von einem Medium in ein anderes transformiert: eine Einladungskarte in ein Video, eine Filmsequenz in ein Foto …
Genretransformation. Eine Äußerung in einem Genre wird in ein anderes transformiert: Werbung zu einem Zeitungsbericht, eine botanische Zeichnung in eine Glückwunschkarte.
Regeln brechen. Brechen oder Verändern von Genreregeln erzeugt Bewusstsein für Regeln und dafür, dass sie sich jederzeit ändern können.
Vergleiche. Der Variante bei der Gestaltung entspricht der Vergleich bei der Analyse: ähnliche Kommunikationsabsichten in verschiedenen sozialen, historischen, kulturellen und medialen Kontexten, gleiche Bilder für unterschiedliche Aussagen und Anlässe?
Nachahmen. Imitation generiert Verständnis.
Lehr-/Lernmethoden offen legen. Nicht nur aus ethischen Gründen legen die Lehrenden jeweils die eingesetzten Methoden offen und erklären, was sie dazu bewogen hat, diese zu wählen und andere mögliche zu verwerfen.
Aufgaben
Die Kunstpädagogik der nächsten Gesellschaft muss die Entwicklung der medialen Kommunikation aufmerksam beobachten. Visuelle Gestaltung im Allgemeinen und Bilder im Besonderen sind dabei nicht als „Texte“, sondern als Werkzeuge und Medien zu sehen, mit denen kommuniziert wird. Kommunikation ist immer eine soziale Angelegenheit. Deshalb sollten Fragen der Macht und der Gegenmacht selbstverständlich immer auch gesehen werden.
1.) Gunther Kress, Multimodality – Exploring contemporary methods of communication. London 2010.
2.) Franz Billmayer, „Bild sticht Kunst – Warum die Visualität (aktuelle Formen der Kommunikation) in der Kommunikation die KUNSTpädagogik in der Schule bedroht”, Fachblatt des BÖKWE, 2, 2012, S. 12–14.
3.) Werner Kroeber-Riel, Bildkommunikation – Imagerystrategien für die Werbung (pp. XIII, 361). München 1993.
4.) Gunther R. Kress, Literacy in the New Media Age. London 2003, S. 9.
5.) Ebd.
6.) Gunther R. Kress, Theo van Leeuwen, T. van. (2006). Reading images – the grammar of visual design. London [u. a.] 2006, S. 34.
7.) Hartmut Winkler, Basiswissen Medien. Frankfurt/M. 2008.
8.) Robert I. V. Hodge, & Gunther R. Kress, Social Semiotics. Ithaca/New York 1988.
9.) Jens E. Kjeldsen, Visuel retorik. Doktorarbeit am Institutt for medievitenskap Universität Bergen 2002.
10.) Franz Billmayer, „‚Bitte setzen‘ – Anregungen aus der Rhetorik für den Bildunterricht“, BDK-Mitteilungen, 4, 2007, S. 4–7.
Es gibt kein analoges Leben im Digitalen
Eines der ersten Dokumente, die über Edward Snowden an die Öffentlichkeit gelangten, war eine Anordnung des geheimen Überwachungsgerichtes in den USA (FISC), das den Mobilfunkprovider Verizon dazu aufforderte, Verbindungsdaten – so genannte Metadaten – an die NSA weiterzugeben.
Mussten früher noch Menschen mit Schlapphüten hinter einem hergehen, um herauszufinden, wie man sich im Raum bewegt, reicht heute eine Funkzellenabfrage. Wir alle tragen eine Wanze mit uns herum, unser Handy. Anhand der Verbindungsdaten lässt sich nun der Aufenthaltsort jedes Verizonkunden zu jedem Zeitpunkt im Nachhinein feststellen. Noch genauer geht das mit GPS, der satellitengestützten Ortung, die heute in jedem Smartphone installiert ist.
Als der amerikanische Softwaremagnat John McAfee auf der Flucht vor den Behörden untergetaucht war, gab er einem Journalisten der Vice ein Interview. Das Foto zum Interview wurde mit einem Smartphone gemacht. Eigentlich hätte McAfee wissen müssen, dass Smartphones die Angewohnheit haben, alle möglichen Daten mit in die Bilddatei zu schreiben. In diesem Exif-Format fand sich auch die metergenaue Position von McAfee in Guatemala. Die Flucht war beendet.
Die Millionen Kameras und Mikrofone auf den Straßen und in unseren Hosentaschen sind aber ebenfalls erst der Anfang. Nächstes Jahr will Google sein Produkt „Glass“ herausbringen, ein Smartphone, das man statt in der Hosentasche als Brille im Gesicht trägt. Jederzeit aufnahmebereit. Datenschützer gruseln sich nicht ohne Grund vor dieser Technologie. Livestreams aus der First-Person-View sind keinesfalls etwas Neues. Aber ein einziger 24/7-Livestreamer pro Stadt dürfte reichen, das „Recht am eigenen Bild“ aller Bewohner zur Makulatur werden zu lassen.
Modellflugzeuge gibt es seit langer Zeit, aber erst seit kurzem sind sie so leistungsfähig und präzise steuerbar, dass man sie sinnvoll für Kamerafahrten nutzen kann. Diese privaten Kameradrohnen kosten nur noch schlappe 300 Euro und damit ist es schon heute jedem möglich, seine ganz private Luftraumüberwachung zu bewerkstelligen. Drohnen sind aber in Zukunft für viele Zwecke einsetzbar, von der vollautomatischen Paketpost bis zur Bauabnahme. Schon in naher Zukunft, so die Prognose, werden sie allgegenwärtig durch die Luft schwirren. Nur wenig wird ihnen dabei entgehen.
Währenddessen stellen wir uns die neue Spielkonsole von Microsoft – die XBox One – in die Wohnung. Deren Sensorik ist so ausgefeilt, dass sie in Echtzeit eine 3D-Repräsentation des Raumes generieren kann – inklusive der sich in ihm bewegenden Menschen. Diese Menschen kann sie nicht nur von einander durch Gesichtserkennung unterscheiden, sondern auch deren Puls messen – anhand von kleinsten Farbveränderungen der Hautpigmente.
Den Rest über unsere Lebensführung wird das „Internet der Dinge“ ausplaudern. So nennt man die Totalvernetzung von Alltagsgegenständen. Anfangen wird es mit smarten Stromzählern, die heute bereits verbaut werden und mit deren Hilfe man zum Beispiel nächtliche Essgewohnheiten oder Schlafstörungen ferndiagnostizieren könnte. Wenn der Kühlschrank erst automatisch Essen nachbestellt, kann man sich auch aus der Ferne über unseren Kalorienverbrauch genauestens informieren.
Durch die Allgegenwart von Sensoren schreitet die Digitalisierung aller Lebensbereiche voran. Wer Teil der Welt sein will, wird Teil des Internets sein.
Der Napster-Schock der Politik
Prism, die zweite Snowdenenthüllung, betraf die großen Internetkonzerne: Google, Facebook, Microsoft und Apple. Auf fast unleserlich hässlichen Powerpointfolien ist dokumentiert, dass die NSA direkten Zugriff auf die Datenbanken dieser Dienste habe.
Cloud Computing war eines der Buzzwörter der letzten Jahre und heute nutzen fast alle Webmailer wie Gmail im Browser, spielen ihr Backup in die iCloud oder tauschen Daten auf Dropbox. Und Hand aufs Herz: Wer ist heute nicht bei Facebook?
Ach, Sie sind nicht auf Facebook? Wetten doch? Facebook lädt alle seine Nutzer ein, ihnen das eigene Adressbuch zur Verarbeitung freizugeben. Der Friend Finder gleicht das Adressbuch dann mit den Facebookdaten ab und schlägt einem alle Bekannten zum „Befreunden“ vor. Was Facebook mit den Adressbuchdaten von denjenigen macht, die noch nicht bei Facebook angemeldet sind, stellte sich letztens per Zufall heraus. In der Datenexportfunktion war ein Programmierfehler, der nicht nur die Daten der Freunde, sondern auch die Schattenprofile all der Leute ausgab, die offiziell gar kein Facebookprofil haben.
Datensammeln kostet ja nichts. 1981 kostete ein Gigabyte Festspeicher ca. 300.000 Dollar, 2004 nur noch einen einzigen. Heute sind wir schon bei 3 Cent und bald schon wird Gigabyte keine relevante Maßeinheit mehr sein, weil alle Welt nur noch in Terabyte denkt. Speichermedien werden in dem Maße billiger, wie Prozessoren schneller werden, eine Halbierung des Preises alle 18 Monate zieht sich als Ausprägung von Moore‘s Law wie eine Naturkonstante durch die Geschichte des Computers.
Die NSA baut gerade an einem neuen Datencenter in Utah. Auf 100.000 Quadratmeter sollen Schätzungsweise 5 Zetabyte (ca. 5 Milliarden aktuell handelsübliche Festplatten) an Daten gespeichert und verarbeitet werden. Umgerechnet auf die Weltbevölkerung wären das 700 Gigabyte pro Person. Das Rechenzentrum soll noch dieses Jahr in Betrieb genommen werden.
Aber die Datenmassen wachsen ebenso schnell wie ihre Speicher. Das gesamte weltweite Datenvolumen verdoppelt sich alle 2 Jahre. 2010 behauptete Eric Schmidt, der damalige CEO von Google, dass in 48 Stunden so viele Daten produziert werden, wie seit Beginn der Menschheit bis 2003.
Man muss gar nicht die NSA sein, um an all die Daten heranzukommen. Datenbankhacks großer Unternehmen werden so langsam zum Alltag. 2012 waren es im Schnitt zwei pro Tag. Viele bekannte Namen finden sich darunter: Visa, Adobe, LinkedIn. Daten, die hinterher in unkontrollierbaren Schwarzmärkten gehandelt werden, oder gleich auf Tauschbörsen wie Bittorrent verteilt werden.
Der Computer wird gerne „Rechenmaschine“ genannt. Das ist aber nicht mal ein Viertel der Wahrheit. Der weitaus größte Teil einer jeden Prozessorarchitektur widmet sich ausschließlich dem Kopieren. In der symbolischen Welt der Bits und Bytes wird jede Information, die bewegt werden soll, kopiert statt verschoben. Wenn wir eine E-Mail senden, wird sie nicht „verschickt“, sondern an den Empfänger kopiert. Wenn wir im Netz Musik hören, wird diese Musik auf unseren Rechner kopiert, und selbst wenn ich ein Bild im Browser anschaue, dann schaue ich auf eine Kopie des Bildes im Hauptspeicher meines Computers.
Die immer weiter steigende Leistungsfähigkeit und Verfügbarkeit von Datenspeicher und Leitungen verflüssigt in der riesigen Kopiermaschine Internet auch noch so große Datenmengen. Der Wikileaks Whistleblower Bradley Manning konnte 251.287 Botschaftsdepeschen, 71.911 Afghanistan- und 391.832 Irak-Dokumente auf einer einzigen DVD unbemerkt heraustragen. Vor 30 Jahren hätte es in den USA keinen LKW gegeben, der so viele Dokumente hätte fassen können.
Als 2010 die Internetdienstleister von Wikileaks auf Druck der US-Regierung die Zusammenarbeit aufkündigten und die Website drohte, nicht mehr erreichbar zu sein, fanden sich in Windeseile 1426 Aktivisten, die die kompletten Daten der Wikileaksserver kopierten und ihrerseits der Öffentlichkeit zugänglich machten.
Wikileaks war das Napster der internationalen Politik. Mit Snowden sind wir jetzt bei Kazaa angekommen.
Die Krankenakte des Tutanchamun
Seit 2008 ist bekannt, dass die NSA eine selbstentwickelte Big-Data-Technologie namens Accumulo einsetzt. Mit ihr lassen sich gut „Pattern Recognition“-Analysen bewerkstelligen. Will man eine Nadel im Heuhaufen suchen, ist normalerweise jeder Strohhalm einer zu viel. Big Data ist da anders, Big-Data mag Heu. Jeder Strohhalm ist anders als alle anderen, deswegen will Big-Data möglichst viele Strohhalme kennenlernen. Denn je besser das Verständnis des Computers für Heu ist, desto schneller findet er darin die andersartige Nadel. Die NSA braucht eine Menge Kommunikationsdaten, denn je besser der Computer versteht, was „normale Kommunikation“ ist, desto eher findet es die „verdächtige Kommunikation“.
Auch liegt es nahe, sich anhand der Analyse der Metadaten der Kommunikation ein genaues Bild darüber zu verschaffen, wer mit wem kommuniziert und auf welche Weise einzelne Gruppen untereinander vernetzt sind. Die so genannte Graphen-Analyse ist heute ein gängiges Verfahren, um versteckte Zusammenhänge zwischen Personen oder Fakten in großen Datenmengen zu finden und Accumulo ist ausgewiesenermaßen darauf spezialisiert.
Dabei ist Big Data eigentlich ein großer Durchbruch in der Wissenschaft. Statt Hypothesen aufzustellen kann man große Datenmengen für sich sprechen lassen. Big Data kann Zusammenhänge aufzeigen, die niemand sonst je hätte erdenken können. Tomtom erkennt zum Beispiel in Zusammenarbeit mit Vodafone Staus. Verändern sich die Standortdaten vieler Handys auf Autobahnen über einen längeren Zeitraum nur noch wenig, ist das ein sicheres Zeichen für einen Stau, der dann in Echtzeit auf den Tomtom-Geräten angezeigt werden kann. Datenschützern wird versichert, dass die Daten zu diesem Zweck natürlich anonymisiert werden.
Paula Broadwell, die heimliche Affaire des Ex-CIA-Chefs Petraeus, flog auf, obwohl sie nicht unbedarft darin war, ihre Identität zu verstecken. Sie betrieb einen anonymen E-Mail-Account, in den sie sich nie von zu Hause aus einloggte. Sie suchte sich immer öffentliche Plätze, um ins Internet zu gehen und manchmal auch Hotels. Das war ihr Fehler. Das FBI korrelierte die Gästelisten vieler Hotels mit den Internetadressen des Petraeus-Mailverkehrs. Es reichten wenige übereinstimmende Datenpunkte, um Broadwell zu entlarven.
Neuerdings ist es unter Wissenschaftlern eine Art Big-Data-Sport geworden, große anonymisierte Datensets wieder zu deaonymisieren. Am MIT in Cambridge extrahierten sie aus den rohen Handy-Funkzellendaten nicht nur genaue Bewegungsprofile, sondern fanden heraus, dass es lediglich 4 Datenpunkte benötigte, um Nutzer mit 95% Genauigkeit zu identifizieren. Solche Datenpunkte können Checkin-Informationen auf Diensten wie Foursquare sein oder aber die Geokoordinaten in Fotos oder Tweets.
Bereits 2004 wurde ebenfalls am MIT das Programm „Gaydar“ entwickelt. Es zeigt, dass eine einfache Netzwerkanalyse der öffentlich einsehbaren Kontaktinformationen auf Facebook ausreicht, um mit 86%iger Sicherheit vorherzusagen, ob jemand homosexuell ist – natürlich ohne, dass derjenige das öffentlich angegeben hat.
2005 brachte eine Computertomographie zu Tage, dass Tutanchamun, der ägyptische Pharao vor 3000 Jahren nicht erst mit um die 30, sondern schon im Alter von 18 bis 20 gestorben sein muss. Über die Todesursache ist man sich allerdings bis heute uneins, denn Tutanchamun hatte viele potentiell tödliche Leiden. Verletzungen am Schädel, ein gebrochener Oberschenkel, ein eventueller Tumor, Skoliose und Malaria. Tutanchamun und seine Zeitgenossen wären nie auf die Idee gekommen, was für ausgefuchste Methoden der Analyse seines uralten Leichnams ihm eines Tages eine nachträgliche Krankenakte bescheren würden.
Wir alle sind Tutanchamun. Wenn wir ein Foto posten, einen Tweet absetzen, in ein Hotel einchecken oder uns einfach nur im Raum bewegen, wissen wir nicht, was morgen schon aus diesen Daten herauslesbar ist. Daten haben die Eigenschaft, verknüpfbar zu sein, und sie sind es morgen viel mehr noch als heute. Was heute Rauschen ist, sind morgen wertvolle Informationen, was heute unbedeutend ist, kann morgen einen Skandal auslösen. Wir wissen so wenig wie Tutanchamun, was Daten morgen sein werden.
Ein neues Spiel
Und nun stehen wir vor Prism und uns wird langsam bewusst, dass wir die Kontrolle auch nicht wiedergewinnen werden. Als abstrakte Bedrohung aus dem Off konnte die Erzählung von mitlesenden Geheimdiensten den Diskurs über Privatsphäre-Technologien und Datenschutz sogar noch anfeuern. Als konkrete und überbordende Realität steht man davor, als hatte man eben noch vorgehabt, mit einem Klappmesser einen Wal zu erledigen.
Datenschutzerklärungen sind auf einen Schlag null und nichtig, Datenschutzgesetze wirken wie Hohn gegen die internationalen Spionagenetzwerke. Auch der bange Blick zur Politik wird mehr als nur enttäuscht. Es stellt sich heraus, dass all das nicht nur im Einverständnis, sondern in enger Zusammenarbeit mit den deutschen Diensten, also auch der Regierung, geschieht. Das vom Staat so pathetisch gewährte Grundrecht auf „Informationelle Selbstbestimmung“ war lediglich Opium fürs Volk, das jederzeit mit Füßen getreten werden darf – jedenfalls von den „Richtigen“. Und wer glaubt, dass ein Regierungswechsel irgendetwas verändern würde, hat sich noch nicht mit den damaligen und heutigen Positionen zur Überwachung bei der SPD beschäftigt.
Aus der Hackercommunity kommen derweil die Ratschläge zur Selbstverteidigung: „Verschlüsselt doch Eure Kommunikation!“ Aber obwohl es noch nie so einfach war wie heute, ist es immer noch viel zu kompliziert für den größten Teil der Bevölkerung. Viel einfacher darf es auch gar nicht werden, denn um Verschlüsselung für Kommunikation einzurichten, muss man sich bereits mit dem Verfahren soweit vertraut gemacht haben, dass Fehler vermieden werden können, die die Sicherheit sofort kompromittieren. Passt man zum Beispiel nicht auf und vertraut der falschen Signatur, kann sich schnell jemand als mein Kommunikationspartner ausgeben oder mit einer Man-in-the-Middle-Attacke dennoch meine Daten abhören.
Eine Lösung gegen die NSA ist Verschlüsselung sowieso nicht, denn auch wenn die Kommunikationsinhalte nicht lesbar sind, bleiben die Metadaten der Kommunikation weiterhin überwachbar. Sie sind es aber, für die sich die NSA ganz besonders interessiert. So praktisch Verschlüsselung im Einzelfall sein kann, eine gesellschaftliche Antwort auf Prism kann auch sie nicht bieten.
Der Hacker Jacob Applebaum schlägt zudem noch vor, dass wir aufhören sollen Smartphones zu benutzen, keinen Facebookaccount haben und nur noch über Anonymisierungsdienste im Netz unterwegs sein sollten. Doch Kommunikationssicherheit als Lebensaufgabe, sich selbst sozial und technisch einschränken und sich letztendlich zu verstecken ist nicht gerade das, was außerhalb der Hackerwelt als „Freiheit“ empfunden wird. Zu Recht.
Viele Hacker und Datenschützer sind bis heute überzeugt, dass es beim Kampf gegen Überwachung um Privatsphäre ginge, und versuchen weiterhin – zunehmend verzweifelt – den Kontrollverlust einzudämmen. Sie spielen immer noch ein Spiel, das längst verloren ist. Die Privatsphäre ist tot, die NSA hat nur noch mal ihren Stempel darunter gesetzt.
Der Kontrollverlust ist der Tsunami und Prism nur eine der Schaumkronen. Die Allgegenwart der Sensoren, die steigende Volatilität der Daten und die nicht einzugrenzende Aussagefähigkeit vorhandener Datenberge durch neue Analysemethoden sind die drei Treiber des Kontrollverlustes. Bedingt durch die Weiterentwicklung der digitalen Technologie, die alle 18 Monate ihre Leistungsfähigkeit verdoppelt, wird der Kontrollverlust zur exponentiellen Konstante der Weltverdatung. Unaufhaltsam, allgegenwärtig, grenzenlos.
Aber deswegen aufgeben?
Der erste FBI-Chef J. Edgar Hoover führte seinerzeit Akten über jeden wichtigen Politiker, jeden mächtigen Wirtschaftsboss und alle möglichen Journalisten in den USA. Das halbe Land musste nach seiner Pfeife tanzen, denn er war in der Lage, jeden zu kompromittieren. Überträgt man Hoovers Ruchlosigkeit auf die Möglichkeiten der heutigen NSA, ist dasselbe in globalem Maßstab vorstellbar. Eine solche Machtakkumulation droht nicht nur die amerikanische Demokratie auszuhebeln, sondern bedroht auch die Integrität der Politik auf der ganzen Welt.
Es lohnt sich, weiterhin gegen Überwachung zu kämpfen, aber aus anderen Gründen und mit anderen Mitteln. Der Kontrollverlust hat nicht nur die Spielregeln verschoben, sondern wir befinden uns in einem komplett anderen Spiel. Ein Spiel, das man nicht gewinnen kann, wenn man es gegen seine Schwungmasse spielt.
„Snowden besitzt genügend Informationen, um der US-Regierung innerhalb einer Minute mehr Schaden zuzufügen, als es jede andere Person in der Geschichte der USA jemals getan hat“, ließ der Guardian-Journalist Glenn Greenwald, mit dem Snowden in engem Kontakt steht, in einem Interview durchblicken. Im neuen Spiel kann ein Einzelner ohne große finanzielle Mittel Supermächte in arge Bedrängnis bringen.
Julian Assange, Bradley Manning und nun Edward Snowden spielen erfolgreich das neue Spiel. Es heißt: Transparenz gegen Überwachung.
Der Kontrollverlust hat nicht nur uns gegenüber den Geheimdiensten transparent gemacht, sondern auch die Geheimdienste gegenüber uns. Der Kontrollverlust macht alles und jeden transparent. Fragt sich also, wer dadurch mehr zu verlieren hat.
Es kann in diesem Spiel nicht mehr darum gehen, Leute davon abzuhalten, Daten zu sammeln. Es muss darum gehen, den Geheimdiensten kein Monopol auf Daten zu gewähren. Ihre eigenen klandestinen Strukturen, die Deutungsmacht über die Realität, der Informationsvorsprung gegenüber der Restgesellschaft sind der Stoff, aus dem die Dienste ihre Macht beziehen. Ihre Macht zu brechen heißt, sie ins Licht zu zerren, ihre Datenbanken zu öffnen und allen Zugang zu gewähren. Sie haben viel zu verlieren.
Dass die Menschen untereinander transparenter werden, scheint ihrem politischen Einfluss dagegen nicht zu schaden. Nie war es so leicht, sich zu finden, sich auszutauschen, sich zu organisieren und sich zu vernetzen. Nie wurde die Kraft der Massen schneller und effektiver auf die Straße gebracht als heutzutage. Vom ägyptischen Tahrir- bis zum türkischen Taksim-Platz erfahren wir eine ganz neue Macht der Öffentlichkeit, die selbst noch erst ihre Möglichkeiten im neuen Spiel begreifen muss.
Die NSA hat jährlich ca. 10 Milliarden Dollar Budget zur Verfügung, um uns zu überwachen. Doch wir, die Restweltgesellschaft, geben allein dieses Jahr 3,7 Billionen Euro für Informationstechnologie aus. Im neuen Spiel haben wir mehr Köpfe, mehr Rechenpower, mehr Daten zur Verfügung als die NSA je haben könnte und mit dem Internet haben wir ein Instrument, all diese Kräfte zu organisieren. Die Zivilgesellschaft hat allen Grund für ein völlig neues Selbstbewusstsein. Eines, das sich nicht mehr durch alle 4 Jahre angekreuzte Zettel zum Ausdruck bringt, sondern unvermittelt, disruptiv und unkontrollierbar.
Im neuen Spiel sind Datenschutzgesetze gegen Prism nicht nur unwirksam, sondern stärken die Macht der Institutionen, denn sie schränken in erster Linie die Zivilgesellschaft ein, nicht aber die Dienste. Jede Regulierung des Kontrollverlusts wirkt in dieser Mechanik wie ein Datenauswertungsmonopol der Mächtigen und stärkt deren Deutungsmacht. Dasselbe gilt für Urheberrechte und alle anderen rechtlichen Bestimmung zur Datenkontrolle.
Im neuen Spiel gehört private Kommunikation den Kommunikationspartnern und der NSA. Private Statusmeldungen auf Facebook gehören dem Freundeskreis und der NSA. Alles, was man in der vermeintlichen Vertraulichkeit einer gesetzten Privacyeinstellung oder der gesetzlichen Zusicherung des Staates tut, gehört der NSA. Nur was öffentlich für alle erreichbar ist, verlinkbar, zitierbar ist, kann die NSA nicht als Informationsvorsprung für sich nutzen.
Im neuen Spiel gibt es keine Privatsphäre, es gibt nur noch Verschlüsselung. Das ist nicht das gleiche. Sie mag als gesellschaftliche Lösung nicht taugen, aber um zeitweise Residuen des Unbeobachteten zu schaffen, ohne den Geheimdiensten neue Macht in die Hände zu spielen, kann Verschlüsselung nützlich sein.
Für das neue Spiel brauchen wir zivile und auch aktivistische Big-Data-Projekte. Wir müssen die Kraft der Daten für die Zivilgesellschaft nutzbar machen. Viele der Werkzeuge gibt es Open Source, doch in der Aktivisten- und Hackerszene gibt es noch Berührungsängste, die das alte Datenschutz-Paradigma weiterhin reproduzieren.
Der Feind sind im neuen Spiel nicht die Amerikaner. Die Grenzen verlaufen bei der Überwachung nicht zwischen den Staaten, sondern zwischen oben und unten. Eine globale Regierungselite hat sich zusammengetan, um gegenseitig ihre Bevölkerungen auszuspähen und die Daten dann auszutauschen. Wir – die Weltöffentlichkeit – können den Regierungen in dieser Frage nicht vertrauen. Es kann deswegen nicht darum gehen, die Geheimdienste unter eine vermeintlich bessere Kontrolle zu bekommen. Ziel des neuen Spiels muss die restlose Transparentmachung und schließlich Abschaffung aller geheimdienstlicher Aktivitäten sein.
Das neue Spiel wird anspruchsvoller als das alte. Vor allem müssen wir uns erst selbst in die neue Rolle einfinden. Wir müssen Gewissheiten aufgeben, Sicherheiten abhaken, in vielen Dingen umdenken. Aber das neue Spiel ist keinesfalls aussichtsloser als das alte. Im Gegenteil. Alles auf Anfang.
Wiederabdruck
Dieser Text erschien zuerst in: SPEX # 347, August 2013, S. 116.
Die Fabbing-Revolte
Jede Revolution beginnt mit einer schwelenden Revolte, engagierten Vorkämpfern und einem gemeinsamen Slogan. Fabbing, das Ausdrucken von dreidimensionalen Gegenständen, ist das Herz dieser Revolte. Und „Atoms are the new bits“, lautet die griffige Formel, mit der Visionäre des kommenden Aufstandes wie Neil Gershenfeld vom MIT nun schon seit Jahren die bevorstehende Disruption durch Fabbing-Technologien ankündigen. Gemeint ist damit, dass sich der Trend zu Personal Fabrication, die Demokratisierung der Produktion, exakt in den Bahnen ereignen wird, die durch die PC-Revolution vorgezeichnet wurden. 2005 schrieb Gershenfeld in seinem Buch „FAB: The Coming Revolution on Your Desktop“: „Wie beim früheren Übergang von Mainframe-Computern zu PCs werden die Potentiale von maschinellem Werkzeug nun für den Normalmenschen erschwinglich in Form von Personal Fabricators (PFs). Die Auswirkungen sind wahrscheinlich diesmal aber noch gravierender, weil das, was hier personalisiert wird, unsere physische Welt der Dinge ist, nicht die digitale Welt der Computer-Bits.“
Um einen Vorgeschmack zu geben, haben Gershenfeld und sein Centre for Bits and Atoms die FabLabs entwickelt, kleine Produktionseinheiten, in denen von Alltagsgütern des täglichen Bedarfs bis zu Hightech-Produkten fast alles dezentral produziert (und repariert) werden kann. Über 50 dieser FabLabs sind mittlerweile weltweit im Einsatz, vom ländlichen Indien bis Boston, von Südafrika bis Nord-Norwegen. Aber Gershenfeld geht es um mehr als nur ein neues Werkzeug, um damit Industrieproduktion dorthin zu bringen, wo sie vorher nicht war. Eigentlich geht es dem Revoluzzer darum, die Trennung von Handwerkskunst und Produktion im Gefolge der Industriellen Revolution zu korrigieren. Der eigentliche Sprengstoff dafür schlummerte in der Weiterentwicklung der 3D-Drucker, die damals noch gar nicht richtig begonnen hatte, als Gerschenfeld schrieb: „Ein programmierbarer Personal Fabricator wird in der Lage sein alles mögliche inklusive sich selbst herzustellen indem er Atome kombiniert. Es wird eine sich selbst reproduzierende Maschine sein.“
Kurze Zeit später, im September 2006, stellte Adrian Bowyer, ein exzentrischer Brite, an der Universität von Bath im Westen Englands den ersten Prototypen einer solchen Maschine vor, die neben allem möglichen anderen auch die meisten Bauteile für sich selbst herstellen konnte – und sich so theoretisch endlos fortpflanzen könnte. Der RepRap, kurz für „replicating rapid-prototyper“, ein würfelförmiges Gebilde aus Gewindestangen, Computerchips und simplen Plastikteilen, die auf einer ebensolchen Maschine hergestellt werden können. Auch Bowyer glaubte von Anfang an fest an die durchschlagende gesellschaftliche Wirkung seiner Maschine; sie werde „ein revolutionäres Eigentum an den Produktionsmitteln durch das Proletariat ermöglichen – ohne den chaotischen und gefährlichen Revolutionskram.“
Das nächste Apple
Bowyers RepRap, der von einer Open-Source-Hardware-Community permanent weiterentwickelt wird, ist gleichzeitig Urahn der meisten billigen 3D-Drucker, die heute auf dem Markt sind oder gerade auf den Markt drängen. 2009 machten drei Jungs aus Brooklyn den Anfang und brachten mit dem „Makerbot“ den ersten Bausatz für einen 3D-Drucker unter 1.000 US-Dollar auf den Markt. Obwohl die Eigenbau-Montage zeitraubend und knifflig war, war die Nachfrage auf Anhieb so groß, dass die Firma ihre Erstkunden bitten musste, auf ihren Makerbots gegen Bezahlung Komponenten für weitere Bausätze zu fertigen. Nur halb im Spaß wurde das bescheidene Start-up ganz in der Atoms-Bits-Analogie bereits als „das nächste Apple“ gehandelt, erinnert man sich, wie handgemacht die erste PC-Generation aussah.
Seit Anfang dieses Jahres gibt es das neueste Modell „Replicator“ zum Preis von 1.749 US-Dollar im Makerbot-Webshop zu bestellen. Es kommt vorfabriziert ins Haus, sieht bereits wie ein richtiges Produkt aus und richtet sich damit an weniger technikbegabte Amateure. Die Wartezeit beträgt allerdings zehn bis zwölf Wochen. Und Makerbot bekommt derzeit mächtig Konkurrenz im niederpreisigen Home-Segment. Eine Reihe von 3D-Druckern in ähnlicher Preisklasse sind bereits lieferbar oder angekündigt. Der Markt fühlt sich ein bisschen so an, wie der PC-Markt um 1980 zu Zeiten des Commodore VC-20 oder des Atari ST. Was lange Zeit blumige Versprechung war, steht nun anscheinend vor einem breiteren Durchbruch beim Publikum: Der erschwingliche 3D-Drucker für jeden Schreibtisch als Teil der PC-Infrastruktur.
Wenn Makerbot sich tatsächlich als das nächste Apple herausschälen sollte, dann wäre die angegliederte Website Thingiverse.com das nächste iTunes. Hier kann man sich die CAD-Datensätze herunterladen, mittels derer der Makerbot – oder jedes andere Modell – dann den eingespeisten Plastikdraht über eine Heißdüse Schicht für Schicht in die gewünschte Form modelliert. Der Vergleich mit Apple hinkt allerdings, weil auf Thingiverse alle Datensätze umsonst zu haben sind – so wie das ganze Feld noch sehr nach Open-Source-Regeln funktioniert. Bisher, und das ist das große Manko der Szene, ist allerdings wenig Weltbewegendes dabei: Das Spektrum reicht von der Trillerpfeife bis zur Schneckenfalle für den Garten. Vieles erinnert an Überraschungsei-Schnickschnack. Das liegt zum einen an den begrenzten Volumina, als auch an den zu verarbeitenden Materialien. Die meisten Geräte können nur minderwertige Thermoplaste verarbeiten und in Einzel-Objekte bis zur Größe eines Tennisballs verwandeln. Damit lässt sich die Welt kaum aus den Angeln hebeln.
Aber auch das ändert sich gerade. Immerhin kann der „Replicator“ bereits zweifarbige Objekte ausdrucken, und es tun sich immer mehr sinnvolle praktische Anwendungsfelder auf – nicht mehr lieferbare Ersatzteile für historische Geräte und Oldtimer sind bereits heute eins. Per 3D-Scanner lassen sich Alltagsobjekte in Datensätze verwandeln und werden so zur Software für eine Reparatur-Ökonomie „Marke Eigenbau“. Wie beim PC, mit dem anfangs auch überwiegend gespielt wurde, wird die Bewegung eines Tages das Experimentierstadium überwunden haben und das Nichtschwimmerbecken verlassen.
Ding-Hacking und Bio-Hacking
Als Menetekel und historischer Kick-off könnte sich in der Rückschau etwa ein scheinbar unbedeutendes Ereignis im Januar 2012 erweisen: der Zeitpunkt, als The Pirate Bay die Kategorie „Physibles“ zu seinen bestehenden Kategorien hinzufügt. Damit rüstet sich die Filesharing-Plattform, die schon der Software-, Musik- und Filmindustrie gehörig zugesetzt hat, für eine Zukunft, in der auch die CAD-Daten physischer Objekte auf breites Interesse von Raubkopierern stoßen, und das verarbeitende Gewerbe nicht mehr nur chinesische Kopien und Plagiate fürchten muss, sondern eine Ding-Piraterie durch Amateure. Die Erläuterung der Piraten dazu liest sich ähnlich vollmundig-visionär wie die Sätze der ersten Fabbing-Propheten: „Wir versuchen immer, die Zukunft vorauszusehen […] Wir glauben, der nächste Schritt beim Kopieren wird der von der digitalen zur physischen Form sein. Es werden physische Objekte sein. Oder, wie wir sie nennen: Physibles. Datenobjekte, die bereit und in der Lage sind, sich zu vergegenständlichen. Wir glauben, 3D-Drucker, -Scanner und dergleichen sind nur der erste Schritt. Wir glauben, in der nahen Zukunft wird man Ersatzteile für Fahrzeuge drucken. Und in 20 Jahren seine Sneakers herunterladen.“
Was passiert, wenn sich die Hacker auf die reale Welt stürzen und beginnen, die Lücken zu stopfen und Nischen zu füllen, die die industrielle Massenproduktion bietet? Auch Chris Anderson, Chefredakteur von Wired, „Long Tail“-Erfinder und Kurator der TED-Konferenz sieht – ausgehend von einer Renaissance der Garagenbastler – eine neue industrielle Revolution heraufziehen, die sich am Vorbild der Digitalisierung orientiert. In einer WIRED-Titelgeschichte zum Thema schreibt er: „Peer Production, Open Source, Crowdsourcing, user-generated Content – all diese digitalen Trends übertragen sich nun auf die reale Welt.“
Analog zu den Hackern der PC-Revolution bildet in den USA die wachsende Maker-Szene die Speerspitze der Bewegung. Sie trifft sich seit 2006 in Kalifornien auf den Maker Faires, einer Art Erfinder-Weltkongress 2.0, der mittlerweile Ableger in Kanada, Afrika und Korea ausgebildet hat. Bei der letzten Flagship-Messe im Mai 2012 im San Mateo County Event Center kamen über 100.000 Teilnehmer. Die Szene reicht von den traditionellen Bastlern und Schraubern, die in klassischer Do-it-yourself-Manier vom getunten Toaster bis zur lebensgroßen Dinosaurier-Attrappe alles mögliche selbst herstellen, bis zu den Hardhackern, deren Ehrgeiz darin liegt, eigene Computer-Hardware und -Peripherie zu entwickeln und anzupassen. Letztere haben durch die Entwicklung des Arduino einen ziemlichen Zustrom erlebt. Diese von Interface-Designern in Norditalien entwickelte „Electronic Prototyping Plattform“ ist nach Open-Source-Regeln anpassbar und frei bestückbar mit Sensoren, LEDs, Elektromotoren etc. Damit ist der Arduino, den es in der Basisvariante bereits ab 20 Euro zu kaufen gibt, zum Herzstück vieler Hardware-Eigenentwicklungen bis hin zu marktreifen Produkten in Kleinserie geworden. Selbst versiertere Laien können damit nach Anleitung einen webfähigen Feuchtigkeitsmesser bauen, der ihnen über Twitter mitteilt, wenn die Zimmerpflanzen Wasser brauchen. Ambitioniertere Bastler haben damit bereits einen Open-Source-Gameboy fabriziert.
Die Ultra-Pioniere der Bewegung haben sich allerdings bereits von der Hardware abgewendet und richten ihre Energien auf die „Wetware“, biologische Materialien, Mikroorganismen und DNA. Bio-Hacking heißt das neue Zauberwort. Hobby-Frankensteine, die sich selbst „Bio-Punks“ nennen, machen den Einrichtungen der Spitzenforschung ihr Monopol auf die synthetische Biologie streitig. Die Labor-Ausstattung dafür kaufen sie billig auf Ebay, die Gen-Sequenzen, sogenannte „Biobricks“, erhalten sie von den gleichen Laboren, die ansonsten für Profi-Forscher die Sequenzierungen im industriellen Maßstab übernehmen. Bislang hat noch kein lebensfähiger, von Amateuren designter Organismus den Bastelkeller verlassen. Das heute erreichbare Niveau, das fanden kürzlich auch Wissenschaftsredakteure der FAZ im Eigenexperiment heraus, liegt etwa bei der Isolierung und Analyse einzelner Genabschnitte des eigenen Erbmaterials.
Dagegen stehen die vollmundigen Ankündigungen von Biohacking-Visionären wie Freeman Dyson von der Harvard-Universität: „Die domestizierte Biotechnik wird uns, steht sie erst einmal Hausfrauen und Kindern zur Verfügung, eine explosionsartige Vielfalt neuer Lebewesen bescheren statt der Monokulturen, die die Großunternehmen bevorzugen.“ Und weiter: „Genome designen wird eine persönliche Angelegenheit werden, eine neue Kunstform, die so kreativ wie Malen oder Bildhauern sein wird. Nur wenige der neuen Kreationen werden Meisterwerke sein, viele aber werden ihren Schöpfern Freude bereiten und unsere Fauna und Flora bereichern.“
Ob irgendetwas davon jemals Realität wird, scheint mehr als fraglich. Dass überhaupt darüber nachgedacht und daran herumexperimentiert wird, zeigt aber, dass heute kein Bereich mehr vor herandrängenden Hackern sicher ist. Und keine Industrie dagegen gefeit, dass sich ambitionierte Amateure und DIY-Bastler in ihr Geschäftsfeld einmischen.
Distributed Manufacturing
Die nächste Industrielle Revolution bedeutet nicht, dass eine neue Form der High-Tech-Subsistenzwirtschaft an die Stelle der industriellen Massenproduktion tritt. Das Szenario, dass die neue Konkurrenz für Konzerne aus Garagen, Hobbykellern und Hinterhöfen erwächst – und auch dort produziert – ist ebenso unrealistisch wie der populäre Kurzschluss, dass wir eines Tages alle 3D-Drucker auf unseren Schreibtischen stehen haben werden, die die Güter des täglichen Bedarfs ausspucken. Dafür sind heutige Herstellungsverfahren schlicht zu komplex, die Leistungsfähigkeit von Home-3D-Druckern zu limitiert, beispielsweise scheitern sie auf absehbare Zeit an der Metallverarbeitung, und die Oberflächenqualität lässt auch noch sehr zu wünschen übrig.
Zwar hat im Tokyoter Hipster-Stadtteil Shibuya gerade das erste FabCafe eröffnet. Während man seinen Frapuccino trinkt, kann man sich dort die auf einem USB-Stick mitgebrachten CAD-Datensätze als Objekte ausdrucken lassen. Aber auch das Szenario, dass es in Zukunft Fabshops an jeder zweiten Ecke geben wird wie heute Copyshops, ist wohl eher zu kurz gedacht.
Was indes blüht und wächst, besonders in den USA, sind Gemeinschaftswerkstätten, die nach dem Modell von Co-Working-Spaces eine Werkbank bereitstellen und Zugriff auf den Maschinenpark auf Stunden- oder Tagesbasis ermöglichen. Die Kette TechShop verfügt landesweit bereits über fünf Standorte, weitere sind in Planung. Ähnlich wie die FabLabs ausgestattet, bieten sie den Mitgliedern Zugriff auf CNC-Laserfräsgeräte, 3D-Drucker, Geräte zur Bestückung von Elektronikplatinen, Verarbeitung von Carbonfasern etc. Neben Hobbybastlern fertigen hier einzelne oder kleine Teams hochspezialisierte Produkte in Kleinserien. Die Stückzahlen und Umsätze dieser virtuellen Unternehmen sind oft zu groß für die Garage, jedoch zu klein, um wirklich eine eigene Firma mit eigenem Maschinenpark zu gründen – deshalb sind sie in den TechShops genau richtig angesiedelt. Chris Anderson selbst ist an einem Unternehmen beteiligt, das unbemannte Drohnen für nichtmilitärische Einsatzzwecke herstellt, die im TechShop in Menlo Park entwickelt wurden: „Was diese kleinen Businesses von der Reinigung oder dem Tante-Emma-Laden an der Ecke, die die Mehrheit der Kleinunternehmen im Land bilden, unterscheidet, ist, dass wir global und High-Tech sind“, schreibt Anderson: „Zwei Drittel unserer Bestellungen kommen von außerhalb der USA. Wir konkurrieren am unteren Ende mit Waffenlieferanten wie Lockheed Martin oder Boeing.“ In Europa ist die Welle noch nicht ganz angekommen, auch wenn das Betahaus in Berlin mit der „Open Design City“ bereits über eine Gemeinschaftswerkstatt verfügt, und die Dingfabrik in Köln mit ihrem Projekt „Dingfabrik+“ demnächst sogar ein noch größeres Rad drehen will.
Was sich ferner abzeichnet, ist, dass ganze globale Wertschöpfungsketten von einzelnen Individuen und vom Laptop aus dirigiert und kontrolliert werden können. Die virtuelle Ein-Mann- oder Eine-Frau-Fabrik kombiniert lokale Produktion mit spezialisierten Remote-Dienstleistungen und Support-Services: „Die Werkzeuge der Fabrikproduktion von der Elektronikmontage bis zum 3D-Drucken sind jetzt für Individuen in kompakten Einheiten verfügbar. Jeder mit einer Idee kann in China Fließbänder in Bewegung setzen“, schreibt Chris Anderson. Heimische 3D-Drucker dienen demnach, wie bislang in F&E-Abteilungen von Konzernen und Mittelständlern, vorwiegend dem Design von Prototypen. Die Herstellung von der Kleinserie bis zum Massenartikel wird – ebenfalls nach dem Vorbild der Konzerne – über Plattformen wie Alibaba.com in Offshoring-Zentren ausgelagert. Auch das gesamte Fulfillment vom Versand bis zur Fakturierung lässt sich mittlerweile bequem an Drittanbieter outsourcen.
Spezialisierte Web-Plattformen wie I.materialise.com, Fabberhouse.de, Sculpteo.com, Razorlab.co.uk oder Formulor.de bieten über das Internet vom Lasercutting-Service bis zu aufwendigeren 3D-Druck-Verfahren wie Stereolithographie und Lasersintern, womit sich Objekte mit glatter Oberfläche herstellen und auch Metall verarbeiten lässt. Viele der Anbieter haben auf ihrer Website gleich einen Webshop integriert, über den sich die Gegenstände und Designs an Dritte verkaufen lassen. Im Shop von Shapeways.com, einer Tochter des Philipps-Konzerns, finden sich so neben Schmuck, Tand und iPhone-Hüllen auch eine Reihe von Gadgets, Technik-Zubehör, und Auto-Ersatzteile.
Auf einer Vielzahl dieser Angebote setzt das Geschäftsmodell von Ponoko.com auf, einem ursprünglich aus Neuseeland stammendes Start-up. Ponoko aggregiert lokale Anbieter und kontrahiert Produktdesigner, Käufer, Materiallieferanten und Herstellungsbetriebe vor Ort zu einem Vier-Seiten-Geschäft. Ponoko selbst nennt das „distributed manufacturing“. „Wir versuchen, ‘Made in China’ über den ganzen Globus zu schmieren“, sagt David ten Haven, einer der Gründer: „Wir sind dabei, die Fabrik des 21. Jahrhunderts zu bauen.“ Im Wikipedia-Eintrag zu Ponoko liest sich das nur unwesentlich verhaltener: „Viele glauben, dass solch distribuiertes on-demand Manufacturing einen größeren Paradigmenwechsel im verarbeitenden Gewerbe bedeuten könnte.“ Gemeint ist: Die Produktion wandert nicht von China auf den heimischen Schreibtisch – aber sie wandert doch in die Nähe, zu einer Produktionsstädte vor der eigenen Haustür. Das hat Implikationen für die Stoffkreisläufe, Logistikwege und die gesamte Wirtschaftsstruktur
Fabbing Society
Distribuiertes Manufacturing bedeutet: Weg von den globalisierten Long-Haul-Wirtschaftsketten, hin zur dezentralen Produktion, der stärkeren regionalen Wirtschaftsbeziehungen und geschlossenen Stoffkreisläufen. In ihrem Buch „Vom Personal Computer zum Personal Fabricator“ schreiben Andreas Neef, Klaus Burmeister, Stefan Krempl, drei Forscher des Institutes z_Punkt, über die disruptive Kraft dieses Paradigmenwechsels: „Eine dezentralisierte Produktionslandschaft wird zwangsläufig zu einem neuen Wirtschaftsspiel führen, einem ‘Whole New Game’, in dem die Rollen zwischen Entwickler, Produzent, Händler und Konsument neu verteilt werden. Produktion und Konsum rücken enger zusammen, und der Kunde wird zum aktiven Teil der Wertschöpfungskette. Die industriellen Geschäftsmodelle werden in der Fabbing Society der Zukunft auf den Kopf gestellt.“
Dass das nicht bloße Zukunftsmusik ist – und wie ganze Industrien dadurch umgekrempelt werden könnten – demonstriert Local Motors, ein Unternehmen, das, wie der Name schon sagt, Automobile lokal in den USA produziert. Ganz nebenbei handelt es sich dabei um das erste Open-Source-Car der Welt, das Marktreife erlangt. Wie das funktioniert? Zunächst einmal stammen die Entwürfe und Designs für die Fahrzeuge von einer Crowdsourcing-Community. Am Entwurf des ersten Models Namens „Rally Fighter“ waren 2.400 Fahrzeugdesigner, Ingenieure und Amateure beteiligt. Die Innereien stammen freilich von Local Motors selbst bzw. sind eine geschickte Kombination von am Markt erhältlichen Bauteilen. Der Antrieb etwa ist ein sauberer Diesel von BMW. Die Firma Local Motors selbst hat nur eine Handvoll Angestellte und baut die Fahrzeuge nicht selbst zusammen. Stattdessen werden die Teile an eine Werkstatt in der Nähe des Kunden geliefert, wo sie nach Anleitung von Automechanikern (oder den Kunden selbst) zusammenmontiert werden. Mittelfristig will Local Motors ein landesweites Netzwerk von eigenen „Mikro-Factories“ aufbauen, so jedenfalls die Planung. Bislang sind nur wenige Stücke des 50.000 Dollar teuren, martialisch anmutenden Spaßgefährtes ausgeliefert. Und Local Motors will es auch gar (noch) nicht mit den Automobilriesen aufnehmen, sondern eher lukrative Nischen besetzen. Sieben Millionen Dollar Venture Capital und ein erfolgreich absolvierter Entwicklungsauftrag für ein Wüstenfahrzeug für das US-Militär sprechen dafür, dass Local Motors keine Eintagsfliege ist.
Unabhängig davon stehen die Zeichen der Zeit im produzierenden Gewerbe auf Dezentralisierung, kleinere Einheiten und Mass-Customization. „Flexible Spezialisierung“ nannten Michael J. Piore und Charles F. Sable schon Mitte der 1980er in „Das Ende der Massenproduktion“ ihre große Idee, statt Massenfertigung in Großbetrieben die Produktion in innovativen und flexiblen Klein- und Mittelbetrieben zu organisieren, die lokal vernetzt sind.
Mit der Digitalisierung der Produktion, sind die entscheidenden Werkzeuge vorhanden, die diese alternative Strategie, von mittelständischen Manufakturbetrieben seit jeher verfolgt, zu einer insgesamt überlegenen werden lassen könnten.
Im April 2012 rief auch der altehrwürdige und besonnene Economist in einer Titelgeschichte „The third industrial Revolution“ aus. Das Heft handelt davon, wie Unternehmen und mittelständische Betriebe profitieren können, indem sie nicht nur auf Fabbing-Technologien, sondern in eine ganze Reihe von Trends einsteigen, die mit der Digitalisierung in Verbindung stehen und die klassische Industrieproduktion verändern: „Eine Zahl von bemerkenswerten Technologien konvergieren: clevere Software, neuartige Materialien, geschicktere Roboter, neue Prozesse (allen voran das 3D-Drucken) und eine ganze Bandbreite Web-basierter Services.“ Auch wie die Fabriken der Zukunft aussehen, haben die Economist-Autoren bereits klar vor Augen: „Sie werden nicht mehr voll mit schmutzigen Maschinen sein, gewartet von Männern in ölverschmierten Overalls. Viele werden blitzblank sauber sein – und fast menschenleer. (…) Die meisten Jobs werden nicht in der Maschinenhalle angesiedelt sein, sondern in den angegliederten Büros, die voll sein werden mit Designern, Ingenieuren, IT-Spezialisten, Logistik-Experten, Marketingmenschen und anderen Vollprofis. Die Industrieberufe der Zukunft werden mehr Skills erfordern. Viele langweilige und monotone Tätigkeiten werden obsolet sein: Wenn nichts mehr genietet wird, braucht man auch keine Nieten mehr.“
Die gute Nachricht der nächsten Industriellen Revolution: Teile der Wertschöpfung kommen zurück aus China und rücken wieder enger an die Orte des Verbrauchs. Wenn Lohnkosten aufgrund einer neuen Automatisierungswelle immer weniger ins Gewicht fallen, schwinden auch die Kostenvorteile der Niedriglohn-Standorte. Die schlechte Nachricht (die nicht notwendigerweise schlecht sein muss): Die Arbeit kehrt nicht in Form von Jobs zurück, sondern als smarte Software und Programme, die zunehmend auch algorithmische Dienstleistungstätigkeiten und Supportfunktionen in Unternehmen wahrnehmen können. Wie die letzten beiden, so wird auch die dritte industrielle Revolution Verwerfungen mit sich bringen, Gewinner und Verlierer kennen und die Arbeitswelt so nachhaltig transformieren, dass wir sie nicht wiedererkennen werden. Wertschöpfung wird kleinteiliger, granularer sein und in häufig wechselnden, zeitlich befristeten Konstellationen stattfinden – und so werden auch die Jobs aussehen. Großkonzerne sind dafür tendenziell schlechter aufgestellt als Soloselbständige, Start-ups und wendige Mittelständler.
In seinem Sach-Roman „Makers“ beschreibt der Science-Fiction-Autor und Web-Aktivist Cory Doctorow, welche strukturellen Verschiebungen sich durch den von der Maker-Szene angezettelten Umbau der Industriegesellschaft ergeben: „Die Tage von Firmen mit Namen wie ‘General Electric’, ‘General Mills’ oder ‘General Motors’ sind gezählt. Das Geld, das auf dem Tisch liegt, ist wie Krill: Eine Milliarde kleiner Chancen für Entrepreneure, die von smarten und kreativen Leuten entdeckt und ausgebeutet werden können.“ Um im Bild zu bleiben: Selbst Pottwale können von Krill satt werden. Für diejenigen, die sich evolutionär an die neuen Verhältnisse und sich wandelnden Ökosysteme anpassen, bietet die nächste Industrielle Revolution mehr Chancen als Risiken. Die Dinosaurier freilich werden aussterben.
Wiederabdruck
Dieser Text erschien in „Trend Update“, Monatsmagazin des Zukunftsinstituts, Frankfurt, August 2012.
Literatur
Neil Gershenfeld: FAB: The Coming Revolution on Your Desktop 2005
Andreas Neef, Klaus Burmeister, Stefan Krempl: Vom Personal Computer zum Personal Fabricator. Points of Fab, Fabbing Society, Homo Fabber, 2006
Daniel Pink: Free Agent Nation. The Future of working for yourself. 2002
Holm Friebe und Thomas Ramge: Marke Eigenbau. Der Aufstand der Massen gegen die Massenproduktion. 2008
Chris Anderson: „Atoms Are the New Bits“. In Wired, 3/10.
Freeman Dyson: „Visionen Grüner Technik“. In Lettre, Herbst 2007
John F. Sable und Charles Piore: Das Ende der Massenproduktion. 1984
Cory Doctorow: Makers. 2009
Das Problem
Wir alle kennen die Diagnose: Die Einführung des Computers führt, so am prominentesten Peter Drucker1, zu einer epochalen Umwälzung der gesellschaftlichen Strukturen, wie sie nur alle paar Jahrhunderte vorkommt. Doch ähnlich wie zuvor bei der Einführung des Buchdrucks oder der Schrift sind wir noch weit davon entfernt, zu begreifen, was das eigentlich bedeutet. Für den Moment beobachten wir die Symptome des Wandels: Formalisierte Hierarchien werden von flexiblen, temporal existierenden Heterarchien unter Druck gesetzt, »Soft Skills« seitens des Managements werden zu einer erfolgskritischen Größe, vermeintlich vertraute Umwelten lösen sich auf in überbordende, undurchschaubare Komplexitäten, und soziale Medien verwandeln bewährte Sicherheiten in kleinteilige, nervöse Bewegungen, die im Schwarm Revolutionen auslösen können. All diese (und weitere) Symptome lassen sich auf einen fundamentalen sozialen Prozess zurückführen: Kommunikation und wie diese durch unseren Umgang mit den Eigenarten des Computers überformt wird. Die Gesellschaft, die dadurch gerade im Entstehen begriffen ist, kennen wir inzwischen als »nächste Gesellschaft«2, als Netzwerk- oder auch Computergesellschaft.
Mit Vorsicht sind allerdings die Stimmen zu genießen, die damit bereits zum Begräbnis der traditionellen Organisation aufrufen und auf die Geschmeidigkeit sozialer Netzwerke, die Intelligenz sozialer Bewegungen oder gar die Kraft des Schwarms verweisen. Hier sollten wir uns nichts vormachen: Organisationen werden die einzige Instanz der Gesellschaft bleiben, innerhalb derer Entscheidungen anschlussfähig prozessiert werden können, sich also weitere Entscheidungen anschließen. Kein Projekt und kein Prozess ist ohne diese Leistung denkbar – nur wie diese erbracht wird, ändert sich derzeit. Stimmt man dem zu, so ist klar, dass nicht nur die Zukunft von Unternehmen an sich, sondern auch gesellschaftlicher Fortschritt mit der Fähigkeit von Organisationen verknüpft ist, sich auf Veränderungen in ihren jeweiligen relevanten Umwelten einzustellen. Organisationen sind, so gesehen, der Motor der Gesellschaft.
Reden wir über das Wie der Organisation, werden damit automatisch die Themen Kulturtechniken und Entscheidungsprämissen aufgerufen, also jene Sozialtechniken, die Komplexität und Ungewissheit bearbeitbar machen und Organisation wie auch Gesellschaft Struktur verleihen. Ein aktueller Kandidat für eine solche Sozialtechnik der nächsten Gesellschaft – aktuell prominent diskutiert – ist Design.
Die These
Versteht man unter Design mehr als eine sechsstufige Schrittfolge bewährter Kreativitätstechniken, mehr als die Idee einer innovationsfördernden Kultur und mehr als eine neue Story, ein momentaner Hype, der geschäftsfördernd in die Welt gesetzt wird, um die Suggestion einfacher Lösungen für komplexe Probleme zu nähren, dann wird ein Blick auf das Potenzial möglich, das diesem Ansatz innewohnt. Jenseits aller »Poesie der Reformen« (Luhmann) scheint Design tatsächlich eine Option zu sein, Komplexität zu managen (d. h. nicht nur zu reduzieren) – und das auf eine Weise, die den Herausforderungen der nächsten Gesellschaft gerecht zu werden verspricht.
Es ist kein geringer Anspruch, der damit formuliert wird. Angeleitet von dieser These wird im Folgenden versucht, den derzeitigen Höhenflug des Designs einer systemtheoretisch informierten Analyse zu unterziehen. Können Manager von Designern lernen? Kann Design etwas zu der Gestaltung einer zukunftsfähigen Organisation beitragen? Da es weder den Designer noch den Design-Thinker gibt, lohnt zunächst eine facettenübergreifende Zusammenfassung der Stärken des Ansatzes, bevor später dessen Vereinbarkeit mit der Logik der Organisation diskutiert wird.
a) Ästhetik
Ähnlich wie Sloterdijk davon spricht, dass Metaphern Komplexität besser erfassen als operationalisierte, flache Definitionen,3 so könnte ein Designer in seinem erfahrenden, ästhetischen Arbeitsmodus kompetenter mit überbordender Komplexität umgehen als ein Manager, der lediglich auf bereits bewährte Problemlösungskompetenzen zurückgreifen kann. Der Versuch, inno-vative Organisationen mithilfe detaillierter Pläne, kausalen Steuerungsmechanismen, rational begrün-deten Strukturen und Rollenzuschreibungen zu begegnen, führt aller Wahrscheinlichkeit nach zu voraus-sehbaren Resultaten. Es ist zu vermuten, dass ein Bemühen, Welt in ihren Wirkungszusammenhängen zu verstehen, in der nächsten Gesellschaft vom »Surfen« abgelöst wird. Der Versuch, die eigenen Interaktionen mit ihr zu kontrollieren, wird aufgegeben zugunsten eines »Flows« wechselseitiger Abhängigkeiten, bei dem letztendlich offen bleibt, welche Effekte Auslöser für welche Wirkungen sind. Kontrolle über Auswirkungen wird – so eine der erhellenden Einsichten moderner Steuerungstheorien – nur dann möglich sein, wenn man sich von diesen Auswirkungen selbst weitgehend kontrollieren lässt.4 Das Aufbrechen eindeutig gerichteter Kausalbeziehungen, die kategoriale Trennung von Subjekt und Objekt: Es ist zu vermuten, dass solche Grundpfeiler einer westlichen Rationalitätsvorstellung ihre tragende Funktion einbüßen werden. An die Stelle zweckrationaler Logik wird ein ästhetischer Modus rücken – insbesondere die Fähigkeit, den Wirkungen des eigenen Handelns nachzuspüren. Während Peter F. Stephan einen gestalterischen Umgang mit Wissen und Nicht-Wissen bespricht und Dirk Baecker darauf verweist, dass man lernen müssen wird, mit Unklarheiten umzugehen, findet Ranulph Glanville5 bezüglich der Rolle des Designs deutlichere Worte: Designer sind besonders gut darin, mit schlecht strukturierten (ill-defined) Situationen umzugehen. Sie tun dies, indem sie dem Diktum der Rationalität abschwören, die Vergangenheit Vergangenheit sein lassen und sich stattdessen in einen ästhetischen Prozess begeben, den Glanville als Kommunikation mit dem Selbst im Medium des Zeichnens (to sketch) beschreibt. Die Unterscheidung von Wissen und Nicht-Wissen wird am Entwurf (bzw. Prototyp) erfahrbar als »knowledge in the making«. Ästhetik erlaubt nicht nur, die eigene weltenbildende Kraft zu explorieren, sondern sich auch in andere (oft: den user) hineinzuversetzen, um so vielfältige Bedürfnisse auszuleuchten, die sonst im Verborgenen geblieben wären.
Praktisch an dem Ansatz ist seine Leichtfüßigkeit. Sunk costs werden ebenso wenig produziert, wie Energie in falsche Ideen gesteckt wird, sondern die Fähigkeit des schnellen Ent- und Verwerfens wird geschult. Zu scheitern bedeutet schlicht, die nächste Idee in den Mittelpunkt zu rücken. Sowohl Kosten wie auch Nerven werden so geschont.
b) Kohärenz – adäquat anstatt optimal
In einem solchen Arbeitsprozess strebt ein Designer nach Kohärenz und nicht nach dem Optimum. Es geht nicht darum, Bestehendes zwanghaft immer weiter zu verbessern, sondern eine adäquate Passung im Umgang mit Unklarheiten zu finden. Nicht-Wissen wird zur Ressource.6 Und Charles Petrie meint zu Recht: »Preserve Ambiguity!«7 Design ist vor diesen Hintergrund die Befähigung zum Treffen einer Auswahl, und zwar nicht trotz, sondern wegen einer überbordenden Komplexität, die immer mehr Möglichkeiten bereithält als aktuell realisiert werden können. Die Setzung eröffnet einen Ereignisraum, welcher am Modell, am Prototyp ausgelotet wird. Erst nach der Setzung wird diese mit Komplexität aufgeladen. Form folgt Funktion.
c) Gruppendynamik
An der School of Design Thinking des Hasso-Plattner-Instituts in Potsdam wird Design Thinking mit Erfolg als sechsstufiger, klar definierter und mit iterativen Schleifen versehender Prozess gelehrt: Verstehen, Beobachten, Synthese, Idee, Prototyp, Testen. Als außenstehender -Beobachter kommt man nicht umhin zu bemerken, dass in diesem Prozess interdisziplinäres Arbeiten in Gruppen vorbildlich gestaltet wird, weil den Teammitgliedern, die zuvor in verschiedensten Disziplinen studierten und arbeiteten, ein attraktiver dritter Ort geboten wird, den sie gemeinsam kennenlernen, anstatt ungeschützt aufeinanderzuprallen und einen Großteil der Energie mit Auseinandersetzungen über Deutungshoheiten zu verbringen.8 Hier wird alles getan, um die Selbstorganisation eines Teams produktiv zu fördern:
1) Die klaren Regeln dienen als Leitplanken von Erwartungen. Zu viel Offenheit würde entmutigen. 2) Fehler sind im Labor-Setting erlaubt, sogar erwünscht. Ideen werden sehr schnell generiert, die Kosten (auch emotional), eine Idee zu verwerfen, sind gering. 3) Das auch modische Label »Design Thinking« wirkt anziehend für kreative Köpfe, die über den Tellerrand schauen wollen. Die Bereitschaft, zusammenzuarbeiten und so von anderen zu lernen, ist also schon von Anfang an groß. 4) Dysfunktionale Machtpositionen und die typischen Revierabgrenzungen werden systematisch unterspült.
d) Innovationsressource Mensch(en)
Natürlich ist diese Form von Design Thinking mehr
als eine Übung. Design kann mehr, wenn man es nur lässt. Es macht Spaß, im Flow9 werden Innovationen -produktiv gestaltet. Was gibt es Schöneres, als im Team zu neuen Lösungen zu kommen?10Weg mit den verstaubten Theorien und den schnöden Routinen! Das Verständnis der Dinge hängt nicht von extrapolierten Problemstellungen ab.11 Design fragt danach, was man will, was man am besten kann, und ermutigt, auf die eigenen Ressourcen zu vertrauen, anstatt sich vom vermeintlichen Expertentum anderer demotivieren zu -lassen. Design ist so im besten Sinne postheroisch: Beobachter werden aktiviert und die Kraft einer Gruppe mobilisiert. Für viele liegt darin eine lang ersehnte Abwechslung zur bürokratischen Organisationsmaschinerie; eine Sehnsucht, die freilich mit dem Risiko verknüpft ist, genau diese Organisationen für verzichtbar zu halten und damit gleichsam das Kind mit dem Bad auszuschütten.
Die Zeichen der Zeit rufen nach einer multiperspektivischen Intelligenz, wie sie kein Universalgenie, sondern nur Gruppen bereitstellen können. Die Co-Kon-struktion von Wirklichkeit ermöglicht nicht nur den Abgleich und die Integration verschiedener Blickwinkel, sondern sie führt zu Unerwartetem. Der Prozess der Selbstentfremdung durch den Kontakt mit Andersartigen (und nicht die bloße Mischung) dient als Quelle des Neuen.
e) Von der Zukunft her denken
»Design thinking deals primarily with what does not exist yet«.12 Der Reiz des Designs besteht im Gewinn neuer Spielräume. Organisationen, so das Versprechen,13 haben hier die Chance, nicht mehr von ihrer relevanten Umwelt, von den Problemen und Bedrohungen, getrieben zu sein, sondern zu agieren, die Bedürfnisse der Menschen (user) in den Blick zu nehmen und darauf aufbauend co-evolutionär Visionen und Umsetzungsmöglichkeiten zu konstruieren. Designer haben dafür eine unvergleichliche Fähigkeit: Sie können Dinge artikulieren, die noch in der Schwebe sind. Dinge werden hinreichend »fertig« erarbeitet, sodass man sie erproben kann, aber auch hinreichend »unfertig«, um Nachsteuerungen vornehmen zu können. Wir erkennen darin einen flexiblen Umgang mit Unklarheiten, einen Tanz in Fesseln, der deshalb gelingt, weil die Aufmerksamkeit des Designers weder dem Problem noch der Lösung, sondern der Aktivität, dem Entwurfs-Prozess selbst gilt. Der Prozess selbst strukturiert die Erwartungen, nicht die Zielstellung.
f) Kristallisationspunkt Prototyp
Wenn man genau hinschaut, dann ist dieses Verständnis von Design zu einem großen Teil die Wiederentdeckung von Erkenntnissen anderer Disziplinen (etwa des Konstruktivismus oder der Kybernetik zweiter Ordnung). Neben den vielen Ähnlichkeiten in den methodologischen und erkenntnistheoretischen Grundlagen ist es jedoch vor allem der Prozess des Prototypings, der als ein Alleinstellungsmerkmal des Designs gelten kann. In diesem Prozess fließen die bisher aufgeführten Aspekte zu einem in sich schlüssigen praktischen Ablauf zusammen: Konsequent materialisiert sich dort der ästhetische Modus des »knowledge in the making«. Erfahrbar erprobt werden die eigenen Gedanken und Bedürfnisse sowie die von anderen. Kohärenz wird hergestellt, ohne der Sogkraft eines Optimierungszwangs anheim zu fallen. Die Gruppe ermöglicht einen schnellen Wechsel der Perspektiven, erzeugt Varianz und bedingt durch ihre Unterschiedlichkeit die Offenheit des Prozesses. Und: Spaß macht es auch.
Wanted! Rückbindung an die Routinen der Organisation
Alles in allem ist dies eine beeindruckende Liste von Qualitäten, und es nicht von der Hand zu weisen, dass Design damit einen Beitrag zu einer zukunftsfähigen Organisation leisten könnte. Dies meinen auch Fred Collopy und Richard Boland, zwei Vordenker des Versuchs, Design aus den Beschränkungen der eigenen Profession herauszuführen und für andere Disziplinen nutzbar zu machen: »We believe that if managers adopted a design attitude, the world of business would be different and better.«14 Ihnen gegenüber steht eine große Menge Skeptiker, die Organisationen für reine Systeme zur Ausbeutung von Routinen halten. Exploration, d. h. der Arbeitsmodus des Entdeckens und Innovierens, ist für diese Kritiker nur Mittel zum Zweck, während Exploitation das eigentliche Ziel, quasi der »Wesenskern« von Organisationen ist. Doch genau das ist die Kritik von Boland und Collopy, die die Krise des Managements und der Wirtschaft auch auf die fehlende Verfügbarkeit guter Optionen zurückführen. Sich einzubilden, dass immer ausreichend viele Alternativen zur Verfügung stünden, ist aus ihrer Sicht mindestens mal fahrlässig. Nicht von ungefähr erinnert diese Kritik an ein zentrales Diktum kybernetischen Denkens: »Handle immer so, als dass sich die Anzahl von zur Verfügung stehenden Alternativen erhöht«, so Heinz von Foerster.
Das ist zunächst einmal gut gesprochen. Das Problem ist nur, dass solch ein designgetriebenes Verständnis sowohl den Gewohnheiten vieler Manager als auch den Routinen formalisierter Organisationen diametral entgegensteht. Rückt man nicht die Frage, wie man etwas optimieren kann, in den Mittelpunkt, sondern beschäftigt sich damit, wie man etwas gestalten will (und legt dies auch noch als unternehmerisches Prinzip fest), dann sind Verständnisschwierigkeiten vorprogrammiert. »A designer looks for the real thing we are trying to accomplish, unvarnished by the residue of years of organizational habit.« So, wie Organisationen Routinen brauchen, um in verschiedenen Zuständen für sich und andere wiedererkennbar zu sein, so sehr brauchen sie Spielräume, brauchen slack, um für all die Umweltveränderungen gerüstet zu sein, die den existenziellen Teil ihres Arbeitsauftrags ausmachen.
Wann immer wir also über die Integration von Design (Thinking) in Organisationen nachdenken – auf welcher Ebene auch immer, so ist zunächst nur klar, dass es in diesem Spannungsfeld von Routinen und ihrer Unterbrechung kein Patentrezept geben kann. Wie ein solches Spannungsfeld gemanagt, aber auch -designt werden muss, hängt von den Eigenarten der -jeweiligen Organisation ab, nicht zuletzt von den unentscheidbaren Entscheidungsprämissen, die im all-täglichen Sprachgebrauch auf den Namen »Unternehmenskultur« hören. Erste konzeptionelle Ansätze dazu liegen vor.15 Doch auch aus der unmittelbaren Praxis -heraus lassen sich mindestens drei Annäherungsversuche skizzieren:
1. Impulse zur Selbsterneuerung
Führungskräfte versuchen, sich etwas für ihre Arbeitsweise (oder der ihrer Mitarbeiter) bei Designern abzuschauen und somit den Innovationsgeist innerhalb ihrer Organisation zu fördern. Dieser Idee wohnt die Hoffnung inne, dass man einer bestehenden Organisation qua »Injektion« neue Methoden und/oder eine neue Kultur beibringen kann. Dazu belegen Manager entweder selbst Weiterbildungsseminare, wie an der d.school in Stanford, oder schicken dafür ganze Abteilungen ihres Konzerns zu Design Thinking-Agenturen, um dort ins Staunen (und manchmal auch ins Lernen) zu kommen.
Das klingt zunächst vielversprechend. Doch die Praxis zeigt, dass solche Impulse oft schon kurze Zeit nach der Rückkehr der ausgesendeten innovativen Speerspitzen ins Unternehmen wirkungslos verpuffen. Zu stark sind die erfolgreichen Routinen der bestehenden Praxis, und zu stark die Immunreaktion, die in der Organisation stets dann einsetzt, wenn diese Routinen unter Veränderungsdruck geraten. Design wäre bei diesem Versuch kein neuer Prozess und auch keine strukturelle Veränderung, sondern eine neue Story, welche – wie jede neue Semantik – bestehende Leitunterscheidungen revitalisieren und so einen ungesteuerten Beitrag zur ständig fortwährenden Poesie der Reformen leisten kann.16 Das ist wertvoll und kann genutzt werden, doch eben nur als ungesteuerter Irritationsfaktor des Unternehmens. Man kann darüber nachdenken, wie man diese Irritation verstetigt, zum Beispiel als Teil von Weiterbildungsprogrammen, doch darüber hinaus trifft man innerhalb von Organisationen vielfach auf Skepsis, denn Design Thinking braucht eine besondere Fehlertoleranz, eine vitale Fehlerkultur also, der auch ein besonderer Raum geboten werden muss. Einen solchen Ansatz auf einer höheren Management-Ebene zu verankern ruft größere Ressentiments auf den Plan, da man dort in der Regel unter hohem Erfolgsdruck steht, nachvollziehbare Ergebnisse liefern muss und dabei möglichst keine Fehler machen sollte. Dementsprechend konsequent wird Design (Thinking) in die geschlossenen Innovationsabteilungen und Labore verbannt und nicht als zukunftsorientierte Managementkompetenz akzeptiert.
2. Designer als Ideenlieferanten
Mancherorts werden Designer als bloße Ideenlieferanten verstanden. Sie produzieren mit ihrem Methodenkoffer entweder außerhalb der Organisation oder in -geschützten Projektarchitekturen innerhalb der Organisation neue Ideen. Wer kennt sie nicht, diese geschlossenen Anstalten oder Projekte, deren Ergebnisse – wir überzeichnen – mit etwas gequältem Managerlächeln zur Kenntnis genommen werden (schließlich hat man ja, auf Anraten der HR Abteilung, die Gruppe der Top -Talents mit genau diesem Auftrag losgeschickt: das -Problem auf eine grünen Wiese zu stellen, sich freizumachen von den einengenden Realitäten des Unternehmensalltags). Oder denken wir an die vielen Kreativ-Agenturen, die zwar in der Lage sind, die Komplexität der Welt in (Produkt-) Innovationen zu gießen, aber dann von der Selbstorganisationskraft der Unternehmen aufgeschreckt und auch frustriert, eben diese Konzepte an der Türschwelle der Organisation wie ein Findelkind abgeben und mit der Implementation, dem Innovationsmanagement nichts zu tun haben wollen.
Im Vergleich zum ersten Ansatz befinden wir uns hier nicht mehr auf der Ebene der Prozesse und Arbeitsweisen, sondern auf der Ebene der Produkte. Aber auch hier schaffen es Designer oft nicht, innerhalb einer Organisation Wirkung zu entfalten: Sie bleiben die Hofnarren, die nicht selten eingeladen werden, die gähnende Langeweile durchroutinisierter Prozesse mit allerlei Possen und glitzernden Kunststücken zu bespielen.
Idealerweise gelingt es ab und an, etwa dank intelligenter Anschlüsse von solchen geschützten Räumen zu den Routinen der Organisationen oder einer sinnvollen Variation von Öffnung und Schließung dieser Design-Einheiten, zu tatsächlichen Innovationen zu kommen. Die Wahrscheinlichkeit für eine solche Ausnahme steigt, wenn zumindest ein Teil der handelnden Akteure sich der Paradoxie der Hierarchie bewusst ist:
»Die Hierarchie ist ein Ganzes, das aus Teilen besteht, die sich einerseits vom Ganzen abgrenzen müssen, um als eigenständiger Teil erkennbar zu sein (Differenz), andererseits jedoch auf das Ganze beziehen müssen, um als Teil des Ganzen erkennbar zu sein (Referenz). […] Im Spiel mit der Hierarchie wird immer auch die Leistung der Hierarchie mit vorgeführt, die darin besteht, den Rahmen zu setzen, innerhalb dessen mit dem Rahmen gespielt werden kann.«17
Das Management kann in diesem Sinne paradox intervenieren, sich also jene Paradoxie zunutze machen, indem es sie den Unternehmenseinheiten selbst vorführt: Ein Design(-Thinking)-Projekt, welches auf diese oder jene Innovation abzielt, wäre dadurch auf einmal mit der Situation konfrontiert, diese Paradoxie selbst managen zu müssen, was in der Regel durch Abstimmung mit anderen Unternehmenseinheiten passiert, die sich auch abstimmen wollen, da sie das gleiche Problem haben. »Ökologische Kontrolle« nennt Dirk Baecker das.18 Letztlich reden wir hier aber wiederum von Management des Designs und nicht durch Design, sodass Design zwar einen Beitrag für Produktinnovationen liefern kann, aber nach wie vor den Anspruch eines »Managing as Designing« nicht erfüllt.
3. Die strukturelle Verankerung von Design | Ein Ausblick
Durch die bisherigen Ausführungen sollte deutlich geworden sein, dass Design zwar eine reizvolle Option ist, aber nur schwer in hierarchische, formalisierte Organisationen zu integrieren ist. Formulieren wir herausfordernd: Wozu sollte man sich auch mühen? Design ist ein radikaler, offener Ansatz, während die Organisationen der Moderne ebenso radikal auf ihre Routinen vertrauen.19 Sie sichern ihre Existenz, indem sie alles daran setzen, ihre Autopoiese weiterhin zu ermöglichen. Auf der operativen Ebene bedeutet dies, dass sich an Entscheidungen weitere Entscheidungen anschließen müssen. Doch das ist teuer erkauft: Vorangegangene Entscheidungen fungieren als Prämissen, die in der Regel nicht hinterfragt werden, ebenso wie die Hierarchie nicht hinterfragt wird, denn sonst würde man die Organisation als solches aufs Spiel setzen. Genau das aber will Design: nachfragen, innehalten, auf den Prüfstand stellen. Und das ständig. Es bleibt daher zweifelhaft, ob es jemals gelingen wird, »Managing as Designing« in den großen Organisationen der Moderne wirksam zu verankern.
Natürlich geht es hier nicht darum, dem Design-Ansatz eine Abfuhr zu erteilen. Er hat, soviel wurde deutlich, sein unverwechselbares Stärken-Schwächen-Profil. Interessant ist aber die Frage, warum Design genau dann zu einem Höhenflug ansetzt, wenn die brüchigen Übergangsphänomene einer nächsten Gesellschaft stärker in den Fokus der Aufmerksamkeit rücken. All die Stärken und Referenzen, die wir eingangs zusammengetragen haben, prädestinieren Design nicht besonders für den Einsatz in den Routinen formalisierter Organisation. Aber wenn wir über Organisationen der nächsten Gesellschaft reden, über Netzwerkorganisationen, Projekte, Banden, Komplizenschaften, Heterarchien, über hybride, temporale und miteinander vernetzte Gebilde, dann reden wir auch über neue Strukturen und Formen von Organisationen. »Die Managementtheorie spielt mit einer Umstellung vom Grundgedanken der Rationalität auf den Grundgedanken der Motivation«, formuliert zum Beispiel Dirk Baecker und verweist gleichzeitig auf einen Mitgliedschaftsbegriff, welcher über die Grenzen einer Organisation hinausgeht und auf das Netzwerk verweist.20 Hieran könnten – so zumindest ein Gedanke, der weiter plausibilisiert werden müsste – die Prinzipien des Designs viel besser anknüpfen als hierarchische oder betriebswirtschaftliche Systemlogiken.
Kann es sein, dass Design sein Potenzial gerade in den Organisationsformen der nächsten Gesellschaft entfalten kann? Dort könnte der Ansatz etwas leisten, was Entscheidungsprogramme, Kultur und Hierarchie in den bestehenden Großorganisationen leisten, nämlich für einen weitgehend reibungslosen Ablauf auf der operativen Ebene zu sorgen. Die bekannten Entscheidungsprämissen verlieren an Gewicht, wenn keine Zielstellungen mehr expliziert werden, weil Zielerreichung an sich nicht ausreichend motiviert, sondern auf einmal der Weg das Ziel wird. Wie wollen wir leben und arbeiten? Mit dieser Frage rückt der Prozess des Arbeitens als solches in den Fokus. Und damit auch all die offenen Anschlussfragen nach der Motivation von Mitgliedern – vielleicht sollten wir besser sagen: von Teilnehmern und Teilnehmerinnen – eines Netzwerkes, das sich durch ein Gefühl des permanenten Flows21 reproduziert. Es ist – so zumindest die abschließende These dieses Beitrags – zu vermuten, dass Design hierzu einen eigenständigen und durchaus gewichtigen Beitrag zu liefern imstande ist. Es lohnt sich also, diese ersten Gehversuche jener Netzwerkorganisationen weiter aufmerksam zu beobachten.
Wiederabdruck
Dieser Text erschien erstmals in: Revue für postheroisches Management, Heft 9/2011, Zukunftsfähigkeit (www.postheroisches-management.com), S. 94–101.
Mit freundlicher Genehmigung der Revue für postheroisches Management.
1.) Vgl. Drucker, Peter (2001): “The Next Society: A Survey of the Near Future“. In: The Economist. November, 3rd.
2.) Vgl. Baecker, Dirk (2007): Studien zur nächsten Gesellschaft. Frankfurt am Main: Suhrkamp.
3.) Sloterdijk, Peter (2004): Sphären III, Schäume. Frankfurt am Main: Suhrkamp, S. 13. Und ebd.: „Nur wenn solche Ausdrücke zur Verfügung stehen, kann man über chinesische Saucen und umfassende Situationen sprechen.“, S. 880.
4.) Vgl. Baecker, Dirk (2011): “Layers, Flows, and Switches: Individuals in Next Society“. Unpublished Paper.
5.) Vgl. Glanville, Ranulph (2007): “Designing Complexity“. In: Performance Improvement Quarterly, Vol. 20, No. 2, S. 75–96.
6.) Vgl. Stephan, Peter F. (2010): „Wissen und Nicht-Wissen im Entwurf“. In: Mareis, Claudia; Joost, Geesche; Kimpel, Kora (Hrsg.): Entwerfen – Wissen – Produzieren: Designforschung im Anwendungskontext, Bielefeld: transcript, S. 81–99.
7.) So auf der x treat #1: Organizations and Design Thinking (2011). Konferenz organisiert von der Stiftung Management Zentrum X am 1./2. März in Berlin, http://www.x-treat.com/ [5.6.2013].
8.) Vgl. Stehr, Nico; Weingart, Peter (2000): Practising Interdisciplinarity. University of Toronto Press.
9.) Zum Begriff und zur Psychologie des Begriffs vgl. Csikszentmihalyi, Mihaly (2005): Flow: Das Geheimnis des Glücks. Stuttgart: Klett-Cotta. Zur gesellschaftlichen Relevanz vgl. Castells, Manuel (1996): The Rise of Network Society. Oxford: Blackwell.
10.) Als life-design spricht Birger Priddat gar von der „Umstellung von Nutzen auf Glück“, vgl. Priddat, Birger (2011): „Wozu Wirtschaft? Umschaltung von Nutzen auf Glück: which new life-design?“ In: Revue für postheroisches Management, Heft 8, S. 156–157.
11.) So Ralf Beuker und Erik Roscam Abbing auf der x treat #1.
12.) Liedtka, Jeanne (2005): “In Defense of Strategy as Design“. In: Bettley, Alison; Mayle, David; Tantoush, Tarek (Hrsg.): Operations Management. A Strategic Approach. Thousand Oaks/London/New Delhi: Sage, S. 63.
13.) Vgl. Shamiyeh, Michael (2010): “Mechanisms of Discontent“. In: ders. (Hrsg.): Creating Desired Futures. How Design Thinking Innovates Business. Basel: Birkhäuser Architektur.
14.) Collopy, Fred; Boland, Richard J. (2004): “Design Matters for Management“. In: dies. (Hrsg.): Managing as Designing. Stanford University Press, S. 3.
15.) Vgl. Weick, Karl. E.; Sutcliffe, Kathleen. M (2001): Managing the Unexpected. Assuring High Performance in an Age of Complexity. San Francisco: Jossey-Bass.
16.) Vgl. Luhmann, Niklas (2000): „Struktureller Wandel: Die Poesie der Reformen und die Realität der Evolution“. In: ders.: Organisation und Entscheidung. Opladen/Wiesbaden: Westdeutscher Verlag. S. 330–361.
17.) Baecker, Dirk (2003): Organisation und Management. Frankfurt am Main: Suhrkamp, S. 49.
18.) Vgl. ebd. S. 50ff.
19.) Vgl. Luhmann, Niklas (1971): „Lob der Routine“. In: ders.: Politische Planung. Aufsätze zur Soziologie von Politik und Verwaltung. Opladen: Westdeutscher Verlag, S. 113–142.
20.) Baecker (2007), S. 48ff.
21.) Vgl. Csikszentmihalyi (2005).
Eine Hauptfunktion von Kunst liegt für dich in der Schärfung der Selbstreflexion?
Der Künstler macht Wahrnehmung reflexiv, ja. Ob dies bestätigend oder kritisch, ironisch oder tragisch geschieht, spielt keine Rolle, solange nur die Wahrnehmung selber mit wahrgenommen werden kann. Kunst, die die Wahrnehmung nicht wahrnehmbar macht, ist in Wirklichkeit Unterhaltung und damit zwar nicht uninteressant, aber eben nicht künstlerisch interessant. Wenn du mich nach der Funktion der Kunst fragst, dann antworte ich: Irritation von Wahrnehmung durch ungewohnte Formen, die sich in dieser Weise immer auf die Gesellschaft bezieht, auf die Eigentümlichkeiten des Miteinanderlebens der Leute. Daneben kann man natürlich auch nach den Leistungen der Kunst fragen, und zwar in ihrem Verhältnis zu anderen Bereichen der Gesellschaft. Etwa liesse sich fragen, was Kunst für Erziehung, Politik oder Wirtschaft bedeutet oder was ein Unternehmen von der Kunst lernen kann.
Und was können diese Bereiche voneinander lernen?
Ich finde es wichtig, sich gegenseitig auch in Ruhe lassen zu können. Jeder Bereich hat seine spezifischen Probleme und für diese auch seine spezifischen Lösungen. Bei aller Lust an der Vernetzung muss man auch zur Kenntnis nehmen, dass man oft keine Ahnung hat, worum es dem anderen geht. Zum anderen kann es aber nirgendwo schaden, auf die aktive Rolle von Wahrnehmung hingewiesen zu werden, etwa bei der Inszenierung von Schulunterricht, in der Rhetorik von Politikern, in der enormen Rolle ästhetischer Gestaltung von Waren: Wie muss sich eine Autotüre anhören, die ins Schloss fällt? Wie darf und kann ein Kleid riechen? Wie glatt oder rau sollte eine Herdplatte sein? Vor allem jedoch: Welche Rolle spielt die Wahrnehmung bei der Produktion von Gütern, bei der Herstellung von Dienstleistungen, beim Umgang mit dem Kunden, bei der Überwachung der Produktion?
Funktion und Leistung betreffen grössere gesellschaftliche Einheiten. Was erwartest du ganz persönlich von Kunst?
Ich erwarte nichts, lasse mich aber gerne überraschen.
Wenn nicht erwarten, was würdest du dir denn von der Kunst wünschen?
Ich gehe oft ins Theater und würde mir wünschen, dass man dort etwas neugieriger auf zahllose gesellschaftliche Phänomene reagieren würde. Was geschieht im Sicherheitsraum eines Kernkraftwerks? Wie funktioniert ein Gerichtsverfahren? Wie wird ein Investmentdeal eingefädelt? Es gibt das sogenannte Recherchetheater, das sich dafür interessiert, aber zu selten werden Sprachstile, Verhaltensweisen, Gesten in ihrer oft enormen Raffinesse aufs Korn genommen und so ausserhalb der einschlägigen Kreise bekannt gemacht und reflektiert. Gerhard Falkner, den ich vor Jahren in einer Rundfunksendung über seine Gedichte sprechen hörte, hat mich beispielsweise mit seinen zeitgenössischen Beobachtungen überrascht. Seither lese ich wieder Gedichte.
Kunst als vielfältig verflochtener Teil eines grösseren Systems, das du als Soziologe untersuchst: als Teil der «Kultur».
Richtig. Seit Jean-Jacques Rousseau verstehen wir unter einer Kultur die Frage, ob und wie eine Gesellschaft die Menschen, die in ihr leben, eher glücklich oder unglücklich macht. Ich halte es in diesem Punkt aber am liebsten mit Bronislaw Malinowski, der die Kultur als eine funktionale Balance von Körper, Geist und Gesellschaft beschrieben hat. Wenn man in diese Balance auch Spannung, Stress, Ungleichgewichte und Konflikte einbezieht, die ja letztlich das Verhältnis von Körper, Geist und Gesellschaft immer wieder neu auspendeln, trifft das die Sache ganz gut. Kunst hat mit alldem erst einmal nichts zu tun. Da aber die Kunst zur Gesellschaft gehört, stellt sich auch dort die kulturelle Frage, ob die Kunst die Menschen eher glücklich oder unglücklich macht. Immerhin fällt auf, dass viele Menschen von der Kunst erwarten, dass sie sie glücklicher macht, und sei es dadurch, dass sie sie in ihrem Unglück bestätigt. Aber Künstler verstehen sich nicht als Kulturarbeiter. Sie interessieren sich nicht für Glück und Unglück, sondern allenfalls dafür, welche Formen die Menschen ihrem Glück und ihrem Unglück geben. Dabei gehen Künstler oft sehr weit, streifen die Grenze zur schmerzhaften Beobachtung. Die Kultur greift dann gerne ein und zähmt die Kunst zu dem, was die Menschen ertragen können.
Wo zum Beispiel?
Nimm die aktuelle Theaterarbeit «Ländler wollen mitreden» von der «Kapelle Eidg. Moos»: Die drei Musiker leisten sich immer wieder schärfste Kommentare zur Schweiz als Schweiz, fangen ihre Schärfe aber immer wieder in der herrlichsten Aufführung der Musik selber auf. Einerseits gibt es die wirklich spannende Volksmusik, andererseits ihre soziale Rolle für das Selbstverständnis der Schweiz. Jede Szene kippt von der Parodie in die Liebeserklärung und wieder zurück in die Parodie, bis man eine künstlerische Arbeit vor sich hat, deren Thema die kulturelle Zähmung der Kunst zur Unterhaltung ist. Hier passiert auf der Bühne, was sonst in verteilten Rollen zwischen Regisseur, Dramaturg und Intendant oder Produzent passiert. Die einen übertreiben gerne und die anderen müssen dafür dann zivile Formen finden.
Wie würde eine Gesellschaft ohne diese kulturelle Zähmung aussehen?
Wenn man von heute auf morgen alle Kulturarbeit und jedes künstlerische Schaffen einstellen würde, würde übermorgen irgendein Hobbymaler in einer Ecke seines Wohnzimmers schon wieder zum Pinsel greifen, würde ein Verkäufer auf dem Markt anfangen, Theater zu spielen, und würde sich irgendjemand nach der Lektüre eines Reiseberichts über fremde Länder und Völker über die seltsamen Sitten zuhause wundern. Die moderne Gesellschaft braucht die Kultur, um ihre Sitten und Bräuche vergleichend und kritisch beobachten zu können. Und sie braucht die Kunst, um ihrer Zurichtung auf bestimmte Formen der Wahrnehmung zu misstrauen. Kultur und Kunst sind sogenannte Einmalerfindungen der Menschheit. Man kann sie nicht abschaffen, man kann sie nur durch Varianten ihrer selbst ersetzen. Und sie können immer wieder neu gestartet werden, ohne jeden betrieblichen Aufwand.
Wie hat man sich diese Varianten vorzustellen?
Es gibt Varianten in der Abhängigkeit von lokalen Usanzen, von historischen Zeiten und von sozialen Schichten und Milieus. Schau dir zum Beispiel an, welche Varianten von Bildern es in den sogenannten Medienepochen der menschlichen Gesellschaft gibt. Die Stammesgesellschaft kannte Bilder vor allem als Masken, die antike Schriftgesellschaft vor allem in der Form der nachahmenden Auseinandersetzung mit Göttern und Menschen, die moderne Buchdruckgesellschaft als Ausdruck oder Einprägung individueller Befindlichkeit und Perspektive. Die nächste Gesellschaft, die Computergesellschaft, in der wir uns jetzt bewegen, kennt Bilder hingegen fast nur noch in der Form des Designs, des Interfaces. Wir interessieren uns für bewegte Bilder, für ihr Flirren und Zittern, ihr Scharf- und wieder Undeutlichwerden und für die Schnittstellen, die alle diese Eindrücke organisieren. Diese historischen Varianten von Bildern haben auf den ersten Blick nichts miteinander gemeinsam, arbeiten jedoch meines Erachtens allesamt an den Formen der Wahrnehmung, die für ihre jeweilige Gesellschaft typisch und auch kritisch sind.
Dieses Flirren und Zittern sprichst du auch in deinen 2011 veröffentlichten 16 Thesen zur nächsten Gesellschaft an. These 7 zur Kunst der nächsten Gesellschaft lautet: «Die Kunst der nächsten Gesellschaft ist wild und dekorativ. Sie zittert im Netzwerk, vibriert in den Medien, faltet sich in Kontroversen und versagt vor ihrer Notwendigkeit. Wer künstlerisch tätig ist, sucht für seinen Wahn-Sinn ein Publikum.»
Mir war hier der Hinweis darauf wichtig, dass es auch für die sogenannte Autonomie der Kunst neue Formen geben wird. Was für die einen wild ist, ist für die anderen vielleicht dekorativ, und umgekehrt. Zugleich jedoch ist der Ort der Kunst nicht mehr die Beschaulichkeit der Bücher, die Genauigkeit der Kritik und die Konzentration des Publikums, sondern die Zerstreuung in die Netzwerke, von der schon Walter Benjamin gesprochen hat. Das muss man nicht bedauern, das muss man künstlerisch bewältigen. Und nach wie vor sucht die Kunst die Kontroverse, lässt sich also nicht von Politik oder Wirtschaft, Pädagogik oder Ästhetik für deren Zwecke einspannen.
Das gefällt mir recht gut. Nur, kurz nach der ersten Veröffentlichung hast du diese These zur nächsten Kunst komplett überarbeitet. Neu lautet sie: «Die Kunst der nächsten Gesellschaft ist leicht und klug, laut und unerträglich. Sie weicht aus und bindet mit Witz; sie bedrängt und verführt. Ihre Bilder, Geschichten und Töne greifen an und sind es nicht gewesen.» Wieso diese signifikante Änderung?
Die Thesen spielen mit der Flüchtigkeit, obwohl und weil es ihnen um durchaus strukturelle Fragen geht. Sie sind eine Spekulation auf die Zukunft, die dementsprechend dauernd korrigiert werden muss. Und sie sind für einen Anschlag, für ein Flugblatt, also für flüchtige Leser gedacht. Aber gerade deswegen wurde es mir irgendwann wichtig, der Kunst eine leisere Rolle zuzuschreiben, eine Rolle, die es verlangt, dass man mehrfach hinschaut und nicht zu schnell mit ihr fertig wird.
Mich sprach ja die erste Fassung zunächst mehr an, da aktiver, riskanter, weniger ausweichend. Wenn die Kunst es am Ende doch nicht gewesen ist, was ist dann das Neue daran und rechtfertigt die Rede von der «next society»? Welchen Einfluss hat die Kunst in der nächsten Gesellschaft, den sie so heute bzw. gestern nicht hatte?
Stell dir vor, du malst ein Bild, komponierst ein Lied, planst eine Performance – und das Netz weiss bereits, mit welchen Tags es dich einfängt, also in welcher Schublade du landest. Das kann es nicht sein. Ich denke die nächste Gesellschaft ja vor allem als eine Auseinandersetzung der Gesellschaft mit dem Computer, die diesem seine Grenzen aufzeigt. Da werden wir die Hilfe der Kunst bitter nötig haben, und zwar einer Kunst, die im Medium des Computers diesem seine Grenzen aufzeigt.
Und wie wird sie das erreichen? Wo wird Kunst künftig stattfinden?
Die Kunst wird sich neue Orte, neue Zeiten und ein neues Publikum suchen. Sie wird mit Formaten experimentieren, in denen die gewohnten Institutionen zu Variablen werden. Denk an Walid Raad und seine Atlas Group, der aus dem Theater eine Universität oder vielleicht auch eine Installation des Nachdenkens über nicht so ganz fiktive Ereignisse macht. Denk an Matthias Lilienthals Theaterprojekt «X Wohnungen», das Privatwohnungen zu Bühnen werden lässt. Oder die berühmten Audio-Walks von Janet Cardiff und anderen, die eine Art begehbare Buchlandschaft schaffen, in der wir so verträumt und wach herumlaufen wie sonst nur in unseren Lektüren.
Orte und Gattungsformen werden durchlässiger. Wird die Kunst erlebbarer?
Ja, sie sprengt ihre hochkulturellen Fesseln und verlässt das Gefängnis ihrer Autonomie. Für sie gilt, was für alle Funktionssysteme gilt, die Niklas Luhmann so hervorragend beschrieben hat. Sie verlieren ihre eindeutige Ordnung, vernetzen sich untereinander und entwickeln Formen der Macht, des Geldes, des Rechts, der Erziehung und eben auch der Kunst, die es uns erlauben werden, das Potential des Computers auszunutzen, ohne uns von ihm an die Wand spielen zu lassen.
Wiederabdruck Das Interview erschien zuerst in: Schweizer Monat, Ausgabe 993 / Februar 2012. Was macht die Kunst?, S. 74–77.
Literatur
Baecker, Dirk: 16 Thesen zur nächsten Gesellschaft. In: Revue für postheroisches Management. Heft 9. Berlin: Stiftung Management-Zentrum – X, 2011. S. 8.Baecker, Dirk: Studien zur nächsten Gesellschaft. Frankfurt am Main: Suhrkamp, 2007. Baecker, Dirk: Wozu Kultur? Berlin: Kadmos, 2011.