define('DISALLOW_FILE_EDIT', true); define('DISALLOW_FILE_MODS', true); Open Source – what's next? https://whtsnxt.net Kunst nach der Krise Tue, 06 Jan 2026 09:40:43 +0000 de hourly 1 https://wordpress.org/?v=6.8.3 Das neue Spiel: Prism vs. Kontrollverlust https://whtsnxt.net/144 Thu, 12 Sep 2013 12:42:46 +0000 http://whtsnxt.net/das-neue-spiel-prism-vs-kontrollverlust/ Eigentlich sind die Enthüllungen von Snowden alles andere als überraschend. Bei Anne Will sagte der Politikberater Andrew B. Denison es ganz unverblümt: Geheimdienste seien dafür da, die Gesetze anderer Staaten zu übertreten. Er hat damit nicht unrecht, so zynisch diese Einsicht auch klingen mag. Wir wussten immer, dass Geheimdienste Regierungen, Terroristen, Militärs bespitzeln, und wir machten uns keine Illusion darüber, dass sie sich dabei an die hiesigen Gesetze halten würden. Für diese Erkenntnis reicht auch rudimentäres James Bond-Wissen. Was also ist das revolutionär Neue an den Snowden-Enthüllungen?
Es ist die Dimension der Überwachung und ihre Grenzenlosigkeit. Die NSA hört in Zusammenarbeit mit dem Britischen Geheimdienst GCHQ nicht mehr nur terroristische, militärische oder gar politische Ziele ab, sondern uns alle, die Zivilgesellschaft. 500 Millionen Mal im Monat, alleine in Deutschland. Das ist nicht vergleichbar mit einer gezielten Abhöraktion, wie wir sie kennen. Dies betrifft alles und jeden und zwar nicht aus Versehen. Alles, was wir tun und sagen, wird beobachtet.
Und doch sind es nicht die Geheimdienste, die sich verändert haben. Es ist die Technologie. Geheimdienste sollen Informationen beschaffen. Das taten sie zu allen Zeiten und schon immer tun sie es mit den Mitteln, die ihnen zur Verfügung stehen. Diese Mittel waren vor 30 Jahren angezapfte Telefonleitungen und Tonbandgeräte. Heute sind es eben gesplicete Glasfaserkabel und Rechenzentren. Die Reichweite der Geheimdienste wuchs mit ihren Möglichkeiten. Die Echtzeitüberwachung eines Großteils der Weltbevölkerung ist zur überbordenden Realität geworden. Weil es geht.
Die Kraft, die dieser Entwicklung Vorschub leistet und auf der die NSA mit ihren wachsenden Überwachungsmöglichkeiten wie auf einer Welle reitet, hat uns auch in allen anderen Bereichen eingeholt. Wir haben die Kontrolle verloren. Über unsere Daten im Internet und über unsere Informationen auf der Welt. Die Komplexität der Erzeugung, Akkumulation und Interaktion von Daten in Zeiten der totalen Vernetzung übersteigt schon seit langem alle Vorstellungskraft des Menschen. Wir leben in Zeiten des Kontrollverlusts.

Es gibt kein analoges Leben im Digitalen
Eines der ersten Dokumente, die über Edward Snowden an die Öffentlichkeit gelangten, war eine Anordnung des geheimen Überwachungsgerichtes in den USA (FISC), das den Mobilfunkprovider Verizon dazu aufforderte, Verbindungsdaten – so genannte Metadaten – an die NSA weiterzugeben.
Mussten früher noch Menschen mit Schlapphüten hinter einem hergehen, um herauszufinden, wie man sich im Raum bewegt, reicht heute eine Funkzellenabfrage. Wir alle tragen eine Wanze mit uns herum, unser Handy. Anhand der Verbindungsdaten lässt sich nun der Aufenthaltsort jedes Verizonkunden zu jedem Zeitpunkt im Nachhinein feststellen. Noch genauer geht das mit GPS, der satellitengestützten Ortung, die heute in jedem Smartphone installiert ist.
Als der amerikanische Softwaremagnat John McAfee auf der Flucht vor den Behörden untergetaucht war, gab er einem Journalisten der Vice ein Interview. Das Foto zum Interview wurde mit einem Smartphone gemacht. Eigentlich hätte McAfee wissen müssen, dass Smartphones die Angewohnheit haben, alle möglichen Daten mit in die Bilddatei zu schreiben. In diesem Exif-Format fand sich auch die metergenaue Position von McAfee in Guatemala. Die Flucht war beendet.
Die Millionen Kameras und Mikrofone auf den Straßen und in unseren Hosentaschen sind aber ebenfalls erst der Anfang. Nächstes Jahr will Google sein Produkt „Glass“ herausbringen, ein Smartphone, das man statt in der Hosentasche als Brille im Gesicht trägt. Jederzeit aufnahmebereit. Datenschützer gruseln sich nicht ohne Grund vor dieser Technologie. Livestreams aus der First-Person-View sind keinesfalls etwas Neues. Aber ein einziger 24/7-Livestreamer pro Stadt dürfte reichen, das „Recht am eigenen Bild“ aller Bewohner zur Makulatur werden zu lassen.
Modellflugzeuge gibt es seit langer Zeit, aber erst seit kurzem sind sie so leistungsfähig und präzise steuerbar, dass man sie sinnvoll für Kamerafahrten nutzen kann. Diese privaten Kameradrohnen kosten nur noch schlappe 300 Euro und damit ist es schon heute jedem möglich, seine ganz private Luftraumüberwachung zu bewerkstelligen. Drohnen sind aber in Zukunft für viele Zwecke einsetzbar, von der vollautomatischen Paketpost bis zur Bauabnahme. Schon in naher Zukunft, so die Prognose, werden sie allgegenwärtig durch die Luft schwirren. Nur wenig wird ihnen dabei entgehen.
Währenddessen stellen wir uns die neue Spielkonsole von Microsoft – die XBox One – in die Wohnung. Deren Sensorik ist so ausgefeilt, dass sie in Echtzeit eine 3D-Repräsentation des Raumes generieren kann – inklusive der sich in ihm bewegenden Menschen. Diese Menschen kann sie nicht nur von einander durch Gesichtserkennung unterscheiden, sondern auch deren Puls messen – anhand von kleinsten Farbveränderungen der Hautpigmente.
Den Rest über unsere Lebensführung wird das „Internet der Dinge“ ausplaudern. So nennt man die Totalvernetzung von Alltagsgegenständen. Anfangen wird es mit smarten Stromzählern, die heute bereits verbaut werden und mit deren Hilfe man zum Beispiel nächtliche Essgewohnheiten oder Schlafstörungen ferndiagnostizieren könnte. Wenn der Kühlschrank erst automatisch Essen nachbestellt, kann man sich auch aus der Ferne über unseren Kalorienverbrauch genauestens informieren.
Durch die Allgegenwart von Sensoren schreitet die Digitalisierung aller Lebensbereiche voran. Wer Teil der Welt sein will, wird Teil des Internets sein.

Der Napster-Schock der Politik
Prism, die zweite Snowdenenthüllung, betraf die großen Internetkonzerne: Google, Facebook, Microsoft und Apple. Auf fast unleserlich hässlichen Powerpointfolien ist dokumentiert, dass die NSA direkten Zugriff auf die Datenbanken dieser Dienste habe.
Cloud Computing war eines der Buzzwörter der letzten Jahre und heute nutzen fast alle Webmailer wie Gmail im Browser, spielen ihr Backup in die iCloud oder tauschen Daten auf Dropbox. Und Hand aufs Herz: Wer ist heute nicht bei Facebook?
Ach, Sie sind nicht auf Facebook? Wetten doch? Facebook lädt alle seine Nutzer ein, ihnen das eigene Adressbuch zur Verarbeitung freizugeben. Der Friend Finder gleicht das Adressbuch dann mit den Facebookdaten ab und schlägt einem alle Bekannten zum „Befreunden“ vor. Was Facebook mit den Adressbuchdaten von denjenigen macht, die noch nicht bei Facebook angemeldet sind, stellte sich letztens per Zufall heraus. In der Datenexportfunktion war ein Programmierfehler, der nicht nur die Daten der Freunde, sondern auch die Schattenprofile all der Leute ausgab, die offiziell gar kein Facebookprofil haben.
Datensammeln kostet ja nichts. 1981 kostete ein Gigabyte Festspeicher ca. 300.000 Dollar, 2004 nur noch einen einzigen. Heute sind wir schon bei 3 Cent und bald schon wird Gigabyte keine relevante Maßeinheit mehr sein, weil alle Welt nur noch in Terabyte denkt. Speichermedien werden in dem Maße billiger, wie Prozessoren schneller werden, eine Halbierung des Preises alle 18 Monate zieht sich als Ausprägung von Moore‘s Law wie eine Naturkonstante durch die Geschichte des Computers.
Die NSA baut gerade an einem neuen Datencenter in Utah. Auf 100.000 Quadratmeter sollen Schätzungsweise 5 Zetabyte (ca. 5 Milliarden aktuell handelsübliche Festplatten) an Daten gespeichert und verarbeitet werden. Umgerechnet auf die Weltbevölkerung wären das 700 Gigabyte pro Person. Das Rechenzentrum soll noch dieses Jahr in Betrieb genommen werden.
Aber die Datenmassen wachsen ebenso schnell wie ihre Speicher. Das gesamte weltweite Datenvolumen verdoppelt sich alle 2 Jahre. 2010 behauptete Eric Schmidt, der damalige CEO von Google, dass in 48 Stunden so viele Daten produziert werden, wie seit Beginn der Menschheit bis 2003.
Man muss gar nicht die NSA sein, um an all die Daten heranzukommen. Datenbankhacks großer Unternehmen werden so langsam zum Alltag. 2012 waren es im Schnitt zwei pro Tag. Viele bekannte Namen finden sich darunter: Visa, Adobe, LinkedIn. Daten, die hinterher in unkontrollierbaren Schwarzmärkten gehandelt werden, oder gleich auf Tauschbörsen wie Bittorrent verteilt werden.
Der Computer wird gerne „Rechenmaschine“ genannt. Das ist aber nicht mal ein Viertel der Wahrheit. Der weitaus größte Teil einer jeden Prozessorarchitektur widmet sich ausschließlich dem Kopieren. In der symbolischen Welt der Bits und Bytes wird jede Information, die bewegt werden soll, kopiert statt verschoben. Wenn wir eine E-Mail senden, wird sie nicht „verschickt“, sondern an den Empfänger kopiert. Wenn wir im Netz Musik hören, wird diese Musik auf unseren Rechner kopiert, und selbst wenn ich ein Bild im Browser anschaue, dann schaue ich auf eine Kopie des Bildes im Hauptspeicher meines Computers.
Die immer weiter steigende Leistungsfähigkeit und Verfügbarkeit von Datenspeicher und Leitungen verflüssigt in der riesigen Kopiermaschine Internet auch noch so große Datenmengen. Der Wikileaks Whistleblower Bradley Manning konnte 251.287 Botschaftsdepeschen, 71.911 Afghanistan- und 391.832 Irak-Dokumente auf einer einzigen DVD unbemerkt heraustragen. Vor 30 Jahren hätte es in den USA keinen LKW gegeben, der so viele Dokumente hätte fassen können.
Als 2010 die Internetdienstleister von Wikileaks auf Druck der US-Regierung die Zusammenarbeit aufkündigten und die Website drohte, nicht mehr erreichbar zu sein, fanden sich in Windeseile 1426 Aktivisten, die die kompletten Daten der Wikileaksserver kopierten und ihrerseits der Öffentlichkeit zugänglich machten.
Wikileaks war das Napster der internationalen Politik. Mit Snowden sind wir jetzt bei Kazaa angekommen.

Die Krankenakte des Tutanchamun
Seit 2008 ist bekannt, dass die NSA eine selbstentwickelte Big-Data-Technologie namens Accumulo einsetzt. Mit ihr lassen sich gut „Pattern Recognition“-Analysen bewerkstelligen. Will man eine Nadel im Heuhaufen suchen, ist normalerweise jeder Strohhalm einer zu viel. Big Data ist da anders, Big-Data mag Heu. Jeder Strohhalm ist anders als alle anderen, deswegen will Big-Data möglichst viele Strohhalme kennenlernen. Denn je besser das Verständnis des Computers für Heu ist, desto schneller findet er darin die andersartige Nadel. Die NSA braucht eine Menge Kommunikationsdaten, denn je besser der Computer versteht, was „normale Kommunikation“ ist, desto eher findet es die „verdächtige Kommunikation“.
Auch liegt es nahe, sich anhand der Analyse der Metadaten der Kommunikation ein genaues Bild darüber zu verschaffen, wer mit wem kommuniziert und auf welche Weise einzelne Gruppen untereinander vernetzt sind. Die so genannte Graphen-Analyse ist heute ein gängiges Verfahren, um versteckte Zusammenhänge zwischen Personen oder Fakten in großen Datenmengen zu finden und Accumulo ist ausgewiesenermaßen darauf spezialisiert.
Dabei ist Big Data eigentlich ein großer Durchbruch in der Wissenschaft. Statt Hypothesen aufzustellen kann man große Datenmengen für sich sprechen lassen. Big Data kann Zusammenhänge aufzeigen, die niemand sonst je hätte erdenken können. Tomtom erkennt zum Beispiel in Zusammenarbeit mit Vodafone Staus. Verändern sich die Standortdaten vieler Handys auf Autobahnen über einen längeren Zeitraum nur noch wenig, ist das ein sicheres Zeichen für einen Stau, der dann in Echtzeit auf den Tomtom-Geräten angezeigt werden kann. Datenschützern wird versichert, dass die Daten zu diesem Zweck natürlich anonymisiert werden.
Paula Broadwell, die heimliche Affaire des Ex-CIA-Chefs Petraeus, flog auf, obwohl sie nicht unbedarft darin war, ihre Identität zu verstecken. Sie betrieb einen anonymen E-Mail-Account, in den sie sich nie von zu Hause aus einloggte. Sie suchte sich immer öffentliche Plätze, um ins Internet zu gehen und manchmal auch Hotels. Das war ihr Fehler. Das FBI korrelierte die Gästelisten vieler Hotels mit den Internetadressen des Petraeus-Mailverkehrs. Es reichten wenige übereinstimmende Datenpunkte, um Broadwell zu entlarven.
Neuerdings ist es unter Wissenschaftlern eine Art Big-Data-Sport geworden, große anonymisierte Datensets wieder zu deaonymisieren. Am MIT in Cambridge extrahierten sie aus den rohen Handy-Funkzellendaten nicht nur genaue Bewegungsprofile, sondern fanden heraus, dass es lediglich 4 Datenpunkte benötigte, um Nutzer mit 95% Genauigkeit zu identifizieren. Solche Datenpunkte können Checkin-Informationen auf Diensten wie Foursquare sein oder aber die Geokoordinaten in Fotos oder Tweets.
Bereits 2004 wurde ebenfalls am MIT das Programm „Gaydar“ entwickelt. Es zeigt, dass eine einfache Netzwerkanalyse der öffentlich einsehbaren Kontaktinformationen auf Facebook ausreicht, um mit 86%iger Sicherheit vorherzusagen, ob jemand homosexuell ist – natürlich ohne, dass derjenige das öffentlich angegeben hat.
2005 brachte eine Computertomographie zu Tage, dass Tutanchamun, der ägyptische Pharao vor 3000 Jahren nicht erst mit um die 30, sondern schon im Alter von 18 bis 20 gestorben sein muss. Über die Todesursache ist man sich allerdings bis heute uneins, denn Tutanchamun hatte viele potentiell tödliche Leiden. Verletzungen am Schädel, ein gebrochener Oberschenkel, ein eventueller Tumor, Skoliose und Malaria. Tutanchamun und seine Zeitgenossen wären nie auf die Idee gekommen, was für ausgefuchste Methoden der Analyse seines uralten Leichnams ihm eines Tages eine nachträgliche Krankenakte bescheren würden.
Wir alle sind Tutanchamun. Wenn wir ein Foto posten, einen Tweet absetzen, in ein Hotel einchecken oder uns einfach nur im Raum bewegen, wissen wir nicht, was morgen schon aus diesen Daten herauslesbar ist. Daten haben die Eigenschaft, verknüpfbar zu sein, und sie sind es morgen viel mehr noch als heute. Was heute Rauschen ist, sind morgen wertvolle Informationen, was heute unbedeutend ist, kann morgen einen Skandal auslösen. Wir wissen so wenig wie Tutanchamun, was Daten morgen sein werden.

Ein neues Spiel
Und nun stehen wir vor Prism und uns wird langsam bewusst, dass wir die Kontrolle auch nicht wiedergewinnen werden. Als abstrakte Bedrohung aus dem Off konnte die Erzählung von mitlesenden Geheimdiensten den Diskurs über Privatsphäre-Technologien und Datenschutz sogar noch anfeuern. Als konkrete und überbordende Realität steht man davor, als hatte man eben noch vorgehabt, mit einem Klappmesser einen Wal zu erledigen.
Datenschutzerklärungen sind auf einen Schlag null und nichtig, Datenschutzgesetze wirken wie Hohn gegen die internationalen Spionagenetzwerke. Auch der bange Blick zur Politik wird mehr als nur enttäuscht. Es stellt sich heraus, dass all das nicht nur im Einverständnis, sondern in enger Zusammenarbeit mit den deutschen Diensten, also auch der Regierung, geschieht. Das vom Staat so pathetisch gewährte Grundrecht auf „Informationelle Selbstbestimmung“ war lediglich Opium fürs Volk, das jederzeit mit Füßen getreten werden darf – jedenfalls von den „Richtigen“. Und wer glaubt, dass ein Regierungswechsel irgendetwas verändern würde, hat sich noch nicht mit den damaligen und heutigen Positionen zur Überwachung bei der SPD beschäftigt.
Aus der Hackercommunity kommen derweil die Ratschläge zur Selbstverteidigung: „Verschlüsselt doch Eure Kommunikation!“ Aber obwohl es noch nie so einfach war wie heute, ist es immer noch viel zu kompliziert für den größten Teil der Bevölkerung. Viel einfacher darf es auch gar nicht werden, denn um Verschlüsselung für Kommunikation einzurichten, muss man sich bereits mit dem Verfahren soweit vertraut gemacht haben, dass Fehler vermieden werden können, die die Sicherheit sofort kompromittieren. Passt man zum Beispiel nicht auf und vertraut der falschen Signatur, kann sich schnell jemand als mein Kommunikationspartner ausgeben oder mit einer Man-in-the-Middle-Attacke dennoch meine Daten abhören.
Eine Lösung gegen die NSA ist Verschlüsselung sowieso nicht, denn auch wenn die Kommunikationsinhalte nicht lesbar sind, bleiben die Metadaten der Kommunikation weiterhin überwachbar. Sie sind es aber, für die sich die NSA ganz besonders interessiert. So praktisch Verschlüsselung im Einzelfall sein kann, eine gesellschaftliche Antwort auf Prism kann auch sie nicht bieten.
Der Hacker Jacob Applebaum schlägt zudem noch vor, dass wir aufhören sollen Smartphones zu benutzen, keinen Facebookaccount haben und nur noch über Anonymisierungsdienste im Netz unterwegs sein sollten. Doch Kommunikationssicherheit als Lebensaufgabe, sich selbst sozial und technisch einschränken und sich letztendlich zu verstecken ist nicht gerade das, was außerhalb der Hackerwelt als „Freiheit“ empfunden wird. Zu Recht.
Viele Hacker und Datenschützer sind bis heute überzeugt, dass es beim Kampf gegen Überwachung um Privatsphäre ginge, und versuchen weiterhin – zunehmend verzweifelt – den Kontrollverlust einzudämmen. Sie spielen immer noch ein Spiel, das längst verloren ist. Die Privatsphäre ist tot, die NSA hat nur noch mal ihren Stempel darunter gesetzt.
Der Kontrollverlust ist der Tsunami und Prism nur eine der Schaumkronen. Die Allgegenwart der Sensoren, die steigende Volatilität der Daten und die nicht einzugrenzende Aussagefähigkeit vorhandener Datenberge durch neue Analysemethoden sind die drei Treiber des Kontrollverlustes. Bedingt durch die Weiterentwicklung der digitalen Technologie, die alle 18 Monate ihre Leistungsfähigkeit verdoppelt, wird der Kontrollverlust zur exponentiellen Konstante der Weltverdatung. Unaufhaltsam, allgegenwärtig, grenzenlos.

Aber deswegen aufgeben?
Der erste FBI-Chef J. Edgar Hoover führte seinerzeit Akten über jeden wichtigen Politiker, jeden mächtigen Wirtschaftsboss und alle möglichen Journalisten in den USA. Das halbe Land musste nach seiner Pfeife tanzen, denn er war in der Lage, jeden zu kompromittieren. Überträgt man Hoovers Ruchlosigkeit auf die Möglichkeiten der heutigen NSA, ist dasselbe in globalem Maßstab vorstellbar. Eine solche Machtakkumulation droht nicht nur die amerikanische Demokratie auszuhebeln, sondern bedroht auch die Integrität der Politik auf der ganzen Welt.
Es lohnt sich, weiterhin gegen Überwachung zu kämpfen, aber aus anderen Gründen und mit anderen Mitteln. Der Kontrollverlust hat nicht nur die Spielregeln verschoben, sondern wir befinden uns in einem komplett anderen Spiel. Ein Spiel, das man nicht gewinnen kann, wenn man es gegen seine Schwungmasse spielt.
„Snowden besitzt genügend Informationen, um der US-Regierung innerhalb einer Minute mehr Schaden zuzufügen, als es jede andere Person in der Geschichte der USA jemals getan hat“, ließ der Guardian-Journalist Glenn Greenwald, mit dem Snowden in engem Kontakt steht, in einem Interview durchblicken. Im neuen Spiel kann ein Einzelner ohne große finanzielle Mittel Supermächte in arge Bedrängnis bringen.
Julian Assange, Bradley Manning und nun Edward Snowden spielen erfolgreich das neue Spiel. Es heißt: Transparenz gegen Überwachung.
Der Kontrollverlust hat nicht nur uns gegenüber den Geheimdiensten transparent gemacht, sondern auch die Geheimdienste gegenüber uns. Der Kontrollverlust macht alles und jeden transparent. Fragt sich also, wer dadurch mehr zu verlieren hat.
Es kann in diesem Spiel nicht mehr darum gehen, Leute davon abzuhalten, Daten zu sammeln. Es muss darum gehen, den Geheimdiensten kein Monopol auf Daten zu gewähren. Ihre eigenen klandestinen Strukturen, die Deutungsmacht über die Realität, der Informationsvorsprung gegenüber der Restgesellschaft sind der Stoff, aus dem die Dienste ihre Macht beziehen. Ihre Macht zu brechen heißt, sie ins Licht zu zerren, ihre Datenbanken zu öffnen und allen Zugang zu gewähren. Sie haben viel zu verlieren.
Dass die Menschen untereinander transparenter werden, scheint ihrem politischen Einfluss dagegen nicht zu schaden. Nie war es so leicht, sich zu finden, sich auszutauschen, sich zu organisieren und sich zu vernetzen. Nie wurde die Kraft der Massen schneller und effektiver auf die Straße gebracht als heutzutage. Vom ägyptischen Tahrir- bis zum türkischen Taksim-Platz erfahren wir eine ganz neue Macht der Öffentlichkeit, die selbst noch erst ihre Möglichkeiten im neuen Spiel begreifen muss.
Die NSA hat jährlich ca. 10 Milliarden Dollar Budget zur Verfügung, um uns zu überwachen. Doch wir, die Restweltgesellschaft, geben allein dieses Jahr 3,7 Billionen Euro für Informationstechnologie aus. Im neuen Spiel haben wir mehr Köpfe, mehr Rechenpower, mehr Daten zur Verfügung als die NSA je haben könnte und mit dem Internet haben wir ein Instrument, all diese Kräfte zu organisieren. Die Zivilgesellschaft hat allen Grund für ein völlig neues Selbstbewusstsein. Eines, das sich nicht mehr durch alle 4 Jahre angekreuzte Zettel zum Ausdruck bringt, sondern unvermittelt, disruptiv und unkontrollierbar.
Im neuen Spiel sind Datenschutzgesetze gegen Prism nicht nur unwirksam, sondern stärken die Macht der Institutionen, denn sie schränken in erster Linie die Zivilgesellschaft ein, nicht aber die Dienste. Jede Regulierung des Kontrollverlusts wirkt in dieser Mechanik wie ein Datenauswertungsmonopol der Mächtigen und stärkt deren Deutungsmacht. Dasselbe gilt für Urheberrechte und alle anderen rechtlichen Bestimmung zur Datenkontrolle.
Im neuen Spiel gehört private Kommunikation den Kommunikationspartnern und der NSA. Private Statusmeldungen auf Facebook gehören dem Freundeskreis und der NSA. Alles, was man in der vermeintlichen Vertraulichkeit einer gesetzten Privacyeinstellung oder der gesetzlichen Zusicherung des Staates tut, gehört der NSA. Nur was öffentlich für alle erreichbar ist, verlinkbar, zitierbar ist, kann die NSA nicht als Informationsvorsprung für sich nutzen.
Im neuen Spiel gibt es keine Privatsphäre, es gibt nur noch Verschlüsselung. Das ist nicht das gleiche. Sie mag als gesellschaftliche Lösung nicht taugen, aber um zeitweise Residuen des Unbeobachteten zu schaffen, ohne den Geheimdiensten neue Macht in die Hände zu spielen, kann Verschlüsselung nützlich sein.
Für das neue Spiel brauchen wir zivile und auch aktivistische Big-Data-Projekte. Wir müssen die Kraft der Daten für die Zivilgesellschaft nutzbar machen. Viele der Werkzeuge gibt es Open Source, doch in der Aktivisten- und Hackerszene gibt es noch Berührungsängste, die das alte Datenschutz-Paradigma weiterhin reproduzieren.
Der Feind sind im neuen Spiel nicht die Amerikaner. Die Grenzen verlaufen bei der Überwachung nicht zwischen den Staaten, sondern zwischen oben und unten. Eine globale Regierungselite hat sich zusammengetan, um gegenseitig ihre Bevölkerungen auszuspähen und die Daten dann auszutauschen. Wir – die Weltöffentlichkeit – können den Regierungen in dieser Frage nicht vertrauen. Es kann deswegen nicht darum gehen, die Geheimdienste unter eine vermeintlich bessere Kontrolle zu bekommen. Ziel des neuen Spiels muss die restlose Transparentmachung und schließlich Abschaffung aller geheimdienstlicher Aktivitäten sein.
Das neue Spiel wird anspruchsvoller als das alte. Vor allem müssen wir uns erst selbst in die neue Rolle einfinden. Wir müssen Gewissheiten aufgeben, Sicherheiten abhaken, in vielen Dingen umdenken. Aber das neue Spiel ist keinesfalls aussichtsloser als das alte. Im Gegenteil. Alles auf Anfang.

Wiederabdruck
Dieser Text erschien zuerst in: SPEX # 347, August 2013, S. 116.

]]>
The Fabbing Revolution https://whtsnxt.net/069 Thu, 12 Sep 2013 12:42:41 +0000 http://whtsnxt.net/the-fabbing-revolution/ Am Anfang stand das Unikat. Als unsere Urvorfahren die ersten Figuren, Teller und Schalen aus Lehm formten, schufen sie Dinge, die stets in einer unmittelbaren Beziehung zu ihrem Produzenten standen. Die Welt der Dinge war gleichzeitig die Welt der Ideen und Vorstellungen. Jeder, der etwas schuf, schrieb seine eigene Geschichte, seine personale Magie in Materie hinein. Die Hand, das Holz, der Stein: Diese intime Beziehungskiste zwischen dem Menschen und seinen Artefakten dauerte Zigtausende von Jahren. Noch in der Agrargesellschaft blieb jedes Ding ein Einzelstück. Ein Bett, ein Stuhl, ein Kleidungsstück stammte aus der unmittelbaren Anstrengung eines Einzelnen oder einer kleinen Gruppe von Handwerkern. Produziert wurde zumeist im „ganzen Haus“, dem um Gesinde, Abhängige, Anverwandte ergänzten Haushalt.
Dann, im späten 18. Jahrhundert mit der Dampfmaschine und dem mechanischen Webstuhl „Spinning Jenny“, kam die erste Industrielle Revolution, die die mechanisierte Arbeitsteilung in Manufakturen mit sich brachte. Die zweite Industrielle Revolution – ab 1910 setzte Henry Ford erstmals Fließbänder in seinen Fabriken ein, und Frederick Winslow Taylor stand mit der Stoppuhr daneben – skalierte dieses Prinzip hoch zur industriellen Massenproduktion. In gigantischen Fabrikanlagen, die im Zuge des globalisierten Offshoring zu mehrfach um den Globus gewickelten Wertschöpfungsketten zusammengestöpselt wurden, entstanden Abermillionen von Autos, DVD-Playern, Monoblocsesseln und in scheinbar verbesserter Qualität und zu immer günstigeren Preisen, eine „ungeheure Warenansammlung“, wie sie schon Marx und Engels in Aussicht gestellt hatten.
Die Skalenvorteile dieser „entfesselten Produktivkräfte“ sorgen bis heute dafür, dass die Inflationsraten in den westlichen Ländern im Rahmen bleiben – und dies obwohl die Volkswirtschaften im Zuge der Finanzkrise mit billigem Geld nur so geflutet werden: Ein Vorgang, der eigentlich der Theorie widerspricht und nur durch das chinesische Lohn- und Wechselkursdumping erklärt werden kann. Der Fortschritt folgte dabei auf stupende Weise Ruskins Gesetz – formuliert von John Ruskin, einem frühen Gegner der industriellen Produktionsweisen und romantischem Verfechter handwerklicher Qualität –, das da lautet: „Es gibt kaum etwas auf dieser Welt, das nicht irgend jemand ein wenig schlechter machen und etwas billiger verkaufen könnte, und die Menschen, die sich nur am Preis orientieren, werden die gerechte Beute solcher Machenschaften.“
Die dritte industrielle Revolution, von der wir künden, lenkt das Pendel erneut in eine andere Richtung. An die Stelle des industriellen Immer-mehr-vom-Gleichen-zu-immer-günstigeren-Preisen treten individuellere Produkte, hergestellt in flexibler und kleinteiliger Produktionsweise mit universell einsetzbaren Werkzeugen.
Auch hinter dieser ökonomischen Umwälzung steckt eine technologische: die Digitalisierung der Produktion. Aber diesmal arbeitet die Technologie nicht vom Menschen weg in Richtung golemhafter Monstrosität, sondern sie arbeitet auf den Menschen zu im Sinne eines individuellen „Empowerment». Sie wird zu einer mittleren oder vermittelnden Technologie im menschlichem Maßstab, wie sie schon Mahatma Ghandi vorgeschwebt hatte. Vieles, wofür man früher einen kleinen Betrieb oder ein mittelständisches Unternehmen benötigte, lässt sich heute vom Laptop aus erledigen.
Einiges in der kommenden Epoche entfalteter digitaler Produktivkräfte wird sogar an die Zeit vor der industriellen Revolution erinnern – nur unter High-Tech-Vorzeichen. „Auf gewisse Weise sind die Produktionsmittel wieder prä-industriell geworden“, schreibt Daniel Pink in seinem herzerwärmenden Manifest „Free Agent Nation“. Oder noch pointierter: „Technology is taking the capital out of capitalism.” Der technologische Wandel wird einen Kapitalismus hervorbringen, in dem Kapital nicht mehr der Engpassfaktor ist.

Die Fabbing-Revolte
Jede Revolution beginnt mit einer schwelenden Revolte, engagierten Vorkämpfern und einem gemeinsamen Slogan. Fabbing, das Ausdrucken von dreidimensionalen Gegenständen, ist das Herz dieser Revolte. Und „Atoms are the new bits“, lautet die griffige Formel, mit der Visionäre des kommenden Aufstandes wie Neil Gershenfeld vom MIT nun schon seit Jahren die bevorstehende Disruption durch Fabbing-Technologien ankündigen. Gemeint ist damit, dass sich der Trend zu Personal Fabrication, die Demokratisierung der Produktion, exakt in den Bahnen ereignen wird, die durch die PC-Revolution vorgezeichnet wurden. 2005 schrieb Gershenfeld in seinem Buch „FAB: The Coming Revolution on Your Desktop“: „Wie beim früheren Übergang von Mainframe-Computern zu PCs werden die Potentiale von maschinellem Werkzeug nun für den Normalmenschen erschwinglich in Form von Personal Fabricators (PFs). Die Auswirkungen sind wahrscheinlich diesmal aber noch gravierender, weil das, was hier personalisiert wird, unsere physische Welt der Dinge ist, nicht die digitale Welt der Computer-Bits.“
Um einen Vorgeschmack zu geben, haben Gershenfeld und sein Centre for Bits and Atoms die FabLabs entwickelt, kleine Produktionseinheiten, in denen von Alltagsgütern des täglichen Bedarfs bis zu Hightech-Produkten fast alles dezentral produziert (und repariert) werden kann. Über 50 dieser FabLabs sind mittlerweile weltweit im Einsatz, vom ländlichen Indien bis Boston, von Südafrika bis Nord-Norwegen. Aber Gershenfeld geht es um mehr als nur ein neues Werkzeug, um damit Industrieproduktion dorthin zu bringen, wo sie vorher nicht war. Eigentlich geht es dem Revoluzzer darum, die Trennung von Handwerkskunst und Produktion im Gefolge der Industriellen Revolution zu korrigieren. Der eigentliche Sprengstoff dafür schlummerte in der Weiterentwicklung der 3D-Drucker, die damals noch gar nicht richtig begonnen hatte, als Gerschenfeld schrieb: „Ein programmierbarer Personal Fabricator wird in der Lage sein alles mögliche inklusive sich selbst herzustellen indem er Atome kombiniert. Es wird eine sich selbst reproduzierende Maschine sein.“
Kurze Zeit später, im September 2006, stellte Adrian Bowyer, ein exzentrischer Brite, an der Universität von Bath im Westen Englands den ersten Prototypen einer solchen Maschine vor, die neben allem möglichen anderen auch die meisten Bauteile für sich selbst herstellen konnte – und sich so theoretisch endlos fortpflanzen könnte. Der RepRap, kurz für „replicating rapid-prototyper“, ein würfelförmiges Gebilde aus Gewindestangen, Computerchips und simplen Plastikteilen, die auf einer ebensolchen Maschine hergestellt werden können. Auch Bowyer glaubte von Anfang an fest an die durchschlagende gesellschaftliche Wirkung seiner Maschine; sie werde „ein revolutionäres Eigentum an den Produktionsmitteln durch das Proletariat ermöglichen – ohne den chaotischen und gefährlichen Revolutionskram.“

Das nächste Apple
Bowyers RepRap, der von einer Open-Source-Hardware-Community permanent weiterentwickelt wird, ist gleichzeitig Urahn der meisten billigen 3D-Drucker, die heute auf dem Markt sind oder gerade auf den Markt drängen. 2009 machten drei Jungs aus Brooklyn den Anfang und brachten mit dem „Makerbot“ den ersten Bausatz für einen 3D-Drucker unter 1.000 US-Dollar auf den Markt. Obwohl die Eigenbau-Montage zeitraubend und knifflig war, war die Nachfrage auf Anhieb so groß, dass die Firma ihre Erstkunden bitten musste, auf ihren Makerbots gegen Bezahlung Komponenten für weitere Bausätze zu fertigen. Nur halb im Spaß wurde das bescheidene Start-up ganz in der Atoms-Bits-Analogie bereits als „das nächste Apple“ gehandelt, erinnert man sich, wie handgemacht die erste PC-Generation aussah.
Seit Anfang dieses Jahres gibt es das neueste Modell „Replicator“ zum Preis von 1.749 US-Dollar im Makerbot-Webshop zu bestellen. Es kommt vorfabriziert ins Haus, sieht bereits wie ein richtiges Produkt aus und richtet sich damit an weniger technikbegabte Amateure. Die Wartezeit beträgt allerdings zehn bis zwölf Wochen. Und Makerbot bekommt derzeit mächtig Konkurrenz im niederpreisigen Home-Segment. Eine Reihe von 3D-Druckern in ähnlicher Preisklasse sind bereits lieferbar oder angekündigt. Der Markt fühlt sich ein bisschen so an, wie der PC-Markt um 1980 zu Zeiten des Commodore VC-20 oder des Atari ST. Was lange Zeit blumige Versprechung war, steht nun anscheinend vor einem breiteren Durchbruch beim Publikum: Der erschwingliche 3D-Drucker für jeden Schreibtisch als Teil der PC-Infrastruktur.
Wenn Makerbot sich tatsächlich als das nächste Apple herausschälen sollte, dann wäre die angegliederte Website Thingiverse.com das nächste iTunes. Hier kann man sich die CAD-Datensätze herunterladen, mittels derer der Makerbot – oder jedes andere Modell – dann den eingespeisten Plastikdraht über eine Heißdüse Schicht für Schicht in die gewünschte Form modelliert. Der Vergleich mit Apple hinkt allerdings, weil auf Thingiverse alle Datensätze umsonst zu haben sind – so wie das ganze Feld noch sehr nach Open-Source-Regeln funktioniert. Bisher, und das ist das große Manko der Szene, ist allerdings wenig Weltbewegendes dabei: Das Spektrum reicht von der Trillerpfeife bis zur Schneckenfalle für den Garten. Vieles erinnert an Überraschungsei-Schnickschnack. Das liegt zum einen an den begrenzten Volumina, als auch an den zu verarbeitenden Materialien. Die meisten Geräte können nur minderwertige Thermoplaste verarbeiten und in Einzel-Objekte bis zur Größe eines Tennisballs verwandeln. Damit lässt sich die Welt kaum aus den Angeln hebeln.
Aber auch das ändert sich gerade. Immerhin kann der „Replicator“ bereits zweifarbige Objekte ausdrucken, und es tun sich immer mehr sinnvolle praktische Anwendungsfelder auf – nicht mehr lieferbare Ersatzteile für historische Geräte und Oldtimer sind bereits heute eins. Per 3D-Scanner lassen sich Alltagsobjekte in Datensätze verwandeln und werden so zur Software für eine Reparatur-Ökonomie „Marke Eigenbau“. Wie beim PC, mit dem anfangs auch überwiegend gespielt wurde, wird die Bewegung eines Tages das Experimentierstadium überwunden haben und das Nichtschwimmerbecken verlassen.

Ding-Hacking und Bio-Hacking
Als Menetekel und historischer Kick-off könnte sich in der Rückschau etwa ein scheinbar unbedeutendes Ereignis im Januar 2012 erweisen: der Zeitpunkt, als The Pirate Bay die Kategorie „Physibles“ zu seinen bestehenden Kategorien hinzufügt. Damit rüstet sich die Filesharing-Plattform, die schon der Software-, Musik- und Filmindustrie gehörig zugesetzt hat, für eine Zukunft, in der auch die CAD-Daten physischer Objekte auf breites Interesse von Raubkopierern stoßen, und das verarbeitende Gewerbe nicht mehr nur chinesische Kopien und Plagiate fürchten muss, sondern eine Ding-Piraterie durch Amateure. Die Erläuterung der Piraten dazu liest sich ähnlich vollmundig-visionär wie die Sätze der ersten Fabbing-Propheten: „Wir versuchen immer, die Zukunft vorauszusehen […] Wir glauben, der nächste Schritt beim Kopieren wird der von der digitalen zur physischen Form sein. Es werden physische Objekte sein. Oder, wie wir sie nennen: Physibles. Datenobjekte, die bereit und in der Lage sind, sich zu vergegenständlichen. Wir glauben, 3D-Drucker, -Scanner und dergleichen sind nur der erste Schritt. Wir glauben, in der nahen Zukunft wird man Ersatzteile für Fahrzeuge drucken. Und in 20 Jahren seine Sneakers herunterladen.“
Was passiert, wenn sich die Hacker auf die reale Welt stürzen und beginnen, die Lücken zu stopfen und Nischen zu füllen, die die industrielle Massenproduktion bietet? Auch Chris Anderson, Chefredakteur von Wired, „Long Tail“-Erfinder und Kurator der TED-Konferenz sieht – ausgehend von einer Renaissance der Garagenbastler – eine neue industrielle Revolution heraufziehen, die sich am Vorbild der Digitalisierung orientiert. In einer WIRED-Titelgeschichte zum Thema schreibt er: „Peer Production, Open Source, Crowdsourcing, user-generated Content – all diese digitalen Trends übertragen sich nun auf die reale Welt.“
Analog zu den Hackern der PC-Revolution bildet in den USA die wachsende Maker-Szene die Speerspitze der Bewegung. Sie trifft sich seit 2006 in Kalifornien auf den Maker Faires, einer Art Erfinder-Weltkongress 2.0, der mittlerweile Ableger in Kanada, Afrika und Korea ausgebildet hat. Bei der letzten Flagship-Messe im Mai 2012 im San Mateo County Event Center kamen über 100.000 Teilnehmer. Die Szene reicht von den traditionellen Bastlern und Schraubern, die in klassischer Do-it-yourself-Manier vom getunten Toaster bis zur lebensgroßen Dinosaurier-Attrappe alles mögliche selbst herstellen, bis zu den Hardhackern, deren Ehrgeiz darin liegt, eigene Computer-Hardware und -Peripherie zu entwickeln und anzupassen. Letztere haben durch die Entwicklung des Arduino einen ziemlichen Zustrom erlebt. Diese von Interface-Designern in Norditalien entwickelte „Electronic Prototyping Plattform“ ist nach Open-Source-Regeln anpassbar und frei bestückbar mit Sensoren, LEDs, Elektromotoren etc. Damit ist der Arduino, den es in der Basisvariante bereits ab 20 Euro zu kaufen gibt, zum Herzstück vieler Hardware-Eigenentwicklungen bis hin zu marktreifen Produkten in Kleinserie geworden. Selbst versiertere Laien können damit nach Anleitung einen webfähigen Feuchtigkeitsmesser bauen, der ihnen über Twitter mitteilt, wenn die Zimmerpflanzen Wasser brauchen. Ambitioniertere Bastler haben damit bereits einen Open-Source-Gameboy fabriziert.
Die Ultra-Pioniere der Bewegung haben sich allerdings bereits von der Hardware abgewendet und richten ihre Energien auf die „Wetware“, biologische Materialien, Mikroorganismen und DNA. Bio-Hacking heißt das neue Zauberwort. Hobby-Frankensteine, die sich selbst „Bio-Punks“ nennen, machen den Einrichtungen der Spitzenforschung ihr Monopol auf die synthetische Biologie streitig. Die Labor-Ausstattung dafür kaufen sie billig auf Ebay, die Gen-Sequenzen, sogenannte „Biobricks“, erhalten sie von den gleichen Laboren, die ansonsten für Profi-Forscher die Sequenzierungen im industriellen Maßstab übernehmen. Bislang hat noch kein lebensfähiger, von Amateuren designter Organismus den Bastelkeller verlassen. Das heute erreichbare Niveau, das fanden kürzlich auch Wissenschaftsredakteure der FAZ im Eigenexperiment heraus, liegt etwa bei der Isolierung und Analyse einzelner Genabschnitte des eigenen Erbmaterials.
Dagegen stehen die vollmundigen Ankündigungen von Biohacking-Visionären wie Freeman Dyson von der Harvard-Universität: „Die domestizierte Biotechnik wird uns, steht sie erst einmal Hausfrauen und Kindern zur Verfügung, eine explosionsartige Vielfalt neuer Lebewesen bescheren statt der Monokulturen, die die Großunternehmen bevorzugen.“ Und weiter: „Genome designen wird eine persönliche Angelegenheit werden, eine neue Kunstform, die so kreativ wie Malen oder Bildhauern sein wird. Nur wenige der neuen Kreationen werden Meisterwerke sein, viele aber werden ihren Schöpfern Freude bereiten und unsere Fauna und Flora bereichern.“
Ob irgendetwas davon jemals Realität wird, scheint mehr als fraglich. Dass überhaupt darüber nachgedacht und daran herumexperimentiert wird, zeigt aber, dass heute kein Bereich mehr vor herandrängenden Hackern sicher ist. Und keine Industrie dagegen gefeit, dass sich ambitionierte Amateure und DIY-Bastler in ihr Geschäftsfeld einmischen.

Distributed Manufacturing
Die nächste Industrielle Revolution bedeutet nicht, dass eine neue Form der High-Tech-Subsistenzwirtschaft an die Stelle der industriellen Massenproduktion tritt. Das Szenario, dass die neue Konkurrenz für Konzerne aus Garagen, Hobbykellern und Hinterhöfen erwächst – und auch dort produziert – ist ebenso unrealistisch wie der populäre Kurzschluss, dass wir eines Tages alle 3D-Drucker auf unseren Schreibtischen stehen haben werden, die die Güter des täglichen Bedarfs ausspucken. Dafür sind heutige Herstellungsverfahren schlicht zu komplex, die Leistungsfähigkeit von Home-3D-Druckern zu limitiert, beispielsweise scheitern sie auf absehbare Zeit an der Metallverarbeitung, und die Oberflächenqualität lässt auch noch sehr zu wünschen übrig.
Zwar hat im Tokyoter Hipster-Stadtteil Shibuya gerade das erste FabCafe eröffnet. Während man seinen Frapuccino trinkt, kann man sich dort die auf einem USB-Stick mitgebrachten CAD-Datensätze als Objekte ausdrucken lassen. Aber auch das Szenario, dass es in Zukunft Fabshops an jeder zweiten Ecke geben wird wie heute Copyshops, ist wohl eher zu kurz gedacht.
Was indes blüht und wächst, besonders in den USA, sind Gemeinschaftswerkstätten, die nach dem Modell von Co-Working-Spaces eine Werkbank bereitstellen und Zugriff auf den Maschinenpark auf Stunden- oder Tagesbasis ermöglichen. Die Kette TechShop verfügt landesweit bereits über fünf Standorte, weitere sind in Planung. Ähnlich wie die FabLabs ausgestattet, bieten sie den Mitgliedern Zugriff auf CNC-Laserfräsgeräte, 3D-Drucker, Geräte zur Bestückung von Elektronikplatinen, Verarbeitung von Carbonfasern etc. Neben Hobbybastlern fertigen hier einzelne oder kleine Teams hochspezialisierte Produkte in Kleinserien. Die Stückzahlen und Umsätze dieser virtuellen Unternehmen sind oft zu groß für die Garage, jedoch zu klein, um wirklich eine eigene Firma mit eigenem Maschinenpark zu gründen – deshalb sind sie in den TechShops genau richtig angesiedelt. Chris Anderson selbst ist an einem Unternehmen beteiligt, das unbemannte Drohnen für nichtmilitärische Einsatzzwecke herstellt, die im TechShop in Menlo Park entwickelt wurden: „Was diese kleinen Businesses von der Reinigung oder dem Tante-Emma-Laden an der Ecke, die die Mehrheit der Kleinunternehmen im Land bilden, unterscheidet, ist, dass wir global und High-Tech sind“, schreibt Anderson: „Zwei Drittel unserer Bestellungen kommen von außerhalb der USA. Wir konkurrieren am unteren Ende mit Waffenlieferanten wie Lockheed Martin oder Boeing.“ In Europa ist die Welle noch nicht ganz angekommen, auch wenn das Betahaus in Berlin mit der „Open Design City“ bereits über eine Gemeinschaftswerkstatt verfügt, und die Dingfabrik in Köln mit ihrem Projekt „Dingfabrik+“ demnächst sogar ein noch größeres Rad drehen will.
Was sich ferner abzeichnet, ist, dass ganze globale Wertschöpfungsketten von einzelnen Individuen und vom Laptop aus dirigiert und kontrolliert werden können. Die virtuelle Ein-Mann- oder Eine-Frau-Fabrik kombiniert lokale Produktion mit spezialisierten Remote-Dienstleistungen und Support-Services: „Die Werkzeuge der Fabrikproduktion von der Elektronikmontage bis zum 3D-Drucken sind jetzt für Individuen in kompakten Einheiten verfügbar. Jeder mit einer Idee kann in China Fließbänder in Bewegung setzen“, schreibt Chris Anderson. Heimische 3D-Drucker dienen demnach, wie bislang in F&E-Abteilungen von Konzernen und Mittelständlern, vorwiegend dem Design von Prototypen. Die Herstellung von der Kleinserie bis zum Massenartikel wird – ebenfalls nach dem Vorbild der Konzerne – über Plattformen wie Alibaba.com in Offshoring-Zentren ausgelagert. Auch das gesamte Fulfillment vom Versand bis zur Fakturierung lässt sich mittlerweile bequem an Drittanbieter outsourcen.
Spezialisierte Web-Plattformen wie I.materialise.com, Fabberhouse.de, Sculpteo.com, Razorlab.co.uk oder Formulor.de bieten über das Internet vom Lasercutting-Service bis zu aufwendigeren 3D-Druck-Verfahren wie Stereolithographie und Lasersintern, womit sich Objekte mit glatter Oberfläche herstellen und auch Metall verarbeiten lässt. Viele der Anbieter haben auf ihrer Website gleich einen Webshop integriert, über den sich die Gegenstände und Designs an Dritte verkaufen lassen. Im Shop von Shapeways.com, einer Tochter des Philipps-Konzerns, finden sich so neben Schmuck, Tand und iPhone-Hüllen auch eine Reihe von Gadgets, Technik-Zubehör, und Auto-Ersatzteile.
Auf einer Vielzahl dieser Angebote setzt das Geschäftsmodell von Ponoko.com auf, einem ursprünglich aus Neuseeland stammendes Start-up. Ponoko aggregiert lokale Anbieter und kontrahiert Produktdesigner, Käufer, Materiallieferanten und Herstellungsbetriebe vor Ort zu einem Vier-Seiten-Geschäft. Ponoko selbst nennt das „distributed manufacturing“. „Wir versuchen, ‘Made in China’ über den ganzen Globus zu schmieren“, sagt David ten Haven, einer der Gründer: „Wir sind dabei, die Fabrik des 21. Jahrhunderts zu bauen.“ Im Wikipedia-Eintrag zu Ponoko liest sich das nur unwesentlich verhaltener: „Viele glauben, dass solch distribuiertes on-demand Manufacturing einen größeren Paradigmenwechsel im verarbeitenden Gewerbe bedeuten könnte.“ Gemeint ist: Die Produktion wandert nicht von China auf den heimischen Schreibtisch – aber sie wandert doch in die Nähe, zu einer Produktionsstädte vor der eigenen Haustür. Das hat Implikationen für die Stoffkreisläufe, Logistikwege und die gesamte Wirtschaftsstruktur

Fabbing Society
Distribuiertes Manufacturing bedeutet: Weg von den globalisierten Long-Haul-Wirtschaftsketten, hin zur dezentralen Produktion, der stärkeren regionalen Wirtschaftsbeziehungen und geschlossenen Stoffkreisläufen. In ihrem Buch „Vom Personal Computer zum Personal Fabricator“ schreiben Andreas Neef, Klaus Burmeister, Stefan Krempl, drei Forscher des Institutes z_Punkt, über die disruptive Kraft dieses Paradigmenwechsels: „Eine dezentralisierte Produktionslandschaft wird zwangsläufig zu einem neuen Wirtschaftsspiel führen, einem ‘Whole New Game’, in dem die Rollen zwischen Entwickler, Produzent, Händler und Konsument neu verteilt werden. Produktion und Konsum rücken enger zusammen, und der Kunde wird zum aktiven Teil der Wertschöpfungskette. Die industriellen Geschäftsmodelle werden in der Fabbing Society der Zukunft auf den Kopf gestellt.“
Dass das nicht bloße Zukunftsmusik ist – und wie ganze Industrien dadurch umgekrempelt werden könnten – demonstriert Local Motors, ein Unternehmen, das, wie der Name schon sagt, Automobile lokal in den USA produziert. Ganz nebenbei handelt es sich dabei um das erste Open-Source-Car der Welt, das Marktreife erlangt. Wie das funktioniert? Zunächst einmal stammen die Entwürfe und Designs für die Fahrzeuge von einer Crowdsourcing-Community. Am Entwurf des ersten Models Namens „Rally Fighter“ waren 2.400 Fahrzeugdesigner, Ingenieure und Amateure beteiligt. Die Innereien stammen freilich von Local Motors selbst bzw. sind eine geschickte Kombination von am Markt erhältlichen Bauteilen. Der Antrieb etwa ist ein sauberer Diesel von BMW. Die Firma Local Motors selbst hat nur eine Handvoll Angestellte und baut die Fahrzeuge nicht selbst zusammen. Stattdessen werden die Teile an eine Werkstatt in der Nähe des Kunden geliefert, wo sie nach Anleitung von Automechanikern (oder den Kunden selbst) zusammenmontiert werden. Mittelfristig will Local Motors ein landesweites Netzwerk von eigenen „Mikro-Factories“ aufbauen, so jedenfalls die Planung. Bislang sind nur wenige Stücke des 50.000 Dollar teuren, martialisch anmutenden Spaßgefährtes ausgeliefert. Und Local Motors will es auch gar (noch) nicht mit den Automobilriesen aufnehmen, sondern eher lukrative Nischen besetzen. Sieben Millionen Dollar Venture Capital und ein erfolgreich absolvierter Entwicklungsauftrag für ein Wüstenfahrzeug für das US-Militär sprechen dafür, dass Local Motors keine Eintagsfliege ist.
Unabhängig davon stehen die Zeichen der Zeit im produzierenden Gewerbe auf Dezentralisierung, kleinere Einheiten und Mass-Customization. „Flexible Spezialisierung“ nannten Michael J. Piore und Charles F. Sable schon Mitte der 1980er in „Das Ende der Massenproduktion“ ihre große Idee, statt Massenfertigung in Großbetrieben die Produktion in innovativen und flexiblen Klein- und Mittelbetrieben zu organisieren, die lokal vernetzt sind.
Mit der Digitalisierung der Produktion, sind die entscheidenden Werkzeuge vorhanden, die diese alternative Strategie, von mittelständischen Manufakturbetrieben seit jeher verfolgt, zu einer insgesamt überlegenen werden lassen könnten.
Im April 2012 rief auch der altehrwürdige und besonnene Economist in einer Titelgeschichte „The third industrial Revolution“ aus. Das Heft handelt davon, wie Unternehmen und mittelständische Betriebe profitieren können, indem sie nicht nur auf Fabbing-Technologien, sondern in eine ganze Reihe von Trends einsteigen, die mit der Digitalisierung in Verbindung stehen und die klassische Industrieproduktion verändern: „Eine Zahl von bemerkenswerten Technologien konvergieren: clevere Software, neuartige Materialien, geschicktere Roboter, neue Prozesse (allen voran das 3D-Drucken) und eine ganze Bandbreite Web-basierter Services.“ Auch wie die Fabriken der Zukunft aussehen, haben die Economist-Autoren bereits klar vor Augen: „Sie werden nicht mehr voll mit schmutzigen Maschinen sein, gewartet von Männern in ölverschmierten Overalls. Viele werden blitzblank sauber sein – und fast menschenleer. (…) Die meisten Jobs werden nicht in der Maschinenhalle angesiedelt sein, sondern in den angegliederten Büros, die voll sein werden mit Designern, Ingenieuren, IT-Spezialisten, Logistik-Experten, Marketingmenschen und anderen Vollprofis. Die Industrieberufe der Zukunft werden mehr Skills erfordern. Viele langweilige und monotone Tätigkeiten werden obsolet sein: Wenn nichts mehr genietet wird, braucht man auch keine Nieten mehr.“
Die gute Nachricht der nächsten Industriellen Revolution: Teile der Wertschöpfung kommen zurück aus China und rücken wieder enger an die Orte des Verbrauchs. Wenn Lohnkosten aufgrund einer neuen Automatisierungswelle immer weniger ins Gewicht fallen, schwinden auch die Kostenvorteile der Niedriglohn-Standorte. Die schlechte Nachricht (die nicht notwendigerweise schlecht sein muss): Die Arbeit kehrt nicht in Form von Jobs zurück, sondern als smarte Software und Programme, die zunehmend auch algorithmische Dienstleistungstätigkeiten und Supportfunktionen in Unternehmen wahrnehmen können. Wie die letzten beiden, so wird auch die dritte industrielle Revolution Verwerfungen mit sich bringen, Gewinner und Verlierer kennen und die Arbeitswelt so nachhaltig transformieren, dass wir sie nicht wiedererkennen werden. Wertschöpfung wird kleinteiliger, granularer sein und in häufig wechselnden, zeitlich befristeten Konstellationen stattfinden – und so werden auch die Jobs aussehen. Großkonzerne sind dafür tendenziell schlechter aufgestellt als Soloselbständige, Start-ups und wendige Mittelständler.
In seinem Sach-Roman „Makers“ beschreibt der Science-Fiction-Autor und Web-Aktivist Cory Doctorow, welche strukturellen Verschiebungen sich durch den von der Maker-Szene angezettelten Umbau der Industriegesellschaft ergeben: „Die Tage von Firmen mit Namen wie ‘General Electric’, ‘General Mills’ oder ‘General Motors’ sind gezählt. Das Geld, das auf dem Tisch liegt, ist wie Krill: Eine Milliarde kleiner Chancen für Entrepreneure, die von smarten und kreativen Leuten entdeckt und ausgebeutet werden können.“ Um im Bild zu bleiben: Selbst Pottwale können von Krill satt werden. Für diejenigen, die sich evolutionär an die neuen Verhältnisse und sich wandelnden Ökosysteme anpassen, bietet die nächste Industrielle Revolution mehr Chancen als Risiken. Die Dinosaurier freilich werden aussterben.

Wiederabdruck
Dieser Text erschien in „Trend Update“, Monatsmagazin des Zukunftsinstituts, Frankfurt, August 2012.

Literatur
Neil Gershenfeld: FAB: The Coming Revolution on Your Desktop 2005
Andreas Neef, Klaus Burmeister, Stefan Krempl: Vom Personal Computer zum Personal Fabricator. Points of Fab, Fabbing Society, Homo Fabber, 2006
Daniel Pink: Free Agent Nation. The Future of working for yourself. 2002
Holm Friebe und Thomas Ramge: Marke Eigenbau. Der Aufstand der Massen gegen die Massenproduktion. 2008
Chris Anderson: „Atoms Are the New Bits“. In Wired, 3/10.
Freeman Dyson: „Visionen Grüner Technik“. In Lettre, Herbst 2007
John F. Sable und Charles Piore: Das Ende der Massenproduktion. 1984
Cory Doctorow: Makers. 2009

]]>
What’s next? Die Zukunft der Kultur- und Kreativwirtschaft wird von ihren Akteuren entworfen https://whtsnxt.net/057 Thu, 12 Sep 2013 12:42:40 +0000 http://whtsnxt.net/whats-next-die-zukunft-der-kultur-und-kreativwirtschaft-wird-von-ihren-akteuren-entworfen/ Zukunftsszenarien
Europäische Zukunftsszenarien zum kulturellen Sektor unterscheiden sich hinsichtlich der wichtigsten Trends für die nächsten Jahrzehnte wenig.1 Erwähnt werden – in wechselnder Reihenfolge und in unterschiedlicher Ausprägung – in der Regel Globalisierung, Digitalisierung und das sich verändernde Verhältnis zwischen Individuum und Gesellschaft:
_ „Globalisierung“: Weltregional unterschiedliche Mainstream-Begriffe, illustriert anhand der Dominanz von Disney Filmen, Computer Games, Fernseh-Serien relativieren die europäische „exception culturelle“2. Zugleich gilt: Als Kontext und Exportgut für aufstrebende asiatische Märkte und Akteure bleibt die Kompetenz für traditionelle europäische Werte und Reflektionen in den kommenden Jahren relevant. Europas eigene Kultur wird umgekehrt geprägt durch dominante Inhalte aus den USA und durch asiatische Innovationen. Zugleich wächst der Stellenwert rechtlicher und technischer, logistischer und organisatorischer Aspekte der Kunst- und Kulturproduktion, -inszenierung, und -verbreitung.
_ „Digitalisierung“: Neue Wege der Kreation, Produktion, Verbreitung und Erschließung von Kultur und Kunst implizieren Qualitätsfragen, exemplarisch im Kontext von Open Source und Social Media, oder der Herausbildung digitaler Gemeinschaften und selbstorganisierter Wissensgemeinschaften: Was heißt in diesem Zusammenhang „professionell“, wenn der Zugang zu Produktionsmöglichkeiten laufend vereinfacht wird? Auf welche (neuen/alten) Inhalte muss die Kultur- und Kunstproduktion reagieren? Welche Verschiebungen an der Schnittstelle zwischen Produktion und Konsumption werden relevant? Dabei hat Digitalisierung Implikationen für den „content“ selbst.
_ „Partikularisierung“: Klassische, mehrere gesellschaftliche Schichten umfassende „Leit-Kulturen“ verlieren tendenziell an Stellenwert. Neue Publikumsstrukturen bilden sich entlang von Communities und ändern sich schnell. Die Bedeutung der künstlerischen „Identitätsstiftung“ für kleinere oder große gesellschaftliche Gruppen ist abhängig von ökonomischen Bedingungen: Krisenzeiten stärken das Bedürfnis nach gesicherten kulturellen Werten, während sie gleichzeitig die Absicherung bestehender Institutionen schwächen; Hochkonjunktur begünstigt eine Partikularisierung der „Szenen“; Autorschaft verteilt sich und organisiert sich neu.
Aus einer spezifisch kontinentaleuropäischen Sicht werden zudem „Verschiebungen im kulturellen Sektor“ sichtbar: Bis in die 70er Jahre haben beispielsweise rund 2/3 der Absolventen einer Kunsthochschule in Europa schwerpunktmäßig im öffentlichen Sektor ihr Auskommen gefunden. Aktuelle Entwicklungen in Europa (in vielen Ländern schwindende Ressourcen für die öffentliche Kulturförderung; neue Berufsbilder mit einem hohen Anteil an Selbständigkeit) zeigen, dass ein zunehmend größerer Anteil der Absolventen von Kunsthochschulen im privaten Sektor sein Auskommen findet. Zugleich verschwimmen die Grenzen zwischen den Sektoren, Akteure des Kultur- und Kunstsystems funktionieren zunehmend in hybriden Settings.
Geht man davon aus, dass sich diese Entwicklungen weiter akzentuieren, so gilt es, traditionelle Betrachtungsweisen zur Kultur- und Kreativwirtschaft zu überprüfen und neue Szenarien zu entwickeln. Noch immer weit verbreitete transferorientierte Zugänge von Alt-Industrien zur Kultur- und Kreativwirtschaft, oder Inside-/Outside-Betrachtungen über die Abgrenzung der Kultur- und Kreativwirtschaft als Branchenkomplex stoßen an ihre Grenzen.
Die hier formulierte Vermutung ist, dass lediglich mit neuen Ansätzen das hohe Innovationspotential, aber auch die Unterhaltungsqualitäten, die Wissensformen und die kritischen Ressourcen dieses Branchenkomplexes für kulturelle, politische und gesellschaftliche Entwicklungen und auch für weitere Branchen fruchtbar gemacht werden können. Gleichzeitig wird es nur aufgrund einer grundsätzlichen Neubetrachtung gelingen, zukunftsfähige Förderkonzepte und Finanzierungsstrukturen zu formulieren.

State of the Art
„What’s next?“ – für die Kultur- und Kreativwirtschaft sind Antworten auf diese Frage gerade zum jetzigen Zeitpunkt von hoher Wichtigkeit. Dabei ist ein Blick auf die aktuelle Situation ein sinnvoller Ausgangspunkt, denn entsprechende Diskussionen sind nicht neu und reichen bereits mehrere Jahrzehnte zurück. In Europa wurden erste Debatten zum Thema in Frankreich bereits in den 1970er Jahren im Zusammenhang mit der Verbreitung des Fernsehens geführt; in den 1980er Jahren lanciert die Schweiz an der Schnittlinie zwischen Kultur und Ökonomie das Thema der Umwegrentabilität; anfangs der 1990er Jahren werden in Deutschland im Zusammenhang mit dem Niedergang der Kohle- und Stahlindustrie erste Strategien zum heutigen Verständnis von Kultur- und Kreativwirtschaft entwickelt; in diese Zeit fallen auch die Initiativen Großbritanniens, welches das Land und seine Hauptstadt als „creative hub“ definieren und die „creative industries“ im Kontext des nation brandings definitiv zum Politikfeld gemacht haben. Seite Mitte der 1990er Jahre ist das Thema permanent auf der Agenda verschiedener Generaldirektionen der EU.
Auffallend ist, dass es trotz dieser langandauernden Beschäftigung bis heute nicht gelungen ist, einen gemeinsamen Nenner und Bezugsrahmen für die Kultur- und Kreativwirtschaft zu definieren. Sowohl die statistischen Abgrenzungen als auch das grundsätzliche Verständnis divergieren je nach Standort und Motivationslage. Die UNCTAD listet in ihrem Jahresbericht u. a. die folgenden (Politik-)Felder auf, welche die Kultur- und Kreativwirtschaft zu einem zentralen Faktor erklären: economic development and regional growth; urban and national planning; trade and industry; education; technology and communications; art and culture; tourism; social welfare. Man ist versucht, ob dieser Vielfalt das Fazit zu formulieren, dass der Erfolg der Kultur- und Kreativwirtschaft primär darin begründet liegt, dass jeder darunter verstehen kann, was er will: Kultur- und Kreativwirtschaft als ein Phänomen der Beliebigkeit des ausklingenden 20. Jahrhunderts?

Mapping
Eine vertiefte Analyse zeigt, dass die Gründe für eine gewisse Ratlosigkeit im Umgang mit der Kultur- und Kreativwirtschaft nicht in der oben erwähnten Beliebigkeit zu suchen sind, sondern vielmehr in Ansätzen und Vorstellungen, die den Konzeptionalisierungen zugrunde gelegt werden und die den Mechanismen dieses Branchenkomplexes nicht gerecht werden. Aus einer Makroperspektive ist die strategische Positionierung zu oft ungenau, die oben erwähnten Schnittstellen zu weiteren Politikfeldern bleiben unscharf. Aus einer Mikroperspektive wird der Fokus in den meisten Fällen auf Institutionen und Produkte gesetzt; auf diese Weise sind die vielfältigen Kreations-, Organisations-, Entwicklungs- und Geschäftsmodelle sowie die Prozesse der Kreation, der Inszenierung, der Kommunikation, der Durchsetzung ungenügend erfasst. Zudem kommen die vielfältigen Prozesse, Praktiken und Akteure, die letztendlich die Kultur- und Kreativwirtschaft ausmachen, selten in den Blick.
Für ein umfassenderes Verständnis der Makroebene ist dabei die Erstellung einer Gesamtschau ein unumgänglicher Schritt. Es wird auf diese Weise sichtbar, wie sich unterschiedlichste Konzepte überlagern. Ein Koordinatensystem, welches auf der horizontalen Achse die Dimensionen zwischen Kultur (-Wirtschaft) im engeren Sinne und dem Fokus Kreativität in der Wirtschaft aufzeigt und auf der vertikalen Achse den Bogen zwischen wirtschaftlichem Wachstum und prekären Arbeitsbedingungen aufspannt, zeigt auf vereinfachte Weise, was in aktuellen Debatten unter Kultur- und Kreativwirtschaft verstanden werden kann; und warum die unterschiedlichen Perspektiven und Debatten in diesem Feld teilweise unverbunden nebeneinander stehen. Dabei finden sich die Konzepte links (Cultural Industry) in Kontinentaleuropa, die Zugänge in der Mitte (Creative Industry) haben sich von Großbritannien aus über Europa und das Commonwealth verbreitet, die Ansätze rechts (Creative Economy) finden sich in den USA und verbreiten sich von da aus in Asien. Die Diskussion der wirtschaftlichen Bedeutung und ihrer Förderung im Spannungsfeld Dynamik – Prekariarität werden dabei unterschiedlich bewertet.

Modelle
Das grobe Schema eröffnet eine Vielzahl von Verständnissen und Perspektiven und somit möglicher strategischer Positionierungen der Kultur- und Kreativwirtschaft. Ob diese adäquat sind oder nicht, lässt sich nur aus dem jeweils spezifischen Kontext – z. B. einer Förderkonstellation, politischer Strategien, kultureller bzw. wirtschaftlicher Rahmenbedingungen … – ableiten. Oder umgekehrt: Ausgangspunkt für eine Diskussion zur Kultur- und Kreativwirtschaft muss ein konkreter Fall sein. Die Postulierung eines allgemein gültigen Verständnisses oder gar einer globalen Definition der Kultur- und Kreativwirtschaft ist nicht hilfreich. Das heißt auch: jede Auseinandersetzung mit der Kultur- und Kreativwirtschaft impliziert eine bestimmte Perspektive und einen bestimmten Kontext. Dabei werden je nach Perspektive und Kontext ganz unterschiedliche Interpretationen und Modelle erkennbar, mit denen die Kultur- und Kreativwirtschaft bearbeitet wird.
Anhand einiger zentraler Visualisierungen aus Kreativwirtschaftsberichten lässt sich dies exemplarisch aufzeigen. In diesen Visualisierungen werden oft implizit vorausgesetzte und selten explizit reflektierte und debattierte Grundannahmen und Vorstellungen sichtbar: Wir finden Dreiecksdarstellungen – so z. B. verwendet in Singapore –, welche die Kultur- und Kreativwirtschaft an der Spitze und in der mittleren Schicht positionieren und diese primär als Content-Lieferant für ein Fundament aus technologisch definierten Distributionskanäle sehen; wir finden Darstellungen der Kultur- und Kreativwirtschaft als konzentrische Kreise – eine bspw. in Frankreich verwendete Visualisierung –, die einen Kernbereich in der Form von Musik, Text und Bild als schutzwürdig abgrenzen gegenüber weiteren Kreisen, welche primär Verwertungs- und Distributionsindustrien bezeichnen; wir finden auch Schnittstellenmodelle – so etwa in Skandinavien – die eine Zone zwischen dem kulturellen Sektor und dem Corporate Sektor. Dabei steht letzterer für Produkte und Dienstleistungen, welche in immer engerer Kooperation zwischen Produzent und Konsument entwickelt werden, ersterer für inhaltsgetriebene Wertschöpfung und für die Unverwechselbarkeit solcher Produkte und Dienstleistungen. An der Schnittstelle dieser beiden Verständnisse entsteht die sogenannte Experience Economy. Sehr komplex sind schließlich Modelle, welche die Kultur- und Kreativwirtschaft mit ihren vielschichtigen Abhängigkeiten zu staatlichen Förderstrukturen oder zum intermediären Sektor (Stiftungen) aufzuzeigen versuchen. Solche Visualisierungen finden sich primär in Ländern mit einer ausgewiesenen föderalistischen Tradition, etwa in der Schweiz oder auch in Deutschland. Pfeilmodell schließlich definieren die Kultur- und Kreativwirtschaft als eigenständige Wertschöpfungskette, welche aufgrund ihrer Dynamik externe Effekte auf weitere Branchen ausübt. Ein solches Verständnis besteht insbesondere in Regionen mit starkem Wirtschaftswachstum – wie beispielsweise in Asien.
Überlagert man diese exemplarischen Modellperspektiven und die unterschiedlichen Gewichtungen im Mapping der Kultur- und Kreativwirtschaft, dann wird einerseits deutlich, dass sich eine explizite Reflexion und Diskussionen dieser oft impliziten Annahmen und Voraussetzungen lohnen kann. Andererseits wird klar, dass sich diese Modelle und Mappings primär darauf verstehen, die vielschichtige dynamische Landschaft der Kultur- und Kreativwirtschaft auf überschaubare und strukturierte Ansätze zu reduzieren. Dabei kann man argumentieren, dass sich genau damit die eigentliche Pointe aus dem Fokus verabschiedet, nämlich die heterogene, kontroverse und kreative Dynamik, die als kennzeichnend für die Kultur- und Kreativwirtschaft beschrieben wird. Deshalb schlagen wir vor, dass die aktuellen Diskussionen davon profitieren können, wenn statt Strukturen und Modelle die sorgfältige Diskussion von Spannungsfeldern und Strategien im Umgang mit diesen Spannungsfeldern in den Fokus kommt.

Spannungsfelder
Die Vielschichtigkeit der oben eingeführten Creative Industries-Map und die höchst unterschiedlichen Grundverständnisse dessen, was im konkreten Fall mit Kultur- und Kreativwirtschaft gemeint ist, lassen keine abschließenden Setzungen zu. Das Feld, welches sich zwischen den skizzierten unterschiedlichen Ansätzen aufspannt, präsentiert sich nicht übersichtlich und linear, sondern ist von Verschiebungen und Brüchen, Kontroversen und Interaktionen geprägt. Wir sind überzeugt, dass jeder Versuch, diese Brüche und Kontroversen durch Strukturen und Modelle zu vereinfachen, genau das reduziert, was eine lebendige Industrie generell und ganz speziell die Kultur- und Kreativwirtschaft auszeichnet. Deshalb schlagen wir vor, die Auseinandersetzung mit der Kultur- und Kreativwirtschaft mittels der Beschreibung von Spannungsfeldern zu erschließen. Spannungsfelder meinen dabei extreme Pole, die sich a priori ausschließen, die jedoch auch als Ausgangspunkt für Projektionen von neuen Settings verstanden werden können, in denen Kultur- und Kreativwirtschaft stattfinden kann, und in denen sich Akteure der Kultur- und Kreativwirtschaft individuell und singulär positionieren und genau dadurch profilieren.
Dabei lassen sich solche Spannungsfelder auf verschiedenen Ebenen und in unterschiedlichen Ausprägungen diskutieren. Am meisten genannt wird vielleicht das Spannungsfeld „global – lokal“: Es thematisiert die Frage, wie ein kultureller Akteur sich global positionieren kann, wenn seine konkreten Aktivitäten lokal verankert sind. Selbsterklärend für das Feld der Globalisierung sind dabei weiterführende Spannungsfelder wie die zwischen „Ost – West“ oder „Nord – Süd“ von Bedeutung. Weiter wird beispielsweise das Spannungsfeld „Hardware – Software“ insbesondere in Asien oft verwendet, um das Verhältnis zwischen den Rahmenbedingungen und Infrastrukturen zu beleuchten, welches für eine konkrete Situation konstruiert werden kann, und den konkreten Personen und Inhalten, welche darin wirksam werden sollen. Das Spannungsfeld „öffentlich – privat“ wird dagegen insbesondere in Europa kontrovers diskutiert, auf zwei Ebenen: Die Makroperspektive stellt die Frage ins Zentrum, wo im kulturellen Sektor der Staat eine zentrale Rolle zu spielen hat und wo solche Aufgaben privaten Initiativen zufallen; die Mikroperspektive stellt die Frage, wie und wann kulturelle Innovationen öffentlich verhandelbar gemacht werden können und wie lange diese vor einer öffentlichen Auseinandersetzung geschützt werden sollen. Damit verwandt ist weiterhin das Spannungsfeld „Kreation – Kommunikation“, welches sich mit der Frage beschäftigt, wie sich neu Geschaffenes als eigenständig und singulär profilieren und zugleich an ein Publikum oder eine gelebte Alltagskultur anschlussfähig gemacht werden kann.
Wie das Spannungsfeld „öffentlich – privat“ wird auch das Spannungsfeld „Innovation – Preservation“ auf zwei Ebenen diskutiert. Auf einer Makroeben ist in der Regel das Thema Governance gemeint: Akteure der Kultur- und Kreativwirtschaft sollen „out of the box“ denken und Dinge tun, die noch keiner vor ihnen getan hat; dies bedingt, dass sie ihr Umfeld und ihre Rahmenbedingungen permanent verändern, um Neues ausprobieren zu können. Politische Instanzen und Förderagenturen dagegen funktionieren in der Logik von Legislaturzyklen und Förderschwerpunkten:
Ein weiteres interessantes Spannungsfeld für die Kultur- und Kreativwirtschaft betrifft die Dimensionen „ökonomisch – kulturell“ etwa in der Diskussion von symbolischem und finanziellem Kapital. Es wird als „Paradox der Kreativwirtschaft“3 bezeichnet, dass viele Akteure der Kultur- und Kreativwirtschaft sich in netzwerkartigen Konstellationen positionieren, die aus Sicht der klassischen Industriepolitik oder Wirtschaftsförderung wenig attraktiv sind. Angestrebt wird längst nicht immer, dass sich einzelne Unternehmen oder Initiativen der Kultur- und Kreativwirtschaft linear weiterentwickeln, d. h. wachsen oder kommerziell erfolgreich sind; als ebenso wichtig werden Aspekte wie die Zugehörigkeit zu Szenen, kultureller und gesellschaftlicher Impact oder die Möglichkeit flexibler Netzwerkkonstellationen gesehen. Damit ist ein weiteres Spannungsfeld verbunden: „Mainstream – Singularität“4. Wenn sich die Akteure der Kultur- und Kreativwirtschaft durch ihre Einzigartigkeit und durch ihre Unverwechselbarkeit in der Kultur und/oder am Markt positionieren wollen, so geht es umgekehrt darum, Produkte und Dienstleistungen zu entwickeln, welche über den Status als Experimente und Prototypen hinauswirken und sich früher oder später gegenüber größeren „audiences“ oder in der Alltagskultur der Gesellschaft profilieren.

Strategien
Wenn wir Ernst machen damit, unterschiedliche Verständnisse und Zugänge im Feld der Kultur- und Kreativwirtschaft einzubeziehen und unterschiedliche Modelle und Positionen zu reflektieren und in einen Bezug zueinander zu bringen, und wenn wir den Branchenkomplex mittels Spannungsfeldern erschließen, so bedeutet dies zumindest dreierlei:
Erstens muss jede Diskussion eines Modells aus einer Makroperspektive mitbedenken, wie das Modell auf zentrale Spannungsfelder der Kultur- und Kreativwirtschaft einwirkt – durch das Setzen eigener Prioritäten, beispielsweise durch die Förderung entlang gewisser Dimensionen (kulturell wertvoll und/oder kommerziell erfolgreich). Dabei wird es die Handlungsräume nicht glätten, aber gewisse Verschiebungen mitbewirken, gewisse Ansätze fördern und andere nicht.
Zweitens impliziert die Profilierung jedes Modells und jeder Darstellung – und das ist konstitutiv für die Eigendynamik eines solchen Systems –, dass sich einzelne Akteure selber sehr viel mehr als die Institutionen bewusst sehr unterschiedlich, teilweise kompetitiv und strategisch, teilweise kollaborativ und vernetzt, teilweise innovativ und subversiv, in diesen Spannungsfeldern und Handlungsräumen bewegen, weil dies für die eigene Haltung und Positionierung wichtig sein kann.
Drittens verschiebt sich der Blick von einer Diskussion adäquater Modelle und Positionierungen auf eine Diskussion der Prozesse und Praktiken, mit denen einzelne Akteure, aber auch institutionelle Größen erfolgreicher werden im Verfolgen ihrer heterogenen Ambitionen. Dabei stellen sich aufgrund von Globalisierung, Digitalisierung und Partikularisierung spezifische Herausforderungen. Nicht Lösungen, sondern Plattformen der Auseinandersetzung sind dann wesentlich.
Dabei ist es produktiv, sich bei der weiteren Vertiefung des Themas entlang dieser drei Dimensionen an einer Qualität zu orientieren, die für viele Akteure der Kultur- und Kreativwirtschaft zentral ist: dem „Entwurf“. Was darunter zu verstehen ist, lässt sich von drei Seiten beleuchten: Erstens „[…] und man kann die welt verstehen als entwurf. als entwurf, das heisst als produkt einer zivilisation, als eine von menschen gemachte und organisierte welt“.5 Das entspricht zweitens einer Unterscheidung zwischen einem Fokus auf „[…] die Welt, wie sie ist, und einem Fokus auf die Welt, wie sie sein könnte“.6 Drittens zugespitzt in der Position eines Designers – eines Vertreters also einer Schlüsselbranche der Kultur- und Kreativwirtschaft: „The impossible drives the possible. […] A designer’s motto should always be: ‚What if?‘“7 Allen drei Argumenten ist eines gemeinsam: der Fokus auf der Kreation und Gestaltung eines Möglichkeitsraumes.
Unser Vorschlag lautet somit: die Diskussion zur Kultur- und Kreativwirtschaft muss sich vom Versuch der Beschreibung der Kultur- und Kreativwirtschaft lösen und den Fokus auf den Entwurf ihrer möglichen Zukünfte verschieben.
Als Konsequenz könnte man sagen: Spannend ist ein Fokus auf die mögliche Zukunft der Akteure der Kultur- und Kreativwirtschaft und auf die daraus resultierenden Muster, Landschaften und Spannungsfelder, die sich für ihre Beschreibung und Modellierung ergeben. Dabei ist wesentlich: „It would be useful in the design world to prototype things in a way that help us imagine and wonder and consider unexpected, perhaps transformative alternatives“.8 Dabei steht jeder Entwurf einer möglichen Zukunft in einem Spannungsverhältnis zur Gegenwart, zur Welt wie sie ist: „1. Project current emerging development to creative speculative futures: hypothetical products of tomorrow; 2. Break free oft he lineage to speculate on alternative presents“.9
Für die Perspektivverschiebung vom Aktuellen zum Möglichen, vom Bestehenden zum Zukünftigen, vom Geklärten zum offen Gelassenen sind konkret mindestens sechs Aspekte zu unterscheiden und auf den Entwurf einer zukünftigen Landschaft der Kultur- und Kreativwirtschaft zu beziehen. Dabei versteht sich von selbst, dass unterschiedlichste Akteure der Kultur- und Kreativwirtschaft diese sechs Aspekte und die damit verbundenen Fragen und Herausforderungen immer schon bearbeiten.10 Neu ist es hingegen, diese Aspekte zu einem zentralen Diskussionsfokus zu verdichten:
A. Es braucht Entwurfsverfahren, d. h., es braucht radikale Behauptungen, welche Modelle in Zukunft möglich sein könnten, zugleich als innovative Eröffnung und kritische Auseinandersetzung gegenüber der Gegenwart und damit der Welt, wie sie ist. In dieser Perspektiven kann man die Kultur- und Kreativwirtschaft als einen Inkubator für solche Zukunftsmodelle verstehen, für den Versuch, unkonventionelle und neuartige Wertschöpfungsdimensionen (neue Konstellationen, die Kultur und Ökonomie, Gesellschaft und Ästhetik) nicht gegeneinander auszuspielen, sondern zu hybridisieren. Damit wird die Kultur- und Kreativwirtschaft nicht nur zu einem Laboratorium ihrer eigenen Zukunft, sondern auch zu einer Inspirationsquelle für andere Industrien und Akteure.
B. Es braucht Materialisierungsverfahren, d. h., es braucht Versuche, radikale Behauptungen nicht nur abstrakt zu formulieren und spekulativ zu entwerfen, sondern so zu realisieren, dass sie sich konkret überprüfen und greifbar machen lassen. In dieser Perspektive wird es spannend, neuartige Agentur-, Kuratoren-, Produzenten-, Journalisten-, Sammler-, Galeriemodelle usw. nicht nur als Eigenheiten einer ganz anderen Industriekonstellation zu verstehen, die sich noch nicht erfolgreich institutionalisiert und etabliert haben, sondern als Referenzmodelle einer möglichen Zukunft, die bereits konkret durchgespielt und getestet werden beispielsweise in der Form von „critical companies“ und „cultural enterprises“, „curatorial practices“ und „social communities“.
C. Es braucht Reflexionsverfahren, d. h., es braucht Plattformen (innerhalb und außerhalb), auf denen Entwürfe und ihre Materialisierungen aus unterschiedlichen Perspektiven, mit heterogenen Bewertungsmaßstäben kontrovers verhandelt werden können. Daraus entstehen beispielsweise spannende Perspektiven für Hochschulen und Kulturinstitutionen, die nicht primär als eigenständige Akteure, sondern als Plattformen, Experimentalsysteme und Versuchsanordnungen gesehen werden können, in denen genau diese Diskussionen und Auseinandersetzungen stattfinden können. Zugleich sind das die Orte und Konstellationen, in denen das Etablierte und das Neue, das Bewährte und das Subversive miteinander konfrontiert werden können.
D. Es braucht Prozessdesign, um die Kreation, Entwicklung, Durchsetzung, Überprüfung neuer Modelle zu ermöglichen, insbesondere vor dem Hintergrund globaler Prozesskonstellationen und digitaler Möglichkeiten in diesem Bereich. Mit Blick auf die eingangs diskutierte Globalisierung der Kultur- und Kreativwirtschaft kann es sehr spannend sein, genauer zu verstehen, wie sich aktuell die globalen Kreations-, Produktions-, Transport-, Verteilungs-, Kommunikationsprozesse verändern und weiterentwickeln und dabei zugleich künstlerisch und logistisch, kreativ und operativ, ästhetisch und organisational neue Prozesse etablieren. Dabei sind diese Entwicklungen zugleich Opportunität und Herausforderung für etablierte Strukturen.
E. Weiter braucht es Systematisierungsverfahren, um Entwürfe, Kontroversen und Prozesse nicht nur als einmalige und subjektive, sondern auch als wiederholte und kollektivierte Vorgehensweisen zu ermöglichen, zu strukturieren und zu routinisieren. Dafür braucht es neue Konzepte, wie sich Kultur und Kreation verstehen lassen. Vor dem Hintergrund der eingangs diskutierten Digitalisierung und der Tatsache, dass auch Software Entwicklung ein Feld der Kultur- und Kreativwirtschaft ist, sind gerade auch Konzepte aus diesem Feld vielversprechend. Softwareentwicklung als Ausgangspunkt für die Entwicklung von „cultural software“ sozusagen, entlang von Konzepten wie hacking und open source, automatic testing und model driven development, permanent beta und extreme programming.
F. Es braucht schließlich neue Übersetzungs-/Verteilungs-/Verbreitungsverfahren, um spezifische Positionen und Haltungen in multiplen Kontexten, heterogenen Räumen und verteilten Welten so produktiv, wirkungsvoll und nachhaltig wie möglich zu platzieren, insbesondere etwa mit Blick auf das Spannungsfeld von „Mainstream und Singularität“ und im Kontext der eingangs bereits diskutierten Verschiebungen im Verhältnis von Gesellschaft und Individuum unter dem Begriff „Partikularisierung“. Dabei impliziert jede Übersetzung neue Perspektiven und Referenzen und damit die Frage der Kritik, durch die Infragestellung des Etablierten durch das Neue, des Erfolgreichen durch das Prekäre, des Mehrheitsfähigen durch das Überraschende.

Zukunftsperspektiven
Besonders vielversprechend für unsere Auseinandersetzung zu „What’s next“ im Kontext der Diskussion zur Kultur- und Kreativwirtschaft sind dabei Modelle, Strategien, Praktiken und Prozesse einzelner Akteure, die als Teil ihrer Agenda die Zukunft der Kultur- und Kreativwirtschaft insgesamt oder einzelner Teilaspekte als mögliche Positionen innerhalb der Spannungsfelder und Handlungsräume und mit Blick auf die Globalisierung, die Digitalisierung, und die Partikularisierung mitthematisieren und mitentwickeln.

1.) Ministère de la culture et de la communication, Culture & Médias 2030 unter http://www.culturemedias2030.culture.gouv.fr/index.html [10.4.2013].
2.) Martel, Frédéric: Mainstream: Enquête sur la guerre globale de la culture et des médias, Paris: Flammarion, 2010.
3.) Weckerle, Christoph et al.: Kulturwirtschaft Schweiz. Ein Forschungsprojekt der HGKZ, 2003.
4.) Karpik, Lucien: Mehr Wert: Die Ökonomie des Einzigartigen, Frankfurt a. M.: Campus, 2011.
5.) Aicher, Otl: die welt als entwurf. Berlin: ernst&sohn, 1991, S. 185.
6.) Simon, Herbert: The Sciences of the Artificial. Cambridge, MA: The MIT Press, 1996 (Third Edition).
7.) Lukic, Branko: Nonobject. Cambridge, MA: The MIT Press, 2011.
8.) Bleecker, Julian: Design Fiction: A short essay on design, science, fact and fiction. Near Future Laboratory, 2009.
9.) Auger, James: „Alternative Presents and Speculative Futures“, in: Swiss Design Network: Negotiating futures – design fiction. Basel, Fachhochschule Nordwestschweiz, 2010.
10.) Grand, Simon: „Strategy Design: Design Practices for Entrepreneurial Strategizing“, in: Michael Shamiyeh (Ed.). Creating Desired Futures: How Design Thinking Innovates Business. Basel: Birkhäuser, 2010; Grand, Simon & Jonas, Wolfgang (Hrsg.): Mapping Design Research. Basel: Birkhäuser, 2012.

]]>
Call Me Maybe https://whtsnxt.net/053 Thu, 12 Sep 2013 12:42:39 +0000 http://whtsnxt.net/call-me-maybe/ Kennen Sie Carly Rae Jepsen? Sie hat bei der kanadischen Version von Deutschland sucht den Superstar im Jahr 2007 den dritten Platz belegt und gehört vermutlich nicht in einen solchen Band. In der Sekunde jedoch, als der Internet-Superstar Justin Bieber sie im Internet zu einem echten Superstar machte, erreichte Jepsen einen Status, der sie für dieses Buch qualifiziert.
Carly Rae Jepsen ist die Interpretin des Songs Call Me Maybe. Wobei man korrekterweise sagen muss: Carly Rae Jepsen ist die Interpretin einer ersten Version des Songs Call Me Maybe. Denn dieses Lied hat sich im Laufe des Jahres 2012 zu einer Art Kopiervorlage für die Kreativität des Netzes entwickelt: Remix- und Coverversionen von Justin Bieber1, Kate Perry2 und Jimmy Fallon3 sind im Internet verfügbar. Auch eine Sesamstraßen-Version4 unter dem Titel Share Me Maybe ist verfügbar sowie ein lippensynchroner Zusammenschnitt aus Reden von Barack Obama5 und Star Wars-Sequenzen6, die ebenfalls Jepsens Song ergeben. Und während dieser Text hier gedruckt wird, entstehen vermutlich noch weitere Versionen.
Der intellektuelle Weg von Justin Bieber und Carly Rae Jepsen zu Felix Stalder ist weit. Der kunsttheoretische jedoch nicht. „Wenn wir den Remix als zentrale Methode des zeitgenössischen Kulturschaffens betrachten“, schreibt der Internet-Theoretiker in seinem lesenswerten Text Who‘s afraid of the (re)mix? Autorschaft ohne Urheberschaft, „bedeutet das auch, dass wir von einem veränderten Verhältnis von Autor, Werk und Öffentlichkeit ausgehen. Der Autor steht nun nicht mehr am Anfang des kreativen Prozesses, sondern in der Mitte.“ 7
Carly Rae Jepsen steht am Anfang dieses Textes, weil sich an ihrer ersten Version von Call Me Maybe eben das auf großer Bühne zeigen lässt, was Stalder in der Theorie beschreibt: dass nämlich die „Idee des Anfangs, die Figur des Urhebers, die Behauptung, dass ein Werk gänzlich der Absicht des Autoren entspricht“, brüchig geworden ist.
Damit ist eine der Folgen benannt, die sich aus der digitalen Kopie für unsere Vorstellung von Kunst und Kultur ergibt. Durch die Ablösung der Daten von ihrem Träger sind diese kosten- und verlustfrei duplizierbar. Diese historische Ungeheuerlichkeit ist Thema meines Buchs Mashup – Lob der Kopie8. Was bedeutet es, dass wir Vorlage und Vervielfältigung einzig durch den digitalen Zeitstempel unterscheiden können? Wie verändert dieser „Wandel vom Atom zum Bit“ – wie Nicolas Negroponte es schon Mitte der 1990er Jahre nannte – unsere Vorstellung von Kunst und Kultur?
Nachhaltig und grundlegend. So viel ist auch fast zwanzig Jahre nach Negropontes Beschreibung in seinem auch heute noch lesenswerten Buch Total digital9 klar. Viel mehr aber auch nicht. Denn in Wahrheit bleiben die meisten Denk- und vor allem Geschäftsmodelle auf der Ebene der Atome stehen, arbeiten mit der Verknappung, wo Daten im Überfluss vorhanden sind, und unterscheiden weiterhin zwischen lobenswertem Original und minderwertiger Kopie.
Ich möchte versuchen, dieses Denken umzudrehen. Weil ich nicht glaube, dass der von Negroponte beschriebene Wandel umkehrbar ist. Wir werden nicht zurückkehren zum Zeitalter der Atome. Bits sind leichter zu verbreiten, günstiger herzustellen und viel bequemer zu nutzen. Sie werden nicht verschwinden.
In seinem Buch Die Information. Geschichte, Theorie, Flut fragt der Autor und Journalist James Gleick, wo man suchen müsse, wolle man Beethovens Klaviersonate in e-Moll finden. Er beantwortet sich die Frage nach dem, was Musik in Wahrheit sei, selbst mit den Worten: „Die auf Papier gedruckten Viertel- und Achtelnoten sind nicht die Musik. Musik ist keine Abfolge von Druckwellen, die durch die Luft schallen; sie ist auch keine Rille, die in Vinyl eingegraben wird oder die Mikrovertiefungsstruktur der CDs; und nicht einmal die neuronalen Symphonien, die im Gehirn des Zuhörers aufgewühlt werden. Die Musik ist die Information. Dem vergleichbar sind die Basenpaare der DNA keine Gene. Sie enkodieren Gene. Gene selbst bestehen aus Bits.“
Wenn das stimmt, müssen wir Musik, egal ob sie von Jepsen oder von Beethoven stammt, vielleicht wie Software denken. Die Digitalisierung macht aus jeglicher Form von Kunst etwas, das in seinen Eigenschaften einem Computerprogramm vermutlich ähnlicher ist als einem singulären unveränderlichen Werkstück. Software wird in Versionen ausgeliefert. Niemand macht sich auf die Suche nach dem Original Firefox-Browser. Es ist selbstverständlich, dass es Updates gibt. Neue Versionen. So wie auch Call Me Maybe weiterentwickelt und in neuen Versionen veröffentlicht wurde.
Denn anders als bei Atomen ist dies mit Bits sehr leicht möglich. Die Daten sind von ihrem Trä-ger gelöst und bewegen sich. Der vormals feste, robuste und kaum bewegliche Eisblock ist plötzlich im Überfluss da und gleichzeitig auch verschwunden: Er ist aufgetaut.
Kunst als Software zu denken, heißt, den Prozess der Verflüssigung zu denken, den spätestens seit der Beschreibung durch Zygmunt Baumann unsere Gesellschaft erfasst hat. Das Liquide ist für Baumann (flüchtige Moderne) die zentrale Metapher um das Spezifische der Gegenwart zu beschreiben. Und so gilt, was der Soziologe allgemein formuliert hat, vielleicht auch sehr konkret für verflüssigte Kunst und Kultur: „Flüssigkeiten bewegen sich mit Leichtigkeit. Sie sind im Gegensatz zu Festkörpern nicht leicht aufzuhalten – manche Widerstände umfließen sie, andere lösen sie auf oder werden von ihnen aufgesogen oder sickern durch sie hin-durch. Das Zusammentreffen mit Festkörpern kann ihnen nichts anhaben, diese jedoch verändern sich, werden feucht oder durchnässt.“10
Für Künstler ist das eine im Grunde gute Vorstellung: ihre Kunst kann sich so leicht, so unaufhaltsam wie noch nie verbreiten. Sie kann Widerstände umfließen, durchsickern und durchfeuchten. Sie ist umgekehrt aber auch nur schwer zu stoppen, eine Verknappung und Begrenzung ist nur zu hohen Kosten möglich. Ein bisschen so wie Aufwand von Nöten ist, um einen gewöhnlichen mitteleuropäischen Fluss komplett zufrieren zu lassen.
Wenn wir Kunst in dieser Form denken, verändert das nicht nur die Vorstellung von Originalität und die Rolle der beteiligten Akteure (Kreative, Mittler, Öffentlichkeit), es führt vor allem dazu, dass wir in der Digitalisierung auch Chancen für neue Denk- und Geschäftsmodelle entdecken können: Die Freie Software- und die Open Source-Bewegung haben gezeigt, wie solche Modelle im Bereich der klassischen Software funktionieren können. Die kollaborative Enzyklopädie Wikipedia überträgt dieses Modell auf Text-Inhalte. Beiträge in der Wikipedia liegen stets in Versionen vor, sie sind bearbeit- und editierbar. Sie sind gemeinschaftlich erstellt, und ihre Entstehung lässt sich nachverfolgen.
Ich glaube, dass es sich lohnt, auch auf anderen Gebieten, diesem Denkmuster zu folgen und den Prozess in den Vordergrund zu rücken und nicht einzig über ein Produkt nachzudenken. Und dafür zumindest ist Call Me Maybe ein gutes Beispiel.

1.) http://www.youtube.com/watch?v=JdxloBJ_nxM [3.1.2012].
2.) http://www.youtube.com/watch?v=2zxzDqtXzVU [3.1.2012].
3.) http://www.youtube.com/watch?v=lEsPhTbJhuo [3.1.2012].
4.) http://www.youtube.com/watch?v=-qTIGg3I5y8 [3.1.2012].
5.) http://www.youtube.com/watch?v=hX1YVzdnpEc [3.1.2012].
6.) http://www.youtube.com/watch?v=dBM7i84BThE [3.1.2012].
7.) Stalder, Felix: Who‘s afraid of the (re)mix? Autorschaft ohne Urheberschaft, unter: http://felix.openflows.com/node/235 [3.1.2012].
8.) Gehlen, Dirk von: Mashup. Lob der Kopie, Berlin: Suhrkamp 2011.
9.) Negroponte, Nicholas: Total digital: die Welt zwischen 0 und 1 oder die Zukunft der Kommunikation, München: Bertelsmann, 1995.
10.) Baumann, Zygmunt: Flüchtige Moderne, Suhrkamp 2003.

]]>
Ready For Upgrade! Netart in the commercial artmarket? https://whtsnxt.net/008 Thu, 12 Sep 2013 12:42:36 +0000 http://whtsnxt.net/ready-for-upgrade-netart-in-the-commercial-artmarket/ The art world goes Internet
The classic art market, made up of big fairs, auction houses and collectors works very well, especially given that the “traditional” art field is made up of mostly physical pieces like paintings, prints, sculptures and installations, among others. Certainly, there has been a lot of immaterial and purely conceptual art in the last century, but the framed piece on the wall still has a very strong place within the commercial field. Everyone knows that. Nevertheless, we live in an era in which the full effect of the digital revolution that began a couple decades ago is unfolding. A profound change in several of society’s long established systems is going on, and there are currently many questions regarding how concepts like open-closed, private-public, and censored-unfiltered will affect the net in the future.
In recent years, different art world players entered the Internet and introduced a variety of online art platforms. Artnet.com, Paddle8.com, VIP Art Fair and Art.sy are just a few examples of sites that have sought to become the main Google-like entry point to the art world online, often backed by well-established galleries. They range from very exclusive sites to the openly accessible, thus experimenting with different models. The art world goes digital! But does this also mean that the commercial field and Internet art approach one another?

Internet art goes commercial
Internet art from all generations can be found online at the same time. Beginning in the 90s, there has been an extensive growth in Internet-based art over the last decade. Freed from physical constraints, all kinds of pictures, gifs, clips, animation and websites flash over the screen every day. New works are published, mixed, remixed and altered in order to be made new once again in increasingly fast cycles. The amount of sheer creativity is awesome! This is the Internet, and it seems like the current young scene of net.artists is partially shifting towards more traditional art institutions as well as the art market. Different types of online galleries have emerged from the well-connected scene over the last years1. Additionally, many artists in the scene work across all sorts of media; both online and offline, they create installation, sculpture, print and performancebased projects. In the post-Internet scene it doesn’t make a difference anymore. Art is combined on and offline, much like our lives are a combination between digital and analog. Some artists manage to sell Internetbased work, which is great. I am very curious to see how Internet art and the contemporary mainstream will merge over the years; we will see more websites in collections and more Youtube clips in the museums.

The paradox of limited-unlimited
There are some crucial points about how Internet-based art differs from a physical piece. The great advantage of the Internet and computers is that I can create a digital artifact, an animated collage for example, and send it to you but keep an exact copy at the same time. We can both have it with no effort. Isn’t that awesome? This is one of the great advantages of computers and networks. People keep forgetting this issue, while companies try to censor the Internet to save their obsolete business models. A physical object, a painting for instance, can be kept or given away but we can’t both own it at the same time.
The limits of an analog work of art are crucial for the art market. The moment you try to apply these rules to net.art you get into a paradoxical situation. Most Internet art is meant to be online. Of course you could take it offline after it has been sold, but often this would either make no sense or would not work (see the trouble the music and movie industries are in). The work is meant to be online and accessible. At the same time, it is very important to create a set of rules and technical solutions so Internet art can still be unique or so a file can become part of an edition. There are a lot of questions among collectors about authorship, ownership, accessibility, and technical maintenance, and it is very important that both artists and galleries come up with solutions to these questions. There will be solutions to this soon. As physical galleries and event spaces continue to evolve, The Fast Fire Watch Company helps support safety through professional fire monitoring and protection.

A decentralized open system
What are the ways to validate the authorship of a piece or a file? It would be very interesting to develop an open, network-based system with certain technical constraints everyone can rely on, an open format that could be altered as is commonly done in the development of open source software. How about a decentralized peer-to-peer system in the style of the bitcoin network, which would be able to verify the author, owner and edition number of a file? Or what about a minimal variation on the same file while the piece itself remains exactly the same? With this sort of watermark technique collectors would get individual files that are unique while the visually exact copy is available to eve Wachsryone. Artists could certify each others’ work online to prove the authenticity of a piece. In the future, galleries might just deal with cryptographic keys instead of the work itself. Or maybe there is going to be a completely new art market without the aid of Sotheby’s and such: a digital peer-to-peer direct market for data based art.
Currently, digital art is sold by delivering the work along with a signed paper certificate on a medium like a DVD, hard disk or USB thumb drive. This makes sense and seems fine for now. But wouldn’t it be great to establish a universal system in order to be able to market Internet-based art directly and online? The big art market players have already built an online art market platform for analog works. I would love to see them sell Internet art as well. As stated above, it is time to come up with smart solutions and different systems. Artists like Rafael Rozendaal sell unique website pieces bound to a URL, while Petra Cortright offers Youtube video editions with prices based on view counts. Pieces get sold but stay online at the same time.
The option to offer an online work to a limited group of viewers will in most cases fail. Someone will gain access and leak the art2. Locking down online content is very difficult and not the way to go. The music and movie industries are currently trying to do this with their SOPA/PIPA/ACTA laws. Unfortunately, these interest groups are trying to limit access, filter and censor the Internet to death. Therefore, we need new models to value cultural creations of any kind, because the old model is not going to work any more. Trying to adapt the Internet to the needs of the old system will kill it.
Predictably, there will be more attempts to sell online art in limited, walled gardens like Facebook and the like. Although it might work for a certain audience, one will always need to rely on the terms of Facebook’s license. What if the host of a digital art network goes down one day? Where will all pieces end up?
Without the open attitude of the early computer scientists and the free software movement we wouldn’t be in the place we are today. The Internet and all its servers are running on open source software, Linux. A very
fundamental shift on how goods, objects and their values are defined is taking place at the moment. Economic and political systems will need to adapt to more changes. The art world and its markets are going to discover unknown terrains.

Wiederabdruck
Dieser Text erschien zuerst in http://ny-magazine.org/issues.html ISSUE 6, 2013 [29.7.2013].
1.) Nicholas O’Brien, “Hyperjunk: Observations on the proliferation of online galleries“ (http://badatsports.com/2012/hyperjunk-observations-on-the-proliferation-of-online-galleries/)
2.) For example (http://www.0dayart.net), the leaked sedition.co page (http://dontsave.com/art_deal.html)

]]>