Artikel
0 Kommentare

Der Autor im Zeitalter seiner technischen Reproduzierbarkeit – testcard #24

»Wir sind es, die allein die Ursachen, das Nacheinander, das Für-einander, die Relativität, den Zwang, die Zahl, das Gesetz, die Freiheit, den Grund, den Zweck erdichtet haben; und wenn wir diese Zeichen-Welt als »an sich« in die Dinge hineindichten (…) so treiben wir es (…) wie wir es immer getrieben haben, nämlich mythologisch.«

Friedrich Nietzsche

Im Herbst letzten Jahres hat der britische Science-Fiction-Autor Charles Stross in seinem Blog antipope.org eine Dystopie über die Zukunft der eBooks veröffentlicht. In der Zukunft, so prophezeit er, werden wilde Spambooks unsere eBook-Verzeichnisse durchforsten und aus den dort enthaltenen Büchern tausende von geistlosen und oberflächlichen Romanen destillieren, die eine vage Ähnlichkeit mit unseren Lesepräferenzen haben. Getarnt als Gratisexemplare werden sie sich in unsere eBooks installieren und im Text versteckte Anzeigenfläche an dubiose Offshore-Spamprovider verkaufen.

»Books are going to be like cockroaches, hiding and breeding in dark corners and keeping you awake at night with their chittering. There’s no need for you to go in search of them: rather, the problem will be how to keep them from overwhelming you.«

Dieser leicht überdrehte, technologiepessimistische Text, der sich wie eine Mischung aus William Gibson und Douglas Adams liest, bekam eine neue Facette, als sich im Frühling dieses Jahres die Berichterstattung über den sogenannten Roboterjournalismus überschlug. Plötzlich erzittert die Nachrichtenbranche vor einem Phänomen, dass vorher schon unzählige andere Arbeitsbereiche erschüttert hat: die Automatisierung. Und so wie immer wurde eine kreative und überlegene Elite konstruiert, die sich keine Sorgen zu machen brauche. Der neue Roboterjournalismus sei »rasend schnell, aber unkreativ« und die redaktionelle Assistenz und die Materialbeschaffung werde zwar bald obsolet, aber »Features, Reportagen und Interviews können noch nicht von Maschinen produziert werden«. Und natürlich erst recht keine Literatur.

Lorenz Matzat von netzpolitik.org sieht allerdings schon eine zweite Phase des Roboterjournalismus am Horizont. Diese könne »dann eintreten, wenn die semantischen Fähigkeiten der Algorithmen so weit gediehen sind, dass sie in brauchbarer Qualität Beiträge für eine Vielzahl von Themenbereichen erzeugen können.« Etwas hilflos führt er am Ende der zweiteiligen Artikelserie über Roboterjournalismus hinzu, dass die kommende Revolution von Gewerkschaften und Politik »beobachtet« und die Qualität von Roboterjournalismus durch den Pressekodex oder klare Regeln wie die drei Robotergesetze von Isaac Asimov gewährleistet werden müsse. Die drei Robotergesetze von Asimov? Oh no he didn’t!?

Offenbar befinden wir uns mitten in einer Diskussion, für die es keine adäquaten Begriffe mehr gibt. Ist Stross’ kleine Dystopie angesichts des Phänomens Roboterjournalismus doch keine überdrehte Science-Fiction, sondern ein realistisches Szenario für die Zukunft? Was ist passiert? Was wird passieren? Und was ist zu tun?

Der Prozess der Automatisierung von Arbeitsprozessen ist wahrlich nichts Neues, aber bisher betraf er häufig niedrig qualifizierte oder stark repetitive Tätigkeiten, also abstrakte Arbeit die in unserer Gesellschaftsform nur einen geringen Tauschwert erzielt. Oder wie es Constanze Kurz und Frank Rieger im Epilog ihres Buches Arbeitsfrei nüchtern schreiben:

»Je weniger spezielle Talente und Fähigkeiten ein Arbeitsplatz erfordert, je besser sich Resultate messen, analysieren und quantifizieren lassen, desto direkter und unmittelbarer ist der Wettlauf mit den Maschinen«

Das Neue am Gerede vom Roboterjournalismus, der flankierenden Debatte über Netflix wegen deren angeblichem Crowdsourcing für die Serie »House of Cards« und computergeneriertem Viral Content, ist die Angst vor den »kreativen« Algorithmen. Natürlich ist mir klar, dass es sich um durchaus unterschiedliche Phänomene handelt. Die Risikoabschätzung von Projektinvestitionen mit Hilfe von Big Data, die Verfeinerung von News-Headlines durch die Analyse von Social-Media-Verhalten und die automatisierte Verarbeitung von News Feeds sind drei verschiedene Dinge. Im Kern geht es jedoch immer um die Veränderungen der contentproduzierenden Branche durch neue digitale Techniken, die eine diffuse Technikparanoia schüren. Plötzlich betrifft die Automatisierung nicht mehr eintönige und gesellschaftlich gering geschätzte Arbeit sondern das Herz der menschlichen Kultur. Die Fähigkeit zur kreativen Schöpfung!

Noch ist das alles Zukunftsmusik: Die unterschiedlichen Ansätze von Netflix, Narrative Science, Automated Insights und dem deutschen Experiment text-on rechtfertigen keine Hysterie über die Abschaffung von Autor und Werk. Aber tun sie das nur quantitativ nicht oder gibt es auch qualitative Einschränkungen? Werden Roboter irgendwann ein Essay, ein Dossier, einen Roman schreiben können?
»Humans are unbelievably rich and complex, but they are machines«, sagt Chris Hammond von Narrative Science. »In 20 years, there will be no area in which Narrative Science doesn’t write stories.«
Ist das allzu optimistischer PR-Sprech oder steht die Behauptung auf wissenschaftlichem Boden? Um diese Frage zu beantworten, sollte man künstliche Intelligenzen (KIs), die ja mit dem Begriff Roboter eigentlich gemeint sind, in zwei Typen unterteilen: solche die einem vorher einprogrammierten Algorithmus gehorchen (Typ I) und solche die den damit verbundenen Einschränkungen nicht unterliegen (Typ II).

In seinem Standardwerk Computerdenken untersucht der mathematische Physiker Roger Penrose die grundsätzliche Möglichkeit von künstlichem Bewusstsein. Von der durch Alan Turing beschriebenen universellen Turingmaschine (deren theoretische Möglichkeiten jeden denkbaren realen Digitalrechner einschliessen) und dem Gödel-Theorem leitet Penrose ab, dass menschliches Bewusstsein prinzipiell nicht algorithmisch darstellbar sei. Er beruft sich dabei unter anderem auf den Gödelschen Unvollständigkeitssatz, nach dem es in jedem formalen System Aussagen gibt, die formal nicht als widerspruchsfrei bewiesen werden können. Menschliche Mathematiker sind aber sehr wohl in der Lage, diese Aussagen als widerspruchsfrei zu erkennen.

Damit unterscheiden Menschen sich durch KIs vom Typ I durch eine entscheidende Eigenschaft: Sie können formallogische Beweisführungen transzendieren.

In der Kürze dieses Essays kann die so getroffene Unterscheidung zwischen algorithmischer Prozedur und menschlicher Erkenntnis nicht vollständig wiedergegeben werden, aber das Gedankenexperiment »Das Chinesische Zimmer« des Philosophen John Searle mag veranschaulichen worum es dabei prinzipiell geht:

Searle beschreibt einen geschlossenen Raum, in dem sich ein Mensch befindet. Er bekommt einen in Chinesisch verfassten Text durch einen Schlitz zugestellt. Er versteht kein einzelnes Zeichen Chinesisch, aber soll chinesische Fragen über diesen Text anhand von Regeln beantworten, die ihm auf einem Handbuch in seiner Muttersprache mitgeteilt werden. Anhand von Zeichenerkennung und der Ausführung bestimmter mechanischer Anweisungen gelingt es ihm eine Antwort zu formulieren, obwohl er kein Wort des Textes verstanden hat. Searle argumentiert nun, dass ein Computer, der auf Algorithmen beruht, auf ähnliche Weise arbeitet.

Natürlich kann ein Computer komplexe Sätze analysieren, aber er kann solche Sätze nicht im semantischen Sinne lesen und verstehen. Er kann ein Verständnis nur simulieren. Für ein echtes Verständnis braucht es die Möglichkeit einer »Zusammenschau« durch ein Bewusstsein – was auch immer das sein mag. Ähnliches gilt für das Verfassen von komplexen Texten die mit Assoziationen, Konnotationen und verschiedenen Bedeutungsebenen operieren.

Man kann fragen inwieweit sich ein Roman von z.B. David Foster Wallace oder Roberto Bolaño von einem Roman unterscheidet, der nach dem Prinzip von Charles Stross’ wilden Spambooks erstellt wurde. Die Antwort erscheint zunächst einfach: Ein Mensch kann den Unterschied erkennen. Oder?

Software, die reihenweise Turingtests besteht, – und damit nach dieser Definition als menschlich gilt – schießt derzeit wie Pilze aus dem Boden. Ein Beispiel ist die KI-Webapplikation Cleverbot, die 2011 zu 59,3% als menschlich eingeschätzt wurde. Offenbar lassen sich Menschen leicht täuschen, wenn sie keine allzu hohen Maßstäbe anlegen … Bevor wir aber die zukünftigen Möglichkeiten einer künstlichen Intelligenz vom Typ II betrachten, möchte ich einen kurzen Exkurs zu der Frage machen, wie es denn mit der kreativen Schöpfung der menschlichen Intelligenz steht.

Schaut man sich die Top 100 der Kindle Verkaufscharts zu einem beliebigen Zeitpunkt (hier der 26.6.2014) an, findet man folgende Titel: »Liebe heißkalt«, »Liebe auf Reisen«, »Liebe auf den letzten Blick«, »Trotzdem irgendwie verliebt«, »Zeilen unserer Liebe«, »Auszeit für die Liebe«, »Eine (un)mögliche Liebe«, »Herren der Liebe« und »Verliebt in der Nachspielzeit«. Um die Titel eines beliebten anderen Genres zu ergänzen: »Zersetzt«, »Benutzt«, »Ausradiert«, »Verstummt«, »Kalter Zwilling«, »Alle müssen sterben«, »Nachtkalt« und »Tote Seelen reden nicht«. Der Inhalt dieser Bücher ist schnell interpoliert und darin liegt auch der Sinn solcher Titel. Die UserInnen sollen das, was sie schon kennen, in endloser Permutation wiederfinden. Es braucht also offenbar keine Roboter, um Stross’ Dystopie zu verwirklichen.

Natürlich steht auch ein Technologiewandel hinter den Kindle Charts: Die Möglichkeit des Self Publishing und die Vermarktungslogik, die sich wie ein Spinnennetz durch diese Neuveröffentlichungen zieht. Die Autor_innen wählen bewusst standardisierte Cover, Titel und selbst Pseudonyme, um sich dem Publikumsgeschmack anzupassen. Emily Bold, u.a. Autorin von Vergessene Küsse, Verborgene Tränen und Verlorene Träume sagte z.B. in einem Interview mit der Website lesensiegut.de:
»Emily Bold ist natürlich ein Pseudonym. Englische Namen klingen bei historicals einfach besser (…)«

Es ist die liberalisierte Kulturindustrie die hier die Feder schwingt. Oder um es mit Adorno zu sagen: »Es hat die Tautologie von Identität zum Inhalt: sein soll, was ohnehin schon ist.«
Dass ein solches Prinzip auch ohne technophobe Bedrohungsszenarien katastrophal sein kann, leuchtet hoffentlich auch Menschen ein die keine eingeschworenen Kulturpessimisten sind. Schuld ist aber kein gnadenloser Algorithmus und kein diabolischer Grossrechner. Die Computertechnologie bietet heute zwar ungeahnte Möglichkeiten und letztlich ist auch das Self Publishing eine Folge des kybernetischen Umbruchs, aber wie es in »Arbeitsfrei« heisst:

»[d]ie herrschenden Machtverhältnisse und Konventionen in einer Gesellschaft bestimmen, was aus (…) technologiegetriebenen Marktexplosionen folgt«

und eben nicht umgekehrt. Die Algorithmen des HFT (high-frequency trading) zum Beispiel, handeln nach einem menschlichen Prinzip, dem der der Kapitalvermehrung, weil eben dieses Prinzip in ihren Code Eingang gefunden hat. Hier sind keine entseelten Entitäten am Werk, sondern Roboter (oder Bots), die konsequent umsetzen, was die Menschen ihnen vorgegeben haben. Die Tatsache, dass sie dies schneller und konsequenter tun, beschleunigt zwar Entwicklungen wie den sogenannten Flash Crash am 6. Mai 2010, macht aber keinen prinzipiellen Unterschied. Es ist beinahe so, als vertraue die übergroße Mehrheit der Menschen der Logik des endlosen Wachstums nur dann, wenn fehlbare und inkonsequente Kohlenstoffgehirne dahinterstecken. Business as usual. Die verkürzte Kapitalismuskritik hat den entfesselten Algorithmus als neuen Feind entdeckt. Benedict Seymour vom Mute Magazine hat das hysterische Herumdoktern an den Symptomen der Digitalisierung in seiner Fantasyparodie »Fellowship of the Wrong« schön zusammengefasst.

Die Mittelklasse von Wall Shire wird von einer Orkplage heimgesucht. Hart arbeitende Finanzhobbits verlieren ihre Jobs, da sie durch High Frequency Trading Orks ersetzt werden. Sie können selbst dort Profite finden wo kein menschlicher Trader sie sehen kann. Sie existieren in einer anderen Raum- und Zeitdimension und produzieren in Millisekunden finanzielle Bedingungen die sie dann für sich ausschlachten können. Da sehen die rechtschaffenden Finanzhobbits natürlich alt aus. Deshalb tun sich ehrenhafte Hobbits zum »Fellowship of the Wonks« zusammen, um das Land von den Ork-Algorithmen zu befreien. Sie schustern eine halbgare Lösung zusammen, mit der sie die High Frequency Orks ein wenig ausbremsen. Am nächsten Tag kollabiert das gesamte Finanzsystem. Neue Lösungen werden gesucht, aber weder die Tolkien Steuer noch »the precise interpretation of one of the equations of Marx’s Mathematical Notebooks« reichen aus. Die aufrechten Finanzhobbits glauben zu sehr an »personal exploitation and capitalism with a hobbit face.«

Der Hobbit Froideur scheint der einzige zu sein, der den politisch-historischen Kontext von »neutralen« Technologien durchschauen kann. Er ersetzt den alten Handelscode mit einem neuen Code, der die Wertform in ihrer Totalität angreift und sämtliches Trading auf der ganzen Welt zum Erliegen bringt. Nun arbeiten die Ork-Algorithmen nach einem Prinzip, das Wohlstand für alle Menschen bringt.

Um die Moral der Geschichte für unsere Zwecke zusammenzufassen:

Solange Verlage, Publisher, Labels und Handelsketten versuchen, den größtmöglichen Tauschwert mit dem geringsten Aufkommen an abstrakter Arbeit (und dem geringst möglichen Risiko) zu erzielen, ist nicht der ausführende Algorithmus das Problem, sondern das zugrundeliegende Prinzip selber.

Die Technologien helfen uns lediglich dieses Prinzip klarer (und schneller) zu sehen. Und ein Barney Rosset-, Siegfried Unseld- oder Gaston Gallimard-Algorithmus der die Zukunft der Literatur im Blick hat und Geld in Projekte mit unklarem Ausgang investiert, weil er sich höheren Werten verpflichtet fühlt, ist leider noch nicht in Sicht.
Was uns zu der Frage führt, ob es so eine künstliche »Verleger-Intelligenz« geben und was eine solche für die Zukunft der Literaturproduktion bedeuten könnte. Es wäre eine KI vom Typ II, die ein eigenes Bewusstsein hat und ihre Entscheidung aufgrund der Daten trifft, die sie in der Welt vorfindet.

Glaubt man dem Physiker Bernd Vowinkel, Autor des Buches Maschinen mit Bewusstsein, so ist es grundsätzlich möglich eine Maschine mit einem umfangreichen leistungsfähigen neuronalen Netz und eigenen »Sinnesorganen« zu bauen, die aktiv die Umwelt erkunden und damit ein mehr oder weniger ausgeprägtes Bewusstsein entwickeln kann. Da wäre dann kein Algorithmus im Sinne von Penrose mehr am Werk, sondern ein autopoietisches physikalisches System, das mit einem Zufallsinput operiert. Der Zufall ist in diesem Falle das, was unsere Sinnesorgane uns jeden Tag liefern.

Eine solche Maschine ist nicht automatisch ein Genie, sondern in hohem Maße von der sie umgebenden Sozialstruktur abhängig. Sie simuliert eben nicht ein bestimmtes Bewusstsein, sondern IRGENDEIN Bewusstsein und würde damit eigene Ansichten und Wertvorstellungen entwickeln und früher oder später Persönlichkeitsrechte beanspruchen.

Ob es soweit kommt, ist heute nicht abzusehen, aber die prinzipielle Möglichkeit besteht. Und dann wird es darauf ankommen in welcher Welt diese künstlichen Bewusstseine zu sich kommen. Sind sie automatisch Konkurrenten des Menschen, weil sie u.U. schneller denken und handeln können? Und wenn ja, ist dann nicht jeder neugeborene Mensch genauso ein Konkurrent und potentieller Feind? Und ist dies nicht das eigentliche Problem?

In meinen Augen ist die Computer-, Algorithmen- und Technikphobie, mit der regelmäßig jede neue digitale Applikation gegeißelt wird, zwar nicht unbegründet, aber eben auch Reflex einer Verdeckung von Symptomen, deren Ursache deutlich tiefer liegt. Es ist, als seien wir in zweifacher Hinsicht dem Warenfetisch erlegen: Auf der Ebene des Konsum verlangen wir von den Objekten, dass sie ständig immer nur das einlösen, was wir vorher in sie hineingelegt haben: Emily Bold und Dan Brown … Neue Erkenntnis ist so nicht möglich. Auf der Ebene der Produktion begreifen wir die Objekte als unsere Feinde, obwohl wir diese doch nach unseren Regeln erschaffen haben. Und so bekämpfen wir die Fetische Roboter und Algorithmen.

Wenn menschliche Autoren aber dazu erzogen werden, mit ihren Büchern die ewige Wiederkehr des Immergleichen zu befeuern, dann sind die Roboterjournalisten wohl ihr geringstes Problem.

(Zuerst erschienen in testcard #24 – Bug Report. Digital war besser)
fullview.php

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.