Forschung­s­pro­gramm

Zentrale Forschungsidee

Automatismen

Im Mittelpunkt des Projekts stehen nach wie vor die Automatismen. Ausgangsthese des Kollegs war, dass immer mehr der gesellschaftlich relevanten Strukturen jenseits bewusster Planung entstehen. Diese These hat sich als außerordentlich fruchtbar erwiesen und eine Vielzahl neuer Fragestellungen möglich gemacht. So konnte in den unterschiedlichsten Beispielfeldern gezeigt werden, dass Entwicklungsprozesse, auch wenn sie nicht zentral, intentional, von ‚oben‘ geregelt werden, ein hohes Maß an Ordnung hervorbringen, und dass es möglich ist, auf dieser Basis neue Entwicklungslogiken, neue Arten von Kausalität und Gesetzmäßigkeiten in Wirkung zu zeigen (Bublitz et al. 2010, Bierwirth et al 2010). ‚Unsichtbare Hände‘ sind, so scheint es, in vielen Bereichen an die Stelle sichtbar ordnender Instanzen getreten (Bublitz et al. 2011). Und es bedarf einer besonderen wissenschaftlichen Aufmerksamkeit, ‚bottom up‘-Prozesse als Beobachtung überhaupt ernst zu nehmen und eine Sprache zu ihrer Beschreibung zu entwickeln.
 
‚Automatismen‘ haben hier einen systematischen Stellenwert. Überall dort, wo Akteure in relativer Unabhängigkeit, dezentral oder verteilt handeln, wo Technik nicht durch ‚Erfindung‘, sondern in enger Wechselbeziehung zu Nutzungsprozessen entsteht, wo sich Gewohnheiten, Schemata, Codes, Habitus oder implizite Regeln herausbilden ‒ überall dort kann man ‚Automatismen‘ in Arbeit zeigen, in dem Sinne, dass es zwar Regeln gibt, nicht aber Regulierung, zwar Wiederholung, nicht aber ein vorab definiertes Muster, und Anteile intentionalen Handelns, nicht aber eine Intention, die das Handeln ausschöpfen würde. Beispiel wäre die unsichtbare Hand, die ein Meta-Phänomen über einer großen Anzahl intentional-zweckrational-egoistischer Einzelakte bildet.
 
Typisch für Automatismen ist, dass sie weder dem Bewusstsein noch dem (gesellschaftlich) Unbewussten zugerechnet werden können, sondern auf der Grenze zwischen beiden Sphären operieren. Wären sie vollständig bewusst, würde man nicht von Automatismen sprechen; Automatismen sind auf spezifische Weise ‚blind‘; und sie funktionieren dann besonders reibungslos, wenn das Bewusstsein nicht interveniert.
 
Automatismen scheinen auf eine spezifische Weise ökonomisch zu sein. Ihre besondere Kraft liegt darin, dass sie Aufwand ersparen; den Aufwand, der zu einer bewussten Steuerung der Vorgänge notwendig wäre, und denjenigen, den eine Intervention des Bewusstseins in die aktuelle Situation jeweils bedeutet. Indem die Wiederholung selbst zur Basis der Musterbildung wird, muss das Muster weder installiert noch mit Kraftaufwand durchgesetzt werden; ihre spezifische Ökonomie scheint der entscheidende Motor ihres Erfolges zu sein.
 
All dies wurde in den Veröffentlichungen des Kollegs und in den Dissertationen, die in seinem Kontext entstanden sind, an einer breiten Palette konkreter Beispiele untersucht und begrifflichtheoretisch ausgearbeitet; einige der Ergebnisse sind im Arbeitsbericht dargestellt (EB 3, S. 7ff.).
 
Wichtig ist der Konnex zu der Fragestellung, mit der das Kolleg nun fortgesetzt werden soll: Bewusste Planung scheint umso klarer an Grenzen zu stoßen, je weiter sich die gesellschaftliche Komplexität steigert. Komplexität wirft Probleme der Steuerung auf (Beniger 1986) und droht Individuen wie Institutionen, Gesellschaft, Psyche, Technik, Codes und Medien strukturell zu überfordern. Exakt an dieser Stelle, dies ist eines der Ergebnisse des Kollegs, scheinen Automatismen einzutreten. Sie sind Ausdruck und Manifestation komplexer Situationen und zugleich Formen ihres Managements, mit dem sie ‒ dies wäre eine erste Hypothese ‒ Formen bereitstellen, die Komplexität reduzieren, und zwar gerade dort, wo eine bewusste Reduktion von Komplexität scheitern würde. Auf der Ebene des Vollzugs können Automatismen selbst durchaus komplexe/komplizierte Handlungssequenzen bilden.
 
Automatismen hat man häufig vorgeworfen, dass sie entdifferenzieren; Schemata, Gewohnheiten, Typisierungen und Stereotypisierung erscheinen als mehr oder minder gewaltförmige Vereinfachung (Ewen/Ewen 2006). Das Kolleg will hier Neuland betreten und eine drastische Umwertung versuchen, die Komplexitätsreduktion nicht mehr negativ konnotiert, sondern als ein notwendiges Komplement und eine Ermöglichungsbedingung von Differenzierung und damit von gesellschaftlichen Austauschbeziehungen beschreibt.
 
 
Strukturentstehung
 
"Strukturentstehung jenseits geplanter Prozesse in Informationstechnik, Medien und Kultur" war der Untertitel des Projekts in der ersten Phase, und auch die Hypothese der Strukturentstehung soll in der Verlängerung weiterverfolgt werden. Dass Automatismen Strukturen generieren, ist die vielleicht ambitionierteste These des Kollegs; wird doch häufig angenommen, Automatismen rotierten auf der Stelle, stünden also eher für ein ‚konservatives‘ Moment der Beharrung als ausgerechnet für die Entstehung eines Neuen.
 
Gerade diese These aber hat der Forschung des Kollegs neue Wege eröffnet. Wiederholung wird nicht mehr als mechanische Repetition gefasst und ebenfalls nicht allein als Verschiebung, sondern darüber hinaus als eine generative Kraft, die hervorbringt, was sie gleichzeitig immer schon ist; Infrastruktur etwa wird nicht mehr als Voraussetzung, sondern als im Prozess der Nutzung hergestellt modelliert. Ein im Kolleg viel diskutiertes Beispiel ist der Trampelpfad; Bahn und Bahnung, Nutzung und Hervorbringung, Wiederholung und zwanglose Bündelung der Nutzungsprozesse fallen hier zusammen.
 
Die Frage nach den Automatismen wird auf diese Weise zu einem Entwicklungsmodell, das mit anderen Entwicklungsmodellen konkurriert. Dass es gerade Entwicklungen, Veränderungen sind, die sich ‚automatisch‘ vollziehen, ‚blind‘ oder blind gegen die Intention der Beteiligten, würde niemand bestreiten. Zu zeigen, dass dies in bestimmten Fällen auf Automatismen zurückgeht, ist die Perspektive, die das Projekt vorschlägt.
 
Zum Zweiten erlaubt die These der Strukturentstehung einen Anschluss an Theorien zur Emergenz. ‚Emergenz‘ meint die Entstehung einer Struktur, die aus den Eigenschaften ihrer Elemente nicht erklärt werden kann (Stephan 2007, Greve/Schnabel 2011). Emergenztheorien sind insofern immer mit einem Rätsel befasst: lägen die Ursachen klar zu Tage, würde man nicht von Emergenz sprechen. Automatismen teilen diese Eigenschaft der Opazität. Und die Grundintuition wäre, dass das Automatismenkonzept möglicherweise zugänglicher als die relativ abstrakten Emergenzvorstellungen ist. Zumindest einige Typen von Emergenz wären konkret zu beschreiben, wenn es gelänge zu zeigen, dass die Strukturentstehung auf Automatismen zurückgeht. Das Kolleg hat sich im Sommersemester 2009 mit Emergenzmodellen befasst (EB, S. 18, 20.), gleichzeitig hat sich erwiesen, dass hier weiterer Forschungsbedarf besteht.
 
 
Komplexität
 
Wer Komplexität und die Reduzierung von Komplexität in den Mittelpunkt stellt, um die Automatismen auf neue Weise zu fassen, betritt ein Terrain, in dem sich heterogene Theoriestränge schneiden. Geht die erste Assoziation möglicherweise zur Systemtheorie, ist die tatsächliche Palette wesentlich breiter: Übersichtsbände wie Mitchell (2009) oder Mainzer (2008) setzen nicht nur wesentlich früher an, etwa mit der Philosophie und einer Problematisierung des Descartes‘schen Reduktionismus (Mitchell, ixff., 16ff.), sondern versuchen gleichzeitig, eine Brücke von den Geistes-und Kulturwissenschaften hin zu den Naturwissenschaften zu schlagen. 
 
Die erste wichtige Eingrenzung ist, dass das Kolleg seine Frage auf kulturelle und gesellschaftliche Komplexität einschränken wird. Auch diese allerdings erscheint mehr als komplex, gerade wenn die Technik als ein Mischphänomen, das immer Natur und Kultur/Gesellschaft betrifft, prominent einbezogen werden soll.
 
Ausgangspunkt wäre die in Sozial-und Kulturwissenschaften weitgehend unbestrittene These, dass die Moderne durch eine rapide Zunahme von Komplexität gekennzeichnet ist. Innerhalb der Soziologie ‒ auch außerhalb systemtheoretischer Ansätze ‒ werden die Steigerung und Begrenzung von Komplexität und die Formen gesellschaftlicher Differenzierung in enger Verbindung zueinander gesehen.
 
Dies gilt für das historische Konzept der Teilung der Arbeit (Marx 1867/1972, Durkheim 1893/ 1988) und für Theorien, die Gesellschaft als Ganzes im Verhältnis zu seinen Teilen betrachten, als Einheit, deren Teile durch Sozialintegration zusammengehalten werden (vgl. Durkheim 1988, 118ff.). Vor allem aber für die Ansätze, die im Übergang zu einer funktionalen Differenzierung das Kennzeichen spezifisch moderner Gesellschaften sehen. So hat Talcott Parsons (1951/1972) Differenzierung als einen Prozess der Dekomposition konzipiert, der ein Ganzes in funktional spezifizierte Teilbereiche zerlegt, wobei er an der Vorstellung einer gesamtgesellschaftlichen Integration durch einen übergreifenden Wertekonsens festhält. Integration ist einer der Zentralbegriffe der strukturfunktionalistischen Theorie von Parsons, die hier, wie bei Durkheim, normativ bewertet wird. Weniger normative Ansätze gehen davon aus, dass System- und Sozialintegration nicht per se positiv zu bewerten sind (vgl. Lockwood 1979; Habermas 1981).
 
Theorien der Moderne und der Modernisierung heben explizit auf Prozesse der Differenzierung ab (Lockwood 1979, Habermas 1981, Münch 1988, Degele/Dries 2005). Differenzierung ist in all diesen Fällen mit einer Zunahme von Komplexität und spezifischen Steuerungsleistungen zur Reduktion von Komplexität assoziiert. Ebenso wäre auf Elias zu verweisen, der beschreibt, dass mit der zunehmenden Komplexität der modernen Gesellschaft die Länge der Interdependenzketten zunimmt; worauf die Individuen mit eigenen Mechanismen der Komplexitätsreduktion, einer quasi automatisierten Affekt-/Distanzregulierung und der Ausbildung von Selbstzwängen, reagieren (Elias 1976). Und letztlich gehen auch Horkheimer/Adorno, wenn auch mit ganz anderer Konnotation, vom Komplexitätsproblem moderner Gesellschaften aus, nicht zuletzt wenn sie die Kulturindustrie über eine ‚Reproduktion des Immergleichen‘ fassen. Hier ist es die Kulturindustrie, die die Funktion der Komplexitätsreduzierung übernimmt und die Individuen auf diese Weise entlastet.
 
Die Systemtheorie hat diese Frage generalisiert und gezeigt, dass sie in enger Wechselbeziehung zum Systembegriff und zur Frage steht, wie Gesellschaften insgesamt sich konstituieren. Dies gilt zunächst historisch: Die jeweils gegebene Form der gesellschaftlichen Differenzierung bildet die Struktur und die Ordnung der Gesellschaft, die steigende Komplexität nur bis zu einem bestimmten Grad zulässt. Gerät die Gesellschaft durch weitere Komplexität unter Druck, ändert sich die Form ihrer Differenzierung. Auf diese Weise haben sich Formen der segmentären, der stratifikatorischen und der funktionalen Differenzierung ausgebildet: Segmentär werden gleiche Einheiten differenziert, stratifikatorische Differenzierungsformen sind hierarchisch oder nach Zentrum und Peripherie geordnet, die funktionale Differenzierung bezieht gleichrangige Teilsysteme aufeinander (vgl. Luhmann 1997, S. 609ff.).
 
Funktionale Differenzierung bedeutet, dass sich gesellschaftliche Teilsysteme herausbilden, die eine bestimmte Funktion erfüllen und sich mit teilsystemspezifisch codierten Kommunikationen abschließen; als Beispiele hat Luhmann Recht, Politik, Wirtschaft, Wissenschaft usf. untersucht. "Durch Systemdifferenzierung multipliziert sich gewissermaßen das System in sich selbst durch immer neue Unterscheidungen von Systemen und Umwelten im System." (Luhmann 1997, S. 598.) Die funktional differenzierte Gesellschaft vervielfältigt sich intern, indem innerhalb der Gesellschaft teilsystemspezifische Beschreibungen der Gesellschaft angefertigt werden: eine Gesellschaft des Rechts, eine Gesellschaft der Politik, eine Gesellschaft der Wissenschaft usw. Die moderne Gesellschaft ist in diesem Sinne eine polykontexturale Gesellschaft. Gerade in der systemtheoretischen Gesellschaftsanalyse stellt die Zunahme und Verarbeitung von Komplexität deshalb eines der zentralen Bezugsprobleme dar.
 
Unter Bedingungen funktionaler Ausdifferenzierung ist die (prinzipiell unfassbare) Komplexität der gesellschaftsinternen Umwelt nur durch die Funktionssysteme selbst zu bewältigen. Es geht darum, welche Beobachtungs-, Resonanz- und Verarbeitungsmöglichkeiten den Funktionssystemen (etwa in ökologischen Fragen) zur Verfügung stehen (vgl. Luhmann 1986). Diese Konstellation wird zusätzlich dadurch komplex, dass es keine dominanten Funktionssysteme (Wirtschaft, Politik oder Massenmedien) gibt, die gewissermaßen in Führung gehen und für eine überschaubare Ordnung sorgen könnten.
 
(Funktionale) Differenzierung ist auf Komplexitätssteigerung abgestellt – und zugleich auf Komplexitätsreduktion (vgl. Luhmann 1984, S. 261f.). Die Systemtheorie hat ihre Theorie gesellschaftlicher Differenzierung im Rahmen einer allgemeinen Theorie der Bildung von System-Umwelt-Differenzen formuliert. Man kann den Prozess der Systembildung auf das Problem der Komplexität beziehen (vgl. ebd., S. 45ff.). Systeme übernehmen die Funktion, Komplexität zu erfassen und zu reduzieren; dies gilt systemtheoretisch (im Anschluss an Parsons) als allgemeines Funktionsprinzip sozialer Systeme. Sie bilden sich durch Abgrenzung von einer komplexen Umwelt. Die Komplexität der Umwelt ist für das System prinzipiell unfassbar, so dass mit der Systembildung ein Prozess der Reduktion von Komplexität einhergeht. Es wird ein Komplexitätsgefälle zwischen System und Umwelt aufgebaut und erhalten. Dabei werden systemintern Elemente auf einem Komplexitätsnivau gebildet, das deshalb notwendig hergestellt werden muss, weil nicht alle Elemente zugleich miteinander verknüpft werden können. Komplexität bestimmt die systeminterne "Verknüpfungskapazität der Elemente" (ebd., S. 46.; vgl. auch Kneer/Nassehi 1994).
 
Im Kollegzusammenhang ist nun interessant, dass gesellschaftliche Differenzierung hiermit als eine Art Automatismus gefasst wird; da Luhmann das Handlungskonzept als eine Grundlage der Soziologie verwirft, kann der Prozess gesellschaftlicher Differenzierung auf Subjekte und deren Intentionen nicht zugerechnet werden; in der Folge sind es die gesellschaftlichen Vollzüge selbst, konkret die Zyklen der Kommunikation und der Anschlusskommunikation, die die Systembildung vorantreiben; funktionale Differenzierung erscheint als ein weitgehend selbsttätiger, von einer Eigenlogik bestimmter Prozess; Differenzierung scheint einsinnig, unumkehrbar, auch wenn konkrete Systeme sich im Verlauf der gesellschaftlichen Entwicklung ‒ selbstverständlich ‒ auflösen und restrukturieren können.
 
Soziologen außerhalb der Systemtheorie argumentieren zumindest in diesem Punkt ähnlich, wenn sie das traditionelle Handlungskonzept modifizieren und neben intentionalen Handlungen auch die spezifische Blindheit des Handelns hervorheben (Giddens 1984/1995, 57ff.; Esser 1996, 19ff.; vgl. Bublitz et. al. 2010, 110-113.).
 
Wenn gesellschaftliche Differenzierung Komplexität produziert und in der Bildung von Systemen gleichzeitig ein Mittel zu ihrer Bewältigung findet, wird interessant, welchen Status Entdifferenzierungsprozesse haben. Der Aussage Links "entdifferenzierende Tatsachen liebt die Systemtheorie nicht" (Link 1997, 180f.) wäre zu widersprechen, wenn die Systembildung selbst, zumindest nach einer ihrer Seiten hin, eine Entdifferenzierung bedeutet. Dies allerdings wäre zu klären und könnte Gegenstand einer eigenen Überlegung im Kolleg sein.
 
Ein völlig anderer Ansatz ergibt sich, wenn man die Akteur-Netzwerk-Ansätze hinzuzieht, die derzeit in der Techniksoziologie wie in der Medienwissenschaft viel diskutiert werden. Auch die ANT hat Theorien entwickelt, wie Gesellschaft mit Komplexität umgeht, und sie erscheint insbesondere deshalb interessant, weil sie speziell auf die Technik abhebt, und die Technik insgesamt als eine Möglichkeit des Komplexitätsmanagements fasst. Zentral ist hier vor allem der Begriff des Blackboxing; dieser Zusammenhang wird insbesondere im Teilbereich 2: ‚Automatismen der Technik‘ reflektiert werden (s.u.).
 
Theorien zur mathematischen Komplexität können allenfalls Grenzfläche der Überlegung sein. Einer der beteiligten Informatiker (Meyer auf der Heide) arbeitet in diesem Feld; und in der Literatur wird verschiedentlich auf mathematische Vorstellungen verwiesen; im Fokus des Projekts steht dieser Bezug nicht.
 
Kulturtechniken
 
Und schließlich greift der neue Untertitel den Begriff der Kulturtechniken auf. Die Forschung zur Kulturtechnik, wie sie von Krämer/Bredekamp (2003), Macho (2003), Siegert (o.J., 2006, 2011), Nanz/Siegert (2006), Engell/Siegert (2010) und Maye (2010) entwickelt und ausgearbeitet wurde, stellt innerhalb der deutschen Medien- und Kulturwissenschaft einen Durchbruch dar. Zum einen, insofern sie den Technikbegriff, der auf Geräte und Hardware zentriert schien, von diesen löst und den Blick auf die technischen Praktiken lenkt. Hier sieht Schüttpelz (2006, 87) eine praxeologische Wende, eine Tendenz, der man sicherlich auch die Forschung zu den Automatismen zurechnen kann. Zum Zweiten, insofern das Konzept der Kulturtechniken an den antiken Begriff der Techne anschließt, was vielfältige neue Konnotationen liefert und erlaubt, eine Brücke hin zu künstlerischen Praxen zu schlagen; etwa zum Begriff einer künstlerischen Technik, wie ihn Adorno in seiner Ästhetischen Theorie formuliert (1970, 92, 316). Und schließlich, insofern die Kulturtechnikforschung an die Tradition ethnologischer und anthropologischer Forschung zu Kulturpraktiken anschließt (Schüttpelz 2006), was für die Frage nach den Automatismen ebenfalls neue Referenzen bereithält.
  
Gleichzeitig könnte auch der Begriff der Kulturtechniken von der Frage des Kollegs profitieren; dann nämlich, wenn es gelänge zu zeigen, dass Kulturtechniken sich nicht grundsätzlich im Hellen, unter aller Augen, vollziehen. Die These des Kollegs wäre, dass zumindest bestimmte Kulturtechniken in ihrer Funktionsweise auf das Halbdunkel einer reduzierten Bewusstheit angewiesen sind; dass es sich bei Prozessen der ‚Automatisierung‘ um einen Übergang, um ein Absinken in diesen Raum handelt. In bestimmten Fällen scheint eine reduzierte Bewusstheit gesellschaftlich produktiv zu sein, z. B. indem sie Ressourcen erspart. Wissenschaftsgeschichtlich sind die Relationen zwischen Ethnologie und Psychoanalyse ohnehin eng. Dem Begriff der Kulturtechniken würde der Aufweis solch halb-bewusster Prozesse bis dahin wenig beachtete Perspektiven hinzufügen.

Forschungsschwer­punkte und Teil­bereiche

Aus der Neuakzentuierung des Themas ergeben sich vier neue Teilbereiche, die das Thema gliedern und den Rahmen für die Promotionsprojekte der Kollegiat/innen bilden:
 
     1. Automatismen und Komplexitätsreduktion in den Medien
     2. Automatismen der Technik, Technik und Formalisierung als Komplexitätsmanagement
     3. Selbstorganisation als gesellschaftliches Ordnungsprinzip
     4. Automatismen und Komplexität in den Künsten

Mediale Prozesse haben für die Arbeit des Kollegs eine große Rolle gespielt, als Beispielsphäre, als Denkanreiz für die Begriffsbildung und als Forschungsgegenstand. Die überwiegende Anzahl der Promotionsprojekte behandelte medienwissenschaftliche Themen und auch der Dialog mit der Informatik war häufig über Medienfragen vermittelt.
 
Die Medien sind diejenige Sphäre, wo Automatismen besonders ins Auge fallen. Eine unübersehbare Neigung zur Wiederholung, rigide Konventionen und Schemata treten in den Produkten hervor; und Typisierung/Stereotypien würde zumindest der Alltagsverstand mit dem Populären fast gleichsetzen. Dies aber heißt nicht, dass die Medienwissenschaft ein klares Bild davon hätte, worum es sich bei Prozessen der Konventionalisierung eigentlich handelt, dass diese in ihrem Vollzug, als Mechanismen und als Gesetzmäßigkeiten aufgearbeitet und ausreichend untersucht wären. Dies gezielt anzugehen war ein Fokus in der ersten Bewilligungsphase. Und der methodische Vorschlag war, dies über den Begriff der Automatismen zu tun. Die Herausbildung von Konventionen erscheint als ein automatisch ablaufender Prozess, der nicht intendiert ist und als ein Summenphänomen über einer unübersehbar großen Zahl medialer Äußerungsakte sich vollzieht. Schemata, Konventionen erscheinen als ‚Parasiten‘, die sich an den Diskursen nähren und jenseits von ihnen ‒ als System ‒ eine Eigenlogik entfalten; etablierte Schemata wiederum wirken automatisiert/performativ auf die Folgediskurse zurück. In der Vorstellung eines quasi technischen Funktionierens, das zu einer mechanistischen Determination gleichzeitig Abstand hält, als ein offenes Konzept, das kulturelle Praxen ernst nimmt, ohne diese auf ‚den Menschen‘ zurückrechnen zu müssen, und Technik als Korrelat, Produkt und Gegenüber, in Wechselbeziehung zu diesen Praxen neu beschreibt, erweist sich der Begriff der Automatismen als produktiv.
 
‚Praktiken‘ waren Thema des Kollegs im Sommersemester 2010; ‚Schemabildung: Konvention, Stereotypie, Normalität‘ im Wintersemester davor; zwei Sammelbände fassen die Ergebnisse zusammen (Bublitz et al. 2010, Conradi et al. 2012).
 
Und gleichzeitig tritt in Medienprozessen auch die produktive Seite der Automatismen hervor. Konventionen erleichtern das Verstehen medialer Produkte, Medienverstehen scheint an Konventionen gebunden, Medienkompetenz als eine Fähigkeit, die sich im Umgang mit Medienprodukten langsam und akkumulativ erst herausbildet; die souveräne Beherrschung der Mediencodes ‒ paradox ‒ als das Resultat automatisierter Habitualisierungsprozesse (Bublitz et al. 2010, 23ff.). Und dies verlängert sich in die Sphäre der Produktion: Wer in den Medien arbeiten und Medienprodukte selbst hervorbringen will, muss mit den gängigen Stereotypensätzen vertraut sein; und dies umso mehr wenn es darum geht, diese neu zu fassen, zu reinterpretieren oder zu überschreiten; und auch in den Medien ist Automatisierung Voraussetzung für Veränderung und neuerliche Differenzierung.
 
Die Neuausrichtung des Kollegs soll an das Erreichte anschließen und die Automatismen der Medien nun systematisch unter dem Aspekt einer Reduzierung von Komplexität fassen. Die Neuausrichtung erlaubt es, das Problem zu benennen, das hinter Automatisierungs- und Habitualisierungsprozessen steht: Ungeregelte Komplexität würde unmittelbar in Strukturkrisen münden; ihr einsinniger Anstieg wäre angesichts begrenzter Ressourcen nicht denkbar.
 
Komplexität also bedarf, gerade wenn sie die Tendenz hat, ‚naturwüchsig‘ zu wachsen, eines Komplements, das sie konterkariert, ausbalanciert und dadurch ermöglicht. Reduktion von Komplexität und Anstieg von Komplexität erscheinen verschränkt; Diskurse erscheinen als Austragungsort dieser Spannung; Medien, Codes und Konventionen als eine Maschinerie, die beide Momente relationiert.
 
Auch diese Vorstellung knüpft an Luhmann an, der sie für den Begriff des Codes, am Beispiel der Sprache, entwickelt (1984, 143ff, 208ff.), in sein Medienverständnis überraschender Weise aber kaum integriert (1995). Zudem muss die Medienwissenschaft anders fragen: Sie steht vor der Aufgabe, die Ebene des einzelnen Medienprodukts (des Contents) mit der der Codes, der des Technischen, der des Sozialen usf. zu verbinden. Hierfür sind Begriffe nötig, die eine mittlere Abstraktionshöhe haben; der Begriff der ‚Automatismen‘ könnte ein solcher Begriff sein.
 
Ziel des Teilbereiches ist es, die Rolle von Automatismen innerhalb von Medien und Medienpraxen zu untersuchen. Besonderes Augenmerk gilt den Mechanismen, mit denen Medien zum Management von Komplexität beitragen. Modelle der Stereotypentheorie und der Konventionalisierung sollen in den Rahmen dieser Fragestellung eingebracht und mit semiotischen und techniktheoretischen Modellen verbunden werden, um auf dieser Basis ein neues Verständnis medialer Entwicklungsprozesse zu finden. Konkrete medienhistorische Fälle werden auf eine neue Weise theoretisch gefasst.
 
Methode: Theoriearbeit, historische Untersuchungen und Fallstudien.
 
Stand der Forschung: Ausgehend von den klassischen Texten Lippmanns (1922) und Meads (1934/1968) hat sich die Stereotypenforschung stark ausdifferenziert: Untersuchungen zu National-, Race-‚ oder Geschlechterstereotypen beschreiben, ausgehend meist von empirischem Material, Mechanismen, die Stereotypen hervorbringen, stabilisieren oder auch abtragen können (u.v.a. Gilman 1985). Jüngere, stärker theoretisch ausgerichtete Ansätze sind bemüht, den Stereotypenbegriff von seinen pejorativen Konnotationen zu lösen; dies beginnt bereits bei Manz (1968) und Stephan (1989) und wird bei Hinton (2000), McGarty/Yzerbyt/Spears (2002) und Ewen/Ewen (2006) zentral.
Modelle der Konventionalisierung finden sich in den unterschiedlichsten Feldern: Innerhalb der Sozialwissenschaften wären Bourdieu (1979/1984) oder Stemmer (2008, 199ff., 202ff.) zu nennen, im Feld der Semiotik geht man von Fragen des Codes zu einer prozessualen Sicht, zur Semiosis, über (Marell 1996, Bains 2006). Wichtige Ansätze zu Medien und Komplexität finden sich bei Luhmann (1984, 46ff.) und bei Thiedecke (1997). Methodenprobleme der Mediengeschichtsschreibung werden in den Veröffentlichungen des Graduiertenkollegs ‚Mediale Historiographien‘ (Weimar/Erfurt/Jena) und des Forschungskollegs ‚Medienumbrüche‘ (Siegen) verstärkt reflektiert.
 
Betreuung: Adelmann, Bartz, Brauerhoch, Bublitz,  Keil, Lemke, Ribbat, Weber, Winkler
 
Querbezüge: Ein enger Konnex besteht zu den Teilbereichen 2, ‚Technik‘ und 4, ‚Kunst‘; sowie zum Teilbereich 3, ‚Selbstorganisation‘, wo dieser Wechselverhältnisse zwischen Subjektkonstitution und Kulturtechniken/Medien thematisiert.

Technology Studies und Techniksoziologie untersuchen die Entwicklung neuer Technologien ‒ wenn man grob unterteilt ‒ auf zwei Ebenen: Auf einer Makroebene geht es um Technologie insgesamt, um ihre gesellschaftliche Funktion, ihre Entwicklungstendenzen und die Frage, was Prozesse der Technologisierung vorantreibt. Eine zweite, Mikro-Ebene würde nach den Besonderheiten einzelner Techniken fragen. Auf beiden Ebenen spielen sowohl Automatismen als auch die Reduktion von Komplexität eine wichtige Rolle.
 
Das Kolleg hat vorgeschlagen, Automatismen selbst als eine ‚Technologie‘ zu begreifen (Bublitz 2010: 9ff., 113ff.). Dass es sich um Praktiken handelt, die spezifische Funktion übernehmen, dürfte unstrittig sein; dies bedeutet, dass ihnen, auch wenn keine Intention zugrunde liegt, eine gewisse Finalität eingeschrieben ist, die ‒ z. B. in der Annahme von Zweck-Mittel-Relationen ‒ ein zentrales Kennzeichen des ‚Werkzeugs‘ und des Technischen ist.
Doch die These des Technischen geht wesentlich weiter: So sind Automatismen an Wiederholung gebunden (Dolar 2010) und sie haben quasi-institutionellen Charakter (Winkler 2010: 113). Innerhalb des Felds fluider Praktiken stellen sie damit Verhärtungen dar (ebd.: 116). Dies führt auf die These, dass Automatismen eine mittlere, vermittelnde Ebene einnehmen; zwischen der Ebene fluider, spontan änderbarer Praktiken einerseits, und der ganz anders gearteten, auf der Technik Hardware ist, also eine dauerhaft materielle Form findet.
 
Ein komplexer Technologiebegriff, der beide Ebenen ‒ Praktiken und Reifizierung/Hardware ‒ umfasst, steht immer vor der Frage, wie beide verschränkt sind, an welchen Punkten sie ineinander übergehen und welche Typen von Kausalität sie verbinden. Diese Frage hat historisch in die Konfrontation technologisch deterministischer und sozialkonstruktivistischer Techniktheorien geführt (Degele 2002; Williams 1974/1990); wenn Automatismen ihren Ort tatsächlich zwischen Praktiken und Hardware haben, könnte dieser Gegensatz möglicherweise zu verflüssigen sein.
 
Technologie wird in unterschiedlichen Techniktheorien mit der Frage der Komplexität und der Komplexitätsreduktion verbunden. Augenfällig ist zunächst, dass die Technologieentwicklung selbst einer Logik der Steigerung und der Differenzierung folgt, was zunächst eine einsinnige Zunahme von Komplexität suggeriert (Degele 202: 13ff. 57ff.). Gleichzeitig geht Technisierung häufig mit drastischen Vereinfachungen ‒ insbesondere auf der Seite der Nutzung ‒ einher. Ein Beispiel ist die Fotografie, die als ein aufwändiges chemisch-mechanisches Verfahren, gebunden an Spezialisten, beginnt und dann schrittweise vereinfacht wird, bis sie ‒ one click only ‒ nahezu jeden in die Rolle eines aktiven Bildproduzenten bringt. Technologie also stellt drastische Mittel auch für die Reduzierung von Komplexität bereit; diese Seite wurde früh gesehen (Benjamin 1936/1980) und hat kürzlich unter dem Stichwort der ‚Trivialisierung‘ Medien- und Kulturwissenschaftler, Künstler und Informatiker zu einer interdisziplinären Tagung zusammengeführt (Lüneburg 2011).
 
Das Kolleg will diese Frage aufnehmen und gestützt auf etablierte Ansätze der Technikforschung als einen neuen Rahmen für die Frage nach den Automatismen nutzen. Hier sind zumindest drei Ansätze relevant: die eher ‚klassischen‘ Ansätze Rammerts, Ropohls und Joerges'; die Akteur-Netzwerk-Theorie und die techniktheoretischen Modelle innerhalb der Systemtheorie.
 
Beispielhaft sei hier zunächst nur der Ansatz der ANT kurz umrissen, und innerhalb der ANT der Begriff des Blackboxing, wie Latour und andere ihn konzipiert haben (Couldry 2006). Akteursnetzwerke werden, der praxeologischen Grundlegung der Theorie entsprechend, als zunächst in actu, als fluide betrachtet. Gleichzeitig aber streben Akteure eine Stabilisierung ihrer Netzwerke an. Wenn dies gelingt, gewinnt das Netzwerk den Charakter einer stabilen Entität, mit der Folge, dass das Netzwerk in einer Art Blackbox verschwindet und sein Charakter als Netzwerk damit unkenntlich wird.
 
Blackboxing also impliziert eine drastische Reduzierung von Komplexität: Sobald es gelingt, ein Netzwerk in eine Blackbox zu bannen, kann von seiner inneren Komplexität abstrahiert werden. Und mehr noch: Blackboxing steht für exakt denjenigen Unterschied, der für Technik so typisch ist, und der die Perspektive eines Nutzers von der des Technikers trennt. Die Einschreibung in Technik erscheint als eine Möglichkeit, den Nutzer zu entlasten (Degele 2002); allerdings um den Preis, dass das innere Funktionieren der Technik für den Nutzer unkenntlich wird.
 
Interessanter noch ist die Tatsache, dass die ANT diese Perspektive umkehrt und radikalisiert, indem sie alle stabilisierten Entitäten auf diese neue Weise betrachtet. Was ‒ Beispiel ist wieder die Technik, die Hardware ‒ als dinghaft, stabil reifiziert erscheint, ist tatsächlich eine Blackbox, in der sich jeweils ein Netzwerk verbirgt (Couldry 2006). Erst wenn eine Störung oder andere destabilisierende Faktoren auftreten, wird das Netzwerk als Netzwerk wieder sichtbar, wieder verflüssigt oder bildet sich in andere Netzwerke um. Dies eröffnet Perspektiven für eine allgemeinere Techniksoziologie (Degele 2002); wirft aber, wie das Problem der vielfach ineinander geschachtelten Puppen, gleichzeitig auch spezifische Probleme der Beobachtung auf.
 
Die skizzierte Vorstellung ist für das Kolleg in besonderer Weise brauchbar; dies hat u. a. ein Workshop gezeigt, den die Kollegiat/innen im Sommersemester 2010 zu diesem Thema veranstaltet und in einem Sammelband dokumentiert haben (Conradi et al. 2011). Die Tatsache, dass die Blackbox Praktiken fixiert und das zugrundeliegende Akteursnetzwerk gleichzeitig verbirgt, hat seine Entsprechung in der spezifischen Opazität der Automatismen. Prozesse der Verkapselung, Verdichtung und Speicherung komplizierter Handlungssequenzen in schnell abrufbare Module lassen sich als Automatismen begreifen. Diese Prozesse bleiben weitgehend unsichtbar; die Beobachtung des Outputs – der Performanz von Automatismen ‒ ermöglicht keine Rückschlüsse auf deren Entstehung; ihre Genese bleibt vielmehr verborgen (black box), was sie zusätzlich stabilisiert. Training, Schemabildung und die Ausbildung des Körpergedächtnisses wären als Sonderfälle des Blackboxing zu analysieren. Dass es Praktiken sind, auf die die ANT abhebt, und dass es um Prozesse der Verfestigung geht, wären weitere parallele Motive.
  
Das Modell erweist sich als anschlussfähig an jene Theorien der Normalisierung (Link 1997) und der Naturalisierung, wie sie im Umfeld der Cultural Studies vertreten wurden. Normalisierung und Naturalisierung waren in der ersten Phase des Kollegs Gegenstand des achten Teilbereichs; die neue Ausrichtung auf die Reduzierung von Komplexität verspricht auch hier viel; Technologie und soziale Prozesse, Blackboxing, Normalisierung und Naturalisierung könnten in einem neuen Rahmen für die Beschreibung von Automatismen zusammengeführt werden.
 
Sobald man die Makro-Ebene generellerer Techniktheorien verlässt, werden Fragen im Feld einzelner Techniken möglich, und damit jene Konkretisierung, die den Anschluss an konkrete Promotionsprojekte erlaubt.
 
These der ersten Bewilligungsphase war, dass Automatismen vor allem im Fall verteilter Systeme wirksam sind; Verteilte Systeme waren Semesterthema im Sommersemester 2011, und mehrere Dissertationsprojekte sind diesem Thema gewidmet (EB). Im Mai 2011 hat das Kolleg das Verhältnis verteilter Systeme und sozialer Netze zum Thema eines kleineren Workshops gemacht (EB, S. 10).
 
Verteilte Systeme stellen auch in der Fortsetzungsphase einen Schwerpunkt dar. Auch hier würde man denken, dass sich in verteilten Systemen Komplexität naturwüchsig steigert; gleichzeitig aber ist auffällig, dass sie historisch bereits eine Antwort auf Probleme der Komplexität sind. So entstehen Netzwerke häufig dort, wo traditionelle Organisationsmittel – Planung, Ordnung und Hierarchie – an ihre Grenze stoßen. Und gleichzeitig bringen Netzwerke neue Komplexitäten hervor. Wer mit Netzwerken arbeitet, hat es häufig mit Komplexitätsproblemen zu tun.
 
Die zweite Einzeltechnologie, die mit Blick auf Automatismen und Komplexität untersucht werden soll, ist die Formalisierung. Wenn es dem Kolleg ‒ auf der Schnittstelle zwischen Medien- und Kulturwissenschaften und Informatik ‒ vor allem um die Informationstechnik geht, ist eine der entscheidenden Fragen, welchen Stellenwert und welche Position die Informationstechnik relativ zu anderen Medien- und Kulturtechniken hat.
 
Formalisierung stellt ‒ so komplex sie in sich ist ‒ sicherlich eine drastische Reduzierung von Komplexität dar. Überall dort, wo es gelingt, realweltliche Vorgänge in Modelle zu fassen, diese in einer Formalsprache zu reformulieren und an Maschinen zu übergeben, erscheint die Komplexität als bewältigt oder beherrschbar (Kleine Büning/Kastens 2005, Böhme 1998). Und mehr noch: Modell, Modellierung und Modellierbarkeit stehen für diese Reduzierung, für eine ‚Skelettierung‘ des Problems (Winkler 1999); eine Beschränkung aufs Wesentliche, die zwischen Wesentlich und Unwesentlich trennt. Preis ist, dass das als unwesentlich Eingestufte damit notwendig ausgeschlossen wird; dies wirft weitreichende kulturwissenschaftliche Fragen auf (Adorno 1966/1982). 
 
Das Projekt wäre, die Formalisierung mit anderen Kulturtechniken, wie der Schema- und Stereotypenbildung innerhalb der Bildmedien, ins Verhältnis zu setzen. Wenn all diese Kulturtechniken eine Reduzierung von Komplexität leisten, wäre wichtig herauszuarbeiten, was die Rolle der unterschiedlichen Medien ist und was mediale Spezifika ‒ bezogen auf die Reduzierung von Komplexität ‒ leisten.
 
Auch diese Frage bleibt eingebettet in die größere nach den Automatismen. Dass Formalisierung ein luzides Universum grundsätzlich nachvollziehbarer Strukturen behauptet, steht in Spannung zum Begriff des Automaten, der im Wortstamm Auto- immer ein Moment von Eigenlogik, Selbstregulierung oder Unabsehbarkeit mitführt. Im Kolleg wurde diese Spannung andiskutiert, als ‒ wieder auf der Schnittstelle zwischen Technik und Sozialem ‒ ‚Selbsttechnologien‘ zum Thema einer Tagung gemacht wurden (EB 3, S. 12). In ihrem inneren Funktionieren sind technische Automaten deterministisch; dieser Determinismus aber endet, sobald es um Nutzungsprozesse geht; gerade Verteilte Systeme sind von ihren Machern nicht völlig zu kontrollieren; was in der Nutzung entsteht, ist für nahezu alle Beteiligten opak.
 
Ziel des Teilbereiches ist es, Erkenntnisse der allgemeinen Techniktheorie, der Techniksoziologie und der Science-studies für die Automatismenforschung fruchtbar zu machen und den Begriff der Automatismen als eine Kulturtechnik neu zu fassen.
 
Methode: Theoriearbeit; technik- und wissenschaftshistorische Studien; System-/Softwaredesign; begleitende Beobachtung.
 
Stand der Forschung: Die Theoriebildung hat von traditionellen, handlungstheoretischen und teleologischen Deutungen der Technik Abstand genommen, da sich angesichts der Komplexität und Opakheit heutiger Technik diese kaum noch als System rational organisierter Handlungsmittel interpretieren lässt (vgl. Gamm/ Hetzel 2005; Hubig 2006; Kogge 2008). Nun wird nicht der primär instrumentelle Charakter der Technik betont, sondern ihre Bestimmtheit durch eine Vielzahl programmierter Aktanten, deren Verhalten nicht unmittelbar zugängig ist und deren Zusammenspiel zu unvorhersehbarem Verhalten und emergenten Effekten führe – ein Verhaltem welches schwer wahrnehmbar und nur im Post-Processing rekonstruierbar ist (Hubig 2006, Carrier/Nordmann 2011, Weber 2011). Hier konfiguriert sich ein Verständnis von Technik, welches sich hinter dem Rücken der Menschen ausbildet und Automatismen ausbildet, an das sich im Rahmen des Graduiertenkollegs sehr gut anschließen lässt.
Aktuell lassen sich drei verschiedene Neuinterpretationen von Technik grob unterscheiden: 1.) Das ‚Medienparadigma‘ deutscher Techniktheorie (Hubig, Gamm, Krämer) geht davon aus, dass Technik als Medium zu denken sei, dass neue Handlungs- und Erfahrungsspielräume konstituiert, strukturiert und transformiert. 2.) Der Diskurs der phänomenologisch-hermeneutischen Techniktheorie (Ihde, Gehring, Lindemann) aber auch der Techniktheorie der Cultural Studies (Hayles, Haraway, Hepp, Star) zentriert sich um ein Mediationsparadigma. Während erstere auf die Beziehung zwischen Mensch und Welt fokussiert im Sinne des menschlichen Weltverhältnisses und mit der Idee der Lebenswelt, versteht zweitere Technik als wesentlich für die Ausprägung eines bestimmten kulturellen Paradigmas. In dieser Logik schließt Technik dem Menschen Welt in einer spezifischen Weise auf. 3.) Die eher sozialwissenschaftlich orientierten Techniktheorie der Systemtheorie (Luhmann, Esposito, Halfmann) geht zwar partiell von der ‚Auslösekausalität‘ und ‚Durchgriffskausalität‘ (Luhmann) der Technik aus, spricht aber zugleich davon, dass soziale Systeme nicht nur "Technik als Medium der Simplifikation von Kommunikation" (Degele 2002, 149) nutzen, sondern zugleich mediale Entwicklungs- und Nutzungsoptionen eröffnet. Während der systemtheoretische Ansatz die Materialität von Technik eher vernachlässigt, fragt die realistisch orientierte Akteur-Netzwerk-Theorie (Akrich, Callon, Latour, Law) eher nach der Handlungsfähigkeit nicht nur von menschlichen sondern auch nicht-menschlichen Akteuren bzw. von Aktanten-Netzwerken und versucht die enge Verwobenheit von Technik und menschlichen Kollektiven zu beschreiben, wie Handlungen auf Dauer gestellt und damit das soziale Miteinander geregelt wird. Der Begriff der ‚Härtung‘ wie der ‚Übersetzung‘ bietet fruchtbare Anschlussmöglichkeiten für eine Theorie der Automatismen.
In allen drei Diskursen wird Technik nicht antagonistisch sondern als konstitutiv für die menschliche Kultur verstanden; den Artefakten und Objekten wird – außer in der Systemtheorie – nicht nur Eigensinnigkeit und Materialität zugesprochen, sondern auch Bedeutung für die Veränderung der Alltagskultur (Kogge 2008).
 
Betreuung: Keil, Meyer auf der Heide, Sorge, Weber, Winkler
 
Querbezüge: über die technische Seite der Medien und die Auffassung der Medien als Kulturtechniken besteht ein enger Bezug zu Teilbereich 1; TB 3 spricht von ‚Technologien des Selbst‘ und thematisiert die Wechselbeziehung zwischen Kulturtechniken und Subjektkonstitution; über den Begriff der künstlerischen Technik besteht ein Bezug zu TB 4.

Selbstorganisation ist ein Schlüsselbegriff der Steuerung komplexer Prozesse oder Systeme, gerade wo es schwer ist, diese vollständig zu planen oder vorherzusehen. Kybernetische Denkmodelle stellen komplexitätsreduzierende Steuerungspotentiale bereit (Pias 2004). Im sozial- und kulturwissenschaftlichen Diskurs spielen die Stichworte des Selbstmanagements und der Selbstregulierung eine zunehmende Rolle; kybernetische Steuerungsmodelle werden mit der Frage der Subjektkonstitution verknüpft und Subjektbildung wird als eine Art Rückkopplung zwischen Subjekt und Kulturtechniken beschrieben. Die feedbackgesteuerte Optimierung von Abläufen, Praktiken des Selbstmanagements, selbstreferentielle Praktiken der Selbstführung und der Selbstreflexion bilden bedeutsame Ressourcen, die es ermöglichen, mit Komplexität umzugehen.
 
Neuere Kulturen der Arbeit, die sich am unternehmerischen Selbst und am Ideal der Kreativität orientieren, lassen sich abgrenzen vom soziotechnischen Management, das sich u.a. in der technisch reibungslos koordinierten Maschine verkörpert. Das Subjekt, schreibt Reckwitz, strebt "nicht nach der Sicherheit der Routine, sondern nach der motivierenden Kraft individueller Herausforderung, nach innerer Selbstverwirklichung (…). Unter dem Einfluss von Theorien systemischer Selbstorganisation, welche die Nicht-Linearität und Nicht-Planbarkeit sozialer und natürlicher Systeme voraussetzen, und in denen das Leitmodell der Berechenbarkeit der Mechanik durch das der Unberechenbarkeit des Quasi-Organischen, Autopoetischen abgelöst wird, präsentiert der Managementdiskurs den ‚Markt‘, sein Subjekt und seine Organisationsformen (ganz im Gegensatz zur liberalen Ordnungsvorstellung der ‚invisible hand‘) zudem als die anarchischlebendige Normalität eines ‚Thriving on Chaos‘ (T. Peters), welches sich natürlicherweise der rationalen Steuerung entzieht" (Reckwitz 2006: 506f.). Hier geht es um ‚personal growth‘, um Selbstoptimierung durch symbolische Kreation.
 
Auf der Ebene selbstorganisierter Subjekte werden Selbststeuerungspotenziale aktiviert, die subjektive Kompetenzen geradezu künstlich ausdifferenzieren und auf diese Weise Komplexitätsmanagement durch Differenzierung betreiben. So wird etwa die Komplexität von Arbeitsmärkten ‚gemanagt‘, indem das Individuum sich selbst zum Bezugspunkt macht und deren undurchschaubaren Automatismen durch neue Kulturtechniken der Profilierung des Selbst und der kreativen Entwicklung von Subjektqualitäten zu begegnen versucht. Es wird ein Bereich ausdifferenziert, der zur Markierung der subjektiven Differenz, der Abgrenzung und Besonderung gegenüber anderen dient; auch dies ist eine Technik der Komplexitätsreduktion. Komplexität und Kulturtechniken der Entdifferenzierung greifen komplementär ineinander. Wichtig hierbei ist, dass selbstorganisierte Praktiken keineswegs strukturell determiniert sind, sondern explorative Kreativität und Handlungsspielräume ermöglichen und unter Umständen imstande sind, sich dem institutionellen Zugriff zu entziehen (vgl. u.a. Bröckling 2007, bes. S. 54ff.).
 
Auf der Ebene des Medialen schlägt sich dies in neuartigen Implementierungen nieder: Ein Beispiel wäre das Profil, das Kompetenzen und Alleinstellungs-Merkmale des Subjekts sichtbar macht und einen Datenraum konfiguriert, "der die unterschiedlichen Subjektpositionen permanent in konkurrierende (…) Relationen hochrechnet" (Reichert 2008: 74). Rückmeldungen werden als Subjektivierungsanforderungen in ein motiviertes Subjekt, das immer schon an der Selbststeigerung und -optimierung interessiert sein muss, eingespeist.
 
Davon abzugrenzen wären jene Formen der Muster- und Profilbildung, die sich auf Seiten der Anbieter sozialer Netzwerke vollziehen. Hier ist die mediale Selbstdarstellung der Nutzer nur Basis; über Praktiken der Muster- und Profilbildung werden Datenströme und Informationsfluten gefiltert und kanalisiert; Komplexität wird reduziert, indem die Nutzeraktivitäten in Algorithmen eingehen, von denen die Nutzer nichts wissen. Es stellt sich die Frage, wie sich ein selbstgesteuertes, selbstkontrolliertes Subjekt konstituiert, das sich der Wechselbeziehung zwischen geplanten und ungeplanten/ungewollten Rückkopplungsprozessen, steuerndem Eingriff und Automatismen, verdankt.
 
Ziel dieses Teilbereichs ist es, im kritischen Anschluss an das informationstheoretische Vokabular und an kybernetische Denkmodelle zu zeigen, welche Bedeutung ‚Automatismen‘ für das Komplexitätsmanagement in (post)modernen Gesellschaften haben.
 
Methode: Sozialwissenschaftliche Theoriearbeit; Fallstudien zwischen Medien- und Sozialwissenschaften.
 
Stand der Forschung: Untersuchungen der Gouvernemental Studies haben deutlich gemacht, dass sich Unternehmens- und Managementdiskurse auch im Alltag immer stärker verankern. Die Individuen sehen sich aufgefordert, sich selbst zu führen und Praktiken des Selbstmanagements zu entwickeln; gesellschaftlich bilden sich die entsprechenden Psychotechniken und Technologien heraus. Auch hier werden Automatismen wirksam, mit denen sich die Individuen über feedbackgesteuerte Prozesse mit der Dynamik struktureller, gesellschaftlicher Erfordernisse – z. B. der wirtschaftlichen Märkte – zusammenschließen (vgl. Bröckling/Krasmann/ Lemke 2000; Bröckling 2007; Reckwitz 2006). Über Risiko- und Sicherheitskalküle und flexible ‚Subjekt-Taktiken‘ wie Selbstadjustierung und Selbstnormalisierung (Link 1997: 80) verortet sich das Subjekt feedbackgesteuert in komplexen sozialen Dynamiken, in Normalitätszonen oder marginalisierten Segmenten; zum anderen werden soziale Regulative und Akte institutionalisierter Kontrolle ins eigene Selbst integriert. All diese Prozesse vollziehen sich außerhalb von Intention und unreflektiert, als Automatismen.
 
Betreuung: Bublitz, Sutter, Weber
 
Querbezüge: Enger Konnex zum TB 1: Medien.

In der Kunstentwicklung der Moderne gibt es immer wieder Phasen, Umbrüche und Krisen, in denen Künstler eine radikale Reduktion von Komplexität vorantreiben (z.B. Abstraktion, Minimalismus, Fluxus); diese gehen häufig mit einer extremen Reduktion der Mittel und der Formensprache einher, und gleichzeitig sind sie mit einer Öffnung für hoch komplexe und emergente Phänomene der Erfahrungswelt und/oder der Wahrnehmung verbunden. Künstlerische Produktionen können so zu Projektionsflächen und zum Ort der Performanz komplexer Vorstellungen und Erfahrungen werden; sie können das Unsichtbare sichtbar, aber auch die Bedingungen ihrer medialen Verfasstheit deutlich machen.
 
In einer auf Visualisierung ausgerichteten Kultur, die wesentlich Automatisierungs- und Schematisierungsprozessen medialer Oberflächen und aisthetischer Konstellationen unterworfen ist bzw. diese im Falle des (Unterhaltungs-)Kinos bewusst anstrebt, ist die Herstellung von Sichtbarkeit eine wesentliche Aufgabe und zugleich eine Problemkonstellation, der sich die Kunst stellt. Sichtbarkeit ist dabei keineswegs allein auf den Gesichtssinn bezogen, sie kann vielmehr multisensorisch wie sprachlich-intellektuell vermittelt sein; Ziel ist die Ermöglichung und Herausbildung anderer Formen der Wahrnehmung sowie der (Selbst)Reflexivität und Diskursivität.
 
In der neueren Kunstentwicklung ist die Steigerung von Komplexität verbunden mit Formen der Transgression, die auf der Ebene der Reflexivität in den Bereich des Diskursiven, auf der Ebene des Sensorischen in den Bereich des Atmosphärischen tendieren. Hier stellt sich die Frage, ob diese selbst zum Komplex einer Reduktion von Komplexität auf einer ‚höheren’ gesellschaftlichen Ebene gehören.
 
Und auch auf dem Terrain der Kunst stellt sich die Frage der Technik. Kunst hat historisch zur Entwicklung von Kulturtechniken beigetragen, vor allem was die Entwicklung bildlicher Darstellung betrifft. Die Entwicklung und Etablierung von Darstellungsmustern korreliert dabei mit der Verwendung und Variation von Bildformeln und der individuellen künstlerischen ‚inventio’. Im Bereich des Kinofilms – Vergleichbares gilt für das Theater und die Literatur – funktionieren etablierte Gattungen und Genres als produktions-wie rezeptionsästhetische Raster und Container für komplexitätsreduzierende Gestaltungen, die im Gegenzug dazu tendieren mythische Konstruktionen zu erzeugen, die wiederum Abweichungen, Brüche und Modifikationen provozieren. In solchen "Krisen der Repräsentation" spiegeln sich oft gesellschaftliche Umbruchsituationen (McGee, 2007, Wedel 2011).
 
Traditionell werden diese auf der Ebene der Ikonographie (Bildmotive und deren Variationen), der Rhetorik (Rezeptionsformeln und Leerstellen), der ästhetischen Formensprache oder der Stilgeschichte (Stilbildung und Stilbruch) bis hin zur Moderne beschrieben und zum Teil in Ansätzen der Semiotik und der Rezeptionsästhetik weitergeführt. Für die Überlegungen des Kollegs fruchtbar könnten Ansätze sein, die die kulturelle Einbindung und Anbindung künstlerischer Produktion in der Kunst-, Theater- und Literaturgeschichte thematisieren. So wäre es möglich, im Licht der Automatismen und der Komplexitätsreduktion, noch einmal auf Aby Warburg (Pathosformeln) und Erwin Panofsky (Symbolische Form) zurückzukommen, sowie daran anknüpfende Ansätze der Kunstsoziologie und der neueren Bildwissenschaften (Bredekamp 1991 u. 2008, Belting 2001 u. 2007, Didi-Huberman 1999, Boehm, 2006, Boehme 1999) zu diskutieren. Auch Jacques Rancières Relationierung von künstlerischen und nicht-künstlerischen Darstellungs- und Handlungsformen innerhalb eines ‚ästhetischen Regimes’ wäre hier heranzuziehen (Rancière 2006). Gerade die Zusammensicht und Relationierung der Bildproduktion und -rezeption bezogen auf eine gemeinsame, sie verbindende Ästhetik erscheint mit Blick auf die Untersuchung von ‚Automatismen’ vielversprechend.
 
Und schließlich wäre nach den Konsequenzen einer Übernahme und Transformation etablierter Bildtechniken und Formate insbesondere in die Softwareerstellung zu fragen. Die Entwicklung der Zentralperspektive wäre hier genauso zu nennen wie die plastische Gestaltung durch Licht/ Schatten/Farbe, die auf lange Sicht als Kulturtechniken selbst in die Programme digitaler Bildgestaltung eingehen (z.B. Radiosity, Raytracing). Ähnliches könnte man für Aspekte der Kadrierung, Kamerafahrten etc. im Film beschreiben. Aber auch künstlerische Verfahren der Avantgarden werden zum Teil für die Anwenderebene ‚automatisiert’; sehr berechtigt hat Manovich hier das Stichwort ‚Avantgarde as Software’ gegeben (1999).
 
Für den Film ist mit Alexander Kluge darauf hinzuweisen, dass die stroboskopischen Effekte der Bildprojektion die Bildproduktion als ‛Kino im Kopf“ auf Seiten des Zuschauers erzeugen. Darüber hinaus sprengt die Körperlichkeit der Perzeption des Films in ihrer spezifischen Zeitlichkeit die Automatismen, die in der Narration angelegt sind. Wie sich dieses untrennbare Amalgam von Automatik und Traum, von stereotyper Narration und sinnlicher Wahrnehmung mit der Einführung digitaler Produktionsprozesse wie Projektionstechniken verändert, bildet einen wichtigen zukünftigen Forschungsbereich (Cassetti 2008, Rodowick 2007).
 
Weiter wäre das Verhältnis von Automatismen und Komplexitätserhaltung, bzw. -reduzierung auf dem Gebiet der Digitalisierung audiovisueller Medien zu untersuchen, und zwar einmal bezogen auf die "Automatismen" der Industrie (Komplexitätsreduzierung der Filmgeschichte in ökonomisch und filmhistoriografisch determinierter Kanonisierung), und andererseits bezogen auf die Praxis von Archivierungs- und Restaurierungsprozessen, die sich zwischen (technisch induzierter) Reduzierung von Komplexität und dem Versuch der Übersetzung von Komplexität des filmischen/auditiven Ausgangsmaterials bewegen. Hinsichtlich Wahrnehmung, Aufmerksamkeit und Erfahrung wäre nach veränderten Rezeptionsbedingungen durch Digitalisierung zu fragen.
 
Im Bereich der Literatur und des Theaters stellt sich das Problem von Komplexitätssteigerung und Komplexitätsreduzierung im Hinblick auf postmoderne Erzählverfahren und performancenahe Theaterformen, welche die Bühne in ein selbstreflexives Medium polyphoner Text-Bildlandschaften und asignifikanter Traumszenarien verwandeln. Solche dekonstruktivistischen Form- und Formungsverfahren bedeuten gleichzeitig Kommunikationsverdichtung und Kommunikationsöffnung. Literatur und Theater (Theatertexte, Inszenierungen, Theaterräume) reagieren auf sich wandelnde Bedingungen und Signifikationen (Technifizierung und physiologische Ausdifferenzierung) sinnlicher Wahrnehmung. Zu fragen ist auch hier nach der Bedeutung wertorientierter und wertschöpfender Valorisierungs- und Kanonisierungspraxen als Modi der Komplexitätsreduzierung. Ziel wäre, nicht nur die literarischen Texte selbst zu untersuchen, sondern auch die Prozesse ihrer Auswahl und Bewertung zu betrachten. Im kulturellen Gedächtnis sind komplexitätsreduzierende Automatismen zu beobachten, die spezifische Gattungen, Texte und Akteure als ‚erinnerungswert‘ markieren und andere als ‚vergessbar‘. Diese Automatismen wirken wiederum auf die literarische Produktion selbst ein und etablieren Stile, Gattungen, Erzählformen.
 
Ziel des Teilbereichs ist es, an Beispielen aus Kunst, Film, Theater und Literatur ästhetische Strategien der Komplexitätsreduktion, -erhaltung und -steigerung auszuloten.
 
Methode: Kunst-, literatur-, medien- oder filmwissenschaftliche Studien; theoretische und/oder historische Studien zu Kunst, Kulturwissenschaft und Populärkultur.
  
Stand der Forschung: Forschungen zur Geschichte und Phänomenologie der Aufmerksamkeit (Crary 2002, Waldenfels 2004) und zur Ästhetik der Atmosphäre (Böhme 1995) bieten wichtige Anschlüsse für die beschriebene Problemkonstellation von Reduktion und Steigerung von Komplexität im Spannungsfeld zwischen technologischer Entwicklung, Wahrnehmung und Ästhetik. Tendenzen der Steigerung von Komplexität konvergieren mit der Veränderung ästhetischer Erfahrung im Kunstfeld,
die Martin Seel als eine "Ästhetik des Erscheinens" beschrieben hat (Seel 2000). Die computergenerierte Kunst ist genuin mit dem Verhältnis von Programm, Information und Ästhetik vor dem Hintergrund einer gesteigerten bzw. reduzierten Komplexität beschäftigt und das bezogen sowohl auf die Produktion als auch die Rezeption ihre Artefakte (Bense 1965, Nake 1974, Frank/Franke 1997, Büscher 2004, Nees 1969/2006). Ihre weiter zu verhandelnde Aktualität lassen die Ansätze etwa im Bereich der digitalen Kunst vermuten, wo sich besonders vor dem Hintergrund der zunehmend komplexer werdenden technologischen Möglichkeiten Tendenzen zu einer über die Programmierung vermittelten Reduktivität beschreiben lassen (Nees 2010, Schmidhuber 1997).
Im Bereich des Films wäre anzusetzen bei Untersuchungen zur Digitalisierung. Im Entzug von Körperlichkeit auf Seiten des Films wie der Zuschauer und im Verlust von Materialität lässt sich eine Form von hochambivalenter Komplexitätsreduzierung konstatieren. Die Forschung versucht gegenwärtig eine Neueinschätzung von Materialität und Indexikalität im Film, mit Blick auf seine Historizität und Bedeutung für Geschichte und Geschichtswahrnehmung (Rosen 2001, Mulvey 2006, Bruno 2002, 2007), und lotet mögliche Folgen für Produktion, Projektion, psychische und physische Prozesse der Wahrnehmung aus (Rosen, 2001, Cassetti 2008, Rodowick 2007).
Literatur und Theater zitieren die Dispositive der Narrativierung und des Spiels als Rahmen des Wahrnehmbaren, ordnen in diesem Rahmen aber die Wahrnehmungen neu. Sie brechen ästhetische Begrenzungen auf, irritieren Sehgewohnheiten und institutionalisierte Codes. Innerhalb der Forschung wird dies als Komplexitätssteigerung und Komplexitätsreduktion (Freiheitsgewinn) gleichermaßen diskutiert (Lehmann, 1999, Fischer-Lichte u.a., 2001, Balme/Moninger 2004, Abel/Blödorn/Scheffel 2009). Die Untersuchung von Automatismen in Valorisierung und Kanonisierung kann an die Arbeiten des Göttinger Forschungsschwerpunkts "Wertung und Kanon" anschließen und die dort erfolgte Analyse der die Literatur umgebenden kulturellen Prozesse (Stockinger/Freise, 2010). Auch in der komparatistischen Literaturwissenschaft sind durch das Konzept der "world literature" Abläufe in den Vordergrund gerückt, in denen literarische Texte und Phänomene globale Aufmerksamkeit erhalten (bzw. sie ihnen versagt wird) und die komplexe Unübersichtlichkeit international wirksamer Literaturen in nicht gesteuerten Mechanismen übersichtlich gemacht wird (Rosendahl Thomsen, 2008). In der amerikanischen Literaturwissenschaft wurde der Blick jüngst noch einmal von der Rezeption auf die Literaturproduktion selbst erweitert: auf die Funktion der "creative writing programs" in der Ausbildung von amerikanischer Literatur. In dieser "Program Era", die den Zusammenschluss von literarischen und universitären Praktiken bewirkt, entstehen Automatismen der erzählerischen Produktion, die die Komplexität der literarischen Welt reduzieren. Die Programme systematisieren Kreativität; die von ihnen ausgelösten Prozesse allerdings sind wiederum nicht steuerbar (McGurl 2009).
 
Betreuung: Adelmann, Bartz, Brauerhoch, Eke, Lemke, Ribbat
 
Querbezüge: Schnittstelle zu TB 1: Medien, und über den Begriff der künstlerischen Technik zu TB 2.

 
Das im Erstantrag formulierte Erkenntnisinteresse bleibt bestehen und die dort skizzierten Fragestellungen und Teilbereiche werden ‒ neu akzentuiert ‒ weiter verfolgt. ‚Verteilte Prozesse‘ (bisher Teilbereich 1) werden in den neuen Teilbereichen 1 und 2, ‚Medien‘ und ‚Technik‘ diskutiert; die Frage nach dem Selbst (bisher Teilbereich 2: ‚Selbstkalibrierung, Selbstadjustierung, Selbstmanagement‘) geht in den neuen Teilbereich 3 ‚Selbstorganisation‘ ein. Der bisherige Teilbereich 3 wird neu verteilt; 3.3: ‚Automatisierung und Entautomatisierung in den Künsten‘ geht auf im Teilbereich 4; ‚Normalisierung, Konvention‘ im Teilbereich 1 ‚Medien‘.
 
Das Forschungskonzept nimmt das Erreichte auf und gibt der Überlegung zu den Automatismen eine neue Richtung. Von dem neuen Ansatz verspricht sich das Kolleg viel. Die Frage nach der Komplexität schießt an aktuelle Debatten an; die Probleme des ‚information overload‘ und einer Überforderung der Subjekte werden in der Öffentlichkeit breit diskutiert; und begegnen ‒ fast unvermittelt ‒ Rhetoriken der ‚Selbstverantwortung‘ und der ‚Deregulierung‘. Technik wird gleichzeitig als komplex und als segensreiche Simplifizierung beschrieben, IT-Techniken reduzieren komplexe Interaktionen auf ‚Apps‘, und gleichzeitig entwickeln sich unübersehbar vielfältige Arten der Nutzung. All diese Konzepte sind ambivalent; sie erscheinen mit unterschiedlichen Wertungen, Hoffnungen und Ängsten verbunden. Dies lässt es lohnend erscheinen, gezielter nach den Mechanismen des Umgangs mit Komplexität zu fragen. Automatismen haben hier einen systematischen Ort. Diesen Zusammenhang vor allem will das Kolleg zeigen.

Literatur