You are on page 1of 285

Inhalt

Seite

Vorwort 9

0. Einleitung: Architektur und Mechanische Künste als Wurzeln 11


technischer Konstruktionspraxis

1. Gelehrte technische Kunstkultur, der Ingenieur und die 46


Ingenieurwissenschaften: Mathematisierung technischer
Konstruktionspraxis

2. Industrielle Revolution, Maschinenkonstruktion und 82


Produktionsorientierung der technischen Konstruktion

3. Verwissenschaftlichung der Technik: 104


Naturwissenschaftsbasierte Technologien, technische
Laboratorien, Großindustrie und die technische Universität

4. Computer Aided Design und autonom-intelligente Technik: 166


Transformation der technischen Konstruktion zum
transklassisch-hypermodernen Techno-Design

5. Schluss: Neue Nutzerorientierung: Vom Technikvertrauen zum 235


„Joy of Use“

Literaturverzeichnis 282

7
8
Vorwort
Dieses Buch versucht, das Berufsfeld des Ingenieurs technikgeschichtlich und philosophisch-
systematisch, d.h. phänomenologisch und begrifflich zu untersuchen und näher zu bestimmen.
Während der Architekt und der Mechanikus noch Phänomene sind, die sich in der
Technikentwicklung weltweit finden, erweist sich die Konzeption des Ingenieurs als
europäisch, nicht zuletzt durch die enge Verknüpfung mit der Mathematik und der
europäischen Konzeption experimenteller Naturwissenschaft, die zu einer engen Verknüpfung
von moderner Technologie und naturwissenschaftlicher Forschung führt. Zugleich wird
aufgezeigt, wie die Konzeption des Ingenieurswesens abgelöst wird durch eine neue
Konzeption von Technoresearch in der hypermodernen Technologie etwa ab der Mitte des 20.
Jh., in der zunehmend der technologisch ausgebildete und disziplinär weniger gebundene
Forscher die Entwicklungs- und Konstruktionsaufgaben in den neuen Forschungsfeldern
übernimmt. Damit wird der Ingenieur nicht überflüssig, genauso wenig wie der Handwerker
mit der Industriellen Revolution. Nur verschieben sich Aufgabenfelder und die Struktur seiner
Aufgaben. Und es ändert sich ein weiteres Mal die Struktur technischer Konstruktion, die nun
künstliche Lebewesen genauso umfasst wie eine autonome intelligente Technik, in der
technische Strukturen zwar weiterhin vom Menschen geschaffen werden, aber dann als
Lebewesen wie als Artefakte unabhängig von weiterer menschlicher Intervention technisch
agieren, d.h. technische Handlungen ausführen können. Epistemologisch ist entscheidend,
dass technische Konstruktion im Handwerk, Ingenieurswesen und im Technoresearch-Design
nicht ohne Kompetenzen im Umgang mit technischen Potenzialen auskommt, daher auch für
das Ingenieurswesen das „implizite Wissen“ oder „tacit knowledge“ konstitutiv ist und dieses
nach der Produktionsorientierung der industrielle Phase der Technologieentwicklung wieder
aufgewertet wird wie die Kundenorientierung überhaupt. Dieses Buch ist also nicht nur für
Ingenieure und für Philosophen von Interesse, sondern vor allem für die, welche die Technik
des 21. Jh. verstehen lernen wollen.

Die Fragestellung und erste konzeptionelle Entwürfe gehen zurück auf drei gemeinsame
Hauptseminare mit meinem Kollegen aus der Technikgeschichte Prof. Dr. Thomas Hänseroth
zur Industriellen Revolution und ihrem Verhältnis zur Philosophie in Großbritannien,
Deutschland und Frankreich in den Jahren 1997 bis 2000 und einem Seminar zur technischen
Konstruktion 2001. Ergänzt wurden diese Anregungen durch die Beschäftigung mit
Technikkulturen bei dem Kollegen Carl Mitcham 2003 in Golden. Dabei ist die geschichtliche
Entstehung des Berufsfeldes des Ingenieurs und der Ingenieurswissenschaften durch die
Technikgeschichte gut rekonstruiert. Das philosophische (epistemologische und wissen-
schaftsphilosophische) interessantere – und viel schwieriger zu bestimmende – Problem stellt
die Entwicklung seit der Mitte des 20. Jh. dar. Ihr gilt mein besonderes Interesse. Herzlich
danken möchte ich für das Korrekturlesen und die produktive Kritik Herrn David Pinzer.

Bernhard Irrgang; Dresden im Sommer 2009

9
10
0. Einleitung: Architektur und Mechanische Künste als Wurzeln
technischer Konstruktionspraxis
Aristoteles unterscheidet technisches Handeln (1) als Gebrauch technischer Mittel und
Produkte wie der Steuermann das Steuerruder gebraucht und (2) technisches Handeln des
Schiffbauers, der das Steuerruder herstellt. Insofern bedarf es einer Wissenschaft vom
Material, das bei der Herstellung Verwendung findet. Die Konstruktion eines technischen
Hilfsmittels ist etwas anderes als sein Gebrauch, denn ein geübtes Gebrauchswissen setzt
keinesfalls ein Konstruktionswissen voraus. Allerdings kann man sich fragen, ob ein
Konstruktionswissen nicht doch zumindest ein gewisses Wissen von dem späteren Gebrauch
voraussetzt. Dieses Problem diskutiert Aristoteles nicht. Allerdings ist es für diese Zeit nicht
unplausibel zu unterstellen, dass Konstruktions- und Gebrauchswissen nicht auseinander
fallen, weil Konstruktion und Gebrauch rückgekoppelt sind. Aristoteles schreibt: „Da unsere
Handwerkszweige das Material teils überhaupt erst erzeugen, teils es wenigstens zur Verwen-
dung aufbereiten, behandeln wir auch alles, was es gibt, als Mittel für unsere Zwecke – denn
in einem bestimmten Sinn sind ja tatsächlich auch wir ein (Natur-)Zweck. Der Terminus
‚Zweck’ ist ja doppeldeutig; es sei auf die Schrift über die Philosophie verwiesen. Nun gibt es
aber jeweils zwei Gewerbe, welche über das Material bestimmen und ein Wissen um das, was
das Material involviert, nämlich einerseits diejenigen Gewerbe, welche (das aus dem Material
herzustellende) in Verwendung nehmen werden, andererseits diejenigen, die bei der
Herstellung die leitende Funktion innehaben […]. Wir unterscheiden also herstellendes
Handwerk, dass Wissen über das Material besitzt. So versteht sich der Schiffssteuermann auf
die Gestalt des (von ihm zu bedienenden) Steuerruders und gibt an, wie dieses zu gestalten ist,
der andere aber (der Schiffsbauer) weiß und gibt an, wie dieses zu gestalten ist, der andere
aber (der Schiffsbauer) weiß und gibt an aus welchem Holz es gemacht werden muss und
welche Arbeitsgänge (zu seiner Herstellung) erforderlich sind. Der Gebrauchende muss nur
die Erkenntnis des Zwecks, den das betreffende jeweils zu erfüllen hat, kennen“ (Aristoteles
1979, 37f).

Die traditionelle Wissenschaftstheorie technischen Wissens hat den Aspekt des Umgangs-
wissens und des impliziten Wissens, das den Kunstcharakter technischen Könnens (und
Wissens) begründet, also den Gebrauch, vernachlässigt. Ein hermeneutisches Konzept techni-
schen Wissens und Verstehens geht von diesem impliziten Wissen aus und entwickelt auf
dieser Basis ein Verständnis technischen Handelns, basierend auf einer Phänomenologie des
Werkzeuggebrauchs bzw. des Umgangs mit natürlichen Prozessen im instrumentellen Ver-
stehen als implizitem Umgangswissen. Nicht die Analyse des Werkzeuges ist von vorrangiger
Bedeutung, sondern die des Erfolges, der mit Hilfe eines instrumentellen Handelns erreicht
werden kann. Erforscht wird die Art der Realisierung einer intendierten Wirkung. Die
Interpretation des impliziten technischen Wissens geht dabei über Martin Heideggers
Existentialanalyse des technischen Umgangs mit der Dingwelt hinaus (Irrgang 2001), der
seinerseits an Aristoteles anknüpft (Irrgang 2008). Das Konzept eines impliziten Umgangs-
wissens aufgrund eines Verstehensprozesses der Verwendungsmöglichkeiten natürlicher Pro-
zesse oder von Werkzeugen wird Ausgangspunkt für ein Philosophieren über Technik. Dieses
implizite Umgangswissen sollte dabei im Sinne eines ineinander verwobenen Wissens und
Könnens rekonstruiert werden, bestimmt von der Sachstruktur, mit der umgegangen wird, und
der Habitualität des Umgehenden.

11
Für eine phänomenologische Handlungstheorie der Technik begegnet ein Gegenstand oder ein
Artefakt einem Handelnden in einem bestimmten Verweisungszusammenhang, z.B. ein Stein,
der als Faustkeil benutzt werden kann, ein Atomkraftwerk, das elektrische Energie liefern
soll. In technischen Artefakten wurde technisches Wissen implementiert, sei es impliziter oder
expliziter Art, und die Rekonstruktion dieses Wissens als Umgangswissen erlaubt eine
Bestimmung technischer Potentialität. Dieser Ansatz soll auch die Grundlagen für eine
Wissenschaftstheorie der Technikwissenschaften bereitstellen (Irrgang 2008; Irrgang 2009b).
Intelligente Technik basiert auf der Implementierung impliziten oder expliziten technischen
Wissens in technische Artefakte. Das Segel repräsentiert den Umgang mit Wind zum Zwecke
der Fortbewegung (Energieerzeugung), der Bogen den Umgang mit mechanischer Kraft, um
einen Pfeil in Bewegung zu setzen. Die Dampfmaschine basiert auf dem Umgangswissen mit
Dampf in eine Maschine, um eine Drehbewegung zu erreichen. Und schon in der
traditionellen Züchtung wird Umgangswissen mit Naturprozessen in technische Artefakte
implementiert (Nutztiere, Nutzpflanzen). Gleiches gilt für Fermentationsprozesse in der Nah-
rungsmittelproduktion. Seitdem das technische Umgangswissen nicht mehr am Endprodukt
erzeugt werden muss, sondern im Labor, werden die Verfahren und Produkte ungleich effek-
tiver und damit „intelligenter“.

Technisches Konstruieren ist ein wichtiger Vorgang im Bereich der Technik zwischen
Invention und Innovation, also beim Entstehen des Neuen in der Technik. Dazu soll jenes
technische Wissen und technische Können analysiert werden, welches Konstruieren im
Spannungsfeld von Wissen und Kunst bzw. von Rationalität und Routine und Kreativität und
Intuition bedingen. Insbesondere zwischen dem Kopf des Ingenieurs und dem Reissbrett bzw.
dem Computer spielen sich Interaktionen ab, die nicht-sprachlicher Natur sind, die aber als
visuelle Phänomene das Konstruieren bis in den Nerv hinein bestimmen. Es sind allerdings
nicht nur konstruktive Ideen, die sogenannte Eigenlogik des Technischen, die das Konstru-
ieren bestimmen, sondern soziokulturelle oder ökonomische Vorstellungen bzw. Rahmen-
bedingungen, die technische Pfadabhängigkeiten kultureller oder auch nationaler Art begrün-
den. Langfristige kulturelle Prägungen können sich auf die Technikentwicklung auswirken bis
hin zu nationalen Konstruktionskulturen bzw. Konstruktionsstilen. Zentral für unseren Zu-
gang zum Prozess des technischen Konstruierens ist die These von Michael Polanyi vom
„impliziten Wissen“ (im Original „tacit knowledge“), auf dem alles andere explizite techni-
sche Wissen aufbaut. Polanyi beschreibt eine dynamische Auffassung von Wissen, das sich
im Handeln konstituiert und damit an den Handlungsvollzug des Ingenieurs bzw. des
technischen Kollektivs gebunden ist.

Eine weitere wichtige Unterscheidung im Umfeld des technischen Umgangswissens im


Hinblick auf Erfindung ist die könnensorientierte und die gebrauchsorientierte Erfindung in
der Technik. So ist es zwar schön, wenn man eine Technik beherrscht, gerade wenn sie neu
ist, z.B. Rundbögen bauen. Wenn diese Technik brauchbar ist, in die technische Routine
eingebaut werden kann und in lebensweltliche Zusammenhänge passt, hat diese technische
Neuerung auch eine Chance, kulturell akzeptiert zu werden und Anwendung bzw.
Verwendung zu finden. Anders war dies z.B. in der grünen Gentechnologie bei der HR-
Technologie (Herbizidresistenz-Technologie in der Pflanzenzucht). Die Gentechnik be-
herrschte die Einbringung solcher Gene zuerst, die sich daraus ergebenden Anwendungen
wurden wegen ökonomischer Ineffizienz der ersten Produkte auf längere Sicht bei den
Produzenten und mangelnder Vorteile für die Konsumenten nicht akzeptiert. Ungeklärte
Risikoaspekte kamen hinzu, waren aber wohl nicht der Hauptgrund für die breite Ableh-
nungsfront gegenüber der neuen Technik, die ohne Zweifel für die Grundlagenforschung
einen erheblichen Wissenszuwachs gebracht hat, was aber ökonomischen Erfolg keinesfalls
garantiert.

12
In der technischen Konstruktion wird nicht Wahrheit entborgen oder eine Idee realisiert,
sondern ein technisches Artefakt gewinnt allmählich Gestalt, zunächst in der Vorstellung,
dann in zeichnerischer oder mathematisch modellhafter Form, dann als Prototyp und später
als technisches Produkt. Eine weitere Gestaltung erfolgt durch den Nutzer. Insofern kann
nicht technisches Wissen allein Gegenstand einer wissenschaftlichen Reflexion über Technik
sein. Vielmehr ist es die technische Praxis in ihren vielfachen Facetten, hier als technische
Konstruktionspraxis verstanden, die zum Gegenstand eines epistemologischen Verständnisses
von Technik herangezogen wird. Wissen aber im Kontext einer Praxis ist nicht als
theoretisches Wissen zu konzipieren, sondern hat die Struktur des „tacit knowledge“ (Irrgang
2001). Bewusste Konstruktion setzt zwar technisches Wissen voraus, vielleicht sogar techni-
sches Regel- und Gesetzeswissen, die fundamentalere Voraussetzung ist aber die jeweilige
technische Praxis. Bevor sich aber eine Konstruktionspraxis herausbilden kann, gab es eine
Herstellungspraxis technischer Artefakte. Die Voraussetzung für eine technische Praxis
überhaupt ist Tradition, eine lehrhafte Tradition durch Vormachen, aber auch mithilfe von
Sprache. Auch frühere Herstellungspraxis war gelegentlich innovativ, aber das Neuerungs-
tempo und die Geschwindigkeit, mit der Erfindungen gemacht und durchgesetzt wurden,
waren noch sehr langsam. Die Voraussetzung für eine Konstruktionspraxis ist ein Mindest-
maß an Institutionen und damit an urbane Zivilisationen gebunden, wie noch aufzuweisen
sein wird. Ein technisches Artefakt hat zumindest eine pragmatische Bedeutung, oft auch eine
darüber hinausgehende Bedeutung.

Die evolutionäre Betrachtung der Genese impliziten Wissens geht vom Phänomen der
Emergenz aus. Im Prozess der Genese impliziten Wissens entstehen neue Stufen des Wissens
und neue Paradigmen der technischen Praxis. Paradigmen technischer Praxis sind Leitbilder,
die ein adäquates, d.h. offenes Interpretationsverständnis von technischer und anderer Formen
von Praxis ermöglichen. Repräsentationswissen und Umgangswissen sind letztendlich zu
unterscheiden. Aufgabe einer Theorie des impliziten Wissens ist die Modellierung und das
Management von Umgangswissen. Das explizite Wissen folgt dem Regelparadigma. Das tacit
knowledge verfolgt das Kunstparadigma bzw. das Selbstorganisationsparadigma technischen
Wissens bzw. technischen Konstruktionswissens. Dieses arbeitet die impliziten Bedingungen
von implizitem Wissen heraus und orientiert sich an einer lebenspraktischen, überlebens-
orientierten Pragmatik. Zugrunde gelegt wird eine pragmatische Sicht auf das Thema Wissen
und Können. Dabei rekurriert das Umgangswissen auf Bedingungen im Sinne einer als-ob-
Kausalität (Irrgang 2007b).

Implizites Wissen meint intuitives bzw. kreatives Wissen und umschreibt Phänomene des
Wissens im Hinblick auf Implizitheit, Unbewusstheit und Vagheit. Die traditionelle
Technikwissenschaft kennt nur eine Stufe des Wissens und bestenfalls technische Prozesse,
jedes Verfahren sauber und flüssig abgeschlossen zu betrachten. Dieser mehr oder weniger
methodologische Atomismus erhöht zwar vielleicht die Sicherheit des technischen Wissens,
nicht aber die Konsistenz technischer Theoriebildung. Die Erschließung von Dispositionen,
die Interpretation von Kompetenzen, die Modellierung von implizitem Wissen und von
Handeln können ist die Aufgabe einer Wissenschaftstheorie des technischen Handelns auf der
Basis einer Konzeption des impliziten Wissens. Eine Reduktion auf das Nochnichtwissen ist
bloß traditionell und bringt für die eigentliche Fragestellung nichts. Es handelt sich um prag-
matische Implikationen. Unser Können ist imstande, etwas Bestimmtes hervorzubringen.
Dieses bestimmte, das hervorgebracht werden soll kann dann wiederum Gegenstand unseres
Wissens sein. Dispositionsprädikate lassen sich aber nicht operationalisieren. Daher ist eine
heuristische Herangehensweise erforderlich. Diese bezieht sich auf Analogien, fallbasiertes
Schließen, exemplarisches Lernen und ungenaue Suchpfadarchitekturen. Sie läuft auf eine
Gestaltung der Ausgangsbedingungen hinaus (Irrgang 2004).

13
Vertrauen ist ein Kennzeichen von Unsicherheit, von Kompetenz und impliziten Wissen. Wo
Sicherheit (Kontrolle) herrscht, ist Vertrauen nicht erforderlich. Kompetenz und implizites
Wissen ist insbesondere bei interdisziplinärer Erforschung erforderlich. Zentral sind hier
Vertrauensbildungsmechanismen. Implizites Wissen ist erfolgreich bei der Visualisierung
großer Informationsmengen. Es handelt sich kontextualisiertes Wissen, verkörpertes Wissen,
eingebettetes Wissen. Die Methoden der Erforschung impliziten Wissens über eine bestimmte
menschliche Form der Praxis ist (1) zunächst die Bestimmung des Teilnehmermodus an der
Praxis. (2) kann eine experimentelle Störung der Praxis erfolgen und (3) diese Praxis bildlich
aufgezeichnet werden, also der Beobachterstatus der Praxis dokumentiert werden, um (4) aus
dem Ineinandergreifen dieser drei Dimensionierungen der Methodenproblematik im Hinblick
auf Praxis zu einem Ergebnis zu kommen. Dabei darf man nicht davon ausgehen, dass
Rahmen und Praxis getrennt sind, sondern dass mit der Praxis zugleich der Rahmen für die
Handlungsfelder mit erzeugt wird und sich mit fortschreitender Praxis auch der Rahmen für
die Handlungsfelder mit modifiziert. Paradigmen sind damit Felder impliziten Wissens und
nicht explizierter Regeln. Der Versuch, Paradigmen oder Leitbilder zu operationalisieren, d.h.
in abbildbare Regelsysteme zu überführen, verkennt letztendlich die eigentliche Bedeutungs-
dimension von Leitbildern bzw. Paradigmen. Paradigmen sind Begriffe der Einbettung bzw.
der Inkulturation.

Explizites Wissen dominiert den gesellschaftlichen Diskurs, vor allem in einer Welt, die
zunehmend Fragen der Kontrolle, der Überprüfbarkeit, der Evaluierbarkeit, der rechtlich-
verifizierbaren Verantwortbarkeit betont. Unsere Gesellschaft bewegt sich massiv in Richtung
auf ein Regelparadigma. Dennoch gibt es eine weitverbreitete Überzeugung, dass man mit
expliziten Mechanismen der Wissensverarbeitung allein dem realen Verhältnis nicht gerecht
wird, dass es so etwas wie ein objektives Abbild der Realität gar nicht gibt, sondern dass in
Form von Selbstorganisationsprozessen neuronale Strukturen im menschlichen Gehirn
aufgebaut werden, die Überleben ermöglichen. Die Grenzen des explizit Beschreibbaren
lassen sich mit Charisma, Führungsfähigkeit, Motivationskraft umschreiben (Radermacher
u.a. 2001a, 7). Der fortschreitende Prozess der immer weitergehenden Explizitmachung von
Abläufen in der Industriegesellschaft dient der Qualitätssicherung und wird nicht zuletzt auf
Grund gerichtlicher Entscheidungen immer mehr eingeführt (Radermacher u.a. 2001a, 22).
Mit der Aufklärungsphilosophie und der Industriellen Revolution beginnt die Krise der
technischen „Kunstkultur“. Zunächst wird die Mathematik als Hilfsprogramm für die Praxis
angesehen und sie hilft nur dann, wenn man auch die Praxis kennt. Dann aber wird der
Kunstkultur das szientifische Wissenschaftsverständnis entgegengesetzt. Der alte Kanon ist
tot, es wird ein neuer Weg propagiert, nämlich die Wissenschaftlichkeit, die sich nicht auf
Vorbilder oder Tradition beruft. Angesichts der Neuartigkeit muss man fehlendes Erfah-
rungswissen ersetzen und sucht nach einer neuen Legitimationsstrategie für Technik. Der
traditionelle Legitimationserweis geschah durch das Können, aber für Eisenbrücken und
Eisenbahnen gab es zunächst keinen Erfahrungsbeweis. Also suchte man nach der
Wissenschaft als Legitimationsinstanz, wobei der Wahrheitsnachweis einer vermeintlich
objektiven Technik an die Stelle der Kunst trat. Die Sachzwangdebatte entsteht vor dem Hin-
tergrund des Ausgreifens des Positivismus auch auf die Ingenieurwissenschaften. Bestimmte
Konstruktionsformen werden von der Könnenskultur ausgeschlossen. Tragwerke werden auf-
grund formelhafter Zeichensysteme bestimmt. Berechenbarkeit tritt an die Stelle von Effekti-
vität als Bewertungskriterium. Das Aussterben der Könnenskultur durch technische Ausbil-
dung und Professionalisierung ist nicht zu leugnen. Technische Hochschule erhielten Bil-
dungspatente, wobei Teilarbeitsmärkte durch Bildungspatente abgeschottet werden.

14
Das Konzept der technischen Rationalität ist Erbe einer positivistischen Epistemologie der
Praxis. Aus der Perspektive der technischen Rationalität ist professionelle Praxis eine Frage
des Problemlösens (Schön 1991, 39f). Konstruktionswissen wurde als Wissen um Kochbuch-
regeln verstanden. Aber unser technisches Wissen ist ursprünglich implizit und unausge-
sprochen in unseren Handlungsmustern, in unserem Gefühl für das Material, mit dem wir uns
beschäftigen, enthalten. Dies ist unser Wissen in unseren Handlungen. Es ist ein unaus-
gesprochenes Wissen („tacit knowledge“) in der Handlung selbst. Unausgesprochene Gestalt-
erkenntnisse, Urteile und bedeutsame Rahmenbedingungen werden erkannt (Schön 1991,
49f). „Learing by doing“ = „knowing-in-action“, übersetzt „Lernen durch Handeln“ = „Wis-
sen im Handeln“, so umschreibt Schön den Modus des gewöhnlichen praktischen Wissens.
Schön unterscheidet ein Reflektieren über die Handlung und ein Reflektieren in der
Handlung. Das Reflektieren in der Handlung vergleicht er mit dem Gefühl für Musik, der
Erfahrung einer Überraschung. Das Nachdenken über das Nachdenken in der Handlung führt
zu einer Konzeption von Theorie in der Handlung. Der Praktiker lernt, wonach er zu suchen
hat und wie er auf das reagiert, was er findet. Solange seine Praxis stabil ist, d.h. dieselben
Typen von Wirkungen hervorbringt, verliert er immer mehr das Überraschungsmoment
(Schön 1991, 60). Diesem Ziel dient auch die Spezialisierung. Es geht darum, schwer durch-
schaubare Situationen zu meistern. Dazu bedarf es auch der Instruktion und der Erziehung.
Weil der Professionalismus allerdings auch heute noch in der Regel mit technischer Expertise
identifiziert wird, ist das Konzept eines Nachdenkens in der Handlung nicht allgemein akzep-
tiert, selbst von denen nicht, die dieses als eine legitime Form professionellen Wissens all-
täglich praktizieren (Schön 1991, 69).

Die Aufgabe der Vermittlung von Selbst– und Fremdinterpretation von technischen
Handlungen und technischen Produkten muss in eine reflektierte Fremdinterpretation
überführt werden. Ansatzpunkt einer technischen Kultur ist die Genese und Entwicklung
technischer Artefakte. Diese dienen einem praktischen Ziel, sie sind geschaffen worden für
den praktischen Gebrauch. Technische Objekte haben ein Funktionselement und eine Struk-
tur. Der Gebrauch vereinigt das strukturale und das funktionale Element, auch wenn es
heterogen sein sollte. Das technische Objekt wird hervorgebracht durch die Konvergenz und
durch Anpassung an dieses Objekt. Insofern gibt es eine natürliche technische Evolution.
Stabilität ist das Charakteristikum technischer Objekte. Die Konkretisierung gibt dem tech-
nischen Objekt einen Platz zwischen den natürlichen Objekten und der wissenschaftlichen Re-
präsentation. Simondon geht von einer essentiellen Künstlichkeit aus. Es handelt sich um eine
Verkünstlichung eines natürlichen Objektes. Die Verkünstlichung ist ein Prozess der Abstrak-
tion im künstlichen Objekt. Es geht um die Konkretisierung eines technischen Objektes und
um Fragen der Renaturalisierung. Dabei stellt sich die Frage nach der internen Kohärenz
(Simondon 1969, 19-47).

Design beschreibt mehr als eine rationale Konstruktion. Es indiziert eigentlich einen Vor-
schlag bzw. einen Entwurf. Ein technisches Artefakt ist definiert in den Begriffen seines
praktischen Gebrauchs. Damit spielt die intendierte Rolle im Lebenslauf und in der Lebens-
welt der Produzenten wie Nutzer eine zentrale Rolle. Wir brauchen daher, wenn wir von
Design sprechen ein verständliches Modell technologischer Innovation, die in jeder Hinsicht
auch einen Begriff kulturellen Wandels impliziert. Evolvieren heißt also Element eines
soziokulturellen Wandels zu sein, dabei übernehmen Emotionen, Institutionen, Rollen und
Verhaltensweisen wichtige Funktionen, die das Gebrauchen erleichtern, aber auch erschweren
können. Daher versucht die evolutionäre Ökonomik und Theorie der technischen Entwicklung
ein Modell vom kulturellen Wandel zu geben. Es geht darum, ein realistisches evolutionäres
Modell technologischen Wandels zu entwickeln (Ziman 2000, 7-10). Dabei wird Anpassung
durch Selektion erklärt. Der Selektion erfordert starke Mechanismen für die Wiederholung,

15
Veränderung und Erneuerung der ausgewählten Varianten. Dabei spielt die Ökologie eine
zentrale Rolle. Selektionismus arbeitet aber auch innerhalb von Organismen. Zum Verständ-
nis des Selektionsprinzips haben Modelle von künstlichem Leben (AL) immens viel beige-
tragen (Ziman 2000, 44-47). Dabei geht es ebenfalls darum, Selektion und Anpassung
genauso wie die Fitnesslandschaft mathematisch beschreiben und berechnen zu können (Zi-
man 2000, 50).

Die evolutionäre Ökonomik und die evolutionäre Entwicklungstheorie technischen Wandels


möchte die Evolutionstheorie auf bestimmte Felder der Ökonomie anwenden. Selektion
erscheint vor dem Hintergrund von Überfluss. Jedes evolutionäres System besitzt bestimmte
dynamische Eigenschaften, die Prozesse der Gegenwart mit der Vergangenheit verbinden.
Unvermeidbar stellt dabei die Vergangenheit gewisse Weichen für die Gegenwart, wie die
Gegenwart sich in vielfacher und breiter Form von der Vergangenheit her ableitet. Dabei gilt
es für die evolutorische Konzeption technischen Wandels ein Set von technologischer
Information bereitzustellen, die charakteristisch ist für Wege, in denen sich technisches
Verhalten in der Geschichte tatsächlich ausgedrückt hat. Dabei geht Technik von technischer
Routine aus. Diese umschließt ein Set von nützlichem Wissen. Wissen produziert technische
Artefakte. Daher ist technisches Wissen mehr als Wissenschaft. Eine Technik ist ein Fahrzeug
bzw. ein Vehikel für die zugrunde liegende technologische Information. In der Beziehung
zwischen dem unterliegenden technologischen Informationen und der Technik selbst besteht
die Herausforderung technologischen Wissens. Dabei funktioniert die meiste Technik ohne
dass ohne Konstrukteure und Designer genügend Wissen haben von den operationalen
Prinzipien, die ihren technischen Artefakten zugrunde liegen. Meisten haben sie nicht einmal
die geringste Ahnung. Dabei bereitet Wissen Werkzeuge vor, die Probleme Lösen könne
(Ziman 2000, 52-55).

Die Existenz von Wissen über einen Gegenstand garantiert nicht, dass eine erwünschte
Technik auch entsteht. Wenn eine neue Technik vorgeschlagen wird, dann haben die Nutzer
die Wahl zwischen dem Alten und den neuen Wegen, irgendwelche Dinge zu tun und zu
realisieren. So besteht ein Prozess der Selektion zwischen existierenden Techniken. Die
Geschichte der Evolution der Produktion von Technologie hält eine Reihe Parallelen zum
Darwinismus bereit. So gibt es in gewisser Weise auch induzierte Innovationen. Generelles
Wissen ist ebenfalls erzeugt worden in einer sehr viel schnelleren als der technologischen
Rate. Eine andere Ähnlichkeit besteht zu dem Phänomen der Exaptation. Die zugrunde
liegende Idee besteht darin, dass eine Technik, die ursprünglich für ein bestimmtes Ziel
entwickelt worden ist, später ihren Erfolg und ihr Überleben anderen Eigenschaft oder
Fähigkeiten verdankt, als denen , die bei ihrem ersten Auftreten von Belang waren. Der
evolutionäre Prozess der Technikentwicklung wie der biologischen Entwicklung knüpft an
den Gipfel der Fitnesslandschaft an. Techniken jedoch replizieren sich nicht in der Art und
Weise, wie dies Organismen tun. Die Entwicklung von Wissen und die Umsetzung in ein
präzises Set von Anleitungen sind sehr unterschieden von dem natürlichen Prozess der
Ontogenie. Dabei können sowohl in der Biologie, wie in der technischen Entwicklung
negative Folgen auftreten, bei denen die Ökonomen von Externalitäten und Nebeneffekten
sprechen (Ziman 2000, 56-59). Allerdings ist zu berücksichtigen, dass menschliche Selektion
als technisches Handeln anderen Kriterien verpflichtet ist als natürliche Selektion.

Die Sache, die sich entwickelt, die Technik, ist eine Verfahrensweise oder eine Routine in der
die Hauptakteure in der Geschichte der Technologie, nämliche Menschen, Organisationen und
Artefakte, unterschiedliche Rollen spielen. Wandel ereignet sich durch blinde Variation und
selektive Auswahl im Hinblick auf das Artefakt. Aber die technologische Evolution ist in der
Tat lamarcktistisch in diesem Sinne, dass die Rückkoppelung des Nutzers auf das Artefakt mit

16
einkalkuliert werden muss. Die zugrunde liegende Struktur des Wissens wird beeinflusst
durch den Gebrauch der Technik. Die Entwicklung des technischen Artefaktes ist spontan und
unvorhersehbar (Ziman 2000, 63f), allerdings doch nicht identisch mit der blinden
darwinistischen Evolution. Die Kathedrale von Chartres ist ein Beispiel für verteiltes Design,
wo trotz oder gar aufgrund des Zusammenwirkens vieler, auch Generationen von Architekten
und Konstrukteuren, eine Homogenität des Gesamtergebnisses erreicht wird, trotz einer
Heterogenität der Akteure, die neues Wissen hervorgebracht haben, um dieses Bauwerk zu
errichten. Hinzukommt die Vielzahl an Menschen mit ihren Fähigkeiten und technischen Ein-
fällen, die mit dem technischen Artefakt interagierten und gleichzeitig eine kognitive und
soziale Ordnung mit dem Gebäude schufen (Ziman 2000, 115). Dies setzt im Gegensatz zur
bloßen Selektion Konstruktion und einen geplanten Entwurf des zu bauenden voraus.

Ganz entscheidend ist die Analyse der Artefakte während ihres Gebrauchs (Ziman 2000, 116).
Der Gebrauch des Terminus „lernen“ in der ökonomischen Literatur unterscheidet zwei völlig
verschiedene Basiskonnotationen: die Erste bedeutet Lernen, eine produktive Erfahrung und
eine Verbesserung, die registriert werden kann durch einen Index produktiver Verwandlung in
der Aktivität des Konstruierens; die Zweite beschreibt die Art und Weise des Einflusses des
Menschen auf das Artefakt unter den Bedingungen der Unsicherheit. Hier meint Fortschreiten
in typischer Weise die systematische Prüfung und Abfragung der Alternativen und ihrer
Wahrscheinlichkeiten, dass die Handelnden unterschiedliche mögliche Zustände in der Welt
durchlaufen, und zwar in einer Art und Weise, die ihre Glaubenszustände in eine engere und
weitere Verbindung mit dem tatsächlichen Zustand des Artefaktes bringen. So haben wir ein
spezifisches, rekursives Modell des intentionalen und adaptiven Verhaltens unter Unsicherheit
gewonnen (Ziman 2000, 119-121).

Technologie ist nicht einfach eine Realisierung von Ideen, sondern beruht auf einer
Koevolution von Artefakten, technologischem Wissen und Organisationsformen (Ziman
2000, 248). Bei einer technologischen Innovation handelt es sich um eine Interaktion mit der
wirklichen Welt. Die Fähigkeit, Technologie effektiv zu handhaben, kann als Umgangs-
kompetenz mit einer Blackbox verstanden werden, das heißt als eine Kompetenz, die formal
nicht beschrieben und analysiert werden kann. Organisationen bereiten den Kontext für den
Gebrauch einer Technologie und die Matrix für die Hervorbringung und Erhaltung dieses
Wissens, dass Voraussetzung für den erfolgreichen ist. In der Erklärung der Logik und der
Fokussierung des Wissens, welches der Technologie zugrunde liegt, können Designkon-
figurationen, Entwürfe für Konstruktionen und die fundamentalen Designparameter geschrie-
ben werden, die Produkten zugrunde liegen und Prozesse konstituieren, welche die Wissens-
grundlage für die Unternehmen bei der Innovation bilden (Ziman 2000, 255f).

Das Mittel oder die Mittel (oder Technik als Inbegriff der Mittel) sind ein fundamentales
Thema einer Philosophie der Technik. Denn der Mensch ist wesensmäßig gerade dadurch
ausgezeichnet, dass er nicht (mehr) in einem unmittelbaren Verhältnis zur Welt steht. Es ist
darauf angewiesen, unter Einsatz eigens entwickelter Mittel die Welt theoretisch zu
erschließen und praktisch zu bewältigen (Hubig 2002, 6). Allgemein verstehen wir unter
Mitteln diejenigen Handlungsereignisse oder diejenigen Gegenstände oder Artefakte, die
geeignet sind bzw. sich in ihrer Eignung bewährt haben, unsere Handlungszwecke zu
realisieren. Wir erfahren Mittel-Zweck-Komplexe in einer Bewandnisganzheit, inkorporiert
im Zuhandenen des Zeugs, in dem sich das Worumwillen der Dinge antreffen lässt. Wir
finden uns in solchen Traditionen der Bewährtheit von Dingen und entsprechenden Nutzungs-
routinen in der Welt verortet (Hubig 2002, 10f). Technische Mittel passen sich an die
menschliche Produktion an, sie passen sich an die Aufgabe an, für die sie konstruiert wurden.
So kann es sogar zu funktioneller Überanpassung kommen. Die Adaption kann aber auch

17
nicht gelingen. Adaption kann man auch als Konkretisierung verstehen. Dabei ist die Kohä-
renz eines technischen Ensembles entscheidend. Dabei ist die Technik als Mittel und Artefakt
beherrschbarer als die Praxis, die dahinter steht. Es besteht eine interne Verteilung und Selbst-
regulierung der Aufgabe. Die Individualität der Technik ist eine Imitation der Individualität
des Menschen (Simondon 1969, 50-81).

Technische Regeln sind Aussagen über bewährte Mittel-Zweck-Relationen. Technik ist damit
die Suche nach Regularitäten und basiert auf einem pragmatischen Schluss auf die beste
Erklärungsstrategie, wobei das eigentliche Kriterium die Bewährung in der Praxis ist. Damit
soll eine Zuverlässigkeit technischer Funktionen begründet werden, sowohl in der Theorie,
wie in der Praxis. Eine technologische bzw. technikwissenschaftliche Theorie besteht aus
miteinander verknüpften technischen Regeln und impliziert die Frage nach der Kohärenz
dieses Regelwerkes. Zu unterscheiden sind

(1) Eine strukturelle Theorie des theoretischen Artefaktes (Know that).


(2) Eine operative Theorie des Umgangs mit ihm (Know how).

Beide Dimensionen sind wichtig für eine umfassende Technikwissenschaft. Das Verhältnis
von technischem Wissen zu technikwissenschaftlichem Wissen besteht in der Objekttheorie in
ihrem Verhältnis zur Metatheorie. Die Metatheorie muss dabei insbesondere die
methodologische Fragedimension und die soziale Dimension aufeinander beziehen. Es geht
dabei um das Verstehen sowohl der technischen Artefakte wie ihres Gebrauchs, wobei
letzterer von besonderem Interesse ist, weil diese Dimension in der Technikwissenschaften
bislang vernachlässigt wurde. Es geht also um beide Dimensionen: (1) Wahrheitswerte
technischen Wissens und technischer Wissenschaft, (2) Gebrauchswerte technischer Arte-
fakte.

In der europäischen Techniktradition bestand die Tendenz zur Rationalisierung in dem


Versuch, technische Handlungen berechenbar zu machen. Nicht zuletzt der ökonomische
Verwertungsdruck im Hinblick auf technische Produkte erhöhte die Effizienzanforderungen
an weitere Formen kulturell eingefärbter Technikhermeneutiken. Bevorzugter Ansatz in der
Interpretation technischen Handelns war die Mathematisierung und Rationalisierung
technischer Handlungen durch Berechnung. Die mathematische Rationalisierung des
technischen Umgangs mit der Realität z.B. in der Mechanik ist die Hermeneutik eines vorher
bloß leiblichen Handlungsvorganges. Technikhermeneutik hingegen möchte zeigen, dass vor
aller wissenschaftlichen Betrachtung technischer Konstruktionspraxis ein fundamentaleres
Paradigma herausgearbeitet werden muss, das des impliziten Wissens und des Umgangs-
wissens mit technischen Artefakten. Dabei bedient sich die Technikhermeneutik
phänomenologischer Beschreibungen, erklärend-verstehender Interpretationen, Symboli-
sierung und Modellierung technischer Handlungen, aber auch des pragmatischen Konzeptes
der Abduktionen (Dewey 1989, Dewey 1995, Peirce 1991, Riemer 1988). Hier geht es um
technisch induzierte Verallgemeinerungen, die zu einem allgemein geteilten Befund werden.

Die Perspektive der Alltäglichkeit erlaubt es der Technikphilosophie, aus dem impliziten
Wissen im technischen Handeln die Frage nach dem Ansatz der praktisch-technischen
Rationalisierung des Umgangswissens zu stellen. Die Reflexion dieses Vorgangs ist
theoretisches Wissen und identifiziert Komplexitätssteigerung, Spezialisierung und
Professionalisierung des technischen Umgangswissens als Grund für die mathematische
Rationalisierung des Umgangswissens bis hin zur Entwicklung einer Technologie. Sie geht
damit über die Alltagswelt und ihre mathematische Rationalisierung hinaus und reflektiert

18
auch Verfahrenskunde im Sinne einer mathematischen Rationalisierung der Arbeit und einer
technisierten Methodenlehre der Forschung. Ansatzpunkt dieser technikphilosophischen
Reflexion ist die Unterscheidung von technischem Verstehen, technischem Wissen und
technisch-instrumentellem Handeln, das in einem Konzept des technischen Handelns kon-
vergiert.

Technische Konstruktion soll hier nicht als isolierter Akt der Erfindung begriffen werden,
sondern im Kontext der Alltäglichkeit wie der technischen Entwicklung. Technische
Entwicklung ist eine Mischung aus Plan und nicht geplanten Folgen, also keine Evolution
oder keine Selbstorganisation im naturwissenschaftlichen Typus. Sie führt zu technisch-
kulturellen und gesellschaftlichen Entwicklungspfaden, die nur teilweise prognostizierbar
sind. Einige durchgängige Entwicklungslinien lassen sich eruieren, obwohl es im strengen
Sinn keine „Entwicklungslogik" technischen Handelns gibt. Technisches Umgangswissen
stellt eine Art von Rationalität dar, die nicht mit bisher bekannten wissenschaftstheoretischen
Konstrukten von Rationalität identifiziert werden kann. Das Umgangswissen basiert sowohl
auf Versuch und Irrtum wie auf Nachahmungshandeln. Damit stellt diese Rationalität eine
Mischung der Rationalität technischer Traditionsvorgänge und der Rationalität von Versuch
und Irrtum dar, wobei es ebenfalls rational ist, das Verfahren von Versuch und Irrtum durch
Methode abzukürzen und die Anzahl der Versuche zu verändern. Durch diesen Ansatz beim
Umgangswissen wird der Rationalitätsbegriff gegenüber der konstruktivistischen Philosophie
des technischen Handelns in einer hermeneutischen Konzeption technischen Handelns ver-
ändert (Irrgang 2006; Irrgang 2007d).

Immer wieder sollte eine Theoretisierung und Mathematisierung die Rationalität technischen
Handelns erhöhen. Versuche der mathematischen Rationalisierung technischer
Konstruktionen und der Verwissenschaftlichung technischen Umgangswissens haben
Grenzen, insbesondere dann, wenn der Umgang mit technisch erzeugten Produkten erfasst
werden soll. Komponenten einer solchen Verwissenschaftlichung sind Planungsrationalität
(Technologie), Effizienzsteigerung durch Systematisierung von Versuch und Irrtum,
Organisation und Institutionalisierung technischen Handelns und Systematisierung der
naturwissenschaftlichen Grundlagen technischen Handelns und einer Verwissenschaftlichung
im Sinne der Technikwissenschaften. Zur Rationalisierung technischen Handelns gehört die
Spezialisierung technischen Handelns und die Teilung der technischen Arbeit in jenen
umfassenden Prozess der technischen Rationalisierung, der ein wesentlicher Motor techni-
scher Entwicklung ist. Ein weiterer wesentlicher Faktor nicht erst seit der industriellen Revo-
lution ist die Ökonomisierung technischen Handelns, die ebenfalls zur Effizienzsteigerung
führt. Aber nicht jede Form der Verwissenschaftlichung erhöht die Rationalität technischen
Handelns.

Die Architektur ist die älteste Konstruktionsdisziplin. Der Praktiker hat ein Repertoire von
Beispielen, Bildern, Verständnissen und Handlungsmustern aufgebaut, um eine Situation
strukturieren zu können. Auch Lösungsschemata können eingebaut werden. Zudem muss er
ein Verhalten entwickeln, das neue Probleme löst. Dies geschieht vor dem Hintergrund des
Vertrauten, der Kunstfertigkeit eines Praktikers. Variationen und neue Erfahrungen spielen
eine zentrale Rolle. Der Praxiskontext ist vom experimentellen Kontext verschieden. Der
Praktiker reflektiert in der Handlung, der Experimentator geht von einer erklärenden
Hypothese aus, die er testet (Schön 1991, 147). Die Methode des kontrollierten Experimentes,
das eine Hypothese testet, ist von der Situation des Praktikers verschieden. Praxis ist zwar
eine Art von Forschung, allerdings keine experimentelle Forschung. Dem Konzept der
technischen Rationalität ist das Konzept einer Reflektion in der Handlung entgegenzustellen
(Schön 1991, 165). Dabei ist die reflektierte Praxis in wissensbasierten Professionen von

19
alltäglichen technischen Professionen zu unterscheiden. Medizin, Landwirtschaft,
Ingenieurwesen sind prototypische Beispiele für Berufe mit einer Basis im wissenschaftlichen
Wissen (Schön 1991, 168).

Eine Epistemologie der Praxis berücksichtigt, dass der technische Experte Teil eines
utopischen technologischen Programms, einer technischen Elite ist und Technokratie
versinnbildlicht. Die Abwesenheit klar identifizierbarer Beziehungen zwischen Professio-
nellen und Klienten hat einen unterminierenden Effekt für den Professionellen. Der kompe-
tente Kunde ist nicht der Feind des Profis, sondern einer, der sich selbst in vielfacher Form als
ein reflektierter Praktiker verstehen lernen soll. Die Kompetenz des Klienten ist im Hinblick
auf die reflektierte Konversation mit dem Professionellen zu kultivieren. Der Professionelle
soll im Hinblick auf sein Wissen in der Handlung reflektiert werden. Auch wo universitäres
Wissen im Sinne von technischem Handeln angewandt wird, handelt es sich nicht um
angewandte Wissenschaften. Die Unterschiedlichkeit von Praxis und Forschung ist nicht
aufzuheben (Schön 1991, 309). Konstruktion ist eine moderne Praxis, die den Fortschritt des
Ingenieurwesens vorantreibt. Dabei folgen die technischen Zeichnungen dem Ingenieurfort-
schritt und dem Konstruktionsprozess selbst. Es handelt sich um einen individuellen Akt, dem
aber häufig eine gemeinsame Konstruktionspraxis zugrunde liegt, die auf detaillierten
gemeinsamen Berechnungen beruht. Es bleibt noch viel Konstruktionsarbeit übrig, wenn der
generelle Entwurf bereits fertig ist. Vielleicht liegen sogar auch mehrere alternative Entwürfe
vor. Petrowski betrachtet Konstruktion als Evolutionsprozess. Es geht um Detailarbeit und
Berechnung z.B. einer Brückenkonstruktion, bei der Spannungen zwischen Ingenieursan-
sprüchen und ästhetischen Ansprüchen auftreten können. Er kann zudem immer wieder auf
fehlerhafte Berechnungen eines Assistenten angewiesen sein, die er nicht immer durchschaut.
Außerdem hat er Probleme mit konfligierenden Konstruktionsanweisungen.

Theoretische Anweisungen eines akademischen Ingenieurs und die praktischen Probleme


eines trainierten Konstruktionsingenieurs in der Praxis im Hinblick auf mechanische
Zeichnungen machen dieses Dilemma offenkundig. Hinzu kommt der Zeitdruck für die
Konstruktionsaufgabe. Außerdem können immer noch neue Probleme auftreten, wenn
Ingenieure sehen, dass ihre Befürchtungen ignoriert werden, wie z.B. beim Start der
Challenger. Immer wieder trifft man auf bestimmte akzeptierte und glaubwürdige Lösungen
zu Konstruktionsherausforderungen, die letztendlich nicht haltbare Versprechungen beinhal-
ten. So entstand der Glaube, dass Software die Konstruktionstätigkeit und die Verantwortung
dafür übernehmen könnte. Aber Konstruktionssoftware bleibt ein Werkzeug. So entstand das
falsch platzierte Vertrauen in die Computersoftware bei der technischen Konstruktion. Fehler
bei der Analyse einer Ölplattform beweisen dies. Außerdem führt die computerunterstützte
Konstruktion zu einem zu schnellen Maschinenoutput, der von den Ingenieuren nicht mehr
ausreichend kontrolliert werden kann. Eine fundamentale Aktivität der Ingenieure und Wis-
senschaftler besteht darin, Versprechen in Gestalt von Konstruktionsplänen und Theorien zu
machen. Da ist es nicht gerecht, allein die Computersoftware zu diskreditieren auf der Basis,
dass ihre Versprechen und das Vertrauen in ihre Versprechen letztendlich ein problematisches
Werkzeug ist und man den Konstruktionsplänen der Maschine zu sehr vertraut hat. Nichts
desto weniger sollten Benutzer von Konstruktionssoftware sehr vorsichtig sein und einen
gesunden Skeptizismus entwickeln, denn die Geschichte der Wissenschaft und des
Ingenieurwesens unter Einschluss der noch sehr jungen Geschichte des Softwareingenieurs-
konstruktionswesen ist gespickt mit fehlerhaften Versprechungen (Petrowski 1997, 57-77).

Das Konstruktionshandeln ist als ein kultureller Prozess, als ein Prozess der Traditionen zu
rekonstruieren. Ein solcher Prozess versteht sich als Vorgang des Instruierens und des
Zeigens, nicht als ein System von Aufforderungssätzen, wie es das technokratische Modell

20
unterstellt. In einer Philosophie des technischen Umgangswissens reflektiert der Philosoph
nicht seine eigene praktisch technische Kompetenz, sondern Interpretationen von anderen
über ihre technische Kompetenz oder über technische Kompetenz überhaupt. Die theoretische
Modellierung technischer Kompetenz im Konstruktionshandeln geht damit über technische
Kompetenz selbst hinaus, es handelt sich dabei selbst um eine Professionalisierungsstrategie
technischen Wissens. Die Angst vor Misserfolg, der Kompetenzschutz, wenn man den
Misserfolg nicht vermeiden kann, die Suche nach neuem Wissen, Kompetenzschutz durch
Informationsabwehr und Umdeutungsprozesse greifen ineinander und verringern die
Effektivität der getroffenen Entscheidungen. Denken und Planen sind zudem heute soziale
Prozesse, wobei die Effektivität der Gruppe und Gruppenstrukturen eine zentrale Rolle
spielen (Strohschneider/Wet 1993, 53).

Das Verstehen einer Konstruktionspraxis ist Grundlage einer Epistemologie der Technik-
wissenschaften. Die Theorie der technischen Konstruktion soll als ein wichtiges Thema der
Technikwissenschaften von ihrer Praxis her neu bestimmt werden. Von der Praxis haben wir
zunächst nur „tacit knowledge“, das nur bis zu einem gewissen Grad explizit gemacht werden
kann. Der Ansatzpunkt ist hier das Umgangswissen der Anwender mit Blackboxes, z.B. mit
Motoren, Kernkraftwerken, Computern und der entsprechenden installierten Software. Die
Ursprünge der Verwissenschaftlichung technischer Praxis liegen in Architektur und der
Baustatik, nicht im Maschinenwesen oder der Mechanik. Die Architektur war eher als das
Maschinenwesen auf Nutzer und Konsument ausgerichtet. Dieses Verstehen führt zu unter-
schiedlichen Formen des expliziten Wissens über technische Konstruktion und damit zu
verschiedenen Arten von Technikwissenschaft.

Typologisierung von Epistemologien technischer Konstruktion:

(1) Technische Kunstlehre: Technisches Erfahrungswissen mit Ansätzen der


Verwissenschaftlichung als beschreibende Wissenschaft beginnend mit der
Architektur und Mechanik in Griechenland. Es handelt sich um ein technisches
Umgangswissen mit ersten Versuchen der Beschreibung und der Zeichnung mit
noch unzureichenden Erklärungsansätzen. Eine epistemische Rechtfertigung oder
ein Verständnis als Konstruktionswissenschaft bzw. handlungsanleitende Wissen-
schaft entwickelt sich noch nicht, wenn auch einzelne Handlungsanweisungen
insbesondere in der Architektur bzw. der Mechanik formuliert werden (Kunst-
paradigma).
(2) Ingenieurwissenschaften als regelgeleitete Anleitung zur Mathematisierung
mechanischer Wissenschaften im Sinne einer Dynamisierung. Es ist eine
Konstruktionswissenschaft zumindest in Ansätzen sowie die Entwicklung einer
Bauingenieurskunst. Es gibt Erklärungsansätze neben der Mathematisierung so-
wie eine Konstruktionslehre im Sinne der Inventionslehre. Christian Wolff nennt
diese Form ebenfalls Technologie (Mathematisierungsparadigma).
(3) Technologie im Sinne Johann Jacob Beckmanns als Klassifikation zunächst der
Handwerke, dann aber auch der Bereiche technischer Produktion (Arbeit) ins-
besondere in der Manufaktur und der Versuch der Optimierung technischer Pro-
duktionsverfahren (Technologieparadigma).
(4) Technikwissenschaften als Handlungsanweisungen zur technischen Konstruktion
unter Berufung auf das Ideal der kausalen Erklärung. Hilfestellung bei der natur-
wissenschaftlichen Theoriebildung und Vorbereitung des Einbezugs naturwissen-
schaftlicher Erkenntnisse.

21
Technische Wissenschaften und ihre erste Phase der Technologisierung in dem
naturwissenschaftlich und industriell begründete Technik als Produkt und als
Verfahrenskunde formuliert wird. Der Begriff der technischen Wissenschaften
tritt an die Stelle des Technologiebegriffs, versucht aber, beide Bereiche
Konstruktion und Produktion aufeinander zu beziehen. Es kommt hier zu einer
breiten Verwissenschaftlichung technisch industrieller Praxis. Ganz neue Dis-
ziplinen entstehen durch Anwendung der Naturwissenschaften (Wissenschafts-
paradigma).
(5) Moderne Technologie als im Laboratorium erzeugtes Regel- und Modellie-
rungswissen wird als Konstruktions- und Programmieranleitung für das Schaffen
neuer, auf Konsumenten zugeschnittener Produkte aufgefasst (Technoresearch
Paradigma). Ein neuer Berufsstand entsteht, den man als Technodesigner, Inge-
nieurdesigner oder Technorearcher bezeichnen könnte.

Die Technikwissenschaften als Reflexion auf die konstruktive technische Praxis zielen dann
ab auf methodisch strukturierte Handlungsanweisungen zur Errichtung technischer Anlagen.
Technikwissenschaften und Ingenieurwissenschaften verstehen sich als Wissenschaft der
technisch ingenieurmäßigen konstruktiven Praxis. Damit wird unterstellt, dass in der kon-
struktiven technischen Praxis bestimmte paradigmenabhängige Umstrukturierungen vorge-
kommen sind, die man auch als epochalem Wandel in der konstruktiven technischen Praxis
verstehen kann. So unterscheidet sich die handwerkliche von der industriellen und der techno-
logischen Praxis. Im Hinblick auf Metatechnologie kann ich auf eine früher herausgearbeitete
Unterscheidung zurückgreifen und diese im Hinblick auf technische Konstruktion weiterent-
wickeln:

(1) Handwerksparadigma: Technische Kunstkultur und traditionelle handwerkliche


Technologie (im Sinne von Beckmann); Theoretisierung durch Konstruktions-
zeichnungen und Mechanisierung; Verfahrenskunde hinsichtlich Züchtung,
traditionelle Biotechnologien, Bergbau und Verhüttung (Umgangswissen); Legiti-
mierung der technischen Konstruktion durch Erfahrung des vergangenen Ge-
lingens;
(2) Maschinenparadigma (unter Einschluss großer technischer Systeme) und indu-
strielle Technologien (wissenschaftsbasiert); Mathematisierung und Verwissen-
schaftlichung der technischen Konstruktion und Entwurf semiautonomer intelli-
genter Technik vom Menschen gesteuerte und überwachte Maschinen und techni-
sche Systeme); Umgangswissen zweiter Stufe (Umgang mit Maschinen); Experi-
mentalkunst und technisches Labor; Legitimierung durch Rationalisierung als
Vorausberechnung des Gelingens;
(3) Das Paradigma autonom-intelligenter Technik auf der Basis von Technoresearch.
Technoresearch ist eine Mischform von Umgangswissen, Laboratoriumswissen,
Verfahrenswissen und mathematischer Modellbildung, führt zu gänzlich neuen
Formen technischen Konstruierens und erfordert ein Umgangswissen dritter Stufe,
nämlich mit autonom-intelligenter Technik (Autopilot, Verkehrssysteme, Roboter,
automatische Produktion, synthetische Lebewesen); Legitimierung wodurch wird
sich wohl erst noch erweisen müssen (Irrgang 2008).

Technik ist die Transformation der Realität, gemäß dem Erfindungsparadigma und sie
konstituiert eine Ontologie, die historisch-dynamisch und parasitisch ist. Technische Kon-
struktion setzt zumindest technologisches Wissen impliziter Art voraus. Technologie ist ur-

22
sprünglich eine Bezeichnung für technisches Wissen, Technologie nennt man auch die
vernetzten Strukturen technischer Artefakte seit der industriellen Revolution, in denen
wissenschaftsbasiertes technologisches Wissen (Technoscience oder Technoresearch) imple-
mentiert wurde. Insofern gibt es eine prätechnologische Welt, aber keine prätechnische.
Technologisches Wissen kann man als Umgangswissen mit der Textur technischer Praxen
und Artefakte verstehen. Die moralische Bedeutsamkeit des Umgangswissens ist nicht zu
leugnen. Technische Praxis ist gleichfalls sittliche (oder unsittliche) menschliche Praxis. Denn
Umgangswissen ermöglicht Können und beruht auf Können. Dieses technologische Wissen
konstituiert eine Ontologie (Borgmann 2008, 5) und ist damit Grundlage technischer Macht
(Irrgang 2007d). im Sinne von Mächtigkeit. Umgehen Können konstituiert auf diese Art du
Weise so etwas wie ihre eigene Epistemologie.

Im Hinblick auf die Mathematisierung der Realität, die der modernen Technik zugrunde liegt,
ist auf die Gefahr der Verdinglichung und Verwechselung des mathematischen Kalküls mit
seinem phänomenalen Objekt hinzuweisen. Das wohl schlagkräftigste Argument gegen den
Nutzen empirischer Daten und für eine metastufige Absicherung der Theorieebene ist die
Entdeckung, dass ausnahmslos jeder Inhalt des Objektbereichs prinzipiell durch theoriestufige
Erklärung überbestimmt ist, ein empirischer Messwert somit bei mehr als einer Theorie oft
keine Entscheidungshilfe anbieten kann (Gallee 2003, 314-317). Die Sicherung des Steue-
rungserfolges dient der Stabilität und der Störunterdrückung im Rahmen von Technik als
Kontingenzmanagement (Hubig 2006, 181). Jedes Experiment ist in dieser Hinsicht eine Pro-
be auf Realisierbarkeit. Und über diese Modelle rekonstruieren wir unsere Welt als äußere
Welt von Mitteln unter unseren Zwecken (Hubig 2006, 199). Hubig unterscheidet vier Model-
le der Abduktion:

(1) abduktive Induktion vom Resultat auf den Fall unter anerkannten Regeln,
(2) hypostatische Abstraktion – Schluss auf die Regel,
(3) abduktive Schlüsse auf die beste Erklärung – kreative Abduktionen,
(4) abduktive Schlüsse auf die beste Erklärungsstrategie (Hubig 2006, 208-213).

Die Delegation der Verkettung von Mitteln und Zwecken an technische Systeme kann nun in
doppelter Weise vollzogen werden. Zentriert auf die Mittel wird sie an Apparate delegiert, die
die Effizienz erhöhen, die darüber hinaus vom Einsatz der Mittel zu entlasten vermögen oder
deren Einsatz unterstützen (Assistenzsysteme) und überdies qua Wahrnehmung von
Überwachungsfunktionen die Sicherheit des Mitteleinsatzes gewährleisten und sein Gelingen
garantieren. Zentriert auf die Medialität der Technik kann eine Delegation dahingehend
stattfinden, dass Systeme gleichsam als höherstufige Apparate den Handlungsraum selbst in
eine bestimmte Gestalt bringen. Wenn also Systeme derart gestaltet werden, dass bereits die
Medialität die Anwendung reguliert (typisches Beispiel ist das Ubiquitous Computing, das
darauf abzielt, unsere Handlungsumgebung selbst intelligent zu machen), dann wird nicht nur
eine Technik selbstverständlich, sondern die Medialität des Technischen wird in einer Weise
selbstverständlich, die es nicht mehr erlaubt, jenseits ihrer konkurrierenden Weltbezüge
positiver oder negativer Art wahrzunehmen und zu gestalten. Weil die Differenzerfahrung
zwischen vorgestellten und realisierten Zwecken insofern verloren geht, als die Vorstell-
barkeit von Mitteln und Zwecken selbst schon in Systemen angelegt ist, wird der Korrektur-
mechanismus in die Systeme verlegt. Die Chance einer Selbstvergewisserung der Handlungs-
vernunft geht verloren. Die Lebenswelt wird selbst virtualisiert, da die Wahrnehmbarkeit
authentischer Ursprünge ihrer Gestaltung zugunsten der Funktionalität ihrer Effekte aufgege-

23
ben ist. Unsere theoretischen und praktischen Weltbezüge werden im Grenzfall insgesamt
virtualisiert (Hubig 2006, 253f).

Eine solche Technik, die Hubig als transklassische Technik bezeichnet, ist gekennzeichnet
durch Undurchschaubarkeit, zumindest für den Alltagsverstand. Doch Undurchschaubarkeit
muss nicht zwangsläufig erfolglosen Umgang mit Technik nach sich ziehen. Für die
Beschreibung der Ingenieurmethode sind die Begriffe Wechsel, Ressource, beste Lösung und
Ungewissheit fundamental. Der Ingenieur weiß nicht, wohin er geht, wie er geht und wie er
an sein Ziel gelangen will oder ob irgendjemand sich darum kümmert, wenn er dieses tut.
Wenn er am Beginn einer Konstruktion steht, kann der Ingenieur nicht mit Sicherheit
vorhersagen, welchen Wechsel er durch sein Konstruktionsprojekt auslösen wird. Er weiß
auch nicht, welche Kosten dabei letztendlich entstehen werden. In der Regel besteht eine Zahl
von Alternativen, jede durch die Umstände limitiert. Ein ingenieurmäßiges Ziel hat einen
Weg vor sich und möchte einen Wandel durch Konstruktion bewirken. Um die angestrebte
Lösung erreichen zu können, brauchen wir entsprechende Ressourcen. Die meisten Menschen
denken über Ingenieure in Begriffen ihrer Artefakte anstelle ihrer Kunst. Die Ressourcen, die
zur Verfügung stehen, sind ein integraler Teil des technischen Problems und zusammen
definieren sie die möglichen Wege für eine Lösung. Anstelle eines Blicks auf die Antwort zu
einem Problem, wie es der Wissenschaftler tun würde, sucht der Ingenieur auch nach einer
Antwort auf ein bestehendes Problem mit den ihm zur Verfügung stehenden Mitteln (Koen
1985, 5-9).

Die beste Lösung wird als die optimale Lösung eines technischen Problems gesehen, für die
der Ingenieur die bestmögliche Konstruktionsweise herauszufinden versucht. Ein geeigneter
Blick auf die Natur der Optimierung ist nicht ein objektives vertrauenserweckendes Modell
aus der gesellschaftlichen Perspektive, sondern es schließt die spezifischen Kriterien ein, die
nur dem Ingenieur bekannt sind (Koen 1985, 10-12). Eine Heuristik garantiert keine Lösung.
Sie kann möglicherweise anderen Heuristiken widersprechen. Eine Heuristik reduziert die
Suchzeit im Hinblick auf Problemlösung und eine Heuristik bzw. ihre Anerkennung hängt ab
von dem unmittelbaren Kontext mehr als von einem absoluten Standard (Koen 1985, 17).
Einige Probleme beim Konstruieren sind so ernsthaft und dafür geeignet, weil Strategien, um
das Problem zu lösen, entweder nicht vorhanden oder so zeitaufwendig sind, dass eine
heuristische Lösung einer Nichtlösung vorzuziehen ist (Koen 1985, 20).

Die Ingenieursstrategie bezweckt einen wünschbaren oder gewünschten Wandel in einer


unbekannten Situation innerhalb der zur Verfügung stehenden Ressourcen und dem Gebrauch
von Heuristiken. Stand der technischen Kunst als ein Substantiv oder ein Adjektiv bezieht
sich immer auf ein Set von Heuristiken. Der Stand der technischen Kunst besteht aus einem
spezifischen Set von Heuristiken, die Konstruktion definieren im Hinblick auf ein bestimmtes
Niveau und einen bestimmten Zeitpunkt. Dieser wechselt in der Zeit und verändert sich von
Ingenieur zu Ingenieur entweder direkt, durch technische Literatur oder durch die Vollendung
einer Konstruktionsaufgabe. Verschiedene Sets von Heuristiken werden nun gebraucht, um
(1) individuelle Ingenieure miteinander zu vergleichen, (2) verschiedene Nationen hinsicht-
lich ihres technischen Standards vergleichbar zu machen, (3) verschiedene pädagogische Stra-
tegien zu analysieren, die für die erzieherische Ingenieurskunst von Bedeutung sind und (4)
die Verknüpfung zwischen Ingenieur und Gesellschaft zu definieren (Koen 1985, 23-28). Das
allgemeine Paradigma zum Stand der Ingenieurskunst repräsentiert die beste Ingenieurspraxis
und ist der am meisten verpflichtende vernünftige praktische Standard, vor dessen Hinter-
grund der individuelle Ingenieur zu bewerten ist. Es handelt sich dabei um einen relativen
Standard. Spezielle Aufmerksamkeit ist erforderlich, die es dem Ingenieur erlaubt, eine Heuri-
stik zu suchen, die herangezogen werden kann, um den persönlichen Ingenieurszustand mit

24
dem Zustand oder dem Stand der Kunst der besten Ingenieurspraxis zu vergleichen (Koen
1985, 39-42).

Die Taxonomie der Ingenieursheuristiken umfasst

(1) einige Faustregeln und Größenordnungen,


(2) einige Sicherheitsfaktoren,
(3) einige Heuristiken, die des Ingenieurs Haltung gegenüber seinem Werk
definieren,
(4) einige Heuristiken die Ingenieure beibehalten, um das Risiko in akzeptable
Grenzen zu halten, und
(5) einige Faustregeln, die bedeutend sind für die Ressourcenverfügung (Koen 1985,
45).

Zentral ist die Aufgabe des Ingenieurs Antworten zu geben, wenn er gefragt wird und die
Bestimmung seines Werkes an den Grenzen lösbarer Probleme. Der Ingenieur ist also im
Allgemeinen optimistisch und überzeugt, dass ein Problem gelöst werden kann, wenn es nicht
schon anderweitig gelöst worden ist und er versucht, es mit so wenig Aufwand wie möglich
zu betreiben. Falls er Teammitglied ist, empfängt er die Ehren nur anonym. Wichtig sind
risikokontrollierende Heuristiken die insofern darauf hinauslaufen, dass zunächst kleine
Änderungen im Rahmen des Standes der Kunst gemacht werden, um Risiko zu minimieren
(Koen 1985, 49-51). Die Ingenieurskunst lässt sich nicht auf einen einfachen Versuch und Irr-
tumsprozedur reduzieren. Tatsächlich ist die Ingenieurskunst eine zielgerichtete problem-
lösende Aktivität. Allerdings ist diese neutrale Definition der Ingenieurskunst als ziel-
gerichtete Aktivität keine große Hilfe, denn sie charakterisiert menschliches Handeln
überhaupt (Koen 1985, 65-67). Die Benutzung von Ingenieursheuristiken fokussiert die Auf-
merksamkeit auf den zur Diskussion stehenden Punkt (Koen 1985, 72).

Die Ingenieursmethode wird in dem Buch von Billy Vaughan Koen „Discussion of The
Method“ als Prototyp der Suche nach der universalen Methode angesehen. Die Ingenieurs-
methode ist die Strategie um die beste Veränderung in einer nur wenig verstandenen Situation
mit den zur Verfügung stehenden Ressourcen zu verursachen. Von einem Ingenieurs-
standpunkt aus sind nicht alle Veränderungssituationen oder alle möglichen Zwecke gleich
wünschenswert. Der Ingenieur sucht seine Lösung jeweils im Rahmen der zur Verfügung
stehenden Ressourcen. Die letzte Schwierigkeit ist die des Hervorrufens eines Wandels, den
ein ingenieurmäßiger Zweck, Ziel oder Weg mit Hilfe von Konstruktion impliziert. Im
Vergleich zu einem wissenschaftlichen Problem hängt ein technisches von Ressourcen ab.
Geld und Zeit müssen für ein Unternehmen zu Hilfe gezogen werden und dies sind ganz klar
Ressourcen aber von welchem Interesse und welchem Einsatz. Die vier Charakteristiken eines
Ingenieursproblems bestehen im Wandel, in den Ressourcen, im Besten und in der Ungewiss-
heit. Es liegt der ingenieurmäßigen Methode eine Optimierungstheorie zugrunde. Das Beste
wird redundant definiert, indem das bestehende Konstruktionswissen konstruiert wird. Dies
setzt ein allgemeines Maß für Güte voraus. Obwohl die theoretische Vorgehensweise um die
bestmögliche Konstruktion zu bestimmen wohl definiert ist, ist es die praktische Verfahrens-
weise nicht. In einigen komplizierten Ingenieursprojekten haben wir die experimentelle Evi-
denz, dass das zugrundeliegende System letztendlich gewählt worden ist im Hinblick auf das,
was in einer Gesellschaft als defizient gilt. Das Kriterium ist die bestmögliche und best-
erreichbare Lösung aus dem Blickwinkel und der Perspektive eines spezifischen Ingenieurs
(Koen 2003, 7-24).

25
Um die Beziehung zwischen der Ingenieurskonstruktion und der Heuristik definieren und
analysieren zu können, gibt es folgende Bereiche, die eine vorläufige Definition der Inge-
nieursmethode anbieten. Um den technischen Ausdruck Heuristik verstehen zu können, ist es
erforderlich, die Ingenieursstrategie für Wandel (1), den Stand der technischen Kunst (2), die
Hauptregel für die Einführung der Ingenieursmethode (3) zu definieren. Die Ingenieurs-
konstruktion ist das Wesen der Ingenieurskunst. Die Ingenieursmethode beruht auf dem
Gebrauch von Heuristiken, um den bestmöglichen Wandel in einer nur unvollständig
verstandenen Situation mit Hilfe der zur Verfügung stehenden Ressourcen zu bewirken. Die
heuristische Methode definiert ihre wesentlichen Bestandteile, Synonyme und Charakte-
ristiken im Hinblick auf bestimmte konkrete Beispiele. Eine Heuristik bietet eine plausible
Hilfe oder eine Wegweisung zur Lösung eines Problems, bleibt aber in der Endanalyse unge-
rechtfertigt, unfähig zur Rechtfertigung und möglicherweise fallibel. Heuristiken sind
charakterisiert durch folgende Aussagen: (1) eine Heuristik garantiert keine Lösung; (2) eine
Heuristik widerspricht möglicherweise anderen Heuristiken; (3) sie reduziert die Zeit, die
nötig ist für die Lösung eines Problems, und ihre Akzeptanz hängt ab von dem unmittelbaren
Kontext und nicht von einem absoluten Standard (Koen 2003, 28f).

Daher führt eine gute Faustregel in schmalen Schritten von dem Bekannten zu dem
Unbekannten. Ein Set von Heuristiken kann auch in ein Unterset unterteilt werden. Im
Unterschied zu wissenschaftlichen Theorien können sich zwei Heuristiken widersprechen
oder unterschiedliche Antworten zu demselben Problem geben und bleiben dennoch nützlich.
Voraussetzungen für die Anwendung von Heuristiken: Einige der Ingenieur-Probleme sind so
gravierend und geeignete wissenschaftliche Techniken, um diese Probleme zu lösen, sind
entweder nicht vorhanden oder so zeitaufwendig, dass eine heuristische Lösung dem vorzu-
ziehen ist. Insofern kann die Heuristik als eine Annäherung an die Realität verstanden werden.
Synonyme für Heuristik bedeuten in Französisch richtige Nase haben, in Deutsch die Faust-
regel, in Japan Augenmaß und in Russisch das Fingerspitzengefühl. Alle diese Begriffe sind
plausibel in der Beschreibung dessen, wie der Ingenieur vorgeht, auf jeden Fall fallibel und
basierend auf Erfahrung, die nötig ist, um Probleme zu lösen. Der geeignete Punkt in einem
Projekt ist, die Konstruktionsmethode zu bestimmen und Ressourcen zu sammeln, bis die
Kosten des Nichtwissens die Kosten des Herausfindens übersteigen. Die Allokation von
ausreichenden Ressourcen ist dabei das schwächste Glied. Und Problemlösung durch nach-
folgende Annäherung ist ebenfalls wichtig (Koen 2003, 29-35).

Manche Heuristiken sind so wichtig, dass in bestimmten begrenzten Fällen der Ingenieur eine
theoretische Ausformulierung für dieses Problem in Form von Algorithmen zur Lösung
vornimmt. Die zur Koordination so vieler verschiedener Aufgaben notwendigen Bedingungen
müssen berechnet werden, um große Ingenieursprojekte zu vollenden. Wichtig ist für eine
Heuristik, dass Probleme durch aufeinanderfolgende Approximation gelöst werden (Koen
2003, 37f). Der Stand der Technik als Substantiv oder als Adjektiv wurde in der Regel auf ein
Set von Heuristiken angewendet. Da verschiedene heuristische Sets möglich sind, gibt es
verschiedene Stände der Kunst und damit Verwirrung vermieden wird, sollte darauf
verwiesen werden, welche ihrer Teile noch zur Diskussion stehen. Der Stand der Kunst ist ein
in sich verknüpftes Netzwerk von Heuristiken, die kontrollieren, sich gegenseitig anheben und
sich gegenseitig bestärken. Verschiedene Faustregeln sind verfügbar, um die Zahl der Ping
Pong Bälle in einem Raum zu berechnen, und aus diesem Grunde bedarf es einer zusätzlichen
Heuristik, um die geeignetste Faustregel in jeder Situation zu finden. Diese Heuristik dient
nicht direkt dazu, die Zahl der Ping Pong Bälle abzuschätzen, sondern soll die Wahl zwischen
verschiedenen Strategien ermöglichen. Der junge Ingenieur entwickelt sein eigenes Set von
Heuristiken so lange er in seinem Beruf lebt und er am Anwachsen des Standes der Technik

26
beteiligt ist (Koen 2003, 42-47). Die Definition einer Methode schließt das Wissen um ihren
Gebrauch nicht ein (Koen 2003, 57).

Die Ingenieurslösung eines Problems hat keine Realität außerhalb der verwendeten Heu-
ristiken und muss ihnen folgen. Alles im Bereich des Engineerings ist eine Heuristik.
Heuristik beruht auf Induktion (Koen 2003, 62-65). Es gibt Heuristiken, die das Risiko kon-
trollieren sollen. Eine Heuristik besagt, dass wissenschaftliche Methoden angewendet werden
sollen, sofern sie geeignet sind. Ansonsten genügt das wissenschaftliche Versuchen und Irren.
Dass Heuristiken im Ingenieurswesen eine so hohe Erfolgsrate haben liegt daran, dass
Ingenieure sorgfältig vermeiden, dass sie Probleme lösen sollen, von denen sie wissen, dass
sie nicht lösbar sind. Tatsächlich ist der Ingenieur ein guter Prophet, weil er nur sich selbst
erfüllende Prophezeiungen macht. Ingenieurskunst ist so also eine problemlösende, ziel-
orientierte und bedürfniserfüllende Aktivität (Koen 2003, 89f). Eine weitere wichtige Grund-
heuristik ist, wenn alle Experten in einer Frage übereinstimmen, dann sollten wir ihre Mei-
nung sehr hoch ansetzen (Koen 2003, 129). Der Ingenieur hat schon immer seit Beginn der
Menschheit Faustregeln, Fingerzeige und das beste Urteil des Ingenieurs als Heuristiken
benutzt (Koen 2003, 225).

Technikentwicklung und Technikgestaltung gehören zusammen. Technikgestaltung bewirkt


(manchmal) kleine Veränderungen der Entwicklungspfade, die aber nicht radikal von den
bestehenden technischen wie gesellschaftlichen Vorgaben abweichen. Wichtig ist die Frage
nach den Subjekten der Veränderung wie Intellektuellen, Interessengruppen, Firmen,
Organisationen, Ingenieuren usw. Technikentwicklung entsteht durch die Kooperation vieler
technisch arbeitender Menschen, so dass das Ganze in einer allgemeinen Modellierung als
Selbstorganisationsprozess aussieht. So gibt es Modelle, die der Technik und ihrer Entwick-
lung ein Quasisubjekt hinter dem Rücken der konkret handelnden Menschen zuschreibt.
Dabei können wir noch so viel spekulieren und Theorie einsetzen. Letztlich lässt sich die
Technologieentwicklung nicht antizipieren, sondern nur ausprobieren. Dies ist mit gewissen
Risiken verbunden, nicht allzu groß in vielen Bereichen, wenn man die erfahrungsgesättigte
Ingenieursarbeit professionell betreibt. Wenn die Unterscheidung von Poiesis und Praxis
überhaupt einen Sinn macht, dann ist Poiesis routinisierte technische Praxis. Warum diese
aber minderwertig sein soll, ist so nicht einzusehen. Sie verhilft vielmehr gewissen Sicher-
heitsstandards zu ihrer Realisierung. Außerdem ermöglicht sie die Entwicklung von Vertrauen
in Technik.

Die technische Konstruktionsleistung orientiert sich gemäß der Technikhermeneutik an einer


dreifachen Ordnung des Gelingens (oder Misslingens). Neben den Wert (oder das Maß) des
Funktionierens technischer Artefakte bzw. technischer Praxen tritt der Wert des Nutzens,
genauer gesagt des Dienlichen im Sinne eines ethisch qualifizierten Nutzens, eines am
Menschlichen (Bedarf usw.) orientierten Nutzens. Das technisch Machbare ist definiert durch
das Gelingen, durch das technische Können des Menschen und das Funktionieren der
Artefakte; das Dienliche durch das Glücken der Einbettung des technischen Artefaktes in
seinen anthropologisch-kulturell-sozialen Kontext. Wenn eine technische Praxis nicht gelingt,
kann sie auch nicht glücken. Technikhöhe als Zivilisationshöhe bedarf dieses doppelten
Maßes des Gelingens und Glückens, auch wenn dieses auch nicht immer leicht zu beurteilen
ist. Die Beurteilungsmaßstäbe liefern die Klugheit und das Gemeinwohl. Das „naturhafte“
Gelingen technischer Handlungen und das „vernünftige“ Glücken technischer Handlungen
sind als komplementär zu betrachten, wobei das „vernünftige“ Gelingen einer doppelten
Beurteilungsperspektive bedarf, einer pragmatischen und einer sittlichen. Der zufällige und
der planmäßige Gebrauch der Technik müssen konvergieren, soll technische Praxis insgesamt
gelingen. Technik dient nicht primär dem guten, sondern dem angenehmen Leben. Die

27
komplementäre Betrachtungsweise des Funktionalen und des Nützlichen, des Technischen
und des Angenehmen sind für die Technikhermeneutik zwei Weisen des Gelingen und
Misslingen Könnens technischer Praxis. Eine Ausdifferenzierung des Praxisbegriffes ist erfor-
derlich.

Nutzung und Versorgung (Bedürfnisbefriedigung) genügen als Maß für das technische Kon-
struieren nicht. Technik um der Technik selbst willen ist höchst selten anzutreffen. Technik
dient dem Überleben (Jagd und Behausung), der Kunst (z.B. Höhlenmalerei, Musikinstru-
menten), der Religion (Begräbnisanlagen, Tempel), der Ökonomie (Handelsobjekte, Trans-
portmittel), dem Staat (Militärtechnik) und der Wissenschaft (Instrumente und Intellek-
tualtechniken). Technikhermeneutik ist die Interpretationskunst des Dienlichen unter Berück-
sichtigung des Funktionalen (Struktur der technischen Sachsysteme) in seinem Verhältnis
zum Sittlichen. Damit ergibt sich eine dreifache Ordnung der Paradigmen des Gelingens bzw.
Misslingen technischer (konstruktiver) Praxis:

(1) Das Funktionale der technischen Sachsysteme


(2) Das Dienliche technischer Sachsysteme durch Einbettung
(3) Das Sittliche technischer Praxis (Bewertung, Akzeptanz bzw. Akzeptabilität).

Dabei soll Technikhermeneutik in einer nicht-technischen, nicht-instrumentalistischen und


nicht-szientifischen Sprache über Technik bzw. technische Konstruktion reflektieren. Zentral
ist zunächst die Rahmenanalyse zur Bewertung des Gelingens bzw. Misslingens technischer
Praxis, wobei mein persönlicher Schwerpunkt im zweiten und dritten Bereich der Analyse
liegt.

Zur Konzeptualisierung technischer Konstruktionspraxis sind vier Ebenen zu unterscheiden:


1.) Das Artefakt als technisches Mittel in seinem Verlaufszyklus. 2.) Die Leitbilddimension,
d.h. die kulturelle Dimension, die Entwicklungspfade definiert und herausstellt. 3.) Die
institutionell-berufsspezifische Arbeit und 4.) die ökonomisch-politische Dimension, z.B. der
Handel. Entwicklungspfade werden in der Regel durch alle vier Aspekte konstituiert. Sie
schaffen eine Tradition und einen Ausgangspunkt für die weitere Entwicklung, der nicht
eliminiert werden kann. In diesen gehen Zufallselemente in allen Bereichen mit nötigenden,
manchmal günstigen, manchmal fatalen Folgen ein. Innovationen, selbst solche mit basalem
Charakter, setzen eine Paradigmengenese voraus. Der Normalbetrieb mit kleinen technischen
Veränderungen ist die Voraussetzung auch für technische Revolutionen im Sinne der Genese
neuer Paradigmen bzw. von Paradigmenwandel. Bei der technischen Konstruktion ist der
Paradigmenwandel vorbereitet durch einen Wandel in der Artefaktdimension. Leitbild-
dimension und Artefaktdimension durchdringen sich gegenseitig und führen zu einer Art
Selbstaufbau, Selbstorganisation und Selbstordnungsprozess, der sich in einem technischen
Entwicklungspfad manifestiert.

Die eine Quelle technischer Konstruktionspraxis ist die Baukunst, die andere die Mechanik.
Neben dem theoretischen Zugang zum Bauen und Wohnen gibt es ein Wissen, Kennen und
Verstehen der Welt des Wohnens und Bauens, das sich aus unserer Lebenserfahrung speist.
Und das Können aus Erfahrung ist viel älter als das spätere theoretische Wissen. In ver-
stehend-hinnehmendem Umgang mit Architektur lassen wir uns von ihr ansprechen. Das
Wohnen erfüllt eine menschliche Bedürftigkeit. Es ist die vorzügliche Art des Menschen, sich
in der Welt zu halten. Bedeutungsgenetisch kompliziert das Wort Wohnen eine Haltung wie:
bleiben wollen und zufrieden sein. Diesem Wohnen im weitesten Sinne dient das Bauen.
Wohnen und Bauen sind untrennbar mit der Situation des Menschen verknüpft, wie sie die

28
philosophische Anthropologie und Kultursoziologie immer wieder beschrieben haben (Hahn
2002, 3-6). Architektur ist immer Architektur in einer Umwelt und Umgebung. Sie wird stets
betrachtet mit Augen, die ihr Sehen geschult haben, in einer bestimmten Zeit und Geschichte
und an bestimmten Beispielen und Gegenbeispielen gemacht. Es gibt kein Betrachten von
Architektur, ohne einen Standpunkt, eine Perspektive. Die architektonisch gestaltete Umwelt
und Umgebung ist eine kulturelle, eine sinnausdrückende Umwelt (Hahn 2002, 7f). Das
Bauen ist eine gezielte Reaktion und Antwort auf unsere Leiblichkeit. Es ergänzt das Wohnen
und gibt ihm einen zeitlich-historischen ebenso wie räumlich-örtlichen Ausdruck. Der
Architekt kann das Wohnen weder erfinden, noch machen oder herstellen. Er kann nur das
herbringen, was es schon an sich gibt. Jedes Werkzeug hat also diese beiden Seiten: Ausdruck
und Gebrauch (Hahn 2002, 12f), oder technisch gesehen Struktur und Funktion und der
Gebrauch im Sinne einer kulturellen Einbettung. Die pragmatisch ästhetische Architektur-
auffassung greift also auf die entsprechende Erfahrung und das implizite Wissen des Gebrau-
chen Könnens zurück.

Die frühesten Ingenieure waren Steinkonstrukteure. Bereits in den Zeiten der Jäger und
Sammler gab es von Menschen konstruierte Wohnungsstrukturen im Sinne von Schutzvor-
richtungen, die über 13 Meter lang waren, aber auch Tempel- und Grabanlagen. Mit der
Entwicklung der urbanen Zivilisationen an den großen Flusssystemen beginnt die Institutiona-
lisierung und Professionalisierung der technischen Praxis. Es entsteht im eigentlichen Sinn
technische Kultur. Architektur und die damit verbundene Konstruktionspraxis ist der Motor
dieser Entwicklung. Die Herstellungspraxis alltagstechnischer Gegenstände auf der Basis von
„tacit knowledge“ wird verfeinert. Zugleich ist hier der Anfang der Ökonomisierung der
alltagstechnischen Praxis zu sehen. Es kommt zur Produktion von Waren nur für den Handel,
nicht für den eigenen Bedarf. Edelmetalle sind die Voraussetzung für die Entwicklung von
Finanzmärkten, und eine eine Infrastruktur wird geschaffen, die die Voraussetzung ist für den
Kreislauf von Konstruktion, Produktion und Konsum technischer Mittel und Artefakte als
Grundlage für technische Praxen. Eine radikale Änderung der Konsumstrukturen und der
Konsumdichte aufgrund der Dichte des menschlichen Zusammenlebens in Städten führt zu
neuen Formen der Produktion, insbesondere zu Formen der Massenproduktion und zu neuen
Formen der Verteilung technischer Güter. Dies wiederum führte zu Inventionen im Konstruk-
tionsbereich, so dass sich mit der Einrichtung von Stadtstaaten zu einer durchgreifende Um-
strukturierung in einer ganzen Reihe von technischen Praxen kam. Insofern lässt sich in die-
sem Kreislauf von einer Umstrukturierung technischer Kultur, ja erst von der Erzeugung einer
technischen Kultur sprechen. Verschiedene Formen technischer Praxen werden in diesen
Stadtstaaten aufeinander bezogen und nicht mehr wie in früheren Stufen technischer Kultur
oder in den Vorläuferstufen technischer Kultur separat nebeneinander gepflegt. Es entsteht
zum ersten Mal noch sehr lokal begrenzt eine Vernetzung technischer Praxen und ansatzweise
eine Art von Technostruktur. Nebenbei entstehen die Schrift und die damit verbundenen
Formen kultureller Tradition, so dass auf dieser Basis auch höhere Kulturstufen anfangen
können, aufgebaut zu werden. Verbunden mit religiösen Zeremonien entwickelt sich auf der
Basis materialer Kultur eine Form von literarischer Kultur, die weitergehende Formen
kulturellen Lebens möglich macht (Irrgang 2008).

Zu den ältesten Dokumenten der Baukunst bzw. der Architektur gehören Bauzeichnungen.
Aus dem antiken Zweistromland, dem alten Ägypten, aus dem antiken Griechenland oder der
römischen Baukultur sind einige höchst interessante Baupläne erhalten. Es lohnt sich, diesen
Zeugnissen Aufmerksamkeit zu schenken, denn sie können uns Aufschlüsse über die Arbeits-
weise, die Entwurfsmethodik und die Bautechniken der antiken Baumeister vermitteln, die
aus den Bauten selbst und aus den wenigen schriftlichen Dokumenten nicht zu erschließen
sind. Es geht um eine differenziertes Bild der zeichnerischen Planungstechniken. Dabei hat

29
die mangelnde Qualität der Zeichnungsträger immer wieder zu Problemen und Ein-
schränkungen geführt. Eine wichtige Frage ist hier die Maßstäblichkeit (Heisel 1993, 1-6).
Mit der Tontafeltechnik war man seit frühsumerischer Zeit technisch in der Lage, kleine
transportable Bauzeichnungen anzufertigen. Die Festlegung der Gebäudeform am Bauplatz
selbst ist wohl die älteste Planungsmethode im Bauwesen. Beginnend mit der Zeit ab 2.350 v.
Chr. sind aus dem Zweistromland eine Reihe von kleinmaßstäblichen Gebäude-, Lage- und
Stadtplänen erhalten. Der Grundriss bestimmt die Zuordnung der Räume sowie die
Anordnung der Wände und Durchgänge. Häufig ist der Plan zunächst unmaßstäblich (Heisel
1993, 8-12).

Gemäß der These von Eugene S. Ferguson sind entscheidend zur Lösung eines technischen
Problems Planzeichnungen. Bevor etwas Technisches gemacht wird, existiert es als Gedanke,
als deutliche Vorstellung oder als ein Hauch einer Möglichkeit (Ferguson 1993, 16). Erfah-
rungen, die im Umgang mit Artefakten gemacht werden, die von Handwerkern umgesetzt
werden, bilden die Grundlage für den Entwurf. Der Ingenieur entwirft mit Hilfe von Zeich-
nungen technische Artefakte. Es handelt sich um ein bildhaftes Wissen, das vom „inneren Au-
ge“ des Technikers erfasst und gezeichnet werden kann. Technische Probleme werden gestalt-
haft erfasst und gezeichnet. Seit über 500 Jahren verwenden Ingenieure Zeichnungen, um
Handwerkern zu zeigen, was sie im Sinn haben. Genauer ist die Verwendung von Zeich-
nungen im Bau seit 1235 v. Chr. nachgewiesen, eine vorherige Verwendung höchst wahr-
scheinlich, die ersten in Sumer mehr als 4.000 Jahre. Die technische Innovation beginnt mit
einer Vorstellung von einer fertigen Maschine, dem fertigen Bauwerk oder dem fertigen Gerät
(Ferguson 1993, 18). Die Zeichnungen vermitteln bildliche, nichtsprachliche Informationen.
Zeichnungen machen es darüber hinaus möglich, dass Teile von Maschinen in verschiedenen
Werkstätten angefertigt werden können.

Die Strukturierung einer technischen Problemlösung orientiert sich an der Oberflächen-


struktur des Gebildes, das technisch erzeugt werden soll, es kann zeichnerisch dargestellt oder
zeigend (deiktisch) vorgeführt werden. Das Wissen des Konstrukteurs beruht auf fortgesetzter
Erfahrung, die wie jede Form von Erfahrung „theoriegeleitet“ ist, auf experimentellen
Erkenntnissen, auf Beobachtungen von Materialien und Systemen und auf Modellbildung.
Ingenieurwissenschaften werden innerhalb vorgegebener Grenzen mathematisch und exakt
konstruiert. Sicher gibt es die mathematische Analyse eines technischen Systems und sie ist
auch erforderlich. Aber mathematische Modelle sind immer weniger komplex als wirkliche
Strukturen, als die Vorgänge oder die Maschine. Der Entwurf ist schließlich eine Erfindung
und Erfindung lässt Gedanken wirklich werden. Naturwissenschaftliches Denken aber bildet -
zumindest für Ferguson - die Realität ab, obwohl in den letzten Jahren auch im Bereich der
Naturwissenschaften die konstruktiven Elemente in der Theoriebildung immer stärker erkannt
wurden. Daher ist klar, dass Erfindung nicht angewandte Naturwissenschaft ist. Im Entwurf
werden die Elemente in einer endgültigen Form zusammengefügt. Dabei sind die Grenzen
eines Entwurfs kulturgebunden. Alle erfolgreichen Entwürfe haben Vorläufer (Ferguson
1993, 29).

Entwürfe sind angewiesen auf anschauliches Denken, auf Denken in Modellen, auf visuelle
oder taktile Bilder. Auch das durch Tast- und Muskelbewegung erworbene Wissen nicht-
sprachlicher und nichtvisueller Art ist wichtig für den technischen Entwurf. In den Entwurf
geht auch das stillschweigende Wissen und die Geschicklichkeit der Arbeiter ein. Die Stärke
der Technik liegt in der Verwurzelung ihrer Grundlagen. Hunderte von Generationen gewis-
senhafter und sorgfältiger Handwerker schufen diese Grundlagen, bewahrten das von ihren
Vorvätern erworbene technische Wissen auf, um es zu verbessern, zu erweitern und dann an
ihre Nachfahren weitergeben zu können. Hier liegen die Wurzeln des technischen Konser-

30
vativismus. Angesichts der Innovation wird die Kontinuität der Tradition in der Weitergabe
technischen Wissens leicht übersehen (Ferguson 1993, 65). Ähnlich den mesopotamischen
Kulturen waren in Ägypten die Planung offizieller und sakraler Bauten von kultisch religiösen
Vorstellungen und Traditionen beeinflusst. Aus dem alten Reich sind bis heute Gebäude-
planungen nur als Grundrisse im Maßstab 1:1 auf den Fundamentplatten und als Ausriss von
Maßstababböschungen in Medum bekannt (Heisel 1993, 76-79). Eine große Zahl ägyptischer
Bauzeichnungen ist auf Kalksteintafeln aufgetragen. Solche Ostraka boten den Zeichnern im
Regelfall deutlich größere Zeichenflächen als die mesopotamischen Tontafeln. Die Papyrus-
pläne sind deutlich größer als die Pläne auf den Holz- oder Steintafeln. Sie bewegen sich mit
ursprünglichen ca. 45 mal 150 cm bzw. 41 mal 282 cm in Dimensionen, die auch bei Schrif-
tenpapyri gebräuchlich waren. Auffallend ist, dass fast alle bisher untersuchten Zeichnungen
aus dem Nil-Tal Grabanlagen, Sakralbauten oder damit zusammenhängende Anlagen zum
Inhalt haben. Unter den untersuchten Zeichnungen befindet sich nur eine Darstellung eines
Profanbaus. In ägyptischen Darstellungen sind häufig verschiedene Projektionsebenen kom-
biniert, um deren jeweiligen Vorteile zur optimalen Darstellung eines Objektes zu nutzen
(Heisel 1993, 111-120). Die Genauigkeit der Grundrisse und der Orientierungen bereits im
alten Reich lässt vermuten, dass die Bauten vor den Absteckzeremonien von Vermes-
sungsfachleuten, dem Harpedonapter, eingemessen wurden (Heisel 1993, 128).

Zweifellos waren es Meister ihrer Kunst, die in vor- und frühgeschichtlicher Zeit Silex-
knollen, Jaspis und Obsidian zuschlugen, um aus den Abschlägen Messer, Schaber, Pfeil-
spitzen und Äxte zu schleifen. Sie waren meisterlich arbeitende Handwerker, genau so wie die
ältesten Bronzegießer oder die Schmiede es waren. Ingenieure darf man sie noch nicht nen-
nen, sofern man unter dieser Bezeichnung Männer versteht, die technische Werke planen und
die Ausführung des Geplanten leitend anordnen und überwachen. Ahnherren der heutigen
Ingenieurschaft werden wir also erst dort zu suchen haben, wo es sich um die Durchführung
größerer technischer Unternehmungen handelte, wie der Bau von Pyramiden oder Tempel-
anlagen, von Bewässerungssystemen und dergleichen, so wie der damit zuweilen verbundene
Transport schwerer Lasten über weite Entfernungen hin, sie darstellten. Wir dürfen daher ver-
muten, dass die Herausbildung ingenieurmäßiger Tätigkeiten mit der Entstehung von Städten
und mit der Staatenbildung ursächlich verknüpft ist. Bereits im dritten vorchristlichen Jh. gab
es im Industal eine der sumerisch-babylonischen und altägyptischen ebenbürtigen Hochkultur
(Schimank 1961, 5).

Dabei geben Steininschriften Zeugnisse davon, dass die Anlage einer Gleitebene für die
Steinblöcke einen keineswegs so nahe liegenden Gedanken darstellte, wie wir heute, einige
Jahrhunderte später, meinen (Schimank 1961, 7). Nur für die Bürger erster Klasse galt in aller
Strenge der Grundsatz: ‚Auge um Auge, Zahn um Zahn’, und darum dürfen wir schließen,
dass sowohl der Baumeister, als auch der Schiffbauer in Babylon dem Patriziat angehörte und
diese darum angesehene Leute waren, wenn wir in den §§ 229-233: „229: wenn ein
Baumeister für jemanden ein Haus baut und es nicht fest ausführt, und das Haus, dass er
gebaut hat stürzt ein, und erschlägt den Eigentümer, so soll jener Baumeister getötet werden.
230: Wenn es den Sohn des Eigentümers erschlägt, so soll der Sohn jenes Baumeisters getötet
werden. 231: Wenn es einen Sklaven des Eigentümers erschlägt, so hat der Baumeister
Sklaven für Sklaven dem Eigentümer des Hauses zu geben. 232: Wenn es Gut vernichtet, soll
er alles, was es vernichtet hat, ersetzen, und weil er das von ihm erbaute Haus nicht fest
ausgeführt hat, so dass es einstürzte, soll er aus eigenem Besitze das eingestürzte Haus
ausführen. 233: Wenn ein Baumeister für jemanden ein Haus baut und hat es nicht völlig
ausgeführt, so soll, wenn die Mauer baufällig wird, der Baumeister von eigenem Gelde die
Mauer festmachen“. Ähnlich strengen Bestimmungen wird auch der Schiffbauer unterworfen:
„235: Wenn ein Schiffbauer ein Schiff für jemanden baut und es nicht fest fügt und wenn im

31
selben Jahr das Schiff abgeschickt wird und auf der Fahrt einen Schaden erleidet, soll der
Schiffbauer das Schiff abbrechen und aus eigenem Gute solide bauen und das gut gebaute
Schiff soll er dem Schiffseigner übergeben“ (Schimank 1961, 8f).

Entwurf und Vorplanung großer Bauwerke waren in der griechischen Antike spätestens seit
dem 4. Jh. v. Chr. Aufgabe eines besonders ausgebildeten Mannes, des Architekten. Die
traditionelle Bauweise erlernte ein griechischer Architekt durch eigene Beobachtungen
und/oder eine handwerkliche Ausbildung. Die Bildung eines Architekten beruhte somit
spätestens seit der griechischen Klassik wohl nicht mehr nur auf einer handwerklichen
Ausbildung, sondern auch auf einem Studium der Fachliteratur. Vitruv betont die Bedeutung
der wissenschaftlichen Ausbildung (Heisel 1993, 157f). Die frühesten Zeugnisse zeich-
nerischer Vorplanung sind in allen Kulturen naturmaßstäbliche Grundrissvorzeichnungen. Die
Planung in natürlicher Größe an Ort und Stelle ist die älteste exakte Planungsmethode. Diese
Vorgehensweise ist so naheliegend, dass sie keiner besonderen Entwicklung bedarf. Man trifft
sie z. T. auch noch in unserer heutigen Baupraxis. Eine Planung vor Ort ist jedoch unüber-
sichtlich, aufwendig und eignet sich schlecht zu konzeptionellen Überlegungen, die jede
komplexe Bauaufgabe erfordert. Die unterschiedlichen Grundrissdarstellungen Mesopota-
miens, Ägyptens und der römischen Antike notieren stets nur wichtige raumbildende, tekto-
nische und funktionale Elemente. Entscheidend für die Anwendung und den Umfang der
zeichnerischen Planung waren, neben der formalen, funktionalen, konstruktiven und maßstäb-
lichen Komplexität eines Bauvorhabens, auch der Anspruch an die Genauigkeit der
Bauausführung und die Einhaltung wichtiger baulicher oder maßlicher Zusammenhänge. Da
die Ansichten der offiziellen Architekturen meist auch Signets des symbolischen Gehalts der
Bauten waren, besaßen sie oft eine von der Tradition vorgegebene Form. Eine zeichnerische
Notation der Gebäudeansichten war daher im Entwurfstadium wenig erforderlich. Man wuss-
te, wie eine Toranlage, eine Palastmauer oder ein Pylon prinzipiell aussahen. Baubeschrei-
bungen konnten die Bauzeichnungen nur in wenigen Bereichen ersetzen. Architektur ist
zutiefst kulturspezifisch und somit nicht ohne weiteres auf andere Kulturen zu übertragen
(Heisel 1993, 219-224).

Bei den Römern oblag die Technik überwiegend dem "architectus". Sein Aufgabenfeld
beschreibt Vitruv in "Über die Architektur". Geometrie und Baukunst gingen eine enge Ver-
bindung ein, wobei drei Teile der Architektur zu unterscheiden sind: (1) Bauen, (2) die
Herstellung von Uhren und (3) die Herstellung von Maschinen (Vitruv1991, 3-8). Die Tech-
nik der römischen Kaiserzeit war vornehmlich Staatstechnik: Straßen-, Brücken-, Aquäduk-
ten-, Kriegsmaschinen- und Hochbau. Hinzu kam die römische Bergwerkstechnik, wobei in
Spanien Silbererzbergwerke bis in 200 Meter Tiefe vorangetrieben wurden. Zu den großen
Erfindungen der römischen Technik gehören auch die Wasserräder. In keinem anderen
Bereich der antiken Technik kam es zu einem so schnellen und umfassenden Wandel wie im
römischen Bauwesen. Während nur weniger Jahrzehnte wurden völlig neue Techniken ent-
wickelt, die der Architektur zuvor ungeahnte Möglichkeiten eröffneten. Für diese Inventionen
war nicht so sehr die Verwendung neuer Werkzeuge oder Geräte entscheidend, als vielmehr
die Nutzung neuer Baumaterialien. Voraussetzung für die in der römischen Bautechnik erziel-
ten Fortschritte war die Übernahme des im Hellenismus zuerst in Süditalien entwickelten
Mörtelmauerwerkes. Mörtel, der aus Sand und Kalk hergestellt wird, besitzt die Eigenschaft
zu erhärten und ein festes Konglomerat – Gestein zu bilden (Hägermann/Schneider 1991,
261). Keiner der großen Kuppelbauten der Renaissance oder des Barock hat die Ausmaße der
Kuppel des Pantheons übertroffen. Die ästhetische Wirkung dieses Innenraumes beruht
wesentlich darauf, dass die Distanz zwischen dem Boden und dem höchsten Punkt der Kuppel
genau ihrem Durchmesser entspricht (Hägermann/Schneider 1991, 266).

32
Die andere Wurzel technischer Konstruktionspraxis findet sich in den Mechanischen Künsten
und dem Bau von Maschinen. Das Segelschiff benutzte die Windkraft, so dass man das Schiff
als Maschine betrachten kann. Die Windmühle stammt aus Persien und Afghanistan (Garrison
1999, 101). Wichtig waren auch die Wassermühlen der Griechen. Die Konstruktion tech-
nischer Hilfsmittel und Artefakte ist trotz erster Ansätze der Mathematisierung und Versuche
einer wissenschaftlichen Behandlung der Mechanismen von Maschinen keine systematische
Konstruktionslehre oder gar eine Ingenieur- oder Technikwissenschaft, sondern eine Mi-
schung aus implizitem und explizitem Konstruktions- und Gebrauchswissen. Beide Arten des
technischen Wissens sind noch nicht getrennt- in beiden technischen Kulturen-, sondern ver-
weisen aufeinander. Mathematische Erklärungsversuche sind spärlich und beschränken sich
auf einige Maschinen, insbesondere Hebelwerkzeuge für den Bau und den Transport sowie
Kriegsmaschinen, die aber im Sinne von Verwissenschaftlichung und Kausalerklärung wie
auch Anwendungsversuchen nicht sehr weit gingen. Aristoteles fordert keine Übereinstim-
mung mit der Natur allgemein, sondern Sachgerechtigkeit technischen Handelns (Schneider
1989, 258).

Im Altertum kann von einer Ingenieurwissenschaft oder Technikwissenschaft im engeren


Sinne noch nicht die Rede sein. Mathematik und Geometrie waren allerdings von jeher
notwendige Hilfswissenschaften bei der Errichtung von großen Bauwerken. Bei den Ägyptern
und den Babyloniern bildeten jedoch Mathematik und Geometrie im Großen und Ganzen nur
praktische Hilfswissenschaften. In Archimedes von Syrakus ist erstmals ein genialer Geo-
meter entstanden, der mit hervorragender mathematischer Begabung in hohem Maße
technisches Geschick mit praktischem Blick für mechanische Fragen verband. Archimedes
haben wir als den Vater derjenigen mathematisch-physikalischen Betrachtungsweise anzuse-
hen, die dann in der neueren Zeit, etwa seit der Renaissance, die erstaunliche Entwicklung der
technischen Mechanik bewirkte (Straub 1992, 47-49). Die ausführenden Bauhandwerker und
Arbeiter waren zum Teil Freigeborene und Freigelassene, zum Teil, vor allem bei Hand-
langerdiensten, Sklaven. Vitruv beschreibt im 10. Buch, Kapitel 2 und 3 seines Werkes über
die Baukunst verschiedene zu seiner Zeit im Gebrauch stehende Baumaschinen wie Rolle,
Flaschenzug und dergleichen, und erläutert deren Wirkungsweisen (Straub 1992, 61f).

Als Dionysos, der Tyrann von Syrakus, im Jahr 399 v. Chr. einen Feldzug gegen die Kar-
thager, die weite Gebiete im Westen Siziliens beherrschten, vorbereitete, holte er eine große
Zahl von Handwerkern aus Unteritalien sowie aus Griechenland und selbst aus den kartha-
gischen Gebieten nach Syrakus. Er zahlte hohe Löhne und motivierte die Techniker außerdem
durch große Geschenke. Auf diese Weise erreichte er, dass die Handwerker und Techniker
mit großem Engagement neue Waffen entwickelten. Besonders wichtig war der Bau neuar-
tiger Belagerungsgeräte. Dionysos reagierte damit auf die Erfahrungen des vorangegangenen
Krieges. Bei der Belagerung von Selinunt hatten die Karthager mehrere hölzerne Türme, die
die Mauern der Stadt überragten, sowie Rammböcke erfolgreich eingesetzt. Gerade die fahr-
baren Türme, von denen aus die Verteidiger der Stadt beschossen werden konnten, verschaff-
ten den Karthagern bei der Belagerung eine erdrückende Überlegenheit. Die Erfindung des
Katapultes gehörte ebenfalls zu den Rüstungsanstrengungen in Syrakus während des Jahres
399 v. Chr. (Hägermann/Schneider 1991, 187-189).

In der Antike bilden Sklaven und Werkzeuge eine funktionale Einheit. Gerade im Bereich
einer spielerischen Technik (der seltene Fall einer Technik als Selbstzweck), die nicht anwen-
dungsorientiert war, konnte sich die technische Phantasie antiker Mechaniker voll entfalten
und zu Problemlösungen gelangen, die zwar keinen Bezug zur antiken Produktion aufweisen,
aber dennoch als mechanische Erfindungen von hohem Rang anerkannt werden müssen. Eine
technische Konstruktionspraxis konnte daraus allerdings – im Gegensatz zur Architektur –

33
nicht entstehen. Dabei zeigt gerade die Pneumatik, welch enger Zusammenhang zwischen
Naturerkenntnis und Technik der Antike bestand. Das technologische Schrifttum sollte nicht
nur das vorhandene technische Wissen zusammenfassen und vermitteln, sondern durch die
mathematische Analyse mechanischer Instrumente ein Regelwissen formulieren, das weit
über die manuelle Geschicklichkeit und das Erfahrungswissen von Handwerkern hinausreicht.
Die besondere Wirkung mechanischer Instrumente wurde zum ersten Mal in den chirurgi-
schen Schriften des Corpus Hippocraticum thematisiert und beschrieben (Schneider 1992,
201-209). Heron entwickelte eine große Anzahl von Automaten, Maschinen, die mit Dampf
oder heißer Luft arbeiteten. Es blieben Kuriositäten: eine Wasserorgel, Tempeltüren, die sich
öffneten und schlossen, Puppen die sich bewegten und tanzten und eine Dampfturbine.
Warum nutzte man das erworbene Wissen mit Dampf und Luftdruck nicht, um Maschinen
und Apparate für die Betriebe zu mechanisieren? In Griechenland war die starre Trennung der
gesellschaftlichen Klassen die Ursache dafür, dass es nicht zu einer Industriellen Revolution
kam. Die Oberschicht, die Bürger hätten die Zeit gehabt, sich mit Wissenschaft und
Erfindungen zu beschäftigen. Mit der Unterschicht, den Handwerkern, Landarbeitern und
Sklaven, hatten sie aber keinen Kontakt, ganz zu schweigen davon, dass sie Erneuerungen
unterstützt hätten. Die griechischen Bürger sahen lediglich geringschätzig auf das Handwerk
nieder. Die soziale Kluft war nicht zu überbrücken.

Heron hat die Schwächen der mechanischen Instrumente gesehen und diskutiert. Er be-
schränkte sich nicht darauf, die Geräte zu beschreiben, sondern er bemühte sich, klare Anwei-
sungen für ihre Herstellung zu geben. Dieser Abschnitt der Mechanik richtet sich also an
Praktiker und zielt auf eine Anwendung der mechanischen Kenntnisse im Bereich des Bau-
gewerbes und der Landwirtschaft ab. Damit kann im Hellenismus bereits von einer Kon-
struktionslehre im eigentlichen Sinn gesprochen werden. Aber es handelt sich bei Heron noch
um eine isolierte Lehre von der Konstruktion, die sich auf die Anleitung zur Herstellung
(Konstruktion) mechanischer Mittel (insbesondere Maschinen) beschränkte. Eine praxisbezo-
gene mechanische Technikwissenschaft findet sich zumindest in Ansätzen. Es handelt sich
allerdings nicht um eine Konstruktionswissenschaft im Sinne der Technikwissenschaften des
19. und 20. Jh., sondern um eine Art von Konstruktionskunst. Ferner ist bei Heron ein
Interesse an der Sicherheit der arbeitenden Menschen und an der Vermeidung von Arbeits-
unfällen erkennbar. So weist er ausdrücklich auf die Gefahr hin, dass auf einer Baustelle ein
herabfallender Steinblock Arbeiter treffen könnte, und die Seilwindenpresse wird als unsicher
bezeichnet, weil beim Drehen der Winde der Hebel aufbrechen oder aus seiner Lagerung
rutschen kann, so dass der Stein fällt und dabei Menschen verletzt (Schneider 1992, 213-215).
Der technische Fortschritt vollzog sich in den verschiedenen Epochen der griechischen und
römischen Geschichte und in den einzelnen Regionen des Mittelmeerraumes keineswegs
gleichförmig, vielmehr kam es unter jeweils besonderen historischen Bedingungen in einzel-
nen Zivilisationszentren zu Inventionsschüben.

In der modernen technikhistorischen Literatur wurde wiederholt kritisierend hervorgehoben,


dass die Automaten und pneumatischen Geräte eher Erstaunen und Verwunderung hervorrie-
fen als praktischen Zwecken dienen sollten. Tatsächlich gehörten die Automaten in den
Kontext des Hofes von Alexandria und hatten die Aufgabe, durch ihre überraschenden Effekte
zur Unterhaltung der höfischen Gesellschaft beizutragen. Obgleich eine Verwendung von
Automaten im Produktionsbereich nicht intendiert gewesen ist, besitzen sie eine eminente
technikhistorische Bedeutung. Für die alexandrinischen Mechaniker bestand die Möglichkeit,
frei von wirtschaftlichen Zwängen komplizierte Mechanismen zu konstruieren und zu
erproben. Da bei der Bewegung der Automaten keine großen Gewichte zu bewältigen waren,
brauchten die Techniker auch keine Rücksicht auf die Grenzen der Materialbeherrschung zu
nehmen und gelangten unter solch günstigen Umständen zu technischen Lösungen, die weit in

34
die Zukunft hinauswiesen. So war das für den Antrieb der Automaten gewählte Prinzip – der
Zug eines Gewichtes – im Mittelalter grundlegend für die Funktionsweise der mechanischen
Uhr, und die Umwandlung der Rotationsbewegung in eine schlagende Bewegung in der ersten
Szene von Philons Automatentheater nahm das Prinzip der Nockenwelle vorweg, das im
mittelalterlichen Gewerbe vielfach wirtschaftlich genutzt wurde. Die Automatentechnik stellte
für die Mechaniker ein großes Experimentierfeld dar und trug so entscheidend dazu bei, das
Verständnis für komplizierte Mechanismen, vor allem für die Transmission von Bewegungen
zu erhöhen. Allerdings wurden auch einzelne Instrumente entworfen, die einen erheblichen
praktischen Nutzen besaßen (Hägermann/Schneider 1991, 205).

Eine gerechte Bewertung der Errungenschaften antiker Technik ist nur möglich, wenn man
darauf verzichtet, sie an dem in der Neuzeit Erreichten zu messen. Die an sich richtige
Feststellung, in Griechenland und Rom sei es nicht gelungen, durch Erfindung und Einsatz
von Maschinen die Arbeitsproduktivität wesentlich zu steigern, muss ergänzt werden durch
den Hinweis auf die Kumulation kleiner Fortschritte und jeweils geringfügiger Verbesserun-
gen, die jedoch in ihrer Gesamtheit nachhaltige Wirkungen auf die antike Zivilisation beses-
sen haben. Außerdem waren die Verbesserungen im technisch-konstruktiven Bereich gar
nicht so unbedeutend, im Automatenbau in hellenistischer Zeit sogar enorm, wenn es auch an
der kulturellen Einbettung der Alltagstechnik mangelte, die von der der Techno-Science
gänzlich verschieden war, was allerdings keineswegs nur an der Technikentwicklung lag.
Neben den Neuerungen in Landwirtschaft und Gewerbe sind die durchaus bahn brechenden
Leistungen auf solchen Gebieten wie der Infrastruktur oder der Mechanik zu berücksichtigen.
Außerdem darf Technik nicht nur im Kontext wirtschaftlicher Aktivität untersucht werden,
denn in der Antike waren nicht allein wirtschaftliche Zielsetzung für die technische Entwick-
lung entscheidend, sondern in vielen Fällen auch religiöse Überzeugungen, soziale Normen
oder das Bestreben, Herrschaft zu legitimieren. Auf diese Weise kann gezeigt werden, dass
Griechen und Römer einen wichtigen Beitrag zur Geschichte der europäischen Technik gelei-
stet und die Voraussetzungen für die weitere Entfaltung der technischen Kapazitäten im
Mittelalter und in der frühen Neuzeit geschaffen haben (Hägermann/Schneider 1991, 60).

Die wissenschaftliche Diskussion über die antike Technik und ihre Entwicklung konzentrierte
sich seit Hermann Diels wesentlich auf die Frage, aus welchen Gründen griechische und
römische Technik verglichen mit der Situation der Neuzeit so rückständig blieb und ein
Prozess kontinuierlichen technischen Fortschritts nicht in Gang gesetzt werden konnte. Die
Naturbeherrschung war in der Antike theoretisch antizipiert, die Tatsache, dass dies aber nicht
Realität geworden ist, wird von Gigon auf die Grenzen und den Zerfall der Naturwissenschaf-
ten zurückgeführt. In vorindustriellen Gesellschaften benötigten Inventionsprozesse normaler-
weise einen sehr langen Zeitraum (Schneider 1989, 1-4). In der Antike war technisches
Schaffen mehr oder weniger die Aufgabe der Metöken (d. h. der Fremden) und der Sklaven,
deren Zahl zu manchen Zeiten, besonders seit der hellenistischen Epoche, in Griechenland
ungemein hoch war. Im Umkreise der Alexandinischen Mechaniker allerdings kam es zu ei-
ner Verbindung von praktisch technischer Arbeit und wissenschaftlicher Erkenntnis. Die
Maschine spielte dabei kaum eine Rolle, abgesehen von Kriegsmaschinen. Im Alexandrien
des 3. Jh. v. Chr. begann jene feinmechanische Kunst des Apparatebaues zuerst zu blühen.
Das Mouseion in Alexandria, um 300 v. Chr. durch die Ptolemäer gegründet, war das größte
wissenschaftliche und technische Zentrum der damaligen Zeit (Schürmann 1991, 1). Warum
aber förderten die Ptolemäer die mechanischen Künste, wenn Sklavenarbeit oder Kapital-
mangel für die mangelnden technischen Inventionen zur Zeit der Griechen verantwortlich sein
sollten. Mit der Frage nach der gesellschaftlichen Bedeutsamkeit der Technik soll hier an die
Mechanik der Spätantike herangegangen werden. Die mechanischen Werke beschreiben die
Anwendung der fünf einfachen Werkzeuge Hebel, Keil, Rolle, Schraube und Flaschenzug

35
(Schürmann 1991, 10). Es gibt keine Überlieferung für die Gründe der staatlichen Förderung
der Mechanik zu dieser Zeit.

Mit dem beginnenden Mittelalter verändert sich das Leitbild für technische Praxis, welches
sich auch auf die technische Konstruktionspraxis auswirkt. Die Frühphase der technisch-
ökonomischen Entwicklung von der Spätantike in die fränkische Epoche der europäischen
Geschichte wurde entscheidend von mentalen und wirtschaftssozialen Veränderungen in der
Gesellschaft getragen, mit verursacht durch die theoretische Neubewertung von Arbeit,
insbesondere von Handarbeit, als sozialem Phänomen, die ihrerseits wesentlich ökonomisch-
technische Impulse auslöste. Im christlichen Verständnis ist Arbeit als Fortsetzung des
göttlichen Schöpfungswerkes zu sehen. Im Kloster, später bei Benediktus mit seiner Regel
bestimmte der göttliche Schöpfungsauftrag den Alltag der Mönche grundlegend in dem Sinne,
dass es eine Aufteilung der Stunden für Arbeit und Gebet, Lesung und Ruhe gab, wobei diese
Aufteilung grundlegend bereits durch Augustinus vorgeprägt war (Hägermann/Schneider
1991, 322-324). Technikgeschichte des Frühmittelalters ist weitgehend identisch mit Agrar-
technik, mit der Geschichte der Arbeitsgeräte, der Anspannformen und der Feldernutzung im
Rahmen der Agrarverfassung (Hägermann/Schneider 1991, 338).

Die technisch-konstruktiven Mittel, die die gotischen Baumeister dazu befähigten, mit einem
Minimum an Materialaufwand ein Maximum von Raum zu umspannen und vor allem den
Mittelschiffen ihrer Kathedralen jene von der mystischen Gläubigkeit ersehnte himmelstre-
bende Höhe zu verleihen, waren bekanntlich im Wesentlichen die folgenden: Die Aufteilung
der Mauern in tragende Pfeiler und raumabschließende (meist durch Fenster gebildete)
Füllflächen, durchgehende Verwendung des anpassungsfähigen Spitzbogens, Auflösung der
Gewölbe in stützende Rippen und zwischen diese gespannte leichte Gewölbekappen, ein
ausgebildetes System von Strebepfeilern und Strebebogen zur Aufnahme des Bogenschubs.
Es handelt sich also gewissermaßen um eine Skelettbauweise, die aber, da alle Bauglieder nur
Druckkräfte aufnehmen und weiterleiten können, ungleich komplizierter und kunstvoller
ausgebildet sein musste als unsere heutigen Systeme, die neben Pfeilern und Druckstreben
auch Zugglieder und biegungssteife Riegel zur Verfügung haben (Straub 1992, 67f).

Welche weitgehende Einsparung an Masse durch die konsequente Anwendung des ökonomi-
schen Prinzips erzielt werden konnte, lässt sich hier ablesen. Die große Materialersparnis
wurde allerdings hinsichtlich der Kosten zum Teil wieder aufgehoben durch den Arbeitsauf-
wand, den die komplizierte Konstruktion und die sorgfältige steinmetzmäßige Bearbeitung
jedes einzelnen Steines erforderten. Das höchste Zeugnis für die berufliche Erfahrung und für
das ausgebildete statische Gefühl der gotischen Baumeister bildet schließlich das kunstvolle
System von Strebepfeilern und Strebebogen. Die Formeln und mathematisch-geometrischen
Konstruktionsregeln, in denen die Berufserfahrung der Bauhütten zusammengefasst und von
Meister zu Meister überliefert wurden, bezogen sich in der Hauptsache auf Fragen der
Formgebung und Komposition. Sie hatten mit Ingenieurwissenschaft im engeren Sinne nichts
zu tun (Straub 1992, 68-70). Die Architekturentwicklung des Kirchenbaus im Mittelalter
brachte bautechnische Neuerungen mit sich und führte zur Verwendung unterschiedlicher
materieller Mittel des technischen Könnens und des künstlerischen Genius. Eine das Kon-
struktive besonders betonende Herangehensweise fand Zustimmung. Man ahnt, welchen
Massen transportiert werden mussten, um das Gelände den Erfordernissen des Bauwerks an-
zupassen und große Mengen an Baumaterial bereitzustellen. Die Gewölbe, die sich scheinbar
so selbstverständlich über die Räume spannen, enthalten große Baumassen, die der Erdbe-
schleunigung zum Trotz in großer Höhe stabil gehalten werden. Damit wird es nicht generell
möglich sein, handwerkliche Tätigkeit und konstruktive Lösungen an Stilbegriffe zu koppeln
(Conrad 1990, 8-11).

36
Es erhebt sich die Frage, ob in dieser Situation des Probierens und Lernens schriftliche
Hilfsmittel zur Verfügung standen. Unter Bezug auf Vitruvs Bücher, die in klösterlichen
Schreibschulen vervielfältigt und in Bibliotheken aufbewahrt wurden, könnte die Frage mit Ja
beantwortet werden, die vorwiegend verneinend gehaltenen Aussagen in der Forschung
werden damit begründet, dass das Bauen im Mittelalter durch rein handwerklich gebildete
Werkleute betrieben worden sei und die Kenntnis von Existenz und Inhalt der Bücher Vitruvs
in den gebildeteren, den Bauherren nahestehenden Kreisen anzunehmen sei. Diese Aussage
wird zu relativieren sein. Jeglicher manuellen Arbeit geht eine Phase geistiger Aktivität
voraus, in der Bedürfnisse, Lösungswege und Aufwendungen zueinander in Bezug gebracht
werden. Von dieser Kompetenz her erklärt sich auch die besondere Wertschätzung, deren sich
zumeist aus bürgerlichen Handwerkerstande stammenden Werkmeister erfreuten. In der An-
schauung, Macht und Reichtum sei über Gott verliehen, schlug sich Repräsentationsbedürf-
nis direkt oder indirekt nieder.

Die Regeln der Werkmeisterausbildung sind seit dem 15. Jh. in den einschlägigen Hütten- und
Steinmetz-Ordnungen fixiert (Conrad 1990, 51). Als notwendige und selbstverständliche
Grundlage für die Herstellung eines Bauwerks gilt heutigentags die Zeichnung. Sie wird ein-
mal angefertigt und danach vervielfältigt. Je nach Größe und Kompliziertheit des Bauobjektes
sind zeichnerische Darstellungen in unterschiedlicher Anzahl mit wechselnden Abbildungs-
maßstäben unumgänglich. Das geplante Bauobjekt wird durch Übersichten in starker Ver-
kleinerung als Lageplan, durch Ausführungszeichnungen, als Grundrisse, Ansichten und
Schnitte bis hin zu detaillierten Ausbildungen in natürlicher Größe fixiert. In der Phase der
Vorplanung bei der Festlegung komplizierter Details werden die Aussagen von Zeichnungen
durch Modelle ergänzt. Diese Perfektionierung ist notwendig, weil die Arbeitsteilung
zwischen projektierenden und ausführenden Baufachleuten sehr weit fortgeschritten ist. Im
Mittelalter mag die Bauplanung in mancherlei Hinsicht einfacher verlaufen sein. Weniger
fortgeschrittene Arbeitsteilung beließ Bauplanung und Bauleitung üblicherweise in den Hän-
den des Werkmeisters, ungeklärte Detailprobleme fanden im Gespräch am Arbeitsplatz ihre
Lösung. Der Baufortschritt verlief langsamer, der Werkmeister verfügte dadurch über die
Zeit, die Teillösungen dann auszuarbeiten, wenn der Bauablauf dies erforderte. Die Bauar-
beiten waren hinsichtlich der unterschiedlichen Baugewerke leichter überschaubar. Es wäre
sicher nicht richtig, einer allgemein gültigen mittelalterlichen Methode der Bauplanung
nachspüren zu wollen. Vitruv nennt in seinem ersten Buch drei Arten von Zeichnungen: den
Grundriss, das aufrechte Bild, die Ansicht und die räumliche Wiedergabe von Fassaden und
zurücktretenden Seiten (Conrad 1990, 74f).

Eine Skizze, als Vorstufe zu einer Zeichnung kann bereits einen hohen Informationsgehalt
über das tatsächliche oder beabsichtigte Aussehen eines Produktes enthalten. Die meisten der
heute bekannten alten Zeichnungen erhielten sich in den Sammlungen der Bauhütten und der
Werkmeister. Beide Sammlungsgruppen sind hinsichtlich der Eigentumsansprüche nicht
exakt trennbar. Ursache für ein mehr als hundert Jahre währendes Rätsel um Zeichnungs- und
Baumaße und das Ausweichen in angebliche und Geheimnisse Proportionierungsmethoden
sieht man heute in zwei Gründen: der Vergleich aus Zeichnungen entnommener Maße mit
vermutlich entsprechenden Bauteilen führte zu unbefriedigenden Ergebnissen, weil die
Zuordnung von Zeichnung und Bauwerk nicht zweifelsfrei sichergestellt war und weil die bis
zu 5% betragenden Maßänderungen des Schreibstoffes unberücksichtigt blieben. Weiterhin
wurde gelegentlich in zweifellos seltenen Fällen Maßeintragungen auf Zeichnungen über-
sehen. Es wird jedoch noch zu begründen sein, wie mittelalterliche Werkmeister trotz so
weniger Maßeintragungen nach den Zeichnungen arbeiten konnten. Heute weiß man, dass die
Außen- und Innenmaße der Bauten runde Dezimal- oder duodezimale Vielfache der aktuellen
Maßeinheiten betrugen. Alle überlieferten Zeichnungen lassen sich auf die von Vitruv be-

37
zeichneten Typen zurückführen. Für das Festlegen der Proportionen und Maße eines
Bauwerkes oder eines seiner Teile bzw. der anzuwendenden Schmuckelemente griffen die
Meister aller Zeiten auf den Erfahrungsschatz zurück, der in bereits geschaffenen Bauten und
gesammelten Wissen bereitstand (Conrad 1990, 77-79).

Der Bau gotischer Kathedralen zeichnete sich durch eine gänzlich neue Konstellation aus: Die
Bauten wurden größer und höher, die dabei verwendeten Steine besaßen jedoch kleinere
Formate und damit geringere Transportmassen. Das Problem verlagerte sich nunmehr vom
schwergewichtigen, aber einmaligen Transport zum sich vielfach wiederholenden Vorgang
mit kleineren Transportmassen, bei dem es um rationellen Einsatz von Arbeitskraft und
Hebezeugen bzw. Transportmitteln ging. Die Perfektionierung des Mauerwerkbaus ermög-
lichte handlichere Steinformate; nur dort, wo der Mauerwerksverband den Monolith nicht zu
ersetzen vermochte, hielt man an ihm fest. Dazu stand ein reiches Arsenal von Geräten und
Erfahrungen bereit. Jenes technische Wissen, dessen Urformen handwerklich-empirischer
Tätigkeit entwuchsen, soll im Mittelpunkt der folgenden Betrachtung stehen. In der vorlie-
genden Epoche bildeten sich seine bestimmenden methodischen Charakteristika aus: Es nahm
deskriptive Formen an, wurde stetig mit kalkulatorischen Elementen angereichert, seine
inneren Strukturen prägten sich aus. Festgehalten werden soll, dass die Ströme des techni-
schen Erfahrungswissens und der naturwissenschaftlichen Erkenntnis in der Entwicklung zu
den Ingenieurwissenschaften hinführen (Hänseroth/Mauersberger 2001, 87).

Freilich bedurfte es eines ausgedehnten Reifeprozesses, ehe beide Komponenten in wechsel-


seitiger Durchdringung und Verschmelzung zusammengeführt werden konnten. In technik-
historischen Darstellungen wird dabei oft übersehen, wie weit die Keime technik-
wissenschaftlicher Erkenntnis zurückreichen und dass sich im Mittelalter bereits ein bemer-
kenswertes Niveau ingenieurtechnischen Wissens abzuheben begann. Der Aufschwung des
technischen Wissens in der behandelten Periode war maßgeblich an den Wandel der
Bedürfnisse gebunden. Im Vorfeld der Gotik sind wesentliche bautechnische Errungen-
schaften mit dem Aufleben der karolingischen Baukunst zu konstatieren. Die mit der Reichs-
und Städtebildung verbundenen Aufgaben stellten höhere Anforderungen an das Wissen und
Können von Bauhandwerkern und Baumeistern. Entscheidende Bedeutung für den Fortschritt
im Baugeschehen West- und Mitteleuropas erlangte der sich seit dem 10. Jh. verstärkende
Übergang vom Holz- zum Steinbau bei Groß- und Gemeinschaftsbauten. Er bewirkte einen
immensen Aufschwung der Bautechnik sowie der Arbeitsorganisation, Spezialisierung und
Arbeitsteilung im Bauhandwerk (Hänseroth/Mauersberger 2001, 87).

Zum Brennpunkt dieser Fortschritte avancierte der Kirchenbau im Hoch- und Spätmittelalter.
Besondere Aufwertung erfuhren mit den komplizierten Konstruktionssystemen der Kathe-
dralen freilich die seit alters her innerhalb des bautechnischen Wissens einen exponierten
Rang einnehmenden Probleme der Standsicherheit und Festigkeit von Bauwerken. Linien-
führung und Dimensionierung von Strebebögen und Pfeilern gotischer Kirchen verweisen auf
den hohen Stand des Wissens um statisch-konstruktive Zusammenhänge sowie auf ein ausge-
prägtes statisches Gespür. Dies lässt den Schluss zu, dass auch die Fähigkeit, auf der Grund-
lage von Erfahrungswissen innerhalb enger Grenzen Gesetzmäßigkeiten von Struktur und
Funktion technischer Objekte (z.B. technischen Wissens des Kräftespiels in der Konstruktion)
intuitiv zu erfassen, eine wichtige Rolle im Kanon der technischen Kenntnisse bildet. Ein
besonderes Merkmal von Bauarbeiten aber war der sehr hohe Arbeitsaufwand für Transport-
leistungen. Er überstieg oft das Arbeitsmaß an eigentlicher Bautätigkeit vor Ort ganz erheb-
lich (Hänseroth/Mauersberger 2001, 87f).

38
Bereits der Begriff Bauhütte impliziert die Möglichkeit der über die saisonal bedingte
Versatzperiode hinausgehenden Vorfertigung in der Hütte und eine darauf gegründete höhere
Kontinuität und Planmäßigkeit des Baugeschehens. Dies erhöhte auch die konstruktiven
Kompetenzen des Architekten. Hinsichtlich ihrer Funktion der Akkumulation und Fortbildung
des technischen Wissens zeigt die Bauhütte ihre besondere Relevanz vermöge ihrer Stellung
im unmittelbaren Baubetrieb. Organisationsform und Konzentration der Produktion in den
Bauhütten deuten bereits im ausgehenden 12. und 13. Jh. auf die Existenz protomanu-
faktureller Züge hin. In den Bauhütten flossen die mit der Mobilität von Handwerkern und
Baumeistern von Baustelle zu Baustelle transferierten Kenntnisse und Fähigkeiten zusammen.
Sie bildeten ungeachtet aller Imponderabilien und Lücken des Transfers und der Rezeption
von technischen Wissens im Mittelalter einen fruchtbaren Nährboden für dessen Generierung
und Verbreitung (Hänseroth/Mauersberger 2001, 90).

Die Emanzipation und der soziale Aufstieg des gotischen Architekten erreichte bald ein
Ausmaß, das die Arteficii der Renaissance ahnen lässt. Die aus dem gotischen Baubetrieb
resultierenden Anforderungen an Arbeitsteilung, Organisation und Planungsfähigkeit
(besonders auch für die Transportaufgaben) konnte nur ein neuer Architektentypus
bewältigen, der mit seinem Wissen und Können einerseits fest im Handwerk wurzelte, ande-
rerseits aber Gelegenheit erhalten hatte, sich weitgehend auf die Bauvorbereitung und damit
einhergehende Wissensanreicherung und Verbreitung zu konzentrieren. Die Frage ob und in
welchem Umfang ihn dabei das Schulwissen der Artes liberales zu Gebote stand und inwie-
weit er selbst Anteil an der wissenschaftlichen Bildung seiner Zeit hatte, wird seit geraumer
Zeit kontrovers erörtert. Im Gegensatz zu der uns durch Vitruv überlieferten Art der Wissens-
vermittlung, die auch auf formale, funktionale und ästhetische Aspekte des Bauens rekur-
rierte, lassen die Bauhüttenbücher eine Reflexion der den gotischen Kathedralen inne-
wohnenden Vorstellungen von Architektur vermissen. Dies wiederum lässt auf den hohen
Rang mündlichen Wissenstransfers und ihrer Rezeption durch persönliche Kontakte
schließen. Die von den Baumeistern zur Reproduktion des Wissens verfassten Kompendien
enthielten jene Beispiellösungen, Regeln, Rezepte, Erfahrungen und Methoden, die dem
Autor für die Bewältigung unmittelbarer Entwurf-, Fertigungs-, Transport- und Errich-
tungsaufgaben wesentlich erschienen. Die praktischen Probleme bei Hebezeugen lagen in
erster Linie bei der Festigkeit der Krankonstruktion, den Möglichkeiten der Kraftübertragung
und –übersetzung sowie in der Schwenkbarkeit und Mobilität der Hebezeuge (Hänse-
roth/Mauersberger 2001, 91-93).

Der klassische Maschinenbegriff ist weitgehend der Kriegsmaschine bzw. den vielfältigen
Hebezeugen entlehnt, die wiederum aus den einfachen Maschinen des Altertums abgeleitet
werden. Jene mechanischen Vorrichtungen (Hebel, Keil, Rolle, schiefe Ebene, Schraube,
durchziehen das mechanisch-technische Wissen wie ein roter Faden. Das Bildungsgesetz für
immer kompliziertere Maschinen scheint in der sinnvollen Variation und Modifikation
einfacher Maschinen zu liegen. Die Einbindung des maschinentechnischen Wissens in bau-
und kriegstechnische Zusammenhänge ist nicht nur logisch-genetisch bedingt, sondern folgt
auch dem beschränkten Einsatzgebiet von Maschinen bis zum Mittelalter. Erst mit dem
Aufblühen des Erzbergbaus, des Mühlenbetriebs und Manufakturwesens nahm die Darstel-
lung des maschinentechnischen Wissens zu Beginn der Neuzeit eigenständige Züge an. Die
komplizierte Problematik der Tradierung und schriftlichen Fixierung des technischen Wissens
um Bauwerke und Maschinen, auf dessen Grundlage die apostrophierten konstruktiven und
fertigungstechnischen Fortschritte wachsen konnten, lenkt unser Augenmerk auf jene mit dem
gotischen Kirchenbau entstehenden großen Bauorganisationen, die Bauhütten und in ihrem
Umkreis tätigen Baumeister (Hänseroth/Mauersberger 2001, 88f).

39
Der Begriff „artes liberales“ wird bereits in der Antike verwendet: die früheste Nennung
findet sich bei Cicero. Das Problem, dass die artes liberales selber und ein Großteil der im
Studium benutzten Texte von heidnisch-antiken Autoren stammte, bestand für die folgenden
Generationen, von denen eine ganze Reihe von Klerikern der antiken weltliche Literatur
ablehnend gegenübersteht (Binding 1998, 167f). Das Trivium umfasste Grammatik, Rhetorik
und Dialektik, das Quatrivium Arithmetik, Geometrie, Musik und Astronomie (Binding 1998,
172). Die Aussagen der mittelalterlichen Autoren über die artes liberales, besonders die
Definition der einzelnen Fächer, sind keineswegs einheitlich. Andererseits gehen viele
Auffassungen besonders auf Boethius und Isidor von Sevilla zurück, so dass über die
karolingische Zeit hinaus eine relativ einheitliche Stellungnahme zu den artes erfolgte, von
solchen Ausnahmen wie Honorius Augustunemsis einmal abgesehen (Binding 1998, 205).
Gemeinhin bezeichnen die artes mechanicae alle körperlichen Tätigkeiten, das heißt
Handwerke, und beziehen sich auf die praktische Ausführung, die fabricatio. Die
mechanische Kunst ist die Kunst der erfahrenen Fabrikation metallischer, hölzerner und
steinerner Dinge (Binding 1998, 209).

Hugo von Saint-Victor in Paris (gestorben 1141) hob die mechanischen Künste als Wissen-
schaften mit der christlich-theoretischen Einordnung auch auf die Ebene sozialer Attraktivität.
Damit gab er dem technischen Tun eine Sinndeutung, die bis ins 14. Jh. hinein vertreten
werden sollte. Entsprechend den sieben freien Künsten erschien der Komplex der Mechanik
bei ihm ebenfalls in einer siebener Reihe: (1) Lanificium umfasste das Textilwesen mit
anderen Handwerken, die organisches Material – mit Ausnahme von Bauholz – bearbeiteten;
(2) Armatura, die Waffenkunst einschließlich der Geräteherstellung, der Bau- und der
verschiedenen Schmiedearbeit, (3) Navigatio, die Schifffahrt mit dem Handel im weitesten
Sinn, (4) Agricultura, die Landwirtschaft, (5) Venatio, die Jagd samt Fischfang und allgemei-
nem Ernährungsgewerbe, (6) Medicina, die Heilkunde, und (7) Theatrica die darstellende
Kunst. Ziel dieser Künste, die in der Summe das technisch-handwerkliche Tun des Menschen
repräsentierte, war es nach Hugos Aufgabe des wissenschaftlichen Schulwerks „Didascalion“,
die unvermeidbaren Folgen der Mangelerscheinungen, denen unser gegenwärtiges Leben
unterworfen ist, zu mildern. Um die Zuordnung der mechanischen Künste zu entsprechenden
Berufen, den Mechanicis Profissionibus, bemühten sich lexigrafische Werke, die in den
Jahrzehnten vor und nach 1200 geschrieben wurden. Deren Verfasser – Alexander Neckam,
Johannes v. Garlandia und andere – warben um Anerkennung ihrer Gegenstände durch
Klassifizierungen der Praxis. Namentlich Neckams Bücher, die in der Forschung schon lange
vor einer heutigen Alltagsgeschichte zur Beschreibung des täglichen Lebens des 12. Jh.
herangezogen worden sind, erhalten einen besonderen Wert. Albertus Magnus (1200-1280)
erkannte eine Gefahr darin, dass die Menschen die Mechanik beziehungslos weiterentwickeln
und damit zulassen würden, dass sie den Geist und die Seele sich selbst entfremde. Einige
Zeit später konnte einer seiner Schüler, der Dominikaner Thomas von Aquin (1225-1274) von
den „artes serviles“, den dienenden Künsten, eher geringschätzig sprechen, bevor in der
italienischen Renaissance unter veränderten Vorzeichen die Mechanik als Ingenieurstätigkeit
wieder einer Aufwertung erfuhr (Ludwig/Schmidtchen 1992, 26f).

Günther Binding untersucht, welche Bedeutung der früh- und hochmittelalterliche Bauherr
beim Bau einer Kirche und bei der Wahl der Bauform beabsichtigt hat. Dabei ist das
Fundament des geistlichen Bauens die Erkenntnis des Wortsinns (Binding 1998, 7f). Bedeu-
tende Bauherren waren im Mittelalter meistens zugleich angesehene und einflussreiche
Kirchenherren. Die im Reichsdienst stehenden, zumeist dem Adel entstammenden Bischöfe,
aber auch die Äbte bedeutender Klöster hatten im frühen und hohen Mittelalter nicht geringen
Einfluss auf die allgemeine Lebensgestaltung, nicht nur auf den wichtigen Bereich der
Religion und des Kultes, sondern auch auf die regionale Herrschaft und die königliche Politik.

40
Sie waren vorrangig an der Übernahme und Vermittlung der antiken Kultur beteiligt. Wenn
sich die Hinwendung der Kirchenherren zu weltlicher Macht in übertriebenem Druck äußerte,
wurden sie immer wieder zur Bescheidenheit ermahnt (Binding 1998, 35-37). Die Auflistung
der ungebildeten Herrscher zeigt, dass auch im Hochmittelalter der hohe Laienadel kaum
formal gebildet war. Dagegen wurde den Frauen des Adels, vor allem denen des Herrscher-
hauses, von früh an ein gewisses Maß literarischer Bildung und Lateinkenntnisse vermittelt
(Binding 1998, 163).

Neubauten werden toleriert oder auch gelobt, sofern sie die vorhandenen Finanzmittel nicht
überforderten und vollendet werden konnten und nicht der bauwillige Abt oder Bischof der
ambitio, dem Ehrgeiz, verfällt (Binding 1998, 241). Dieser gilt als sapiens architectus, als
weiser Architekt (Binding 1998, 247). In den Quellen des zehnten bis zwölften Jh. findet sich
mehrfach für Kirchenherren die Bezeichnung „sapiens architectus“ (Binding 1998, 263).
Auftraggeber und Nutzer waren im Mittelalter durch eine gemeinsame Kultur des
Gebrauchens verbunden. Der richtige Brauch kann plausibel gemacht werden erstens durch
den bestätigten Erfolg (Gebrauchsroutinen), zweiten durch Erfahrung im Gebrauch (Experten-
tum, Professionalität), drittens durch Regelwerk und Standartisierung (für Routinetätigkeiten).
Bis zum Mittelalter hatte sich eine dreifache Struktur des homo technicus herausgebildet und
umfasste erstens die Berufsgruppe des Architekten, zweitens die Berufsgruppe der Hand-
werker und drittens die Berufsgruppe der Mechaniker, Maschinenbauer und Mühlenbauer.
Diese Einteilung erfolgte stärker nach der Ausdifferenzierung technischer Mittel, während das
mittelalterliche Konzept der sieben mechanischen Künste die Ausdifferenzierung der techni-
schen Mittel mit sozialen Funktionen der Technik verband. Mit der Renaissance, verstärkt
aber mit der Bildung von Ingenieursschulen im Zeitalter des französischen Absolutismus
entstand der Ingenieur. Voraussetzung für diese Berufsgruppe als sozusagen viertem Stand
der Techniker war der cartesische Rationalismus und der französische Absolutismus als
Ausdruck politischer Herrschaft. Hier entwickelte der französische Sonnenkönig eine Art von
zentral gesteuerter Herrschaft mit Hilfe von Technik und technischer Macht als einer frühen
Form von Technokratie. Der Staat ist der einzige Nutzer dieser insbesondere von Ingenieuren
betriebenen Form von Technik.

Im Mittelalter wurde eine weitere Erfindung gemacht, welche den Begriff der Maschine
veränderte und die Mechanik zu überwinden half, das die treibende Kraft des Schießpulvers
nutzende Pulvergeschütz. Eine Weiterentwicklung der Mechanik findet sich nicht im
Bauwesen, sondern eher im militärischen Bereich, für den die Impetustheorie sich über den
Stand der antiken Mechanik hinaus entwickelte. Die Herstellung und Bedienung des Pulver-
geschützes machte vielerlei handwerkliche Verrichtungen nötig wie Gussarbeiten, Schmie-
den, Zimmermann und Schreinertätigkeit und die Zubereitung des Schießpulvers. So bildete
sich ein neuer Beruf, der alle diese Betätigungen umfasste, der des sogenannten Büchsen-
meisters heraus (Klemm 1999, 66-69). Die Büchsenmeister waren die eigentlichen Ingenieure
ihrer Zeit. Sie mussten, da ihnen Herstellung und Bedienung des Geschützes oblag, über
vielerlei praktisches Können auf metall- und holztechnischem Gebiet und im Bereich der
chemischen Künste verfügen. Auch einiges Wissen in der Bautechnik und praktischer
Geometrie sollten sie besitzen.

Das Schießpulver als ein Gemenge aus Holzkohle, Salpeter und Schwefel wurde im
Unterschied zu den chinesischen Experimenten mit Frühformen von Raketen und
Feuerwerkskörpern und der arabischen Nutzung für Brandsätze erst in Europa als Treibmittel
für Geschosse verwendet. Dies setzte die Erkenntnis voraus, dass der Expansionsdrang von
entzündetem Pulver als kinetische Energie genutzt werden konnte. Entgegen dem Mythos von
Berthold Schwarz, der in der Bezeichnung Schwarzpulver weiter lebt, sind die frühen

41
Feuerwaffen und ihre Ladetechnik nicht das Resultat einer einzigen Erfindung gewesen
(Ludwig/Schmidtchen 1992, 312f). Die erhalten gebliebenen Exemplare bronzener Büchsen
dokumentieren die uneingeschränkte Eignung des Werkstoffes für nahezu alle beliebigen
Größen von Feuerwaffen. Die Technik des Geschützgusses beruhte auf dem Wachsaus-
schmelzverfahren, das Leonardo da Vinci als einer der ersten schon im 15. Jh. beschrieben hat
(Ludwig/Schmidtchen 1992, 318). Kleiner dimensionierte und auf Bockgestellen montierte
Büchsen dienten den Verteidigern belagerter Plätze als sehr wirksame Defensivwaffen
(Ludwig/Schmidtchen 1992, 324). Die Kosten für Aufbau und Unterhalt von Artillerie waren
im 16. Jh. so hoch, dass nur sehr reiche Landesherren oder große und kapitalkräftige Städte
entsprechende Geschützparks zu finanzieren vermochten.

Der Ursprung der Feuerwaffen ist unklar. Die Steinbüchse besteht aus den funktionellen
Einheiten der Pulverkammer und dem Lauf. Dazu ist die Technik des Ladens erforderlich.
Rasch veränderte sich die Länge der Büchse. Ab 1370/1375 ist eine Steinbüchsenproduktion
bekannt. Gerhard Kramer verweist im Zusammenhang mit der Frage nach dem Ursprung des
Schwarzpulvers auf ein Feuerwerkerbuch eines anonymen Autors, das zwischen 1376 und
1378 abgefasst wurde. Von 1378 ist bekannt, dass von Augsburg aus die Steinbüchse ihren
Weg nach Süden fand. Über Augsburg wurde Venedig unterrichtet. Das älteste datierbare
Exemplar der Handschrift des Feuerwerkerbuches ist das der Universität Freiburg aus dem
Jahre 1432. Es gibt dabei zwei verschiedene Textschichten, eine ältere um 1380 und eine
jüngere um 1400 plus minus fünf Jahre (Kramer 1995, 93-98). Nirgendwo wird ein Mönch als
Autor erwähnt. Aber 1374 erscheint die erste Steinbüchse am Oberrhein. Nicht das Feuer
zerstörte die Gefäße, sondern der bis dahin unbekannte Druck. Berthold war als geübter
Experimentator mit dem Problem vertraut. Er nahm nur noch Salpeter, Schwefel und Kohle
und konstruierte daraus eine neue Art des Pulvers. In dem Feuerwerkerbuch wird nur die
Erfindung des Pulvers geschildert. Dabei wird auch ein vages Bild eines schwarzen Berthold
gezeichnet. Der Autor des Feuerwerkerbuchs schreibt ihm die Steinbüchse und die Erfindung
der Pulverchemie zu. Erstmals erscheint das gekörnte Pulver (Kramer 1995, 123).

Bei dem Erfinder des Pulvers und der Steinbüchse handelt es sich wohl nicht um einen
einsamen Mönch in Freiburg, sondern um einen systematischen Experimentator, um einen
Alchimist. Wahrscheinlich arbeitete er in der Umgebung Freiburgs. In einer Stadt wäre dies
nicht möglich gewesen, da Schießpulver Schießversuche implizierte. Das entscheidende
Problem war die Pulvermischung, das setzt eigentlich einen Chemiker voraus. Es lässt sich
rekonstruieren, dass Berthold 1388 gestorben ist, offenbar nach Anklage durch einen
Landesfürsten und mit hoher Wahrscheinlichkeit zum Tode verurteilt wurde. Auffällig ist,
dass die Schriften über den Erfinder des Schießpulvers alle anonym sind (Kramer 1995, 137).
Die neue Waffe war ein Angriff auf das Ritterwesen und die alte feudale Herrschaftsordnung.
Trotz der Verurteilung Bertholds wurden aber Büchsenmeister gebraucht, mussten jedoch
vorsichtig sein und offenbar anonym schreiben, um für die neue Kunst zu werben. So ist auch
die Mahnung des Berichterstatters zu verstehen, man solle sich von der öffentlichen Meinung
nicht beeinflussen lassen. Gegen den verarmenden Ritterstand, der um seine Existenz
angesichts der neuen Waffen fürchtete, verteidigt der anonyme Autor die schweren
Geschütze. So lässt sich vermuten, dass Berthold das Geschütz erfand und dafür zum Tode
verurteilt wurde. Das Geschütz selbst stellt eine einfache Wärmekraftmaschine dar, wobei die
Probleme mit dem hohen Gasdruck dazu führten, dass das Geschütz erst später erfunden
wurde. Als erster hatte Leonardo da Vinci vorgeschlagen, eine pulverbetriebene
Kraftmaschine zu bauen. Insofern geht Kramer davon aus, dass Bertholds verschollenes
Werk, das im Feuerwerksbuch zusammengefasst ist, erhalten blieb und von der Erfindung des
Pulvers bzw. des Geschützes berichtet (Kramer 1995, 142).

42
Das Schießpulver in Kombination mit der Büchse bzw. den Handfeuerwaffen und den
Kanonen war die Schlüsselerfindung des Mittelalters, die eine militärische Revolution
inklusive letztlich auch der Kolonisation auslöste. Zentral für diese war nicht die Erfindung
des Schießpulvers allein, sondern die Erfindung des Schießpulvers in Kombination mit einem
Metallrohr, das es erlaubte, Geschosse nun mit sehr viel höherer Geschwindigkeit und sehr
viel weiter zu schießen als es mit den Methoden der Chinesen möglich war. Auch die
Chinesen hatten versucht, das Schießpulver als Waffe zu gebrauchen und es kam immer
wieder zum Einsatz einfacher Feuerwaffen, die aber vor dieser Schlüsselerfindung offenbar
relativ wirkungslos waren. Die Verknüpfung von Schießpulver und Metallrohr war
Konsequenz der Experimentierkunst, allerdings einer Experimentierkunst ohne
Beweischarakter für irgendeine Theorie. Dieses Experiment war nicht ein Experiment der
modernen Naturwissenschaften gewesen, sondern ein Experiment technischen Handelns, wie
sie im Bereich der Alchimie offenbar häufiger vorgekommen sind. Die Alchimie umfasste
neben der Metallurgie und den Bergbau auch den Versuch, den Stein der Weisen zu finden
oder Menschen zu schaffen. Aus dem letzteren Grunde ist die Alchimie in Verruf geraten.
Auf der anderen Seite löste das Geschütz eine soziale Revolution aus, der Niedergang des
Ritterstands nicht zuletzt durch die Bauernaufstände, die nun mit den neuen Waffen bewaffnet
waren und die sich gegen die Landesherren aufrichten konnten, das Zeitalter der Religions-
kriege, Veränderung in der Wehrarchitektur und in der Waffentechnik. All dies waren Kon-
sequenzen einer technischen Revolution. Das Geschütz in der Kombinationseinheit von
Schießpulver und Metallrohr war eigentlich eine einfache Wärmekraftmaschine und damit in
gewisser Weise der Vorläufer der Industriellen Revolution und ohne Geschütze und Hand-
feuerwaffen wäre nicht nur die Eroberung Südamerikas keineswegs so schnell vonstatten
gegangen wie sie nachher tatsächlich erfolgt ist. Mit der Erfindung der Büchse bzw. der
Kanone beginnt die experimentell induzierte Hybridisierung europäisch-neuzeitlicher Natur-
wissenschaft, Technologie und Ökonomie, die weit über das bis dahin herrschende Handels-
paradigma hinausgeht (Irrgang 2003c; Irrgang 2006).

Kehren wir zum Schluss der Einleitung wieder zur Systematik zurück. Technikphilosophie im
engeren Sinn stellt, ganz analog zur Wissenschaftstheorie, eine Teildisziplin der theoretischen
Philosophie dar. Ihre Aufgabe ist unter anderem die Klärung von Begriffen und Methoden im
Vorfeld ethischer Diskurse. Technikdiskurse beziehen sich als Planungsdiskurse auf die
Zweckrealisierung durch geplante Technik (Baue eine Brücke oder Maschine!), d.h. auf die
Zweckrealisierung durch die Handlungskette von Plänen, Ausführen des Planes und
Verwendung der artifiziellen Resultate dieser Ausführung. Der Technikdiskurs ist, anders als
der wissenschaftsimmanente Diskurs, nicht hauptsächlich ein theoretischer Diskurs über die
Geltung von Hypothesen, sondern in vermittelter Weise ein praxisbezogener Diskurs (Hart-
mann/Janich 1998, 197f). Bedingung der Möglichkeit von technischen Artefakten ist ihre
Herstellbarkeit. Dieses wiederum bedarf einer vorgängigen Planung. Technik ist handlungs-
theoretisch allerdings keineswegs eine Frage des Könnens und der Möglichkeit überhaupt,
sondern viel eher eine Frage des Sollens und des Dürfens. Aufgabe der Technikphilosophie ist
die Analyse der Wissenstypen technischen Handelns, ihrer Geltungsbedingungen und Begrün-
dungsverfahren. Die Besonderheit poietischen Handelns liegt darin, dass seine Resultate
Relikte bilden. Da technische Artefakte relikthaft sind, können sie immer wieder eingesetzt
werden, sowohl zur Realisierung gleicher Zwecke wie auch zur Realisierung von Zwecken
(Hartmann/Janich 1998, 199-201).

Die Einführung technischer Regeln zur Formulierung technischen Wissens ist damit
verträglich, dass in der Regel verschiedene Handlungsschemata zur Realisierung von Zwek-
ken in Frage kommen: Die Werk-Mittel-Ambiguität verhindert, dass aus der intendierten
Zwecksetzung eindeutig auf Handlungsmittel geschlossen werden kann. Technische Planun-

43
gen stehen daher vor der Notwendigkeit, zwischen verschiedenen Optionen wählen zu
müssen. Gegenstandsbereiche der Technikphilosophie sind damit Aufstellung und Rechtferti-
gung einer Pragmatik technischer Regeln. Dabei ist zu berücksichtigen, dass Technik oft in
realen Kontexten funktionieren muss, in denen nicht, wie im Labor, alle relevanten
Sachverhalte hergestellt oder kontrolliert werden können. Die Basis der Rechtfertigung tech-
nischer Regeln bilden prototheoretische (zweckrelative) Rechtfertigungen von Gerätefunk-
tionsnormen der basalen (Labor-) Geräte unter der Prämisse der Einhaltung der methodischen
Ordnung. Dabei sind Unsicherheiten im technischen Wissen, Unsicherheiten hinsichtlich des
Geltungsbereiches und Unsicherheiten der Einhaltung des Geltungsbereiches zu berücksich-
tigen. Auch Widerfahrnisse im poietischen Handeln sind wichtige methodische Korrektive der
Rekonstruktion (Hartmann/Janich 1998, 204-208).

Das Handeln im Labor ist der Ausgangspunkt für moderne Technologie. Die Theorie der
Technikwissenschaften besteht in einer Theorie des technischen Wissens als eines lückenlos
und zirkelfrei begründbaren Know-how in Form von technischen Regeln. Natur- und
Technikwissenschaften unterscheiden sich in ihren primären Zwecken, der Bereitstellung
technischer Regeln, gerade nicht. Auf dieser identischen handlungstheoretischen Basis verfol-
gen sie jedoch in kulturalistischer Sicht verschiedene weitere Zwecke. Planbare Entwick-
lungen sind auch verhinderbar (Hartmann/Janich 1998, 210-213). Letztlich beruht der Kate-
gorienfehler des Evolutionismus darin, dass er versucht, die Beobachterperspektive einzu-
nehmen und die technische Entwicklung von außen zu erklären. In der Teilnehmerperspektive
jedoch stellt sich die angebliche Evolution als flexible Planung heraus (Hartmann/Janich
1998, 216). Technologischer Determinismus ist kein brauchbares theoretisches Modell zur
Erklärung sozialen Wandels. Diese Einsicht ändert nichts an der Tatsache, dass Technisie-
rungsschübe mit schicksalsgleicher Gewalt über uns hereinbrechen (Daele 1989, 197). Seit
dem 17. Jh. brechen in Europa die kulturellen Dämme gegen technische Neuerungen.
Technische Dynamik wird in einem bis dahin historisch unbekannten Ausmaß kulturell
konzessioniert. Eine funktionale, bloß technische Sichtweise der verwendeten Mittel und
damit Offenheit für Innovation gelten in einer zunehmenden Zahl privater und öffentlicher
Handlungsbereiche als normgerecht und normal (Daele 1989, 200). Die Veralltäglichung und
Gewöhnung führt zum Natürlichwerden neuer Technik. Logisch führt kein Weg vom Sein
zum Sollen. Als soziologisches und kulturelles Phänomen ist es eine Trivialität, dass neues
Tatsachenwissen unsere Wertvorstellungen verändert. Es fragt sich jedoch, ob solche Tabus
der Natürlichkeit im Hinblick auf den menschlichen Leib und seine Reproduktion dem
Ansturm neuer technischer Möglichkeiten standhalten (Daele 1989, 207-210).

Konstruktivistische Technikphilosophie verdankt sich zunächst der zentralen Einsicht, dass


Wissenschaft einer technischen Praxis erwächst. Technik aber wird wissenschaftstheoretisch
vom Rechtfertigungsdialog aus rekonstruiert. Wenn aber Wissenschaft und Technik andere
Arten von Handlungen zugrunde liegen - Begründungspraxis und Herstellungspraxis -, dann
bedarf es auch eines anderen methodologischen Rüstzeugs, um Technik zu begreifen. Aus
hermeneutischer Sichtweise stellt konstruktivistische Technikphilosophie eine Verengung auf
Rekonstruktionen in Rechtfertigungsabsicht dar. Aber technisches Handeln primär meint ein
„sich-verstehen-auf“, nicht ein „sich-rechtfertigen“. Aus wissenschaftstheoretischer Sicht auf
Technik ist die Rechtfertigungsfrage in der Tat leitend. Sie führt zu einer Theorie der
rationalen Folgenbewertung (Grunwald/Saupe 1999, 96). Technikgestaltende Praktiker stehen
mit ihren Bedürfnissen, in konkreten Einzelfällen oder auch kontinuierlich, ethische
Hilfestellung zu erhalten, außerhalb des universitären Systems. Den meisten an
Technikgestaltung Beteiligten fehlen Informationen über die jeweils andere Seite, wodurch
bereits im Vorfeld mögliche ethische Beratung verhindert wird, zum anderen sind die
Kontaktmöglichkeiten mit eher abschreckend hohem Aufwand verbunden. Es fehlt zum einen

44
der Überblick über die vorhandenen Angebote, bzw. die Nachfrage, zum anderen ein
Mechanismus, Angebot und Nachfrage zusammen zu bringen. Mit anderen Worten: es fehlt
ein funktionierender Markt. Wir brauchen einen passend gestalteten Marktplatz für Ethik in
der Technikgestaltung (Grunwald/Saupe 1999, 102-105). Sie wird allerdings von einer herme-
neutischen Technikphilosophie in wesentlichen Punkten ergänzt.

45
1. Gelehrte technische Kunstkultur, der Ingenieur und die
Ingenieurwissenschaften
In der „Querelle des anciens et des modernes" („Streit der Traditionalisten und der Moder-
nen") über den Wert der Tradition in der Bestimmung des Menschen) profiliert sich der
Fortschrittsbegriff zum ersten Mal in einer positiven Variante. Charles Perrault hat 1691 den
Siegeszug der rationalen Philosophie und der experimentellen Wissenschaften zum Anlass
genommen, Fortschritt im Sinne des wissenschaftlichen Fortschrittes zu definieren. Perrault
geht von der Überlegenheit der Modernen aus und verzeitlicht dabei das Konzept des
Fortschrittes. Der Begriff des Fortschrittes steht anfangs noch im Bann der humanistischen
„Perfectio", der Vervollkommnung des Menschen und der Menschheit. Die Formulierung der
Fortschritte der Künste und der Wissenschaften kommt bei diesem Streit am häufigsten vor.
Zwar wird in der „Querelle" der Fortschritt häufiger umschrieben als direkt versprachlicht,
aber sobald sich das neue Weltbild Bahn gebrochen hat, steht sein Leitbegriff bereit, der
freilich durch seine Rückbindung an die „perfectio" noch nicht in eine offene Zukunft
ausgreift. Neben Perrault war Bernard de Fontenelle der zweite Wortführer der Modernen. Er
versteht Fortschritt und Entwicklung analog zum Vorgang des organischen Wachstums. Hier
liegt noch das Perfektionsmodell zugrunde, das von einer Präformation des Endes im Anfang
der Geschichte ausgeht. Die wachsenden Erkenntnisse im Bereich der exakten Wissen-
schaften können nicht mit den künstlerischen Leistungen einer Zeit verglichen werden: Zu
unterscheiden ist zwischen den in einer kurzen Periode vollendbaren künstlerischen Dingen
der Einbildungskraft und der erst allmählich sich entwickelnden und nie wirklich abgeschlos-
senen Methode des Nachdenkens. Beide zu vereinen gelang ihm schließlich durch den
Kunstgriff, dass er die Menschheitsgeschichte mit der Lebenszeit und den Altersstufen der
Menschheit parallelisiert. Im epochalen Prozess der Ablösung des Zyklenmodells ist die
Fortschrittstheorie bei Fontenelle als Wendepunkt zu bezeichnen (Gembicki, Reichardt 1993,
111-114).

In der Abhandlung „Vom Wesen und Weg der geistigen Bildung“ von Vico werden nicht
unsere Wissenschaften, sondern unsere Studiermethoden mit denen der Alten verglichen. Die
Vorteile unserer Studienart in Anbetracht der Werkzeuge unserer Wissenschaften wie Mikro-
skop, Teleskop und Kompass sind mit den Nachteilen der neuen Kritik zu vergleichen,
insofern sie der klugen Einsicht im Wege stehen (Vico 1947, 7). Den Künsten dienen als
gemeinsame Werkzeuge die neue Wissenskritik und ihre Methode, die an die Stelle der
Klugheit getreten ist. Der Anatomie dient das Mikroskop, das Teleskop der Astronomie, der
Geographie endlich der Kompass. Die alten Zeiten der praktischen Erfahrung bzw. Klugheit
werden nun instrumentell ersetzt. Allgemein verehrt und gepriesen wird jedoch übergreifend
die Wahrheit. Auch wenn man im Einzelnen nicht immer ein klares Urteil zu Gunsten der
neueren Methoden fällen kann, so erscheint jedoch auch für Vico ohne Zweifel die Art und
Weise unserer Studien gegenüber der des Altertums als die wichtigere und bessere (Vico
1947, 17-19). Bei den Modernen beginnen alle Studien mit der Erkenntniskritik. Allerdings
sollte man den Jugendlichen auch den natürlichen Allgemeinsinn, den sensus communis, nahe
bringen. Denn der natürliche Allgemeinsinn ist die Norm aller praktischen Klugheit (Vico
1947, 27). Wenn wir die Wunderwerke des Altertums betrachten, so zeugen diese mehr von
ihrer Macht, als von einer Technik, in der sie uns etwa überlegen wären. Von den
schwebenden Kuppeln der Kirchen aber hat, ehe sie gebaut wurden, die Architektur selbst
erklärt, sie könnten nicht gebaut werden. Philippo Brunelleschi baute trotz aller Einwände auf

46
vier frei schwebenden Punkten die ungeheuren Massen einer ins Unermessliche aufsteigenden
Kuppel. P. Perotus konstruierte nach analytischen Regeln mit allen Vermessungen ein Schiff,
von dem er hoffte, es würde alle an Beweglichkeit übertreffen; als es ins Meer kam, lief es auf
eine Klippe. Also stellt Vico in Frage, ob die moderne mathematische Methode tatsächlich
das leisten könnte, was man ihr zuschreibt und ein wirkungsvoller Ersatz für berufliche
Erfahrung darstellen kann (Vico 1947, 49-51).

Und darin besteht eigentlich der Unterschied zwischen Wissenschaft und Klugheit, dass in der
Wissenschaft diejenigen groß sind, die von einer einzigen Ursache möglichst viele Wirkungen
in der Natur ableiten, in der Klugheit aber all diejenigen Meister sind, die für eine Tatsache
möglichst viele Ursachen aufsuchen, um dann zu erschließen, welche die wahre ist. Und das
ist so, weil die Wissenschaft auf die obersten, die Klugheit auf die untersten Wahrheiten
blickt (Vico 1947, 61). Vico also plädiert für das Ziel, dass wir den Alten in der Weisheit und
in der Redekunst ebenso gleich kommen, wie wir sie im Wissen übertreffen (Vico 1947, 75).
Darin sind die Geometriker ausgezeichnet, die aus falschen Voraussetzungen und falschen
Gegebenheiten Kraft ihrer Methode folgerichtige Wahrheiten hervor gehen lassen. Denn der
Dichter lehrt durch Lust, was der Philosoph mit Strenge lehrt; beide lehren die Pflichten,
beide beschreiben die Sitten der Menschen, beide ermuntern zur Tugend und wenden vom
Laster ab; aber der Philosoph, der es mit Geschulten zu tun hat, spricht davon in allgemeinen
Begriffen – der Dichter dagegen, der sich an das Volk wendet, überzeugt durch die erhabenen
Taten und Worte seiner Personen, die er als Beispiele erdacht hat (Vico 1947, 79).

Eine Experimental- und Instrumentenkunst auf Erfahrungsbasis entwickelt sich in der Renais-
sance. Das „Kunde-“, „Kunst-„ oder „Ars“-Paradigma von Technik wurde damit aber noch
nicht verlassen. Es bildete sich aber allmählich eine gelehrte Kunstkultur technischer Art
heraus, vor deren Hintergrund allmählich ein neues technisches Berufsbild entstand, der Inge-
nieur, verbunden mit einer neuen technischen Konstruktionspraxis, die allmählich die Stufe
des Handwerkers, zumal in seiner zunftmäßigen Begrenzung überwand. So etwas wie eine
technische Intelligenz entstand im Zeitalter der Renaissance. Leonardo da Vinci gilt als erster
Künstleringenieur, wobei er eine Reihe von Vorläufern hatte. Mittlerweile hat die Forschung
deutlich gemacht, dass die meisten seiner Entwürfe eher eine Verbesserung oder eine Erwei-
terung von bereits vorhandenen Erfindungen darstellen, einige allerdings eigene Entwürfe
sind. Brunelleschi stand in enger Verbindung zur mathematischen Konstruktionslehre und
entdeckte die Zentralperspektive, der Schritt von der reinen Wahrnehmungslehre zur Abbil-
dungslehre, zum mathematisch konstruierten perspektivischen Bild war gelungen. In ver-
gleichbarer Weise entwarf Albrecht Dürer 1527 in seinem Werk über die Befestigungskunst
Anlagen, die hervorragend durchdacht und optimal konstruiert, aber aufgrund der dafür erfor-
derlich gehaltenen Abmessungen allein aus Kostengründen kaum zu realisieren waren. Auch
Leonardo da Vinci betonte den Wert der schriftlichen Überlieferung von Technik. Als er 1519
in Amboise starb, hatte die Trennung von Technik und Kunst zugunsten einer neuen
Kombination von Technik und Wissenschaft bereits begonnen. Der Prozess sollte noch zwei
Jahrhunderte andauern, an deren Ende die strikte berufliche Trennung in die ausschließlich
den Naturwissenschaften zugewandten Ingenieure und die auch weiterhin der Kunst
verbundenen Architekten stand (Ludwig, Schmidtchen 1992, 588-598).

Humanismus und Renaissance des 14. und 15. Jh. gehen von einer Rückorientierung in Kunst
und Architektur an der Antike aus – allerdings aus einer neuen Perspektive, der des kreativen
Individuums. Vitruvs Werk über Architektur wird rezipiert. Das 10. Buch über Mechanik fin-
det besonderes Interesse, wobei das geometrische Denken bei Aristoteles und bei Archimedes
vorbildlich wirken. Zentraler Anknüpfungspunkt war die römische Wölbekunst. Die Beherr-
schung der Geometrie auf der Zeichnung auf dem Brett und auf dem Riss mit dem Schnür-

47
boden durch räumliche Vorstellungskraft, die Grund- und Aufrisszeichnungen zum Raum
verdichtet bis zur gestalterischen Durchdringung des Details gehören zu den Voraussetzun-
gen, um den Bauentwurf zur konstruktiven durch Bildung des Bauwerkes zur gestalterischen
Einheit zu bringen. Ebenso muss der Bauingenieur über organisatorische Fähigkeiten ver-
fügen, um den Baubetrieb zu beherrschen. Der Vergleich mit heute überrascht durch Überein-
stimmung. Der Bauingenieur musste mit privaten, halböffentlichen und öffentlichen Bauher-
ren umgehen können (Jesberg 1996, 31). Im Kontext des Humanismus und der Renaissance
entstand die Idee der ingeniösen Tätigkeiten nicht zuletzt im Rahmen der Ingenieurbaukunst.
Der Techniker hat die Aufgabe, ein Sachsystem entstehen zu lassen. Dem Architekten obliegt
die Gestaltung des Bauwerkes. Durch die Trennung von Architekt und Bauingenieur wurden
der geistige und der technische Teil im Bauwesen getrennt. Der Ingenieur ist für die
Widerstandsfähigkeit und Brauchbarkeit des baulichen Artefaktes und für die Sicherheit
gegenüber vorhersehbaren Risiken verantwortlich. Dabei wird auf Grenzwerte hin optimiert.
Dadurch entsteht die Gefahr einer Beschränkung nur auf die bautechnische Seite. Aber insge-
samt gesehen hat sich der Mensch mit seiner Technik entwickelt und seinen Lebensraum im-
mer ausgeprägter artifiziell gestaltet (Jesberg 1996, 9f).

Brunelleschi war ein neuer Typ von Ingenieur, der sich durch Vermittlung Toscanellis
(angeblich) ungeheueres geometrisches Wissen angeeignet hatte (Jesberg 1996, 46f). Der Bau
der Kuppel des Florentiner Doms folgte der Methode der ansteigenden Segel ohne (äußeres)
Gerüst durch die Errichtung zweier Schalen, die sich gegenseitig stützten. Alberti sprach vom
universal gebildeten Menschen und Antonio Averlino (1400-1469) entwarf eine Idealstadt
und das Ospedale Maggiore in Mailand (Jesberg 1996, 52). Anthropometrie und Anthropo-
morphie im Bauen wurden angestrebt. Die Lehre des zentralen Platzes wurde entdeckt und
schiffbare Kanäle zum Transport schwerer Lasten in die Idealstadt eingeführt. Die humane
und die humanistische Stadt sollten realisiert werden. Leonardo da Vinci war der Naturwis-
senschaftler als Künstler und Ingenieur. Die Idee, die jeder technischen Handlung zugrunde
liegen sollte, muss jeweils möglichst ganzheitlich sein. So waren architektonische Entschei-
dungen raumordnend und gestaltbezogen. Die Beanspruchung von Werkstoffen zur Zeit
Leonardos war nur aufgrund von Verformungen nach Bauschäden abzuschätzen. Dabei ent-
wickelte Leonardo beeindruckende Tragwerksideen. Die in einer Zeichnung implizit enthalte-
nen mathematischen Aussagen verrieten ein umfassendes Wissen.

Die Methode der anschaulichen Naturforschung, nicht die der mathematischen Beweis-
führung war der Ausgangspunkt einer humanistischen Idee der Bauingenieurkunst. Dabei
ging es um den Vergleich von Verhältnissen und Proportionen. Das forschende Denken im
Bereich der Mechanik und der Festigkeitslehre orientierte sich an der Naturforschung. Das
Gleichgewicht der Kräfte, das Kräfteparallelogramm, wurde in seiner Bedeutung von
Leonardo als einem der ersten erkannt. Hebelgesetze, Biegefestigkeit und Widerstandsmo-
ment wurden mit Eigenschaften von Werkstoffen kombiniert, so dass Kriegsmaschinen, Zen-
tralbauten und Stadtanlagen neu konstruiert werden konnten. Dies alles diente der
Vervollkommnung des Menschen, dem fundamentalen Ziel des Humanismus. Beschrieben
wird dies bei Mariano Giachomo Vanni (1382 - 1453), genannt Taccola, in seinem Werk „De
Ingeneis“ (1433) und in „De Machinis“ (1449). Zu den Handwerksingenieuren gehörte Nicolo
Tartaglia (1499/1500 -1557), der niederer Herkunft war, einen Sprachfehler hatte und mathe-
matischer Autodidakt war. Das Ingenium als Grundlage des Begriffs des Ingenieurs enthält
drei Bedeutungsdimensionen: (1) die angeborene Beschaffenheit des Menschen aus Tempera-
ment, Charakter und Sinnesart, (2) die Fähigkeit des Menschen, durch Beweglichkeit des
Denkens, Scharfsinnigkeit und Phantasie den Phänomenen zu begegnen und sie zu durch-
schauen und (3) den Einfallsreichtum des Menschen, seine Fähigkeit zur forschenden Ent-
deckung (Jesberg 1996, 61-64).

48
Die ingeniöse Tätigkeit umfasste ein konzeptionelles wie auch induktives Denken und
Handeln. Es handelt sich um ein konstruktiv-entwerfendes Denken in der Praxis, wodurch
letztlich das Kunst-Konzept und Kunst-Paradigma charakterisiert ist. Die Hauptvertreter eines
humanistischen Ingenieursverständnisses waren Leonardo Bruni (1369-1444), Juan Luis
Vives (1492-1540) und Gracian Y. Morales (1601-1658). Zur humanistischen Baukultur ge-
hörten Sebastiano Serlio (1475-1553/44) und Vincenzo Scamozzi (1548-1616). Als eines der
vollkommendsten Werke dieser Idee gilt Palladios Brücke über die Brenta bei Bassano und
eine Reihe von Villen an diesem Fluss. Die Villenanlagen basierten auf einem harmonischen
Proportionssystem gemäß dem humanistischen Leitbild des Zentralbaus. Das Kuppelgewölbe
wird zum Abbild des erhobenen menschlichen Hauptes, dem Zentrum des Denkens. Auch der
Idealplan für Sankt Peter ging zunächst von einem Zentralbau aus. Dies führte zu einer
Auseinandersetzung zwischen der scholastischen Kreuzvorstellung und der humanistischen
Zentralbauidee für Sankt Peter. Michelangelo vertrat die Idee des Zentralbaus. Wesentlich
Neues für die Konstruktion brachte die Kuppel des Petersdomes nicht.

Die Begegnung zwischen Wissenschaft und Technik am Ende des 15. Jh. ist sicherlich eine
der interessantesten Konsequenzen des Humanismus. Leonardo war insgesamt betrachtet ein
Stubengelehrter, ein Bücherwurm, ein Künstler, der gleichzeitig auch Techniker und
Gelehrter war. Aber Entlehntes und Eigenes im Werke von Leonardo sind nicht einfach
voneinander zu trennen. Leonardos Aufzeichnungen sind nie eine reine Kopie. Aber die enge
Verbindung zwischen technischem und naturwissenschaftlichem Denken tritt klar zutage.
Seine Behandlung von Versuchsmodellen verweist auf die Experimentalwissenschaft voraus.
Leonardo aber war ein Prophet und kein Mann der Tat. Seine Zeichnungen und sein Sinn für
die Technik erscheinen als eine Art von Spielerei. Dieses Denken ist aber das für die damalige
Zeit typisch (Gille 1968, 7-13). Er ist eher ein Mann des Entwurfes und nicht der Kon-
struktionspraxis. Dennoch ändern sich die Leitbilder für die Konstruktionspraxis allmählich.

Als positiv ist der Einbruch der Mathematik in das scholastische Lehrwesen zu bewerten. Es
kommt zu einer gegenseitigen Durchdringung der Wissensgebiete. Italienische Fürsten
gründeten die ersten Forschungszentren. Um die Mitte des 15. Jh. war Mailand bereits ein
Zentrum der Technik. Urbino wurde ein Zentrum des Humanismus. Aus der verachteten
Technik war nunmehr am Ende der Renaissance eine der beherrschenden Tätigkeiten der
modernen Gesellschaft geworden. Der Ingenieur bekommt eine Zukunft. Es kommt zur Erfin-
dung des vierrädrigen Wagens mit lenkbarer Vorderachse, zur Erfindung von Blasebälgen für
die Eisenverhüttung. Erst im 16. Jh. begann die eigentliche Verbreitung des Hochofens und
des Tretspinnrades. Kanonen wurden möglicherweise zuerst von den Verteidigern einer Fes-
tung benutzt. Eine andere Bauweise von Festungen war durch die Kanonen erforderlich
geworden. Frankreich ging in diesem Punkt der Entwicklung voran. Der technische Humanis-
mus half zur Verbreitung der Bibel durch den Buchdruck. Am Ende des 15. Jh. waren schon
recht viele technische Werke im Druck erschienen. Die meisten Ingenieure der Renaissance
lebten in einer stark von Platon geprägten Welt (Gille 1968, 49-71).

In der Renaissance fand ein tiefgreifender Wandel der Kriegstechnik durch die Feuerwaffen
statt. Vor dem letzten Viertel des 15. Jh. hatten die Feuerwaffen aber noch keinen
entscheidenden Einfluss auf den Ausgang von Schlachten. Der typische Vertreter dieser
neuen Generation ist Leon Battista Alberti (1404-1472). Er war aber eher Forscher als
Praktiker, stammte von neureichen politischen Eltern, dessen Familie sich im politischen Exil
befand. Aufgrund der vielseitigen Erziehung in mehreren oberitalienischen Städten entwickel-
te sich sein Sinn für Wissenschaft und Technik. Viele technische Schriften sind verloren
gegangen, darunter die über die Physik und die Perspektive. Seine Abhandlung über die
Architektur stellt die Arbeitsgebiete dar, die fortan zu den Aufgabengebieten von Ingenieuren

49
gehören. Sein Streben nach mathematischer und städtebaulicher Harmonie ist charakteristisch
geworden. Der eigentlich ingenieurmäßige und kriegstechnische Anteil in seinem Werk ist
jedoch noch unbedeutend. Aus seinem Werk spricht nicht der präzise Techniker, sondern ein
sich von der Wirklichkeit lösender Lehrer und Denker (Gille 1968, 110-131). Antonio
Francesco Averlino (1416-1470) war ein konkreter Techniker, aber weniger gebildet. Er
entwarf die Idealstadt Sforzinda. Ein großer Teil der technischen Literatur dieser Zeit bleibt
noch dem herkömmlichen verhaftet. Aber man spürt die Suche nach neuen Wegen besonders
im Bereich der Architektur. So lässt sich allmählich das Aufkommen universeller Ingenieure
feststellen. Der technische Fortschritt ist das Ergebnis aller Bemühungen der Praktiker und
wohl auch aus dem Hang entstanden, aufgetretene Probleme zu verallgemeinern. Lorenzo
Ghiberti (1378-1455) schrieb seine Kommentare am Ende seines Lebens. Er behandelt
Architektur, Metallurgie, Artillerie und vor allem das Gießereiwesen sowohl für Glocken wie
Geschütze. Ein zentrales Problem zu dieser Zeit stellt die Eichung der Kaliber und Visiere
dar. Es kommt insgesamt in der Renaissance zu einer Verschriftlichung der mündlichen
Tradition, allerdings erst gegen Ende (Gille 1968, 131-143).

Der Neubeginn der Ingenieurstechnik geht trotz der Phantasie der Ingenieure langsam vor
sich. Ein zentrales Gebiet des Fortschreitens im Ingenieurwesen waren Getriebe für Maschi-
nenkonstruktionen. Ein wichtiges Element war die Suche nach einem Mechanismus zur
Änderung der Geschwindigkeit. Neu war der Kurbelantrieb. Ein Schwungrad wurde ent-
wickelt für die beiden Todpunkte bei der Kreisbewegung. So entwickelte sich die Idee eines
Fliehkraftreglers. Die Getreidemühle war ein häufiger Gegenstand der Darstellung. Auch
Rammen für Bohrungen wurden häufig gezeichnet. Die Praktiker der damaligen Zeit hatten
keine Zeit zum lesen. In den nachfolgenden Generationen werden der Festungsbau und die
Mechanik Sache für Spezialisten unter den Ingenieuren (Gille 1968, 144-173). Die Ingenieure
benutzten die durch Überlieferung und handwerkliche Erfahrungen gewonnenen Erkennt-
nisse, ohne sie zum Mittelpunkt ihres Schaffens zu machen. Sie waren geprägt durch den
Zeitgeist. Der Ingenieur des hier beschriebenen Typus starb im ersten Viertel des 16. Jh. aus.
Es erfolgte eine weitere Spezialisierung. Aber alle interessierten sich weiterhin für mecha-
nische Spielereien. Das ist die letzte Bindung an die antike Tradition. Leonardo war ein ge-
schickter Zeichner von allen Arten von Maschinen, aber war er wirklich ein geschickter
Maschinenbauer? Er interessierte sich jedenfalls für Maschinen. Dabei gab es rein technisch
gesehen Schwierigkeiten bei der konkreten Verwirklichung des Kurbelantriebs. Leonardo
teilte das Streben nach Mechanisierung. Viele mechanische Probleme kann der Zeichenstift
nicht ausdrücken, nicht berücksichtigen und nicht lösen. Zwischen einer Zeichnung
Leonardos und ihrer Verwirklichung liegen oft Jahrhunderte. Die maschinentechnischen
Kenntnisse Leonardos waren insgesamt ziemlich begrenzt. Er entwarf aber und vervollkomm-
nete Textilmaschinen. Seine eigentliche Stärke war die Verbesserung von Verfahren und der
Mechanismen von Arbeitsvorgängen (Gille 1968, 220-236).

Leonardo da Vinci hat versucht, der Technik einen anderen Sinn zu geben als den der reinen
Zweckmäßigkeit und des puren Erfolgs. Wissenschaftliches Erkennen und technisches Ex-
perimentieren sollten sich miteinander verbinden. Damit stellte sich auch die Frage nach der
Methode der Erfindung. Bei der Suche nach geeigneten Getrieben konnte er diese Experimen-
tierphase verwirklichen, aber die Getriebe waren aus Holz und somit aus einem ungeeigneten
Material. Die technische Konstruktionspraxis und die Idee von ihr verändern sich. Durch die
Experimentierkunst wird Innovation zum leitenden Paradigma technischer Konstruktions-
praxis noch im Kunst-Paradigma. Es ist schlecht vorstellbar, dass er nicht begriffen hätte, dass
die Lösung der Getriebeprobleme für das ganze künftige Maschinenwesen von ausschlag-
gebender Bedeutung war. Leonardo aber verwendete die falsche Geometrie und das falsche
Material. So ging es ihm zwar um eine Art Gangschaltung, er kam aber nicht zu realisierbaren

50
Resultaten. Die Suche nach Getrieben mit größerer mechanischer Festigkeit und gleichmäßi-
gerem Lauf und nach statischer Festigkeit der Bauten waren zwar die richtigen Themen, aber
seine Ansatzpunkte zur Realisierung waren letztendlich für die Lösung nicht geeignet. Im
Hinblick auf die Frage von Festigkeit von Mauern bemühte er sich um einzelne Formeln und
um die Deutung von Rissen. Dazu stellte er Biegeversuche an. Der Ingenieur begnügte sich
oft mit angenäherten Zahlen und Formeln und kam letztendlich im Hinblick auf die Theorie
des steinernen Bogens doch ein ganzes Stück voran. Er bemühte sich um Gesetze zur
Festigkeit von Säulen (Gille 1968, 242-251).

Leonardo hat Versuche mit kleinen Modellen gemacht. Er benutzte dazu gefärbtes Wasser.
Diese Experimente hatten aber ihre Grenzen: Vor allem waren es unklare sprachliche Mittel
zur Beschreibung von Experimenten, die an einer präzisen Erfassung des Untersuchten
hinderten. Er untersuchte Wasserfälle und Strudel, Wasserräder und beschrieb die Leistungen
des Rades. Wenn die Technik wissenschaftlichen Normen entsprechen soll, muss sie be-
stimmten Bedingungen genügen. Die Probleme des Messens lagen dabei zwischen Wissen-
schaft und Technik. Alle Messinstrumente von Leonardo dienen der besseren Lösung tech-
nischer Aufgaben. Auch die Gedanken Leonardos über den Dampf bewegen sich völlig in der
herkömmlichen Überlieferung. Diese knüpft an die Dampfkugel Herons an. Leonardo hat die
Geheimnisse des Dampfes nicht ergründet. Seine Zielsetzung in diesem Bereich ist nicht
wissenschaftlich, sondern pragmatisch. Dabei geht es ihm allerdings um das Streben nach
rationaler Erkenntnis (Gille 1968, 252-272).

Die Zeichnungen enthüllen nicht das ganze technische Wissen der damaligen Zeit. In der Zeit
der Renaissance setzte eine Spezialisierung in der technischen Forschung ein. Jacques Besson
und Agostino Ramelli waren Verfasser von Maschinenbüchern. Erwähnt werden vielfach
Ideen, die sich zu dieser Zeit noch nicht ausführen ließen. Größere Bauten entstanden im
Zeitalter des beginnenden Absolutismus. Auch Deichbauanlagen und Anlagen zur Land-
gewinnung gehören zu den damaligen Großprojekten. Der Frischofen und der Redu-zierofen
im Zusammenhang mit Hochöfen demonstrieren die neuen Möglichkeiten in der Verarbeitung
von Metall, insbesondere von Eisen. Ende des 15. Jh. befindet sich die Kriegstechnik in einem
tiefgreifenden Wandel. Die französische Artillerie hatte 1494 in Italien durchschlagende
Wirkung. Aufgrund des Rückgriffs auf die Antike schleppte man viele nutzlose Waffen (für
die Erstürmung fester Plätze) mit. Die Zeit des Experimentierens auf dem Gebiet des
Festungsbaus ist eindrucksvoll. Man brauchte insbesondere primitivere Naturen, die es ver-
standen, Kanonen zu gießen und Bastionen zu bauen, ohne sich mit einer überholten Vergan-
genheit zu belasten (Gille 1968, 275-309).

Die Ingenieure der Renaissance stehen dem Neubeginn der Wissenschaft sehr nahe. Es sind
aber noch immer wenig entwickelte Formen der Mathematik, die an der Universität gelehrt
werden. Ingenieure waren bemerkenswert, weil sie nicht nur Ingenieure waren, sondern an
den Bemühungen teilhatten, aus denen die neue Wissenschaft hervorging. Die Gemeinsamkeit
zwischen Wissenschaftlern und Technikern, die bis zum Ende des 18. Jh. erhalten blieb,
wurde in der Renaissance generiert. Die aufsteigende Bedeutung von Buchhaltungsfragen war
zweifellos der Ursprung der abstrakten mathematischen Spekulation. Nur die doppelte
Buchführung konnte den Begriff der negativen Zahlen prägen. Die Geometrie scheint rein
technischen Zwecken gedient zu haben. Dies kann man z.B. an der Impetus-Theorie ablesen.
Hier geht es um die Flugbahn eines Geschosses. Die Berechnung der Flugbahn eines
Geschosses war bis zu einem gewissen Grad abhängig von theoretischen Berechnungen. Aber
auch die Erfahrungen des Geschützmeisters waren relevant. Die Ballistik von Tartaglia ist auf
diesem Gebiet erwähnenswert. Giovanni Battista Benedetti (1530-1590) steht von allen
Praktikern der Renaissance der modernen Wissenschaft am nächsten und ist der unmittelbare

51
Vorgänger von Galilei. Falsche Interpretationen der Praxis waren genauso hinderlich wie
falsche Theorien (z. B. die Impetus-Theorie). Es kam zu einem Wandel der Denkmethoden
durch die Technik. Das Pendel und die Uhr: An diesen Bereichen der Mechanik wurde
deutlich, dass neue Denkformen erforderlich waren. Auch die Erfassung der kontinuierlichen
Drehbewegung, die Arbeit am Trägheitsprinzip und die Definition des Massebegriffs waren
wichtige Elemente in der Entwicklung der Ingenieurwissenschaften (Gille 1968, 311-342).
Der Hunger nach Macht treibt die Menschen zum Fortschritt.

Auch der Späthumanismus war durch eine Nähe zum Ingenieurbau gekennzeichnet und
ebenfalls an die Stadtkultur gebunden. Öffentliche Bauten, insbesondere die neuen
Universitäten, konnten aus der Stadtkultur des Späthumanismus heraus gestaltet werden.
Hinzu kam ein neues Interesse am Montanwesen, wie es sich im Werk von Agricola
manifestiert. Es geht um die Genauigkeit der Darstellung der Maschinen. Ansatzpunkt für
eine weiterentwickelte Wölbkunst waren die Hallenkirchen in Sachsen (Freiberg, Annaberg,
Pirna). Sie manifestierte sich aber auch z.B. in der Burg zu Meißen und in Prag. Der Ingenieur
wurde zum Gestalter des Raums. Die Zimmermannskunst gründet sich auf statisch-
konstruktives Wissen aus der Erfahrung und aufgrund von intuitiven Erkenntnissen über die
Verteilung der Kräfte in Zug und Druck und deren Übertragung zu Fachwerk- und
Bindekonstruktionen in gegenseitiger Abhängigkeit (Jesberg 1996, 95).

An einem Sommertag im Jahre 1455 genossen die Bürger Bolognas ein ganz unglaubliches
Schauspiel: Während ein Junge die Glocken auf dem Kirchturm von S. Maria del Tempio
zum Festtagsgeläut schlug, setzte der sich in Bewegung und wurde um einige Meter
verschoben. Inszeniert wurde dies von dem städtischen Ingenieur Aristotele Fioravanti (ca.
1415-1485). Dieser sollte zeitlebens dafür berühmt bleiben, Türme komplett zu versetzen;
leider wissen wir nicht, welche Hebe- und Zugsysteme er dabei einsetzte. Gewagte
Konstruktionen, komplexe Maschinen, logistisch anspruchsvolle Bauprojekte – wer solche
Aufgaben erfolgreich bewältigte, dem winkte nun Ruhm und Ehre. Diese Männer waren Teil
einer neuen „technischen Intelligenz“, deren Vertreter außerhalb des Zunftwesens der
Handwerker anspruchsvolle technische Aufgaben realisierten. Den Anstoß zu dieser
europäischen Entwicklung mit Zentren in Italien und den Niederlanden lieferten die Fürsten
mit ihren politischen, wirtschaftlichen und kulturellen Ambitionen. Experten im Festungs-,
Wasser- und Maschinenbau verstanden sich nun als Gelehrte mit besonderen Fähigkeiten. Die
Abgrenzung untereinander war ebenso fließend wie die zum Architekten. Anspruchsvolle
technische Aufgaben stellten sich traditionell im Kirchenbau. Leonardo da Vinci war mit
seinen Studien zu Maschinenelementen und seinen Versuchen, grundsätzliche Probleme wie
die Reibung oder die Kraftübertragung zu untersuchen und dafür allgemeine Regeln
aufzustellen, ein wichtiger Bestandteil dieser gelehrten technischen Kultur (Popplow 2004,
2f).

Doch auch viele andere Zeitgenossen suchten die Leistungen von Mühlenwerken,
Wasserhebeanlagen und Hebezeug zu verbessern und der Maschinentechnik neue Anwen-
dungsgebiete zu erschließen. Das Ergebnis waren beispielsweise Mühlen, deren Wasserrad
sich je nach Pegelstand verstellen ließ, neue Arten von Nassbaggern zum Säubern von
Hafenbecken oder aber leistungsfähige Pumpwerke zur Grubenentwässerung im Bergbau.
Neben komplexer mechanischer Technik waren insbesondere Großprojekte der Karriere eines
Ingenieurs förderlich. Kanäle zur Be- und Entwässerung prägten in den Niederlanden und
auch Italien ganze Landstriche, Wasserstraßen boten im Binnenland zudem den kosten-
günstigsten Transport für Massengüter. Lukrativ und anspruchsvoll war auch der Festungs-
bau. In ganz Europa entstanden im 16. Jh. völlig neue Festungsanlagen mit ausladenden
Bastionen aufgrund der neuen Feuertechnik (Popplow 2004, 3). Wie wichtig den Territorial-

52
herren solch technischer Fortschritt war, zeigen die sog. Erfinderprivilegien, die eine
Grundlage des modernen Patentwesens darstellen. Seit dem 15. Jh. boten zahlreiche europä-
ische Herrscher Schutz vor dem unbefugten Nachbau von Erfindungen. Ausgehend von
Italien und den deutschen Bergbaugebieten wurden bis um 1600 europaweit mehrere tausend
solcher Privilegien vergeben, die meisten für kleine Innovationen der Maschinentechnik.
Dieses Rechtsinstrument sollte Ingenieure ermutigen, ihre technischen Geheimnisse zum
Wohl der Allgemeinheit preiszugeben. Um den Erfinder zu schützen, erhält dieser das
Privileg häufig schon, bevor er seine Erfindung vollständig offengelegt hatte – allerdings
musste er die Funktionsfähigkeit seiner Anlage im Laufe eines halben Jahres nachweisen,
ansonsten verfiel der Schutz vor unbefugtem Nachbau (Popplow 2004, 4).

Demgegenüber blieben die sozialen Auswirkungen der Maschinentechnik in der Renaissance


im Vergleich der industriellen Revolution des 19. Jh. doch sehr begrenzt. Mobilität war ein
zentrales Charakteristikum der Biografien dieser beginnenden Ingenieure. Technische
Zeichnungen, deren Darstellungsmöglichkeiten sich nach der Erfindung der Perspektive im
15. Jh. rapide entwickelte, spielten nun eine zentrale Rolle in der Kommunikation mit
Auftraggebern und Kollegen. Wie auch anderen gesellschaftlichen Gruppen bot der Buch-
druck den Ingenieuren ganz neue Möglichkeiten der Selbstdarstellung in der Gelehrtenkultur.
Im 16. Jh. erschienen, in Anlehnung an die mittelalterlichen Vorläufer prachtvoll gedruckte
Schaubücher der Maschinentechnik, häufig mit dem Titel „Maschinentheater“. Neu, nützlich
und erfindungsreich – mit diesen Attributen charakterisierten die Ingenieure ein um das
andere Mal ihre Projekte. Sie entstammen einer intensiven Theoriediskussion. Häufig wurden
an kleinen Modellen von Maschinenelementen einzelne technische Probleme getestet. Dabei
kam es bisweilen bei der Übertragung in den 1:1 Maßstab zu teuren Experimenten. Der
Übergang von technischem Herumexperimentieren zum wissenschaftlichen Experiment war
hier aus heutiger Perspektive durchaus fließend. War Galileio Galilei Wissenschaftler oder
Ingenieur, Leonardo da Vinci Künstler oder Erfinder? Alle diese Etiketten versagen in einer
Zeit, die für neue technische Herausforderungen noch keinen fest gefügten Karrierepfad
bereithielten. Angespornt von ständig neuen Herausforderungen seitens der Auftraggeber
eigneten sich Technikexperten Gelehrtenwissen und konfrontierte ihrerseits die Wissenschaft
mit neuen Fragestellungen (Popplow 2004, 4f).

Die technische Revolution, mit der es die Mechaniker der Renaissance und der Neuzeit zu tun
haben, besteht nicht in der bloßen Vervielfältigung des Gebrauchs der einfachen Maschinen
oder Kombinationen einfacher Maschinen. Das spezifisch neue der technischen Revolution
besteht darin, dass nicht nur Instrumente, sondern auch Bewegungen von Instrumenten
gebraucht werden, und zwar so, dass Kräfte gespart werden können. Diese Nutzbarmachung
von Bewegung setzt die Organisation der Instrumente in einem besonderen Mechanismus
voraus, der am frühesten in Mühlen verwirklicht worden ist. Die Mühle bleibt bis zum Beginn
der Industriellen Revolution der am höchsten entwickelte Maschinentypus. Zum Gebrauch der
Mühle gehört, dass ihr Räderwerk in Bewegung gehalten wird. Die Bewegung in der sie
dauerhaft gehalten wird, soll den Antrieb zur Bewegung spezieller Werkzeuge liefern. Wenn
erst einmal der Werkzeuggebrauch auch innerhalb einzelner Arbeitszweige mechanisierbar
geworden ist, besteht der weitere Verlauf der technischen Revolution innerhalb dieser
Arbeitszweige darin, die Anzahl der an die Bewegungsmaschinerie angeschlossenen
Werkzeugmaschinen zu vergrößern. Nun beginnt der Transmissionsmechanismus, der die
hinzukommenden Werkzeugmaschinen verbindet, komplexer und weitläufiger zu werden; die
mechanischen Widerstände, die die Bewegungsmaschinerie zu überwinden hat, beginnen
unverhältnismäßig zu wachsen. Das Problem des Anschwellens des Transmissionsmechanis-
mus, das zu unverhältnismäßigen Vergrößerung der Widerstände führt, wird technisch da-
durch gelöst, dass man den Transmissionsapparat gerade noch mehr vergrößert durch

53
Anbringung von Schwungelementen (Wolff 1978, 270-273). Während die Probleme des
Transmissionsmechanismus in einer sachlichen Beziehung zu Deutungen des Trägheitsphäno-
mens stehen, ist der Bewegungsmechanismus Gegenstand dynamischer Fragestellungen
(Wolff 1978, 277). Die Entdeckung der Kraftmaße fällt zusammen mit dem Ende der
Impetustheorie (Wolff 1978, 181). Eines der theoretischen Hindernisse für die antike
Mechanik, ein Kraftmaß zu finden, bestand darin, dass sie den Unterschied zwischen natür-
lichen und künstlichen Bewegungen für einen absoluten Gegensatz hielt (Wolff 1978, 297).

Für die Technisierung der Naturwissenschaften ist dabei in erster Linie von Bedeutsamkeit,
dass für Galileo die Anwendung von Instrumenten in der Naturwissenschaft ein natürlicher
Vorgang ist, um im Experiment natürliche Zusammenhänge zu erfassen. So baut er sich ein
Fernrohr aus Linsen, deren Prinzip bereits seit dem 13. Jh. bekannt ist, und wendet seinen
Blick auf die Jupitermonde, ohne zu bezweifeln, was er da mithilfe eines technischen Artefak-
tes sieht. Die Mechanik auf der Erde gilt auch im Weltraum. Eine Entgegensetzung von Natur
und Experiment gibt es nun nicht mehr. Geschult am Paduaner Aristotelismus eines Jacopo
Zabarella und dessen Betonung der Ursachenerkenntnis propagiert Galilei eine neue Bedeut-
samkeit des Experimentes. Die quantitative Bewegung wird zum Paradigma natürlicher Ab-
läufe. In dieser Quantifizierung der Natur liegt das eigentlich Neuzeitliche an der Methodo-
logie Galileis. Nominalistische und scholastische Positionen mischten sich und verbanden
sich in Italien besonders im 16. Jh. mit handwerklichen und künstlerischen Traditionen. Die
Beobachtung erhält einen zentralen Rang in der Methodik der Naturphilosophie insbesondere
in Padua. Im 16. Jh. taucht zunehmend Kritik am traditionellen Schema auf. Der sich neu ent-
wickelnde Standpunkt oszillierte zwischen Spekulationen magischer und astrologischer Art
und Ideen eines direkten Eingriffes in die Natur aufgrund eines aus der Beobachtung gewon-
nenen Gesetzeswissens. Der Florentiner Platonismus kritisierte den Paduaner Aristotelismus
und betonte die Bedeutung der Mathematik wie der Astrologie. Natürliche Magie wird zur
Kunst im neuplatonischen Paradigma, während im aristotelischen Schema bei Pietro Pompo-
nazzi und Thomas Campanella (1568-1639) im Rahmen eines extremen Naturalismus die
"scientia experimentalis" befürwortet wird.

Die Technik in den Naturwissenschaften wurde oft übersehen (Janich 1992, 199). Erst
Normen, also bestimmte Formen von Vorschriften nichtsittlicher Art, definieren Messgeräte.
Der Gewinnung eines Messresultates geht die Technik der Konstruktion, Erzeugung und
Kontrolle der korrekten, d.h. ihren spezifischen Zweck erfüllenden Funktion des Messgerätes,
voraus. Ein Experiment unterscheidet sich nur unwesentlich von der Erfindung, der
Konstruktion einer Maschine (Janich 1992, 205-207). Im Unterschied zu theoretischen Para-
digmenwechseln und Grundlagenkrisen hat es totale Zusammenbrüche der technischen
Grundlagen der Naturwissenschaften nie gegeben. Damit werden die Schwächen einer
Wissenschaftstheorie deutlich, die den technischen Charakter der Naturwissenschaften igno-
riert. Sie übersieht, dass Naturwissenschaft kein von außen verhängtes Schicksal ist, sondern
das Ergebnis einer zielorientierten Suche nach dem technisch Machbaren (Janich 1992, 210-
213). Mit der Experimentalkunst wird Naturwissenschaft zu einer technisch-kulturellen Pra-
xis. Abbildung der Natur, obwohl als theoretisches Leitbild immer noch gültig, wird von der
Praxis untergraben. Das Kunst-Paradigma selbst unterliegt am Ende des Mittelalters und zu
Beginn der Neuzeit in Europa einem fundamentalen Wandel.

Neben den Veränderungen im Kunst-Paradigma zeichnen sich fundamentale Perspektiven-


verschiebungen auch in der Theorie der Konstruktion technischer Mittel ab. Die Mathemati-
sierung der Navigation verlangte immer stärker elementare Rechenkenntnisse. Nicht nur für
die Navigation, sondern auch zur Landvermessung, im Montanbereich und im Bauwesen, hier
hauptsächlich beim Festungsbau, wurden mehr und mehr Messinstrumente benötigt.

54
Landvermessung und kartografische Erfassung setzten im größeren Umfang während des 16.
Jh. in Europa ein (Ludwig, Schmidtchen 1992, 552-557). Als es im 16. Jh. darum ging, die
Reichtümer der neu entdeckten und mit dem Schwert unterworfenen Regionen der Erde nach
Europa zu transportieren, benötigte man einen Schiffstyp, mit beträchtlichem Raumgehalt und
großer Ladefähigkeit. Genueser Schiffbaumeister entwickelten für die Fahrten ihrer Kaufleute
durch die rauen Gewässer des Atlantik aus der Karacke die Galeone als ein Frachtschiff von
kurzer gedrungener Form im Längen-, Breiten-Verhältnis von höchstens 4 zu 1. Die Galeonen
besaßen kein vorderes überhängendes Kastell mehr. Es war vom Bug zurückversetzt und den
Bordwänden eingepasst, um mehr Stabilität für das Schiff zu gewinnen. Gleiches galt für das
Verhältnis zu den unteren Decks, erheblich schmalere Oberdecks, auf denen die Geschütze
nahe an den Mittellinien des Schiffes aufgestellt werden konnten. Bis zu 7 eigene Decks
enthielt das sehr hoch gebaute Achterschiff (Ludwig/Schmidtchen 1992, 479-481).
Schreckenerregend wurde die Piraterie durch Korsaren von eigenen Gnaden wie von engli-
schen, niederländischen und französischen Kaperfahrern, die von ihren Herrschern rechtlich
äußerst zweifelhafte Kaperbriefe erhalten hatten (Ludwig/Schmidtchen 1992, 490).

Seit dem 14. Jh. war vor allem im Zuge der Gründung der ersten europäischen Universitäten
der Bedarf an Büchern gestiegen und konnte nicht mehr durch die herkömmlichen Formen der
Vervielfältigung gedeckt werden. Ein erster Fortschritt in diese Richtung war das seit Beginn
des 15. Jh. verwendete xylografische Verfahren für Bilder und kurze Texte. Es musste jeweils
eine ganze Seite in einem Holzblock geschnitten und von ihm auf ein Blatt abgezogen
werden. Das Papiermacherhandwerk entstand in den Städten vorwiegend in enger Nachbar-
schaft zum Wasser und zu den Textilgewerben, die mit ihren Abfällen billige Rohstoff-
lieferanten waren. Gutenberg setzte seine Idee, den Schriftsatz für den Druck aus einzelnen
Buchstaben zusammenzustellen, in Anwendung der Techniken des von ihm erlernten
Goldschmiedehandwerkes um. Als Goldschmied war Gutenberg den Techniken des Stempel-
schneidens, Prägens, Gravierens und Gießens vertraut. Die mit dem Gießen gegebene fast
unbegrenzte Vervielfältigungsmöglichkeit der einzelnen Lettern bildete die Lösung für die
Produktion maßgerechter Typen in beliebiger Menge (Ludwig/Schmidtchen 1992, 573-576).
Um 1500 gab es in 60 deutschen Städten bereits fast 300 Druckereien. Doch deutsche Drucker
hatten längst den Weg über die Grenzen des Reiches gefunden. Sie zogen nach Italien, Spa-
nien und Portugal, in die Schweiz, nach Frankreich, in die Niederlande und nach England. Sie
arbeiteten in Dänemark wie in Schweden und verbreiteten die Technik auch mit nach
Böhmen, Mähren, Ungarn und auf den Balkan. Neben den Klassikern wurden seit Beginn des
16. Jh. zunehmend Flugschriften der Reformationszeit zu einem äußerst wichtigen Mittel für
die Bewussteinsänderung im religiösen wie im politischen Bereich (Ludwig/Schmidtchen
1992, 583-585). Die Künstleringenieure des 15. und 16. Jh. preisen zwar laut den Wert der
Mathematik, wenn es aber darauf ankommt, müssen sie mit den Proportionalbeziehungen,
zum Beispiel denen des Hebelgesetzes, unter Durchrechnung immer neuer Einzelbeispiele in
ähnlicher Weise experimentieren, wie sie es bei ihren waffen- oder festungstechnischen
Untersuchungen tun, wenn sie die Wirksamkeit von Geschützen oder Geschossen, den
Rückstoß beim Abfeuern oder die Widerstandsfähigkeit des Mauerwerks beim Aufprall von
Kugeln durch viele einzelne Versuche zu bestimmen sich bemühen.

Mit der Renaissancezeit beginnt eine stärkere Mathematisierung technischen Gestaltens.


Wichtig dafür sind Künstleringenieure und experimentierende Meister. Es geht um die Ver-
einigung von wissenschaftlicher Überlieferung und praktischer Erfahrung. Dies beschreibt
z.B. Alberti in "De re aedificatoria". Fortschritte wurden insbesondere gemacht in der Ziegel-
brennerei, in der Errichtung von Gewölben und Kuppeln sowie in der Errichtung von Stein-
brücken. Wichtig ist in diesem Zusammenhang die Beschreibung und Konstruktion der stei-
nernen Bogenbrücke bei Alberti. Fortschritte wurden gemacht in der Bewegung von Lasten

55
durch Flaschenzüge und Winden (Klemm 1999, 73). Vor allem wurde die angemessene
Dimension der Werkzeuge entdeckt. Die Berücksichtigung der Reibung führte zur Über-
windung der rein geometrisch betriebenen Mechanik bei Aristoteles. Bei Leonardo da Vinci
gibt es Bemühungen, das Problem des Menschenfluges zu lösen. Die Renaissance bemüht
sich, wissenschaftliches Gut weiteren Kreisen der Bevölkerung nutzbar zu machen. Die "Piro-
technica" mit der Technik des Drahtziehens und der Eisenhämmer wird in der Renaissance
stark verbessert. In dieser Zeit findet die Alchimie ein großes Interesse. Der Mensch gilt als
Vollender der Natur. Dies schreibt Agricola in seinem Werk "De re metallica", erschienen in
Basel 1556. Allerdings durften durch die Zunftordnung keine Erfindungen von einem
Zunftbereich in einen anderen übertragen werden.

Vor der Mathematisierung technischen Wissens stand das Erfahrungswissen im Vordergrund.


Mit der Herausbildung verschiedener Staaten und Staatsformen sowie neuer Gesellschafts-
schichten erwuchsen neue gesellschaftliche Bedürfnisse. In den Städten bildeten sich
Handwerker-Berufsgruppen mit eigenständigen Organisationsformen. Sie erwarben techni-
sche Spezialkenntnisse und vermittelten sie von Generation zu Generation. Dieses Wissen
ging jedoch in der Regel nicht als das beschreibenswürdig in die überkommenen schriftlichen
Quellen ein. Allerdings wurden hervorragende Baumeister von Chronisten als Künstler ge-
rühmt. Praktisches technisches Wissen und Wissenschaft entwickelten sich über Jahrhunderte
hinweg parallel. Zunächst bestand nur ein geringer Bedarf der handwerklichen Produktion an
wissenschaftlicher Erkenntnis und den eng begrenzten Möglichkeiten der Wissenschaft
(Buchheim, Sonnemann 1990, 19f). Technisches Wissen in dieser ersten Phase beruht auf der
Verallgemeinerung tausendfach bewährten Erfahrungswissens. Es manifestiert sich in kon-
struktiven Faustregeln für die Bemessung wichtiger Bauglieder. Die Architekten rangen
vornehmlich um eine gefühlsmäßige Vertrautheit mit dem Baustoff und um die Ergründung
des Trageverhaltens von Baukonstruktionen. Ein besonderes Problem stellte die Wölbtechnik
dar. Den Baumeistern in der Antike standen keine wissenschaftlichen Grundlagen zur Erfas-
sung des Trageverhaltens zur Verfügung. Für Vitruv spielen handwerkliche Praxis und
wissenschaftliche Bildung eine Rolle. Sehr wichtig war die Verallgemeinerung und Struktu-
rierung des Stoffes in Handlungsvorschriften und Faustregeln (Buchheim, Sonnemann 1990,
31). Bei gotischen Kathedralen oder oströmischen Gewölben wird der Fortschritt in der Erfah-
rung deutlich. Dabei spielt das Lernen aus Bauschäden eine große Rolle.

Das konstruktive Gefüge gotischer Kathedralen zerlegt und bündelt die Lasten und bildet das
Kräftespiel in Kathedralen gleichsam ab. Hier manifestiert sich ein hoher Stand des Wissens
um statisch konstruktive Zusammenhänge und ein ausgeprägtes statisches Gespür. Die
Emanzipation und der soziale Aufstieg des Baumeisters in der Gotik ließen schließlich die
"Artifici" der Renaissance ahnen. In Bauhüttenbüchern manifestiert wird dieses Umgangs-
wissen im Stil einer Rezeptsammlung aufgezeichnet. Erfahrungswissen erweist sich damit als
Näherungswissen. Allerdings zeigen sich hier im konstruktiven Bereich bald die Grenzen
einer empirischen Wissensgrundlage, die noch nicht auf die Unterstützung durch die Mecha-
nik hoffen konnte. Der reale Kern mittelalterlichen wissenschaftlichen Denkens und seiner
Ergebnisse vermittelte freilich dem Aufblühen von Naturwissenschaften und einer rationalen
Technikbetrachtung in der Neuzeit wichtige Impulse (Buchheim, Sonnemann 1990, 35-41).
Zunächst wurde jedes technische Wissen um Aufbau, Wirkungsweise und Fertigung von
Maschinen durch Tradition weitergegeben. Gleiches gilt für den Gebrauch von Werkzeugen
und technischen Mitteln. Die Grenze dieses Verfahrens zeigte sich mit der fortschreitenden
Vielfalt und Kompliziertheit technischer Mittel und ihrer Vernetzung. Handwerkliches
Erfahrungswissen kam damit an eine Grenze. Immer deutlicher wurde die Bedeutung der
Erfindungskunst und der Arbeitsorganisation. Den Reihen der Handwerker, Mechaniker und
Kriegstechniker entspross auch der Beruf des Ingenieurs. Die technischen Kenntnisse ent-

56
falten sich unabhängig und parallel zu den etablierten Wissenschaften seit dem Altertum. Dies
zeigt auch der unvergleichliche Aufschwung technischen Wissens in der Epoche des
Hellenismus sowie zu Zeiten von Alexander dem Großen und seiner Diadochenreiche. Ein
konsequent theoretisches Denken in der Technik tritt erstmals bei Archimedes im Rahmen der
hellenistischen Kultur auf. Mehr als in den vorhergehenden Epochen wurde Technik im
Römischen Reich als Kulturfaktor akzeptiert und der Ingenieur als Vermittler des technischen
Fortschritts gesellschaftlich anerkannt.

In der Gestalt des Handwerker-Ingenieurs tritt die instrumentelle Arbeit an die Stelle
handwerklicher Arbeit. Der Handwerkeringenieur ist noch ein Handwerker, doch ist er ein
kritisch beobachtender, ein erfinderischer, ein experimentierender, d.h. ein messender und
analysierender und schließlich auch ein theoretisch-kalkulierender, der Mathematik und
Geometrie anwendet (Hassenpflug 1990, 500). Die Künstleringenieure sind erfüllt vom Ideal
der schöpferischen und selbstmächtigen Persönlichkeit, die über den Regeln, Traditionen und
altehrwürdigen Lehren des zünftigen Handwerks erhaben ist. Sie sind begierig auf jede sich
bietende Gelegenheit eine technische Neuerung auszuprobieren und machen Jagd auf jede
kleine Erfindung. Das Neue besteht vor allen Dingen in einer Überdehnung handwerklicher
Technik, in einer Inanspruchnahme von Elementen derselben in Kontexten, die eine Unter-
fütterung methodischer und sonstiger instrumenteller Art zu ihrer Realisierung erheischen.
Planungen auf Basis von Berechnungen werden der Implementierung vorangestellt, Experi-
mente werden durchgeführt und Modelle verfertigt. Projekte werden theoretisch antizipiert
und einem theoretischen und experimentellen Verlauf ausgesetzt. Die Folge der kühnen
Imaginationen es sich selbst als schöpferisch begreifenden Menschen ist, dass der Bedarf an
mathematischem Wissen, an Geometrie und Arithmetik, an methodischem und instrumen-
tellem Wissen ständig ansteigt. Der demiurgische Gott wird durch den ingeniösen Mecha-
niker-Gott ersetzt, einem großen Erfinder. Seine Schöpfung ist ein Ingenieursprodukt, eine
Maschine (Hassenpflug 1990, 504-510). Das Kunst-Paradigma öffnet sich zwar in Richtung
Erfindung und Innovation, wird aber keineswegs ersetzt. Allerdings finden durch die Formu-
lierung von Regeln erste Formen von Verallgemeinerung, Geometrisierung und Mathemati-
sierung statt.

Beim Brückenbau wurden die durch Erfahrungen bestimmten Faustregeln für die Gewölbe in
Form einfacher mathematischer Korrelationen mitgeteilt und überall spürt man bei Alberti das
Streben, den praktisch technischen Nutzen wissenschaftlich zu durchdringen. Leonardo, der
uns einige tausend Blatt Manuskript hinterlassen hat, mochte wohl einmal die Absicht gehabt
haben, ein großes enzyklopädisches Werk in der italienischen Volkssprache anhand alter
Autoren der Antike und des Mittelalters und aufgrund auch eigener Untersuchungen zusam-
menzustellen. Dieses Werk sollte vielerlei des Nützlichen und Interessanten besonders für den
Gebrauch der nicht gelehrten Künstler und Techniker seiner Zeit bieten. Es kam aber nicht so
weit (Klemm 1999, 80). Für Theophrastus Bombastus von Hohenheim, genannt Paracelsus
(1494-1541), waren Hüttenleute und Schmiede, Zimmerleute, Baumeister, Apotheker und
Ärzte, also die Handwerker, Techniker, Künstler und Wissenschaftler in der einen und in
einer weiteren tiefen Bedeutung allesamt Alchimisten. Alle diese schaffenden Menschen
wirkten durch göttliche Kraft an der Vervollkommnung der Welt (Klemm 1999, 57).

Paracelsus, der Arzt, beispielsweise macht Ernst mit einem radikalen Empirismus, der bereits
vor der Herausbildung der Naturwissenschaften entstanden ist. Erfahrung (Experientia) und
Vernunft (Ragione) sind bei den italienischen Popularphilosophen und Humanisten hoch im
Kurs. Die Berufung auf Erfahrenheit und der Hinweis auf Natur als Lehrmeisterin und der
daraus folgende Empirismus nötigen zu einer neuen Sprache. Paracelsus führt die deutsche
Muttersprache lange vor Thomasius in die Wissenschaft ein (Goldammer 1953, 27-31). Mit

57
einem völlig neuen Programm tritt Paracelsus im Februar 1537 in Basel an. Paracelsus weist
darauf hin, dass er nicht aus alten und längst überholten Autoritäten doziere, sondern seine
eigene, auf Erfahrung beruhende Lehre vortrage. Dies ist der Hintergrund für seine Kon-
zeption der Heilkunde im Sinne einer Kunst oder Technik (Schipperges 1983, 39-45). Heil-
kunde beruht auf geübter Praktik, auf Erfahrung, Theorie und Praxis, auf Medizin als Philo-
sophie und zwar im Sinne eines „examen naturae“, einer Erprobung der Natur (Rueb 1995,
150-152). Im Buch „Paragranum“ spricht er von den vier Säulen der Medizin: (1) Natur-
philosophie, (2) Astronomie bzw. Astrologie, (3) Alchemie und (4) Ethik (Rueb 1995, 124-
132). Die eigentlich Heilenden sind die Naturkräfte. Die Gewinnung von Arzneien ist
entscheidend. Der Heilgarten hat eine enorme Bedeutung (Rueb 1995, 139-147). Die sieben
freien Künste, nicht die mechanischen Künste, geben einen Interpretationsrahmen auch für
Naturkunde und Medizin ab. Sein Ansatz bezieht sich aber eher auf das klassische Techne-
Konzept, wie es bereits von Aristoteles aufgezeigt wurde. Kunst bedeutet bei ihm berufliches
Können des Handwerkers, des Naturkundigen und des Arztes. Manchmal wird mit Kunst
sogar Weisheit und Wissenschaft bezeichnet. Kunst hat bei Paracelsus ein sehr breites
Bedeutungsspektrum und insgesamt keinen großen Stellenwert (Rueb 1995, 40-45).

Alchemie ist eine Kunst. Vulcanus, der Gott der Schmiedekunst (griechisch Hephaistos),
regiert das Feuer. Paracelsus hat wie Aristoteles ein sehr weites Technikverständnis im Sinne
von Technik als Kunst bzw. Kunstfertigkeit. Paracelsus vertritt keinen Standpunkt, der als
Vorbereitung der experimentellen Naturwissenschaften betrachtet werden kann. Er sagt
selbst: So kann die Experientia nicht ein Experiment sein, denn die Experimente sind unvoll-
kommen (Paracelsus 1993, 249). Man kann seiner Methode mehr Erfahrungssättigung zu-
schreiben als den mittelalterlichen scholastischen Philosophen, obwohl auch dieses vielfältig
nur ein Vorurteil darstellt, radikal erscheint jedenfalls der Bruch mit dem Mittelalter in der
Erkenntnistheorie und Wissenschaftstheorie des Paracelsus noch nicht. Nur die Magie ist der
Lehrer, Schulmeister und Pädagoge, der die Arznei zu finden und zu lehren hat. Also ist die
Heilkunst eine Kunst des Findens, Lehrerin die natürliche Magie als Anleitung zur Inter-
pretation des göttlichen Willens in der Natur (Paracelsus 1993, 259). Die Alchemie ist eine
Lehre der Stoffwechselprozesse, modern gesprochen der biochemischen Energetik eines Or-
ganismus. Alchemie ist das gewaltige Feld der natürlichen Dinge und wird jetzt zugerichtet
und spezifisch verfügbar gemacht. Die Welt der Naturstoffe muss erst erschlossen werden.
Das Nützliche herauszuarbeiten ist Aufgabe des Vulcanus, eine technische Aufgabe (Schip-
perges 1983, 47-52). Durch Alchimie wird die Welt der Naturstoffe zu einer Welt der Kunst-
stoffe. Der Arzt ist in der Heilkunst ebenfalls ein Techniker. Das examen naturae, die Prüfung
der Natur auf ihre Eignung für den menschlichen Gebrauch, beruht auf großer lebenslanger
Erfahrenheit im Umgang mit der Natur. Dieses darf nicht mit dem Experiment im modernen
Sinne des Wortes verwechselt werden. Dnn der Experimentator ist für Paracelsus nur der
Herumprobierer. So darf Paracelsus eben noch nicht als Vorläufer der modernen experi-
mentellen Naturwissenschaften gesehen werden (Schipperges 1983, 53-67).

Die Kunst des Verwandelns ist Gegenstand der Alchemie. Ein wichtiges Element der
„Laborkunst“ ist das Destillieren. Die alchemistische Kunst und das alchemistische Labor
heben den technischen Charakter der Medizin gemäß Paracelsus hervor (Rueb 1995, 163-
172). Der Streit um die Berechtigung der neuen Medizin wurde bei den Interpreten von
Paracelsus vehement geführt. Dabei weist die Bedeutung der Astronomie und Alchemie bei
Paracelsus darauf hin, dass seine Wurzeln im Mittelalter noch sehr stark sind. Die
Problematik seines unsteten Lebens kommt hinzu und leistet sicher einer gewissen unsys-
tematischen Vorgangsweise Vorschub. Im Berg liegen die Mineralien. Diese müssen
erschlossen werden. Die eigentlichen Künstler, die Alchemisten, Astronomen und Philoso-
phen sind dies auf Grund der Durchforschung der Natur, wobei die Praxis im Vordergrund

58
steht, die allerdings immer durch eine christliche Theorie angeleitet ist (Rueb 1995, 28-33).
Der Bericht seines Gehilfen Johannes Oporicis über Hohenheims Labor-Praxis ist glaubhaft.
Er beschreibt ein Verfahren, das auf einem gegen Galen gerichteten Alchemiebegriff aufbaut.
Das Ziel der Laborarbeit ist die Heilung der menschlichen Krankheiten. Paracelsus ist
überzeugt von der therapeutischen Überlegenheit alchemistischer Arzneimittel. Pflanzliche,
tierische und mineralische Stoffe sind keine fertigen Arzneien, sondern müssen erst
alchemistisch bearbeitet werden, damit die heilenden Kräfte besser wirken können. So
impliziert seine Methode die Suche nach dem stofflich Reinen und dem medizinisch
therapeutisch Hochwirksamen (Fellmeth, Kothidir 1993, 39f).

Die Alchemie orientiert sich an sichtbaren Demonstrationen und nicht an Argumentationen.


Es handelt sich um eine operative Wissenschaft, die sich mit Einzelheiten beschäftigt, die
Gegenstand der sinnlichen Wahrnehmung sind. Aufgrund der Perfektion einer Arbeit wird
eine Substanz erkannt durch ihre Qualitäten und Tugenden d. h. die Eigentümlichkeiten eines
Dinges. Bewegung beruht auf spirituellen und feurigen Prinzipien, die in den Dingen
verborgen sind. Die Art aber, wie Substanzen generiert werden, ist in der Natur und im Labor
verschieden. Wichtig ist die Rolle von Hitze und Fermentation bei den Laborexperimenten
(Pagel 1982, 260f). Die Lehre der Quintessenz bleibt auch bei Paracelsus noch von
Bedeutung. Die Ablehnung des Goldmachens als letztem Ziel der Alchemie wird schon im
Mittelalter zugunsten ihres Gebrauchs für die Heilkunst von Krankheiten und für die
Verlängerung des Lebens propagiert (Pagel 1982, 267-270). Paracelsus bereitet den Grund für
die moderne medizinische Chemie. Er hat darüber hinaus ursprüngliche Erfahrung im
routinisierten Laborbetrieb. Sein Beitrag zur Chemie sollte aber auch nicht überschätzt wer-
den. Während er ideengeschichtlich mit Neuplatonismus, Gnosis, kabbalistischer und herme-
tischer Geheimlehre und Magia naturalis doch noch relativ weit von einer experimentellen
Naturwissenschaft entfernt ist, ist seine Konzeption einer alchemistisch begründeten Pharma-
kologie und Medizin im Sinne einer handwerklichen Technik und Laborpraxis wegweisend
(Irrgang 2005b).

Die stärkere Konzentration der neuen Mächte Holland, England und Frankreich auf den
Überseehandel und die damit verbundene Sicherung von Einflussgebieten und Kolonien ging
mit einer Verlagerung des innovativen Zentrums, das im Mittelalter eindeutig in Oberitalien
und Oberdeutschland gelegen hatte, an die Nordwestküste Europas einher. Erst als sich
allmählich eine breite Techniker- und Handwerkerschicht ein technisches Grundwissen
angeeignet hatte, erhielten die Maschinenbücher oder die Mühlenbücher ihren Wert als
Vorlagen. Wichtiger aber war vielleicht, dass die technische Literatur dem fachkundigen
Benutzer Anregungen für Verbesserungsinnovationen an bereits vorhandenen Maschinen und
Apparaten lieferte, die ohne große Schwierigkeiten realisiert werden konnte. Nach wie vor
erfolgte der Technologietransfer im Wesentlichen also über Personen. War Technologie-
transfer durch Vertreibung eher eine unbeabsichtigte Nebenerscheinung religiöser Intoleranz,
so versuchten insbesondere die absolutistisch regierten Staaten die gewünschten Techniker
durch Abwerbung ausländischer Spezialisten ins Land zu holen (König 1991, 20-22).

Obwohl also das vorindustrielle Energiepotenzial feste Grenzen hatte, waren innerhalb des
Systems Spielräume gegeben, die besonders im 17. und 18. Jh. weitgehend ausgelotet wurden
und eine solide Plattform für die späteren industriellen Prozesse abgaben (König 1991, 26).
Die regionalen Engpässe in der Holzversorgung und das damit verbundene Preisniveau
führten seit der zweiten Hälfte des 16. Jh. zu verstärkter Verwendung eines längst bekannten
Brennstoffes, nämlich der Steinkohle. In zahlreichen Gewerben begann man, mit der
Steinkohle als Brennstoff zu experimentieren. Überall dort, wo die Verbrennungsgase nicht
direkt mit dem Erzeugnis in Berührung kamen oder keine nennenswerten nachteiligen

59
Einflüsse auf sie ausübten, konnte die Steinkohle mit Erfolg eingesetzt werden. Freilich
mussten, beispielsweise im Nahrungsmittelbereich, spezielle Brennöfen dafür entwickelt
werden. Das Salz Sieden und das Ziegel Brennen erfolgten nun ebenfalls mit Steinkohle
(König 1991, 30f).

Im engeren technischen Sinn besteht die Mühle aus drei Grundelementen: der
Energieaufnahme durch Wasser- oder Windrad, der Transmission zwischen Locken- oder
Kurbelwelle, Getriebe: dem Antrieb, zum Beispiel einem mit dem Mahlwerk fest verbun-
denen Stockgetriebe (König 1991, 33). Im Jahr 1685 wurde bei Marly an der Seine die damals
größte Wasserkraftanlage der Welt in Betrieb genommen, die wie kein anderes Werk die
Fähigkeiten, aber auch Grenzen der Mühlenbaukunst aufzeigte. Man errichtete zunächst 14
unterschlächtige Wasserräder mit einem Durchmesser von 11 m, die über ein mit Ketten
ausgerüstetes Feldgestänge insgesamt 259 Pumpen, davon 221 Saug- und Druckpumpen in
Gang setzten. Diese große Zahl an Pumpen war notwendig, da man zu dieser Zeit noch nicht
im Stande war, das Wasser direkt über einer Strecke von ungefähr 1200 m auf eine solche
Höhe zu pumpen. Man vermochte noch nicht, die Pumpenzylinder und -kolben präzise genug
herzustellen, und die Ledermanschetten konnten die Pumpen nur unzureichend abdichten. Im
Verhältnis zu ihrer imposanten Größe waren die Leistungen der Maschine von Marly
zumindest nach heutigen Maßstäben eher bescheiden zu nennen. Gaben alle 14 Wasserräder
an den Wellen immerhin respektable 750 PS ab, so blieb durch die hohe Reibung der
Pumpenstiefel in den Zylindern sowie des Feldgestänges davon 4/5 buchstäblich auf der
Strecke (König 1991, 39f).

Die Holländermühle gab es mehreren, den unterschiedlichen Bedingungen angepassten


Bauformen. Aus der Bockwindmühle war übrigens schon zu Beginn des 15. Jh. die
sogenannte Köcher- oder Wippmühle hervorgegangen, bei der ein viel kleineres, drehbares
Gehäuse auf einem pyramidenförmigen oder – in Südeuropa – prismenförmigen Unterbau
ruhte. Der Mühlenkonstrukteur Edmund Lee hatte im Jahre 1745 ein Patent auf Mühlenflügel
angemeldet, die es erlaubten, auch bei wechselnden Windrichtungen ständig im Wind die
Flügel zu behalten. Die Mühlenbauer bezeichnet man nicht zu Unrecht als Vorläufer der
Maschinenbauingenieure und Wegbereiter des industriellen Maschinenbaus. Obwohl ihre
Zahl gemessen an der Menge der errichteten Mühle sehr groß gewesen ist, weiß man über den
durchschnittlichen Mühlenbauer kaum etwas. Seine Arbeit fußte auf Erfahrungswissen, das
über Generationen angesammelt und vom Meister an den Schüler häufig noch unter dem
Siegel der Verschwiegenheit, weitergegeben wurde. Dazu gehörte ein ganzer Kanon von
mechanischen Grundkenntnissen, Faustformeln, Rechenmethoden sowie empirisches Wissen
über Materialverhalten und die Naturkräfte Wind und Wasser. Hohe Präzision bei der
Fertigung war bei dem organischen Werkstoff Holz noch nicht zwingend erforderlich, da
elastisch auf Stoß oder Druck reagierte, was beim Windmühlenbau sogar von Vorteil war.
Neue Kenntnisse gewannen die Mühlenbauer nach der Methode Trial and Error. Aus der Zeit
vor 1700 sind nur wenige Konstruktionszeichnungen von Wind- und Wassermühlen
überliefert. Man muss sich deshalb vorwiegend auf die Abbildungen in den seit der Mitte des
16. Jh.s erschienen Maschinenbüchern stützen (König 1991, 41-45).

Aus der Fülle von Problemen der Physik und der Mechanik im weiteren Sinne, mit denen sich
die Naturforschergenerationen des ausgehenden 16. Jh. und des 17. Jh. befassen, sind vor
allem zwei Fragen für die Bauwissenschaft von fundamentaler Bedeutung, nämlich das
damalige Grundproblem der Statik, die Zusammensetzung der Kräfte (zum Kräfteparal-
lelogramm) und die wichtigste Aufgabe der elementaren Festigkeitslehre, das Problem der
Biegung. Mit dem Eintritt der Renaissance beginnt eine Anzahl von Architekten und bilden-
den Künstlern, diese zu erforschen. Für eine kurze Weile scheint es, als ob sich zwischen der

60
exakten Wissenschaft, der Mathematik, Geometrie und Mechanik auf der einen, sowie der
Praxis des Bauens und der gewerblichen Technik auf der anderen Seite eine gewisse
Wechselwirkung einstellen wolle: in Italien setzten sich Künstleringenieure und experimen-
tierende Meister an die Spitze des Fortschritts (Straub 1992, 89f). Die Praktiker der Baukunst
waren hervorragende Konstrukteure, denen neben einem außergewöhnlich entwickelten
statischen Gefühl höchstens gewisse Erfahrungsgrundsätze zur Verfügung standen, die von
Architekturtheoretikern wie beispielsweise Leon Battista Alberti in Zahlenregeln zusammen-
gefasst wurden. In seiner Eigenschaft als Hofmathematikus mag der eine oder andere mit
statischen Ingenieuraufgaben, mit Wasser-, Kanal- und Festungsbauten oder mit dem Bergbau
zu tun und dabei Gelegenheit gehabt zu haben, seine Kenntnisse in Geometrie und Vermes-
sungskunde anzuwenden. Doch seine Beschäftigung mit Fragen der Statik und
Festigkeitslehre wird wohl kaum von dieser amtlichen Tätigkeit ausgegangen sein. Besonders
in Frankreich vollzog sich das Aufblühen der Mechanik. Zu Beginn der Entwicklung der
Mechanik bemühten sich die Forscher von Jordanus bis Varignon, vor allem für die
grundlegenden Gesetze der Statik (Hebel, schiefe Ebene, Kräfteparallelogramm, Momenten-
satz usw.) strenge und lückenlose Beweise der euklidischen Art zu finden. Die großen
Entdeckungen auf dem Gebiet der Mathematik im letzten Drittel des 17. und in der ersten
Hälfte des 18. Jh., insbesondere die Erfindung der Infinitesimalrechnung, forderten und
vollendeten jene innige Verknüpfung von Naturerkenntnis und Mathematik, die seither Kenn-
zeichen der exakten Wissenschaften, der Physik und der Mechanik geblieben ist (Straub 1992,
208-111).

Mathematische und geometrische Konstruktionsregeln waren theoretische Hilfsmittel. Vorerst


ging es noch nicht um eine Anwendung der Mechanik und Statik auf die Baupraxis, sondern
um Sätze, die man heute Faustregeln nennen würde (Straub 1992, 128f). Der Einsatz von
Maschinen und mechanischen Geräten bei der Errichtung von Großbauten war von jeher
Kennzeichen ingenieurmäßigen Bauens (Straub 1992, 132). Die handwerkliche Vertrautheit
mit den Baustoffeigenschaften, die sich der Zimmermann, der Maurer und Steinmetz durch
den langjährigen Umgang mit seinem Material erwirbt und die zum guten Teil seine
Berufserfahrung ausmacht, kann sehr gründlich und umfassend sein. Als Wissenschaft wird
die Baustoffkunde erstmals von den Architekturtheoretikern behandelt. Leon Battista Alberti
beschreibt in seinem Werk über die Baukunst Holzarten nach ihrer Eignung für die verschie-
denen Zwecke. Zum unentbehrlichen und leistungsfähigen Hilfsmittel des Ingenieurs wurde
die Baustoffkunde jedoch erst auf der dritten Stufe ihrer Entwicklung, als die den Ingenieur
vorzugsweise interessierenden Festigkeitseigenschaften der Baumaterialien zum Objekt der
Forschung und systematischen Beobachtung gemacht wurden. Zu den frühesten Festigkeits-
versuchen gehören die von Mersenne (um 1626) sowie diejenigen, die Mariotte in den 70er
Jahren des 17. Jh. zur Biegung von Holz-, Metall- und Glasstäben durchführte. Die Ergebnis-
se bestätigten die Theorie Galileis. Um dieselbe Zeit untersuchte Robert Hooke (1635-1703)
das Verhalten elastischer Körper, insbesondere von Spiralfedern, und fand dabei das nach ihm
benannte Gesetz (Straub 1992, 149-151). In Deutschland hat der Mechaniker Jakob Leupold
unter anderem Versuche über die Wirkungsweise zusammengesetzter Balken durchgeführt.
Die Kenntnis der Festigkeitszahlen der wichtigsten Baumaterialien bildete eine unerlässliche
Voraussetzung für die praktische Anwendung (Straub 1992, 152f).

Die Entstehung der Ingenieurwissenschaften wie des traditionellen Begriffs von Technologie
als Verfahrenskunde in der Manufaktur im Sinne Beckmanns wird vorangetrieben durch eine
stärker theoretisch ausgerichtete Konzeption zunächst handwerklicher Technik, später der
Technik, die in Manufakturen verwendet wurde. Die Verwissenschaftlichung der Technik
lässt sich bereits an der Verwendung des Begriffs "Techné" in Europa ab dem 16. Jh. ablesen.
Dabei wurde oft nicht genau unterschieden zwischen Technik im englischen Sinn von

61
"technology" und Technik im französischen Sinn als Methode. So kam es zur Verführung
durch die Lautgestalt. Technik meinte auch die handwerkliche Fertigkeit des Künstlers. Es ist
nicht schlichtweg falsch, das Adjektiv "technisch" in diesen Verwendungsweisen mit dem
Begriff der Technik im Sinne der Ingenieurstechnik in Zusammenhang zu bringen. Vielmehr
hat sich der Begriff der Ingenieurstechnik aus einem allgemeinen Technikbegriff erst
allmählich herausgelöst. Der ältere Wortgebrauch aber lebt noch heute in zahlreichen
Wendungen weiter. Wir haben es daher heute mit mindestens zwei homonymen Wörtern von
Technik zu tun, von denen nur dasjenige, was sich auf die technische Technik bezieht, als
Schlüsselwort angesehen werden kann. Die Darstellungen springen dann allerdings unmittel-
bar in die Zeit der Industriellen Revolution über, aus welcher der moderne Begriff der Tech-
nik hervorwächst. Diese moderne Technik, die nicht vor das 18. Jh. zurückreicht, wird ent-
weder als vollkommen neue Erscheinung behandelt oder nur als besonders hervortretende
Entwicklungsstufe des "Homo technicus", eines Bruders des "Homo faber", behandelt (Sei-
bicke 1968, 5f).

Nach den Ermittlungen von Seibicke ist Biringuccios "Pirotechnia" von 1540 die erste
Übernahme des griechischen Begriffes "techné" in eine neue europäische Sprache. Zudem
wird in diesem Buch erstmals so ausschließlich und in aller Ausführlichkeit nur dieser eine
Sachbereich abgehandelt, der sich mit allen Techniken, die mit dem Feuer zusammenhängen,
darstellt. Vorher gab es nur einzelne Sammelschriften zu technischen Bereichen. 1530 war der
"Bermannus" und 1556 waren die zwei Bücher "De re metallica" von Georg Agricola
erschienen. Die Vielseitigkeit der meisten Schriften erklärt sich daraus, dass der Stand der
Wissenschaften und die Stellung des Architekten und Ingenieurs der Renaissance gewöhnlich
keine Spezialisierung auf ein technisches Fachgebiet nach unseren Begriffen zuließen
(Seibicke 1968, 23). Ob die Prägung des Wortes auf Biringuccio selbst zurückgeht oder ob er
ein bereits vorhandenes Wort aufgegriffen hat, lässt sich schwer entscheiden. Allerdings
reichen erst in die späte Renaissance die Anfänge der Montanwissenschaften, die in der
Gründung der ersten Bergakademien kulminierten. Den Schritt zur Montanwissenschaft im
Wissenschaftssystem des 16. Jh. vollzog Georgius Agricola (1494-1555). Zum Aufbruch zu
den Bauingenieurwissenschaften kam es in der italienischen Renaissance. Damit erweiterte
sich das Bewusstsein von der möglichen Entdeckung des Natürlichen im Technischen. In das
Erfahrungswissen und in die Intuition wurden Geometrie und Mathematik einbezogen.
Geometrische Methoden und Näherungsverfahren wurden zu einem wichtigen Bestandteil der
Verwissenschaftlichung der Technik. Dabei richtete sich die Mathematisierung nicht gegen
die aus dem Erfahrungswissen gewonnen Konstruktionsregeln. Es gab Akademien in Florenz,
die das Technische stärker am Künstlerischen orientierten. Die Gelehrten waren eher an einer
mathematischen Formulierung technischer Probleme interessiert und die Gesellschaft hatte
bei der Gründung wissenschaftlicher Gesellschaften und Akademien im Wesentlichen
utilitaristische Gedanken merkantilistischer Ausprägung im Hinterkopf.

Der Mühlenbauer des 17. und 18. Jh. war bis zu einem gewissen Grad der alleinige Vertreter
der Maschinenbaukunst. So war der Mühlenarzt des 18. Jh. ein umherziehender Ingenieur-
mechaniker, der hohes Ansehen genoss. Die Barockzeit ist eine Zeit wesentlicher neuer Ent-
wicklungen, insbesondere der dynamischen Wissenschaften und einer aufblühenden experi-
mentellen Forschung. Eine Reihe wissenschaftlicher Instrumente und Apparate wurden ent-
wickelt, so dass von einer weitgehenden Technisierung der Forschung gesprochen werden
kann (Klemm 1999, 128-130). Bis in das späte 18. Jh. hinein kann von einer Technisierung
der Gesellschaft nicht die Rede sein. Im so genannten goldenen Jahrhundert, das bis zur Mitte
des 17. Jh. reichte, entwickelte sich Holland zum europäischen Handels- und Finanzzentrum,
besaß ein hochinnovatives Textilgewerbe, führte neue Methoden und Geräte in der Land-
wirtschaft ein und war zeitweise führend bei bauwissenschaftlichen Instrumenten. Frankreich

62
hat im 17. und 18. Jh. in etlichen technischen Bereichen einen führenden Platz eingenommen.
Statt technischem Fortschritt spricht man neutraler heute vom technischen Wandel oder
technischen Veränderungen. So kann sich der Blick auf den stillen, den allmählichen und den
für das 17. und 18. Jh. so typischen technologischen Wandel öffnen. Eng mit der Mühlen-
technologie war zudem das Bestreben verbunden, Produktionsprozesse so weit wie möglich
zu mechanisieren (König 1991, 12-20).

Descartes bestätigt den praktischen Wert der Wissenschaft und einer realistischen Erziehung,
die eine Bildung im Buch der Welt bzw. der Natur empfiehlt (Leon 1968, 13). In der
Aufklärung wird das Ideal des Fortschritts formuliert und auf die Technik angewendet (Leon
1968, 19). Dies führte zu einer Institutionalisierung technischer Bildung. Bislang konnte man
auf der einen Seite in die Lehre bei einem tüchtigen Baumeister gehen, bei einem
Hüttenmeister oder bei einem im Bergwesen erfahrenen Kunstmeister, auf der anderen Seite
stand die Lehrzeit bei einem Kriegsbaumeister, bei einem tüchtigen Praktiker des
„Zeugwesens“. In Frankreich kam es gegen Ende des 17. Jh. dann zu einer ersten Spezia-
lisierung im Bereich des Militäringenieurswesens. Durch königlichen Erlass vom 15.4.1689
wurde nämlich angeordnet, dass die Erbauer der Schiffe seiner Majestät, des Königs von
Frankreich, fortan den Titel des ‚Ingenieurs-Constructeuers de la Marine’ führen sollen.
Wenige Jahre später wurden die Feldmesser und Kartographen zu einem ‚Corps de Ingenieurs
Geographes’ zusammengefasst. Die Organisation und Ausrüstung des stehenden Heeres
sowie bei den Seemächten der Aufbau der Kriegsflotte stand an erster Stelle. Obwohl merk-
liche Weiterentwicklungen nur bei den Handfeuerwaffen geschahen, sorgten einheitliche
Bewaffnung und Uniformierung sowie das Exerzierreglement, das die Handhabung des
Gewehrs in eine Vielzahl von Einzeloperationen zerlegte, für eine gewisse Standardisierung,
die ohne Zweifel auch die arbeitsteilige Kooperation in den sich ausbreitenden Manufakturen
bestimmte (König 1991, 23-25).

In der lateinischen Etymologie von „ingenium“ wird dieses Wort von „geno“ abgeleitet. Es
bezeichnet einen inneren Charakter, eine naturale Disposition von Menschen, nämlich im
Speziellen eine natürliche Anlage des Geistes im Sinne des Genies und der Erfindung. Huarte
schließt in seinem Buch über die Prüfung der Genies auf die hervorbringende Kraft und
Macht des Geistes. Im 17. Jh. erscheint oftmals in der Literatur ein neues Wort, genannt
„ingeniator“, das einen spezialisierten Handwerker im Hinblick auf Kriegsmaschinen, speziell
Belagerungsmaschinen, meint (Vérin 1984, 19-21). Der Ingenieur beschäftigt sich insbeson-
dere mit mechanischen Maschinen, bzw. mit Instrumenten. Auch die technische Idee löst ein
zu Grunde gelegtes Problem. Dabei wird die Idee der Anwendung von allgemeinen wissen-
schaftlichen Prinzipien auf einen singulären Einzelfall angestrebt. In diesem Sinne meint
Ingenieur den Macher von Kraftmaschinen, mechanischen Maschinen, aber auch den Mecha-
niker und Architekten, also denjenigen, der die Pläne für eine Arbeit entwirft und ihre
Ausführung anleitet und überwacht. Insbesondere geht es um die Anwendung der geometr-
ischen Prinzipien (Vérin 1984, 22-24).

Als Konstrukteur von Kraftmaschinen ist der Techniker der Kunst der Belagerung mehr
Handwerker, weil diese Maschinen aus Holz sind. Die Ingenieure werden daher also auch als
die Begründer der Maschinen für die Artillerie gesehen, so wie der Architekt, der in der Kunst
der Kriegsführung bewandert ist, für die Befestigungsanlagen zuständig ist und sich an den
Maschinen der Belagerungskunst orientieren muss. Zu gleicher Zeit muss er sich aber auch
mit hydraulischen Prinzipien vertraut machen, die eine Verbesserung der Agrikultur oder des
städtischen Lebens ermöglicht (Vérin 1984, 29). Zum Schluss gibt es die Existenz des
mechanischen Ingenieurs, von dem Vaucansson ein Beispiel ist. Diese Art von Ingenieuren

63
bauen Automaten. Erforderlich für den Berufsstand des Ingenieurs ist es seine Fähigkeiten im
Hinblick auf die mathematischen Instrumente Auszubilden und zu üben (Vérin 1984, 34).

Die Kunst des Festungsbaus beruht auf nichts anderem, als erneut und erneut Linien zu
ziehen, die aufgespannt wurden zwischen den Fundamenten und der Befestigungsanlagen
sowie der Bollwerke, die einen Platz schützen sollten, welchen der Feind in besonderer Art
und Weise angreifen konnte. Insofern bestand die Kunst darin, ein gewisses Verhältnis zwi-
schen Fronten und Flanken aufzubauen. Diese Art und Weise der Konstruktion lief darauf
hinaus flankierende Maßnahmen zu ergreifen (Vérin 1984, 255f). Hier waren die mathe-
matischen Beweise in besonderem Maße gefragt. Der Geometriker Errard führte eine Ord-
nung von Maximen und Regeln in der Geometrie ein, die er Demonstration nannte (Vérin
1984, 258). Das Ingenieurswesen führte dazu, dass die Erfahrungen, die Beobachtungen und
die Experimente im Bereich der Technik in ihrer Anzahl vergrößert werden mussten. Die
Intelligenz der Konstruktion wird nun verwissenschaftlicht. Dabei spielt eine zentrale Rolle,
inwiefern die Operationen bzw. die Konstruktionshandlungen definiert und bestimmt werden
können (Vérin 1984, 272f). In zunehmendem Maße wird es nötig zwischen mathematischen
und mechanischen Demonstrationen zu unterscheiden. Nun kommt die Statik ins Spiel. So
wurde in zunehmendem Maße die Differenz zwischen der Theorie und der Praxis der
Konstruktion unterschieden. Konstruktion wurde in zunehmendem Maße die Ausübung von
mathematischen Prinzipien (Vérin 1984, 276).

Diese Physik für Ingenieure, bzw. für Techniker hatte wie alle Theorien ihren blinden Punkt
und dieser bestand in dem Konzept des Widerstandes. Zwischen dem Interesse der Physiker
der Epoche für das Ökonomieprinzip und der Sorge, dafür eine theoretische Formulierung zu
finden, sowie dem Inhalt, der im Zusammenhang mit dem Widerstandsprinzip häufig dunkel
und schlecht bekannt und geregelt war, als dass sie dieses in ihrer Physik benutzten, konnte
man letztendlich nur weiter nach Indizien suchen, die eine technische Behandlung des
Widerstandsprinzips erlauben würden, welches sich ansonsten physikalisch-theoretisch nicht
in angemessenem Maße als fassbar erwiesen hatte. Nur so ließ sich die Kohärenz ihres
Disputes über das Widerstandsprinzip aufrechterhalten. Die Überlegungen über mathemati-
sche Fortschritte und mathematische Ordnungen verschwanden im Diskurs der Ingenieure
(Vérin 1984, 283f). Angeregt durch Messinstrumente, die notwendig wurden durch die
Umsetzung von Konstruktionsplänen sowohl auf dem Papier, wie im Terrain und aus der
Sorge heraus, niemals die technischen Möglichkeiten aus dem Auge zu verlieren, ging es da-
rum, Methoden und Entwicklungspfade der Geometrie zu entwickeln, die die Vernunftpfade
nicht verlassen sollten. So spielten notwendige Proportionen eine zentrale Rolle, genau so wie
das Prinzip des Ausgleiches der Kräfte, die allerdings noch quantifiziert werden mussten
(Vérin 1984, 288f).

Eine neue Art des Ingenieurswesens entstand durch die Pyrotechnik, die die Kunst der
Artillerie als mechanische Kunst weiter entwickelte, nachdem das Schießpulver erfunden war
(Vérin 1984, 307). Erfahrungen und Experimente wurden immer dringlicher, um die Modelle
näher zu bestimmen und zu determinieren (Vérin 1984, 324). Insofern kann von einer Intelli-
genz der Konstruktion gesprochen werden, die in die Strukturierung des technischen
Artefaktes und technischen Gegenstandes Eingang findet. Wichtig aber ist die Definition der
erforderlichen Operationen, nicht ausschließlich der technischen Artefakte. So erfolgt im Rah-
men der Ingenieurwissenschaften ein Übergang von der Beschreibung des technischen Arte-
faktes zur Operation seines Hervorbringens im Hinblick auf seinen Gebrauch. Eine solche
Tendenz wird schon von Simon Stevin 1634 beschrieben. Statik ist also nicht mehr nur
Mathematik, sondern Mechanik. Man braucht nicht Mathematik, um Kathedralen und Festung
zu bauen, sondern Statik. Der mechanische Ingenieur bezog sich auf die Physik, der Pyro-

64
techniker auf die Chemie. Eine immer stärkere naturwissenschaftliche Grundlegung der
technischen Konstruktion führte zu einer starken Artefaktorientierung der Ingenieurwissen-
schaften.

Vorläufer waren die mittelalterlichen Ingenieure und ihre Maschinen. Es waren Experten für
das Handwerk (Vérin 1984, 42f). Ein charakteristisches Merkmal dieser Ingenieure war, dass
sie Modelle sowohl aus Ton oder aus Holz benutzten, um Architekturprobleme zu begreifen
und sie für die Handwerker, bzw. Mechaniker aufbereiten zu können (Vérin 1984, 45). Auch
im Mittelalter, vor allem aber in der Renaissance, war die Aufgabe des Ingenieurs im
besonderen Maße die Kunst des Krieges. Schon im zwölften Jahrhundert gab es Ansätze eines
Ingenieurswesens, in dem vorfabrizierte Teile verwendet wurden (Vérin 1984, 56). Es gab
eine technische Meisterschaft. Im dreizehnten Lahrhundert spielte die Artillerie eine zentrale
Rolle im Ingenieurswesen (Vérin 1984, 60). Es gab aber auch andere Arten von Ingenieuren,
die eher in den Bereich der Technoscience gehörten, so die Nähe der Medizin, insbesondere
in der Chirurgie rückten, oder aber auch in der Astrologie, insofern hier astronomische Instru-
mente verwendet werden mussten (Vérin 1984, 62). Durch den Kontakt mit den arabischen
Naturwissenschaftlern, Mathematikern und Ingenieuren, wie Avicenna und Al Farabi, wurden
auch die mechanischen Künste und das Ingenieurswesen gefördert (Vérin 1984, 72).

Die „Enzyklopädie methodique“, die den Konstruktionsingenieuren der Marine am Ende des
18. Jh. zugeordnet war, zeigt den Platz des modernen Ingenieurs als Kriegsingenieur auch
noch am Ende des 18. Jh. Die Ingenieure wurden in zunehmendem Maße Unternehmer und
eine große Anzahl von ihnen kam aus Familien von Handwerksmeistern. Sie begründeten
einen eigenen Berufsstand außerhalb der staatlich angestellten Ingenieure, die in den
Militärschulen, insbesondere in Frankreich herangebildet wurden (Vérin 1984, 181f). Bis ins
18. Jh. hinein waren die Aufgaben des Ingenieurs in der Regel so groß, dass es sich um
Staatsaufgaben gehandelt hat. Insofern wurden auch die ersten Ausbildungsinstitutionen
zunächst vom französischen König, aber dann auch von der französischen Nationalversam-
mlung nach der Revolution als Staatsaufgabe angegangen. Der moderne absolute Staat wird
zum Staat der Ingenieure. Die Ingeniere bringen Serviceleistungen und formieren das moder-
ne Staatswesen durch den Aufbau einer Infrastruktur, einer militärische, wie auch einer
zivilen. Insofern werden Befestigungsanlagen genauso gebaut wie Straßen und Brücken. Eine
besondere Rolle spielen die Ingenieure der Marine, die die Befestigungsanlagen des 16. Jh.
ergänzen. Insofern sind seit Beginn des 17. Jh. die ersten Ingenieure ein Berufsstand des
Königs (Vérin 1984, 186f). Eine besondere Rolle spielte in diesem Konzept der Ingenieur-
geograph oder Kartographieingenieur. Die Karte des Ingenieurs ist ein Instrument im Sinn der
Dienstleistung einer militärisch-ökonomischen Strategie (Vérin 1984, 196).

Der Anfang des eigentlichen Ingenieurswesens ist mit der ersten Militärakademie in
Frankreich verbunden. Vauban war ihr erster Leiter. Vauban hat ein Bild vom Staat als einer
durch einen Alleinherrscher als leitenden Ingenieur zu lenkenden Maschine. Von 1651 bis
1703 leitete er die militärischen Angelegenheiten des Sonnenkönigs. In diesem halben Jahr-
hundert wurde Vauban mit dem Ausbau von mehr als 300 Festungen, darunter 33 Neubauten,
zum größten Festungsbaumeister seiner Zeit, und zwar keineswegs nur durch Innovationen in
diesem Bereich. Ferner nahm Vauban in dieser Zeit an mehr als 40 erfolgreichen und
abgeschlossenen Belagerungen teil, davon 20 unter dem Kommando des Königs. Insofern hat
er den Rang eines Klassikers der Kriegskunst erworben. Noch 1870/71 hat man sich im
Festungskrieg an die von ihm entwickelten Maximen und Regeln des methodischen Angriffs
gehalten (Gembruch 1983, 49). Unter dem Namen „Corps du Genie Militaire“ wurde 1691
unter der Führung von Vauban die erste genuine Ingenieursschule gegründet (Picon 1992,
31).

65
Mit dem Ingenieur des 17. und 18. Jh. wird der Staat zum Arbeitgeber und Nachfrager von
Ingenieursleistungen. Dies führt zu einer Entindividualisierung, Standardisierung, Vermas-
sung und Ökonomisierung der Technik. Die technische Versorgung des stehenden Heeres
machte eine langfristige Planung erforderlich und profitabel. Der Konsument von
Ingenieurstechnik wurde immer abstrakter, der Auftraggeber für Großaufträge wurde zuneh-
mend „der“ Staat im Sinne einer Staatsbürokratie. Die technische Konstruktion verlor immer
mehr an Eigenständigkeit und wurde in Produktionsverfahren eingeordnet und untergeordnet.
Technische Konstruktion wurde zu einem Teil der Technologie als Verfahrenskunde im Sinne
von Beckmann. Die Ökonomisierung wurde immer deutlicher und so der Weg in die
Produktionsorientierung der Technologie vorbereitet, die sich mit den industriellen Revolu-
tionen durchsetzt. Belidor schrieb 1729 ein Buch „Die Wissenschaft des Ingenieurs im
militärischen Bereich“. Schon im 17. Jh. gab es Anfänge der Begründung einer Ingenieurs-
wissenschaft. Die Verwandlung der Kunst des Festungsbaus in eine Wissenschaft von der
Bauzeichnung führte zu einer Mathematisierung und Geometrisierung der Konstruktions-
kunst. Aber nicht nur die Geometrisierung war Teil der neuen Ingenieurswissenschaft, son-
dern auch die Einführung der Experimentalmethode in die Kunst der Technik.

Schon vor der Industriellen Revolution entsteht in Frankreich der neue Berufsstand der Zivil-
Ingenieure. Mit ihm und mit veränderten Formen von technischem Handeln als Berufsarbeit
und Produktion verändern sich technische Institutionen, genauer gesagt, es kommen neue
hinzu. Die zivilen Ingenieure beschäftigten sich mit Brücken, Straßen und Bergwerken, die
selbstverständlich auch eine militärische Dimension hatten (Vérin 1984, 199). Für das
Ingenieurcorps wurden auch Inspektoren gebraucht, die sowohl die Ausbildung, wie die
Konstruktion selber, sowohl auf dem Land wie zur See überwachten. Insofern entstand mit
dem Ingenieurstand sogleich ein neuer Verwaltungsstand. Der Merkantilismus des 17. und an
Anfang des 18. Jh. ist eine politische Ökonomie, die in systematischer Art und Weise das
Staatsunternehmen bevorzugt und fördert und den Staat als großen Auftraggeber und Unter-
nehmer sieht (Vérin 1984, 218-221). Der neue Berufsstand war sofort mit einer neuen sozia-
len Verpflichtung verbunden (Vérin 1984, 229). Spätestens seit der Mitte des 18. Jh. führte
die Verbindung zwischen Wissenschaft und Gewerbe zu Fortschrittsschüben, noch vom Ver-
ständnis der sog. nützlichen Wissenschaften der Aufklärung beeinflusst. Während der Zeit der
Französischen Revolution wurden Studien in den exakten Wissenschaften und ihre praktische
Anwendung durch die Gründung der Ecole Polytechnique in Paris besonders gefördert.
Dagegen nahm in England der technische Fortschritt seinen Ausgang in den Werkstätten
einfacher, empirisch arbeitender, aber häufig wissenschaftlich gebildeter Praktiker. So
entsteht seit dem späten 17. Jh. und verstärkt im 18. Jh. die Berufsgruppe der Ingenieure. In
Frankreich existierte schon vor der „Enzyklopädie“ eine längere Tradition technisch-wissen-
schaftlicher Literatur. Sie beruhte auf verschiedenen technisch-wissenschaftlichen Bildungs-
einrichtungen, die aus den staatlichen, militärischen und wirtschaftlichen Bedürfnissen ent-
standen waren. Zu Beginn des 18. Jh. wurden mit dem „Corps des Ponts et Chaussees“ auch
im zivilen Bereich spezialisierte Kader aufgebaut, deren hoher Standard weithin anerkannt
war. In England dagegen vollzog sich die Entwicklung zu einer Berufsgruppe der Ingenieure
außerhalb des öffentlichen Dienstes und ohne ein formalisiertes technisch-wissenschaftliches
Unterrichtswesen (Ludwig 1981, 2-6).

Die älteste zivile Ingenieursschule französischer Art hat mehr als zweitausend Schüler her-
vorgebracht. Diese Schule bildete eine homogene Gruppe aus und dies war von einer nicht zu
unterschätzenden Bedeutung, neben der Anzahl, in einer Epoche, in der Ingenieure selten wa-
ren. Es war eine Institution, in der wissenschaftliche und technische Größen arbeiteten und
sich austauschten. Schließlich wurden in dieser Institution technische Rationalität und eine
Organisation des entsprechenden Wissens zusammengebracht (Picon 1992, 13-16). Die

66
Geschichte der Schule enthüllt eine ganze Reihe von entgegen gesetzten Positionen und
Elementen, die dazu geführt haben, dass es zu einer fortgesetzten Entfernung und
Entfremdung der technischen Ausbildung und der Erziehung in der Architektur kam (Picon
1992, 21). 1747 errichtete Jean Rodolphe Perronet ein Büro für Ingenieure in Paris. Es war
eine neue Verwaltung für die Brücken und Straßen, für die diese Institution nun
verantwortlich war. Perronet war der Direktor der Schule der Brücken und Straßen bis zu
seinem Tod im Jahr 1794. Die Ernennungsurkunde bzw. die Einrichtungsurkunde wurde von
General Mault am 11. Dezember 1747 unterzeichnet (Picon 1992, 34-37).

Mehr als die Straßen waren die Flüsse und Kanäle Gegenstand der Regierungsarbeit. Perronet
war sich bewusst, dass Straßen eine große und breite Faszination ausübten, und ihre
Entwicklung auf der ganzen Welt im Hinblick auf politische und technische Entscheidungen
beobachtet wurden. Die Politik der Straßen war eine Sache der Aufklärung (Picon 1992, 39f).
Die Karten der Straßen und Brücken hatten Anteil an der Bedeutung dieser ganz allgemeinen
Bewegung einer nationalen Erforschung und eines allgemeinen Investitionsprogramms,
welches sich seit dem Ende des 17. Jh. mit den ersten Kampagnen der Akademie der Wissen-
schaften verband und sich im 18. Jh. verschärfte, um die Infrastruktur des Landes im Sinne
der Aufklärung zu verbessern (Picon 1992, 47). Der Zivilingenieur, der Gegenstand der neuen
Schule war, beschäftigte sich auch mit Neuerungen, wie zum Beispiel der Wasserbau-
architektur. Dabei spielte die Theorie eine außerordentlich Rolle, die insbesondere die Mathe-
matik, die Mechanik und die Hydraulik umfasste. Allerdings sind nur sehr wenige Ingenieure
vertraut mit den Abstraktionen der Wissenschaftler. Die Geometrie spielte eine zentrale Rolle
in der Theorie und in der Praxis des Ingenieurswesens. Denn man formte eine klare Idee aus,
was die Kunst des Ingenieurs betraf im Zusammenhang mit den Privilegien, die für diese
Schule formuliert wurden. Die Wasserbaukunst, die insbesondere den Abhandlungen von
Belidor ihren Namen gegeben hatte, spielte dabei keine so zentrale Rolle (Picon 1992, 53-55).

Bis zur Einrichtung der Polytechnischen Schule spielten die Ingenieure der Brücken und
Wege nur eine sehr moderate Rolle in der Mathematisierung der technischen Wissenschaften
(Picon 1992, 58). Die Krise der Ingenieurskunst führt in unmittelbarem Maße zu dem
traditionellen Konzept der Solidität. In der klassischen Theorie der Bauwerke markiert die
Solidität den Zugang zu einer korrekten Dimensionierung einer guten Ausführung der zu
bevorzugenden Produktionsweise auf den Betrachter. So kam es zur Einführung der Analyse
auf die Baustelle, wobei verschiedene Phasen der Baustelle unterschieden wurden. Immer
deutlicher wurde die Bedeutsamkeit der theoretischen Rechtfertigung (Picon 1992, 76f). Mit
der zivilen Ingenieursschule wurde eine neue technische Elite im Zeitalter der Aufklärung
geschaffen. Es gab zudem noch das Modell des Architekturingenieurs, des Kunstingenieurs
und Bauingenieurs. Die dreisemestrigen Kurse der Schüler erlaubten eine ausreichende
Aufmerksamkeit, die Perronet tatsächlich auf die Weiterentwicklung jedes seiner Schüler
warf (Picon 1992, 83-85). Um eine so verschiedenartige Mannschaft von Technikern zusam-
menzufassen, welches eine solche Reputation hatte, mussten eine ganze Reihe von Arbeits-
modalitäten von großer Bedeutsamkeit eingeführt werden (Picon 1992, 91).

Mathematik und Mechanik erhielten den ersten Rang der theoretischen Wissenschaften und
Kenntnisse, die von den Schülern der Schule der Brücken und Wege angeeignet werden
mussten. An dieser Schule wurden die Studien komplettiert durch die wechselseitige
Erlaubnis, die Schüler und ihre wissenschaftlichen Kenntnisse zu kontrollieren. Im Jahre 1775
kam die Instruktion von Turgot, die die Anzahl der Semester auf drei festlegte, ein elemen-
tarer Grundkurs in Geometrie, ein Kurs der Algebra praktizierte und einer über Mechanik,
Hydraulik und die verschiedenen Differenzial- und Integralrechnungen. Eine Ausrechnung für
den eigentlichen Architekten zum Beispiel an dem Buch über „L’Architecture pratique de

67
Bullet“ fand nicht statt. Die Architekten und die künftigen Ingenieure wurden in der Majorität
in der Lektion ausgebildet, die Blondel in der Mitte des Jahres 1769 gab. In den ersten Jahren
des Büros der Zeichenschule wurde der praktische Unterricht der Schüler von Perronet ein
solcher, der auf eine breite Anforderungsskala professionell antwortet. Mit dem Wiederer-
starken der schulischen Charaktere in den Unterrichtsfächern wurden auch die Straßenkarten
professionalisiert. Es gab eine Kollektion von Modellen an der Schule (Picon 1992, 107-112).
Auch die praktischen Kenntnisse sind bedeutsam. Neben den theoretischen und praktischen
Kenntnissen war der Zustand des Geistes, in dem die Schüler sich befanden und in dem sie
sich bewegten eines der wesentlichen Kriterien für die Teilnahme am Kurs. Sie mussten
Beweise abliefern für ihre Gelehrsamkeit und dass sie in der Lage waren, das eine oder andere
theoretisch aufzunehmen und praktisch anzuwenden (Picon 1992, 117). Im Lauf ihrer
Existenz wechselte die Schule mehrfach ihren Standort (Picon 1992, 124). Ein ökonomischer
Liberalismus entsprach nicht dem Erziehungsgeist der Schule und dem Staat. Daher gibt es
nur wenige Absolventen dieser Schule, die philosophische oder ökonomische Kenntnisse
hatten. Intellektuelle sind rar in der Verwaltung der Schule (Picon 1992, 134f).

Am Ende der Schulzeit wurden die meisten Schüler von Perronet zu Unteringenieuren
ernannt. Die Chancen, Ingenieur zu werden oder sogar etwas Höheres, waren für sehr lange
Zeit nicht sehr hoch. Es sind sehr viele Unteringenieure ihr ganzes Leben lang ohne weitere
Aufstiegsmöglichkeiten in ihrem Job geblieben. Der Status des Unteringenieurs war mit viel
Arbeit versehen. Die Unteringenieure und die Ingenieure arbeiten zusammen und haben sich
in der Tat häufig über ihre Mittelmäßigkeit und ihre Einkommen beklagt (Picon 1992, 139-
143). Die Industrialisierung hat all dies grundsätzlich geändert. Das Niveau der Entschei-
dungen und der Arbeitsplätze multiplizierte sich, während der Arbeitsaufwand der Ingenieure
ebenfalls an stieg und so die Nachfrage nach ihnen wuchs. Dabei war ganz entscheidend, dass
sich der neue Ingenieur immer mehr physikalisch-mathematische Kenntnisse aneignete. Mit
der Polytechnischen Schule war die Schule der Brücken und Straßen eine wichtiges
Bindeglied in dem Plan, die Ausbreitung neuer nützlicher, analytischer Kenntnisse unter den
Ingenieuren zu propagieren. So kam es zu einer Transformation der technischen Rationalität
und der Entwicklung unter den Ingenieursstudenten. In England kam es zu einer Erneuerung
und Aufwertung der Intellektuellen, auch in Hinblick auf Techniker, die nachrangig ist dem
Prozess der Industrialisierung (Picon 1992, 621-624).

Vor der Revolution von 1789 gab es nur Staatsingenieure. Diese hohen technischen Beamten
– ursprünglich alles Offiziere – erhielten eine praktische Ausbildung innerhalb ihres Corps.
Allerdings besuchten sie zuvor Jesuitenschulen und haben dort Mathematik und Geographie
gelernt. 1716 gründet der Staat das Ingenieurcorps „Ponts et Chaussees“. 1744 errichtete die
Regierung in Paris ein Zeichenbüro, mit dem Auftrag, eine Karte des Netzes der Verkehrs-
wege zu erstellen. Zum Zeitpunkt seiner Gründung im Jahre 1716 umfasste das Corps an die
20 Ingenieure. Am Anfang der Revolution waren es schon mehr als 200. 1748 entscheidet der
Kriegsminister sicherlich angeregt durch die Erfahrung des Zeichenbüros, die Gründung einer
„Ecole du Genie“ in Mezieres, einer Grenzstaat im Norden Frankreichs. Die letzte der großen
Schulen des Ancien Regime ist die „Ecole de Mines“, die durch einen königlichen Erlass vom
19. März 1783 gegründet wird. Sie hat die Aufgabe, Berginspektoren auszubilden, die bis
dahin in der EDP unterrichtet wurden. Es gibt zwar auch ein kleines „Corps d’Inspecteurs des
Manufactures“ und der berühmteste dieser Inspektoren entwickelte sogar einen Plan zur
Gründung einer Schule für Inspektoren der Manufakturen und des Handels, der allerdings in
der Schublade blieb. Auf diesem Hintergrund schlugen Gaspard Monge und andere
Wissenschaftler vor dem Nationalkonvent zu Beginn des Jahres 1794 die Gründung einer
einheitlichen Einrichtung zur Ausbildung aller technischen Beamten im zivilen und militä-
rischen Bereich des Staates vor. Diese Schule, die am Anfang „Ecole Central Travaux

68
Publics“ hieß, wird 1795 in die Ecole Polytechnique umgetauft. Der neue Begriff wurde
sicherlich von Monge selbst erfunden. Die einzige Neuerung unter Napoleon, die allerdings
von großer Bedeutung ist, besteht darin, die Ecole Polytechnique unter die Regie des Militärs
zu stellen. Die Ecole d’Arts et Metiers wird 1806 in einer alten Abtei zu Chalons-Sur-Marne
im Osten Frankreichs untergebracht (Grelon, Stück 1994, 16-22).

Die „Ecole Central des Art et Manufactures“ will ihren Unterricht auf der industriellen
Wissenschaft aufbauen, welche als einzigartige und in sich stimmige Synthese von Theorie
und Praxis, Wissenschaft und Technologie zu verstehen ist. Dabei geht es darum, die
Ausbildung der Ingenieure nach einem neuen Konzept zu bestimmen, damit diese ihren
gesamten Wirkungskreis in den Unternehmen konsolidieren können. Die Einrichtung ist
privat und will auch gar nicht mit staatlichen Subventionen rechen. Die Gründer haben viel
vor. 147 Stundenten sind schon beim ersten Jahrgang 1829 eingeschrieben (Grelon, Stück
1994, 27). Die Frage nach einer strukturierten Organisation des technischen Unterrichts-
wesens wird nunmehr de facto gestellt (Grelon, Stück 1994, 30). Die Ingenieure des Corps de
Ponts et Chaussees entwickelten die Tendenz, sich auf eine abstrakte, mathematikzentrierte
Ausbildung zu berufen. Sie begannen, Anspruch auf einen sozialen Status im direkten
Verhältnis zum selektiven Charakter dieser Ausbildung zu erheben, Machtpositionen anzu-
streben, die zur Vernachlässigung der Technik im eigentlichen Sinne zugunsten der Verwal-
tungs- und Managementaufgaben führten (Grelon, Stück 1994, 77f).

Als erste in Frankreich gegründete zivile Ingenieursschule erinnert die „Ecole des Ponts et
Chaussees“ indessen in vielerlei Hinsicht noch an die traditionellen Ausbildungsstätten
(Grelon, Stück 1994, 80). Sie war ausgezeichnet durch einen ganz besonderen Corpsgeist. Der
Nutzen der Verkehrswege bildete das vorherrschende Thema der Ausbildung der künftigen
Ingenieure. Dazu gehörte neben dem Straßen- und dem Brückbau selbstverständlich noch der
traditionelle Kanalbau für die Schifffahrt. Lange Zeit beschränkt auf Straßen und Brücken
werden in den letzten Jahrzehnten des Ancien Regime immer häufiger auch die
Flussregulierung und der Kanalbau herangezogen (Grelon, Stück 1994, 83-85). Die Gründung
der „Ecole Polytechnique“ erwies sich als richtungsweisend. Im Laufe des 19. Jh.s, genauer
gesagt seit den 30er und 40er Jahren setzt in Frankreich die Industrialisierung ein. Drei Typen
von Infrastruktur spielen bei dieser Revolution eine Rolle: Straßen, Wasserwege und
Eisenbahnen. Auch wenn sie für den Eisenbahnbau zunächst eher eine Bremse darstellen,
tragen die Ingenieure der Straßen und Brücken in der Folge doch zu ihrer Entwicklung bei
(Grelon, Stück 1994, 88f). So bereiteten die Ingenieure in Frankreich im 18. Jh. den Schritt
vom Infrastrukturmanagement zur Raumordnung vor (Grelon, Stück 1994, 93).

In den Ingenieurschulen im Vergleich zwischen Deutschland und Frankreich spiegeln sich die
gegensätzlichen Strukturen des Erziehungswesen wider: Zentralismus in Frankreich,
Förderalismus in Deutschland (Grelon, Stück 1994, 419). Nach der französischen Revolution
werden die Zünfte aufgehoben – mit der für die Berufsausbildung Frankreichs langfristig
verheerenden Folge, dass zugleich die Einrichtung des Lehrvertrages aufgehoben wird, so
dass eine staatliche normierte Berufsausbildung zu Beginn der zweiten Phase der Industria-
lisierung in Frankreich nicht existiert: Erst 1880 wird ein Gesetz für das mittlere Niveau der
technischen gewerblichen Ausbildung geschaffen und erst nach dem Ersten Weltkrieg das
untere Niveau der technisch gewerblichen Ausbildung institutionell aufgebaut (Grelon, Stück
1994, 426). Technische Hochschulen konnten sich in Frankreich – wie in Deutschland in
Orientierung an den Universitäten – im 19. Jh. nicht entwickeln, weil in Frankreich die
Universitäten bis zum Beginn der Dritten Republik faktisch nicht existierten. Die Universi-
täten konnten demnach auch kein Leitbild für die bereits seit Anfang des 19. Jh. bestehenden,
unter Napoleon noch in ihrer Stellung verstärkten, staatlichen Ingenieurschulen abgeben

69
(Grelon, Stück 1994, 430). Die Ausbildungssysteme von Ingenieuren und Handwerkern in
Frankreich und Deutschland waren ganz anders, auf Grund der unterschiedlichen
gesellschaftlichen Organisation mit zentralistischer Staatsgewalt und Französischer Revolu-
tion einerseits, Förderalismus andererseits. Technik schafft gesellschaftliche Strukturen, wird
aber auch in diese eingebettet. So fehlte eben die Idee der Universität, die in Deutschland eine
ganz zentrale Rolle gespielt hatte.

In der Ecole Polytechnique wurde der Gedanke leitend, dass die technischen Wissenschaften
eine gemeinsame theoretische Grundlage besaßen. In Deutschland kam man der
Akademisierung der Ausbildung durch die Umbenennung von Gewerbeakademien in
technische Hochschulen ein Stück näher (Ludwig 1981, 7-9). Die Bezeichnung Ingenieur, mit
der bis weit in das 19. Jh. hinein nur der Kriegsbaumeister mit Erd-, Geschütz- und Maschi-
nenbaukenntnissen, mit der nach der Jahrhundertmitte auch der zivile Bau- und Maschinen-
kundige gemeint waren, wird im folgenden mit dem „höheren Techniker" verbunden, der über
das rein handwerkliche Erfahrungswissen hinaus reichende Kenntnisse verfügte oder eine
theoretisch-wissenschaftliche Ausbildung erhalten hatte. Dennoch konnte sich jeder beliebige
Monteur, Maurer, Polier oder Mechaniker Ingenieur nennen. Man war der Meinung, dass
durch Bildung und technisches Schulwesen eine gewerbliche Wirtschaft zum Wohl des
gesamten Vaterlandes anzukurbeln sei, während die Ingenieure darüber hinaus glaubten, dass
sich ihre Eingliederung in die Gesellschaft aus der sozialen Höherbewertung der Technik
mehr oder weniger von selbst ergeben würde. Bis heute ist jedoch keineswegs untersucht
worden, in welchem Ausmaß die produzierte technische Bildung tatsächlich dem gewerblich-
industriellen Wirtschaftswachstum die entscheidenden Impulse gegeben hat (Ludwig 1981,
17f).

Im Zeitraum um 1800 gibt es erhebliche Verschiebungen und Brüche im Selbstverständnis


und in der Arbeitsweise etlicher Wissenschaften. Die Arbeit von Matthias Paul soll Bezüge
herstellen zwischen der Entwicklung der Geometrie und der des Bildungsproblems im
Zeitalter erster praktischer Lösungsversuche, und zwar zentriert um die „Geometrie
descriptive“ Gaspard Monges (1745-1818). Mit der „Geometrie descriptive“ liegt das organi-
sierende didaktische Prinzip der Ecole Polytechnique vor, und es handelt sich bei ihr um die
Verbindung von Mathematik und Zeichnen zu einer neuen Einheit. Die Grundvoraussetzung
ist dabei die Quantifizierbarkeit von Gegenständen, die zur Voraussetzung von Rationa-
lisierung erklärt wurde. Dabei ist zu zeigen, dass durch diese Methode ihre Präzision erhöht
werden soll, und messbar gemacht wird (Paul 1980, 1-4). Dabei ist das Theorie-Praxis-
Verhältnis in gewisser Weise vom Utilitarismus geprägt. Die von Monges vorgelegte
Methode hat zur Entwicklung einer deutlichen Anschauung beigetragen. Wichtig ist auch für
den Hintergrund der Etablierung der Ecole Polytechnique, dass nach dem Terror nach der
französischen Revolution das Bildungswesen neu aufgebaut werden sollte. Die Entstehung
eines neuen Bildungssystems, dessen Ausbau zur Schaffung neuer Ämter führte, wirkte nun
aber auch auf die Realisierung der Gruppeninteressen bestimmter Intellektueller nach
Karrieremöglichkeiten zurück (Paul 1980, 5-9).

Das Bildungskonzept der Ecole Polytechnique in den frühen Jahren war stark durch den
Condorcet’schen Ansatz geprägt. Zentrale Anliegen waren durch die Indienstnahme der Ecole
Polytechnique für Staatszwecke bezüglich der Lehrinhalte nur vermittelt technischer Natur;
wichtiger war ihre soziale Ausrichtung, und vor allem dadurch erhielt ihr Curriculum einen
grundlegenden Wandel. Die Ausbildungsdauer wurde zunächst auf drei Jahre festgelegt, 1799
dann für alle Absolventen auf zwei Jahre verkürzt. Die Befürchtung, dass durch die Ecole
Polytechnique neue Privilegien für den Zugang zum Staatsdienst geschaffen würden, war
nicht unberechtigt. Die Zukunft sollte zeigen, dass auch die aus antifeudalen Erwägungen

70
heraus geschaffene leistungsorientierte Aufnahmeprüfung diese Befürchtung nicht gegen-
standslos werden ließ. Bis etwa 1815 erfolgte keine grundlegende theoretische Neubestim-
mung der Funktionen der Ecole Polytechnique., die den einzelnen Wissenschaften bei der
Ausbildung der Ingenieursschüler zugewiesen wurde (Paul 1980, 94).

Zentral war die Stellung der Mechanik. Mit dem Wissen über die Mechanik sollten die
Naturkräfte ausgenutzt und die durch Maschinen ausgeführte Arbeit so erweitert werden, so
dass dem Bürger nur geistige Arbeit zu tun bleibe. Mit dem physikalischen und chemischen
Wissen sollten die natürlichen Ressourcen besser ausgenutzt werden können. Die Auffassung
von der prinzipiellen Erkennbarkeit der Welt und der Beherrschbarkeit der Naturprozesse
finden wir gepaart mit dem Glauben an die unbegrenzte Perfektibilität des Menschen und der
Menschheit, sprich Gesellschaft. Die zu erwerbenden Kenntnisse sind von zweierlei Art: die
einen beziehen sich auf die Formen und die Bewegungen der Körper; ihre Natur fordert die
Aneignung durch den Verstand; sie fordert entweder die Benutzung des Kalküls, oder den
Gebrauch von Zirkel und Lineal; sie bilden einen Teil der Mathematik. Die anderen beziehen
sich auf die Zusammensetzung der Körper, auf die Eigenschaften der Moleküle, die sie
bilden; sie erwirbt man durch die Erfahrung in den Laboratorien, in den Werkstätten, und sie
sind Teil der Physik (Paul 1980, 96f).

Insofern kam es zu einer Einteilung der zu lehrenden mathematischen Disziplinen nach ihren
verwendeten Methoden und ihren Gegenstandsbereichen. Die „Geometrie descriptive“ hatte
darüber hinaus den Vorteil, dass sie als Wissenschaftssprache und Metatheorie für die techni-
schen Wissenschaften gelten konnte. Sie erlangte so den Charakter eines Mittels, die Wahr-
heit zu suchen (Paul 1980, 98f). Die Lehre an der Ecole Polytechnique soll nicht nur einmal
auf die Höhe der Wissenschaft gebracht werden, sondern wird unter ein ständiges Innova-
tionsgebot gestellt. Die angewandte bzw. demonstrative Geometrie wird als die Methode
angesehen, in der die Zusammenfassung der existierenden Disziplinen angeboten wird, die
mit analytischen Methoden arbeiten. Das vom Innenminister La Place eingebrachte und am
17.12.1799 verabschiedete Gesetz beendet die Unsicherheit über den Fortbestand der Ecole
Polytechnique. Die Schülerzahl wird auf 300 festgelegt, das Mindestalter der Bewerber
beträgt 16, das Höchstalter 20 Jahre. Die Begehrtheit einer solchen Ausbildung mit guten
Karrieremöglichkeiten für Absolventen der Ecole Polytechnique erklärt sich fast von selbst
(Paul 1980, 109-119).

Napoleons häufig wechselnde Pläne zur Umgestaltung dieser Hochschule erstrecken sich
insgesamt auf einen Zeitraum von etwa 10 Jahren, und die oft hervorgehobenen Exaltierungen
im Bereich der Militarisierung besitzen keine Dauer. Wichtiger sind die in seiner Ära
vollzogenen Festschreibungen des Sozialcharakters der Ecole Polytechnique, so die Regeln
im Hinblick auf die Kostenpflichtigkeit der Ausbildung und die Erweiterung der Aufnahme-
prüfung um literarisch-humanistische Anteile. Die von De Monge befürchtete Tendenz, dass
durch die beschlossenen Veränderungen eine neue, privilegierte Gruppe geschaffen würde,
läuft diametral seiner alten revolutionären Zielvorstellung entgegen, die auf reale Gleichheit
der Staatsbürger durch Bildungsprozesse herzustellen hinauslief. Doch waren seine Befürch-
tungen durchaus nicht unbegründet (Paul 1980, 126f). Ausgebildet wurden auf der Ecole
Polytechnique technische Verwaltungsbeamte, die, obwohl sie am Industrialisierungsprozess
nicht aktiv teilnahmen, eine wichtige Funktion für diesen besaßen, denn sie wirkten als eine
Art Filter für private Unternehmungen. Eine aktive und fördernde Rolle übernimmt der Staat
jedoch erst frühestens mit dem Eisenbahnbau in den 40er Jahren (Paul 1980, 129).

Die Ecole Polytechnique konnte zumindest von den dort gebotenen Inhalten her so etwas wie
eine mathematisch-naturwissenschaftliche Universität werden, auch wenn dies ihre eigent-

71
liche Zielsetzung und die Motivation ihrer Studenten nicht recht traf (Paul 1980, 141). Die
Ecole Polytechnique hatte jedenfalls einen erheblichen Anteil an der Theoretisierung von
Technik (Paul 1980, 218). Poncelet kann bezüglich seiner Vorstellungen zum Bildungspro-
blem und der Anwendungsorientierung von Wissenschaft überhaupt als repräsentativ für eine
ganze Gruppe von Polytechnikern gelten, die innerhalb der Mathematik über Geometrie
arbeiteten, gleichzeitig als Ingenieure tätig waren, und den Prozess der Verwissenschaft-
lichung technischen Wissens voranzutreiben halfen, in der Regel auf dem Gebiet der industri-
ellen Mechanik. Im Bereich der Theoretisierung von Technik übernimmt diese die Position,
die Monge der „Geometrie descriptive“ zugedacht hatte (Paul 1980, 344). Die ökonomischen
Kontexte werden zunehmend ausgeblendet. Der Zusammenhang von Alchemie und Technik
findet vor allen Dingen im Hinblick auf den Bergbau und Verhüttung statt, aber auch bei der
Porzellan- und Glasherstellung. Der Zusammenhang zwischen Biologie und Technik wird in
den Agrarwissenschaften erst im 19. Jh. manifest. Dabei werden im 18. Jh. immer noch Ver-
nunftnotwendigkeiten und physikalische Notwendigkeiten parallelisiert.

Wachsendes Bauvolumen brachte eine Komplizierung der Aufgaben mit sich. Allerdings
dominierte das technische Element in der Lehre nur an Ingenieur- und Militärakademien. Jetzt
interessierten auch immer mehr die Zusammenhänge zwischen Struktur und Wirkungsweise
von Baukonstruktionen und das Strömungsverhalten von Gewässern. Die mathematische
Berechnung von Balkensicherheit wird für Bautechnik wichtig. Die Verwissenschaftlichung
der Bautechnik lässt sich schon recht früh nachweisen. Allerdings stieß der Einzug wissen-
schaftlicher Grundlagen auf den Widerstand so mancher Baumeister. Die kühnsten Ingenieure
der Renaissance versuchten, Kunst und Technik in eine Einheitswissenschaft einzuschließen,
die praktische Mechanik und Maschinenkunde im Spannungsfeld von Naturwissenschaften
und Technik konzipierte. Das zentrale Problem der Gelehrten waren der freie Fall und der
Wurf. Dem gezielten Experiment ging stets die gedankliche Durchdringung des technischen
Vorgangs bzw. natürlichen Phänomens voraus. Galilei bemühte sich eine konsequente Quan-
tifizierung mechanischer Prozesse. In Ständebüchern wie in Theatern der Maschinen mani-
festierte sich ein ingenieurmäßiges, wissenschaftlich untermauertes Herangehen an ein
Problem. Damit bereitete sich bereits Ausgang des 17. Jh. der Gedanke einer Einheit der
Technikwissenschaften aus. Dies manifestiert sich in der Begründung der deskriptiven Ma-
schinenkunde durch Jakob Leupold. Dieser setzte auf ein einigendes System der Mathesis.
Darin manifestierte sich auch ein frühaufklärerischer Impetus, zunehmend die angewandten
Wissensgebiete untereinander zu verknüpfen (Buchheim, Sonnemann 1990, 117-123). Der
Ausbau der modernen Naturwissenschaften ging von der Mechanik fester Körper aus. Er
bereitete aber auch die Untersuchung anderer Phänomene vor.

Uhr und Mühle gelten dabei als Vorbilder der Maschinerie. Ein wichtiger Anknüpfungspunkt
war auch die technologische Untersuchung der Metalle. Ende des 17. Jh. werden in den
Universitäten Naturwissenschaftenr mit Vertretern der angewandten Richtung. Ob nun
Technik zum Prüffeld und zur anregenden Demonstration von Naturgesetzen wurde, der
mathematischen Spielerei oder dem Ausbau experimentellen Methoden diente, die aufge-
schlossenere Haltung vieler Naturwissenschaftler auch zu Problemen der Maschinentechnik
ist nicht mehr zu übersehen. In Jacob Leupolds Werk "Theatrum machinarum" von 1724-
1729 fließen die Ströme empirischer und theoretischer Betrachtung zusammen. In diesem
Werk finden sich auch hervorragende Zeichnungen. Die Verwissenschaftlichung der Bau-
zeichnungen ist auch ein Indikator für die Verwissenschaftlichung der Technik. Auch
chemische Produkte sind seit dem 15. Jh. einem steigenden Bedarf ausgesetzt. Allerdings
waren die oft planlosen Versuche nicht immer von Erfolg gekrönt, da ausreichende chemische
und mineralogische Kenntnisse nicht zur Verfügung standen. Um die Mitte des 18. Jh. war
der Zeitpunkt gekommen, da zum ersten Mal versucht wurde, die Methoden der exakten

72
Wissenschaft auf eine praktische Bauaufgabe anzuwenden. Es entsprach der Geistesrichtung
des Aufklärungszeitalters, auch das statische Verhalten von Bauwerken, die bis dahin nur
nach dem architektonischen Gefühl entworfen worden waren, der Kontrolle des geprüften
Verstandes zu unterstellen und die Tragwerke nach den Regeln der nun als Wissenschaft
etablierten Mechanik zu bemessen. Der Übergang vom handwerklich-gewohnheitsmäßigen
Schaffen zur modernen, wissenschaftlich fundierten Baukunst bedeutet etwas grundsätzlich
Neues. Es handelt sich um die statischen Untersuchungen der Peterskuppel in Rom, die im
Auftrag von Papst Benedikt XIV in den Jahren 1742 und 1743 durchgeführt wurden (Straub
1992, 154f).

Zu Beginn des 18. Jh.s gewann die technische Literatur eine neue Qualität. Nicht mehr das
Bizarre, Kuriose war gefragt, sondern die nüchterne präzise Information. Die nun edierten
Mühlenbücher stellten mit ihren bemaßten Grund- und Seitenrissen, Detailzeichnungen und
Textbeschreibungen eine wirklich brauchbare Hilfe für den Mühlenbauer dar. Diese Darstel-
lungen enthalten das empirische Wissen des zeitgenössischen Wasser- und Windmühlenbaus,
gehen aber auch auf ökonomische Belange ein. Als Beispiel dient hier die Arbeit „Archi-
tekturhydraulik“ von Belidor, der schon Erfahrungswissen mit wissenschaftlicher Theorie zu
verknüpfen suchte. Auch die Versuche des großen schwedischen Maschinenbauers und Theo-
retikers Christopher Polhem, der um 1701 eine aufwendige Versuchsapparatur die Ermittlung
der günstigsten Wasserradform konstruiert hatte, blieben letztlich ohne größeren Erfolg,
obwohl auch sie ein Zeichen für die sich anbahnende Verbindung von Theorie und praktischer
Mechanik waren (König 1991, 45-47). Die Ergebnisse der wissenschaftlichen Berechnungen
unterschieden sich nicht grundsätzlich von den Urteilen aufgrund der Erfahrung. Als Ursache
für die größeren Risse und der aufgetretenen Schäden im Kuppelbereich wird das Nachgeben
des Kämpferrings der Kuppel genannt. Dies wird nun allerdings aufgrund der Berechung der
Größe des Horizontalschubs als Nachweis erbracht, dass die damals eingerichteten zwei
eisernen Zugringe dem Druck nicht gewachsen waren. Dagegen wandten die Praktiker ein,
dass die Kuppel schon längst hätte einstürzen müssen, wenn der errechnete Druck tatsächlich
um ein so vielfaches höher liegen sollte als auf Grund der Erfahrung erwartet. Trotz der
Meinungsverschiedenheiten über die Ursache der Schäden herrschte indessen zwischen den
Parteien Übereinstimmung über die zu ergreifenden Maßnahmen, dass zur Sicherung des
Bauwerks weitere eiserne Zugringe anzubringen seien (Straub 1992, 156-160).

Zum ersten Mal in der Geschichte des Ingenieurbaus treten Erkenntnisse aus den
Naturwissenschaften und der Forschung an die Stelle von intuitivem Wissen um statische
Gleichgewichtszustände und der Anwendung von Erfahrungsregeln zur Bemessung. Mathe-
matische Berechnungsmethoden werden herangezogen, um das Gleichgewicht im Tragwerk
eines Gebäudes nachzuweisen und die Dimensionierung von Bauelementen vorzunehmen.
Den Berechnungen zugrunde gelegt wurde das Prinzip virtueller Verschiebungen aus
Bauschäden. Die Gutachten kommen zu dem Schluss, die Kuppel mit zusätzlichen Ringan-
kern zu sichern, was die Praktiker auch ohne statische Berechnungen aus Erfahrung längst
erkannt hatten. Mit diesem Vorgang wird das humanistische Primat der Anschaulichkeit
verlassen (Jesberg 1996, 74-76). Es entsteht eine ingenieurwissenschaftliche Technikwis-
senschaft, ansatzweise realisiert in der französischen ingenieurwissenschaftlichen Schule
(insbesondere dem Bauingenieurwesen) und in der Montanindustrie.

Im technisch zunehmend voraussetzuungsreichen Bergbau artikuliert sich Ende des 18. Jh.
anwachsend eine Nachfrage nach technisch-wissenschaftlicher Kompetenz, die in Europa und
Lateinamerika zwischen 1765 und 1795 zur Entstehung einer Reihe von Bergakademien
führte (Stichweh 1984, 44). Mitte des 18. Jh. beginnt die Innendifferenzierung der Naturlehre.
Es entsteht eine dezentrale Struktur des Wissenschaftssystems. Technikwissenschaften konsti-

73
tuieren sich als Disziplinen in Analogie zu den Naturwissenschaften etwas später als diese.
Der Prozess beginnt in der zweiten Hälfte des 17. Jh. Der Prozess der Mathematisierung der
Theorien in der Physik führt zu einer sich neu etablierenden Hierarchie des Wissens (Stich-
weh 1984, 217). Experimentalforschung wird identisch mit Präzisionsmessung, die optimale
Koordination mit mathematischer Theorie gewährleistet. Dem dienten auch die Fehler-
rechnung und die Fehlertheorie. Eine neue Experimentalauffassung kommt so unter dem
Druck der Mathematisierung physikalischer Theorie zu stande. Dadurch wird die Technizität
mathematischer Aussagenzusammenhänge immer deutlicher (Stichweh 1984, 249).

Ein besonders wichtiges Beispiel für das Zusammenwirken von Naturwissenschaft und
Technik in dem Sinne, dass man Technik als angewandte Wissenschaft betrachten konnte,
wird 1770 in Deutschland durch den Blitzableiter eingeführt. Dabei gewinnt seine Vorführung
bisweilen in manchen Formen Ähnlichkeiten zum Mesmerismus, der Elektrizitation als Mittel
medizinischer Therapie begreift. Der Blitzableiter hat eine singuläre Stellung in der Inter-
aktion von Naturwissenschaft und Technik im 18. Jh., denn er kommt als technische Inven-
tion völlig überraschend und wurde kurz nach 1750 entwickelt. Es handelt sich um einen
wirksamen Schutz ohne nachteilige Nebenwirkungen (Stichweh 1984, 279f). Er ermöglichte
erst den fahrenden Elektrikus, der durch Verkauf von Blitzableitern und Installation dieser
Anlagen sich sein Geld verdient. Insbesondere die Zusammenhänge von Elektrizität und Ma-
gnetismus interessieren am Ende des 18. Jh.

Maschinen dienten insbesondere dem Antrieb für Fontänen durch Wasserpumpen. Jakob
Leupold hatte eine Reihe von solchen Maschinen beschrieben. Allerdings kam bei einem
hohen Aufwand häufig nur eine geringe Leistung zustande. Die Fragen der Wasser-
förderungen waren dabei vor allem bei Gruben wichtig. So entwarf z.B. Leibniz eine
Pumpkraftmaschine, um Grubenwasser zu heben. Windmühlen waren als Antrieb nicht kon-
stant genug. Maschinen zum Antrieb für Pumpen ließen sich mit den Mitteln des 17. Jh. nicht
entwickeln. Das 18. Jh. brachte den Siegeszug der quantitativen Naturwissenschaft und in der
zweiten Hälfte große und fruchtbare technische Schöpfungen (Klemm 1999, 122). Mitte des
17. bis Ende des 18. Jh. datierte die Blüte des Merkantilismus. Die Aufklärungsepoche be-
mühte sich um eine stärkere und rationalere Durchdringung des technischen Schaffens. Nun
wurde systematisch versucht, Reibungsverluste zu vermeiden. Durch Reibung blieben Ma-
schinen in praxi weit meist hinter ihrem theoretischen Wirkungsgrad zurück. Im zweiten
Drittel des 18. Jh. war man bestrebt, die Wissenschaft auf das technische Schaffen anzuwen-
den. B. F. de Bélidor war bemüht, die Theorie der Mechanik auf die Maschinen anzuwenden,
wie Christian Wolff berichtet. Ch. A. de Coulomb, J. R. Perrouet und M. R. de Prony ver-
suchten die Anwendung der Wissenschaft in der Technik voranzutreiben. Diese stieß aller-
dings allzuoft auf den Widerstand der reinen Praktiker. Die Wirksamkeit der mathematischen
Methode in der Technik wurde vielfach bezweifelt (Klemm 1999, 118). Hinzu kamen viele
Fehlschläge der Mathematik bei der Darstellung mechanischer Probleme. So machte sich
Friedrich der Große über Eulers Berechnung zum Wasserhebewerk lustig. Insgesamt war
Coulomb erfolgreicher. Insbesondere Gewölbeberechnungen erwiesen sich als Ansatzpunkt
für eine theoretische Durchdringung der mechanischen Künste.

Eine stärkere wissenschaftliche Durchdringung der technischen Arbeit setzte zuerst in


Frankreich ein. Während man sich dort bemühte, die Technik an die Wissenschaft anzuschlie-
ßen, verfolgte England im Allgemeinen mehr die Wege der praktischen Erfahrung. Aber doch
auch hier gehen Naturwissenschaften voran, Mechanik und Chemie einerseits, und Gewerbe-
wesen und Industrie andererseits, vornehmlich in der zweiten Hälfte des 18. Jh. gerade in den
industriereichen Gebieten vielfach zusammen. Die Wissenschaften pflegenden fachlichen
Abendschulen, Akademien und Kurse wandernder Lehrer vermitteln den praktisch Tätigen

74
bescheidene praktische naturwissenschaftliche Grundlagen. Das Streben, die Wissenschaften
auf die Technik anzuwenden, war auf dem Kontinent zunächst das Anliegen einzelner Wis-
senschaftler oder staatlicher Stellen. Aber doch zeigte sich schon in der ersten Hälfte des 18.
Jh. wie auch Handwerker von sich aus bemüht waren, ihre praktische Arbeit ein wenig wis-
senschaftlich zu unterbauen (Klemm 1969, 320). Die Männer, die im 18. Jh. vor dem Einzug
der Dampfkraft als Praktiker den Bau von großen Maschinen betrieben, waren Kunstmeister,
die vornehmlich Bergwerksmaschinen konstruierten, und Mühlenbauer. Diese Männer ver-
banden mit ihrem praktischen Können auch einiges theoretisches Wissen. So vereinte der
Leipziger Mechaniker, Maschinenbauer und Bergwerkskommissar Jakob Leupold (1674-
1727) in besonders glücklicher Weise wissenschaftlichen Sinn mit praktischer Fertigkeit. In
seinem „Theatrum Machinarum“ hob er immer wieder hervor, dass der Erbauer von Instru-
ment und Maschine mathematische und mechanische Studien betreiben müsse. In sachlich-
rationalem Geist wandte er sich besonders gegen die bloßen Projektemacher, an denen es seit
den Tagen der Spätrenaissance und Barock nicht fehlte. Leupolds Buch ist die letzte große
Zusammenstellung der technischen Vorrichtung vor dem Einbruch der neuen Kraft und Ar-
beitsmaschinen in der zweiten Hälfte des 18. Jh. (Klemm 1969, 321).

Gegen Ende des 18. Jh. vollenden sich zwei technikwissenschaftliche Paradigmen: (1) die
Ingenieurwissenschaft in der französischen ingenieurwissenschaftlichen Schule und in der
Montanindustrie, theoretisch erfasst von Christian Wolff unter dem Begriff „technologia“ als
Kausalwissenschaft und Unterdisziplin der Physik; (2) die handwerkliche, manufaktur-
orientierte Technologie als Verfahrungskunde im Sinne von Johann Jacob Beckmann. Der
Begriff der Technologie taucht im Rahmen der Renaissance erstmals 1656 auf, wobei
Technologie im Sinne der Sprachkunst verstanden wird. Dabei handelt es sich um grammati-
kalische Lehrbücher. Im Englischen ist technology "treatment of grammar" für das Jahr 1683
belegt. Allerdings sind von diesem Technologiebegriff keine neuen Impulse ausgegangen
(Seibicke 1968, 100). In der philosophischen Auseinandersetzung des 16. und 17. Jh. über
Logik und Dialektik spielt die Frage nach dem Wesen der freien Künste und ihrer Gliederung
in verschiedene Abteilungen eine wichtige Rolle. Dabei stehen sich die aristotelische Defini-
tion der Techne als eines subjektiven Habitus (hexis) des Verstandes und die stoische Auffas-
sung, nach der Techne ein System von Regeln darstellt, einander gegenüber, doch überwiegt
die stoische Auffassung. Insbesondere in England und in den USA ist der Begriff der philoso-
phischen Technologie verbreitet, in Deutschland ist er bekannt, doch wird von ihm nicht so
ein reger Gebrauch gemacht. Dennoch ist nicht anzunehmen, dass philosophische Techno-
logie gegen Ende des 17. Jh. spurlos verschwunden ist. Unklar ist, wie der Begriff Techno-
logie in die Philosophie übernommen worden ist. Auch außerhalb der Schulphilosophie ist
Technologia nämlich in der Bedeutung der Kunstlehre nachweisbar. Technologia bezieht sich
insbesondere auf universale Zeichen, Schriften oder Symbolsysteme oder auf eine universale
Begriffs- und Symbolschrift.

Im 18. Jh. findet bei Christian Wolff und Johann Jacob Beckmann ein Begriffswandel statt.
Technologie wird zur Bezeichnung für den Begriff Gewerbekunde, so im damaligen
Brockhaus, wobei diese Begriffsbestimmung einseitig ökonomisch ist. Manchmal gibt es
noch die Verwendungsweise Technologie für Poetologie, aber das Adjektiv technologisch
konnte um 1800 auf alles bezogen werden, was zum Sachgebiet der Technologie gehört. Dort
bestand von Anfang an eine Konkurrenz mit dem Wort technisch, da technologisch streng
genommen nur das bezeichnete, was zur Lehre vom Technischen gehört (Seibicke 1968, 156).
Der Begriff "technica" als kollektiver Plural neutrum gebildet und sekundär als Feminin-
endung behandelt, hat eine Bedeutung, der der Charakter eines Wissenschaftsbegriffs völlig
abgeht. Er ist ein reiner Sammelbegriff, eine Kontamination von singularischer Form und
pluralischem Inhalt. Der Gedanke einer inneren Systematik der handwerklichen Künste ist

75
damit grundsätzlich nicht verbunden, kann aber durch den Begriff der Wissenschaft über-
lagert werden.

Zwei Programme einer Technikwissenschaft waren unter der Bezeichnung „Technologie“


bereits im 18. Jh. diskutiert worden: Die Forderung nach einer theoretisch-philosophischen
Reflexion von Technik bei Christian Wolff am Anfang des 18. Jh. unter dem Namen "Tech-
nologie" und andererseits das Modell einer Klassifikation aller Techniken im Sinne der
Technikwissenschaften bei Johann Jacob Beckmann, ebenfalls unter dem Namen "Techno-
logie" am Ende des 18. Jh. Diese Verwissenschaftlichung der Technik wird seit der Renais-
sance betrieben und in der Industriellen Revolution verstärkt realisiert. Eine Folge davon ist
der Übergang von einer Handwerkstechnik zur Ingenieurstechnik. Hier verknüpfen sich in der
Entwicklung der Dampfmaschine Wissenschaft und Technik erstmals gegen Ende des 18. Jh.
Etwas später erfolgt eine Verwissenschaftlichung der technischen Produktion durch Ausbil-
dung einer technischen Verfahrenskunde, genannt Technologie. Johann Jakob Beckmann
prägte diesen Begriff 1772 in Göttingen. Sein Programm einer kameralistischen, d.h.
ökonomischen Theorie der Technikverwendung artikuliert sich bereits im Titel seines Werkes
"Anleitung zur Technologie, oder zur Kenntniß der Handwerke, Fabriken und Manufacturen,
vornehmlich derer, die mit der Landwirtschaft, Polizey- und Cameralwissenschaft in Ver-
bindung stehn. Nebst Beyträgen zur Kunstgeschichte" (Beckmann 1777).

Eine alle Bereiche umfassende Handwerkskunde hatte es bis dahin nicht gegeben. Beckmanns
Einteilung nach Arbeitsverfahren ist als das Neue zu sehen. Damit wird technische
Konstruktion unter veränderten Gesichtspunkten, aber noch im Kontext konstruktiver
technischer Praxis gesehen. Bei allen Systematisierungstendenzen ist eine pädagogisch-
pragmatische Absicht nicht zu übersehen. Im Unterschied zu Christian Wolff wird
Technologie als Wissenschaft des Handwerks bei Beckmann nicht in das System der
Naturwissenschaften integriert, sondern vom technischen Vorgehen, von der technischen
Arbeit oder - allgemein gesprochen - vom technischen Handeln aus verstanden. Beckmann
schlägt 1772 erstmals vor, den Begriff der Technologie anstelle des herkömmlichen Begriffes
der Kunstgeschichte für die Beschreibung von Ingenieurswerken einzuführen. Das Wort
Technologie gewann sehr schnell einen nicht mehr einzuholenden Vorsprung vor allen
anderen bereits gebräuchlichen Bezeichnungen. Dabei ist von besonderer Wichtigkeit die
Verzahnung von Ökonomie und Technologie bei Beckmann. Technikwissenschaft ist eine
Wissenschaft des Maschinenwesens und der Fabriken. Den Begriff der Kunstgeschichte hat
Beckmann abgelehnt, weil sich inzwischen der Begriff der Geschichte insbesondere durch
Kant und Herder gewandelt hat. Aber auch Wandlungen im Begriff der Kunst haben zu dieser
Trennung beigetragen. Kunst, Fabrik und Manufaktur sind am Ende des 18. Jh. nicht mehr
identisch. Für Beckmann heißt der neue Oberbegriff also nicht Kunst, sondern Handwerk. Er
ist aus dem Prinzip der Verarbeitung abgeleitet. Ob es sich dabei um schöne oder nützliche
Gegenstände handelt, ist für Beckmann belanglos. Es geht ihm also um die Aufwertung der
Handwerke. Die schönen Künste gehören bei Beckmann noch zum Handwerk, aber der alte
Verband der Künste und der Handwerke ist in Auflösung begriffen (Seibicke 1968, 144).

Sein reifstes Werk erscheint 1806, nämlich der "Entwurf einer allgemeinen Technologie".
Hier geht es um die Neubegründung einer streng wissenschaftlichen Systematik der
Technologie im Sinne einer vergleichenden Technologie. Beckmann erstellt ein Verzeichnis
der verschiedenen Absichten der Handwerker und Künstler (Beckmann 1985, 10). Es handelt
sich allerdings um eine Klassifikation, die heute nicht mehr ganz überzeugt (Beckmann 1985,
22). Insgesamt wird Ende des 18. Jh. und Anfang des 19. Jh. das Bedeutungsspektrum des
Wortes Technologie immer unschärfer. Übersetzt in moderne Terminologie von Technologie
benutzt Beckmann zur Klassifikation technischen Handelns die Ziele technischer Handlungen

76
bzw. von Arbeitsverfahren, die Arbeitsmittel und die dadurch erzeugten Wirkungen, Folgen
oder Produkte. Dabei ist das Entwicklungstempo technischer Neuerungen nicht besonders
schnell. Die Erfahrung lehrt vielmehr, dass von Zeit zu Zeit Verbesserungen gemacht werden,
welche die Arbeit erleichtern, sichern oder abkürzen (Beckmann 1983, 467). Technologie ist
also gemäß Beckmann Verfahrenskunde der Produktion oder Arbeitskunde, während sich die
Technikwissenschaften mit Erkenntnismethoden, mit Erfindung und Konstruktionsmethoden,
mit der Spezialisierung in der Technik und ihrer wissenschaftlichen Durchdringung sowie mit
einer wissenschaftlichen Reflexion der Technologie beschäftigen. Zu Zeiten der Handarbeit
bis in das Zunftwesen des Mittelalters hinein waren Technikwissenschaften und Technologie
unnötig. Dabei ist der Begriff der Verwissenschaftlichung der Technik unscharf. Vielmehr
kam es zu einem Anwachsen der Komplexität technischer Handlungen und zu Formen der
Arbeitsteilung bereits vor der Industriellen Revolution, z.B. in Manufakturen, aber auch im
Bergbau und in der Metallverhüttung. So wurde allmählich eine zunehmende theoretisch-
wissenschaftliche Durchdringung von Teilaspekten technischen Handelns erforderlich. Vor
diesem Hintergrund differenziert sich auch der Begriff der Technologie im Sinne von (1)
Nutzung von Naturprozessen in artifiziellen Kontexten, (2) die Bearbeitung von Gegen-
ständen im Sinne einer Transformation von Stoff, Energie sowie Information und (3) die
schrittweise theoretische und pragmatische Verallgemeinerung.

In Beckmanns Definition der Technologie wird der Technikbegriff auf die Handwerke, d.h.
auf alle Formen der Verarbeitung von Materialien festgelegt. Das geschieht noch vor der
Ausbreitung der Begriffe „technisch“ und „Technik“ für Regeln, Verfahren und Mittel der
Zweckrealisation im weitesten Sinn und kann deshalb nicht davon abgeleitet sein. Dagegen
kann man die Verwendung des Begriffes technisch allein für handwerkliches Herstellen auf
den Einfluss von Beckmanns Technologie zurückführen (Seibicke 1968, 212). Handwerkliche
manufakturmäßige Technologie entsteht als Erfahrungskunde im Sinne von Johann Jacob
Beckmann. Für stoffumwandelnde Operationen bedeutete die Regelung des Feuers ein
permanentes Problem. Da die Gelehrten die Handarbeit verachteten, kam es nur zufällig und
vereinzelt zu einer Verknüpfung von empirischen und theoretischen Erkenntnissen. Mit der
Renaissance wandelten sich die gnoseologischen Grundpositionen. Die Gelehrten der
Renaissance bemächtigten sich der Antike aus der kritischen Distanz einer mehr als
tausendjährigen Entwicklung und negierten sie auf eine dialektische Art (Buchheim,
Sonnemann 1990, 57-64). Das von Bacon angestrebte Ziel, nämlich auf wissenschaftliche
Weise zu erfinden, war vorerst nicht zu erreichen.

Der Staat hatte längst die indirekte und auch die direkte Förderung technische Entwicklung
übernommen: indirekt, weil er Hauptabnehmer, vor allem von militärischen Produkten war,
und direkt etwa in dem ausdrücklichen Auftrag an die Akademien, nutzbringende, die
Wissenschaften anwendende Erfindungen zu tätigen oder zu beurteilen. In diesem
Zusammenhang kommt der Technik die Rolle des eigenen Rades in dem theoretischen
Konzept des Staates als Maschine zu. Aus der Tradition der Beschreibung der Handwerke,
des Durchlaufs eines Rohstoffs durch die Bearbeitung bis hin zum fertigen Endprodukt, leitet
sich auch die Benennung einer neuen Wissenschaft der Technologie her. Die Vorstellungen
einer physiokratisch reorganisierten Landwirtschaft und Formulierungen, wie sie Diderot in
seiner Enzyklopädie, vor allem mit seinem Artikel „Arts“ benutzte, fließen zusammen (Weber
1983, 175f). Zielte bei Diderot die Systematisierung der handwerklichen Erfahrungen auf eine
Verbesserung der Produktion in den Manufakturen auf bessere Materialgüte, höhere
Arbeitsteilung und vollkommenere Produkte, zu deren permanenter Verbesserungen die
Arbeiter dann intensiv selber beitragen könnten, so baute Beckmann den Nutzen der
Technologie in das System der landesfürstlichen Wohlstandspolizei ein. Man sieht aber
schon, wie wenig hilfreich diese Technologie als Orientierungswissenschaft für die

77
Konstruktion von Maschinen, sowohl Werkzeug- wie Kraftmaschinen, sein musste. Doch
nicht nur in Deutschland, sondern auch in Paris fand die Technologie durch den französischen
Bergbauexperten und Chemiker J. H. Hassenfratz Fürsprecher (Weber 1983, 177-179).
Heynitz versuchte dann erneut 1799 in der eben begründeten Bauakademie Unterrichtsfächer
wie Maschinenlehre, Hafenbau, Land- und Stadtbau unterzubringen. Die Aversion der
Berliner Universität gegen die „materielle“ Richtung des Polytechnismus und Amerikanismus
hatte um 1830 ihren Höhepunkt erreicht (Weber 1983, 180-183). Auch die Naturwis-
senschaften standen in den Jahren 1790 bis 1830 in Deutschland unter dem wesentlichen
Einfluss der romantischen Naturphilosophie (Weber 1983, 187).

Zu Beginn der Neuzeit entwickelte sich ein Patentsystem, so in Venedig Ende des 15. Jh. Im
16. Jh. bildeten sich besonders in den Niederlanden und in Kursachsen feste Formen der
Gewährung von Erfinderanleihen heraus. Auch kaiserliche Patente für das ganze Reichsgebiet
wurden bereits seit dem 16. Jh. erteilt. Die bedeutsame Entwicklung des deutschen Erfin-
dungsschutzes in der zweiten Hälfte des 16. wurde im 17. Jh. durch den Dreißigjährigen Krieg
unterbunden. In England führte das Unterhaus am Ende des 16. Jh. einen Kampf gegen den
Missbrauch der Krone, Privilegien nach Belieben auch für den Handel mit allen möglichen
Waren, insbesondere solchen des täglichen Bedarfs zu vergeben (Klemm 1999, 99).
Allerdings blieb die Vergebung eines Erfinderprivilegs noch immer ein Gnadenakt der Krone;
erst Ende des 18. Jh. wurde dem Erfinder ein Rechtsanspruch auf ein Patent für seine
Erfindung eingeräumt (Klemm 1999, 100). Die Auffassung, dass die Benutzung der einfachen
Maschinen zu partikulären Zwecken ein Handeln wider die Natur sei, wurde bald danach
überwunden. Galileo Galilei in seinem Werk „Le mecchaniche“, 1593 geschrieben, und
Francis Bacon in seinem „Novum Organum“ (1620) weisen darauf hin, dass der Gebrauch
von Maschinen kein Handeln gegen die Natur bedeute (Klemm 1999, 93).

Mit der Durchsetzung des mechanischen Weltbildes seit dem späten 16. Jh. schlug auch die
Geburtstunde der modernen Naturwissenschaften. An die Stelle des bislang vorherrschenden
spekulativen Denkens als der wesentlichsten Grundlage wissenschaftlicher Erkenntnis trat
nun in der Verbindung von Theorie und empirischer Beobachtung das naturwissenschaftliche
Experiment. Erstmals wurde die bis heute in der Forschung gültige Grundregel der Nach-
prüfbarkeit durch andere angewandt (König 1991, 52). In der Mitte der naturwissen-
schaftlichen Revolution erlangte das Instrument, das im Praxisbereich weiterhin seine
wichtige Funktion behielt, auch in der Wissenschaft eine herausragende Bedeutung (König
1991, 200). Nicht zuletzt gehörten Uhren zu diesen Instrumenten. Insgesamt unterstellte man
der barocken regulären Bastionsbefestigung eine logisch fortschreitende Entwicklung, geprägt
von militärischer Zweckrationalität. Technische Rationalität erweist sich aber gerade in
diesem Bereich nicht als eine feste Größe, die als solche Motor der historischen Veränderung
ist. Sie wird selbst relativ und veränderlich. Für den Festungsbau des 17. Jh. bedeutet dies
z.B., dass eine reguläre Anlage einer irregulären auch dort vorgezogen werden konnte, wo das
nach heutigem Verständnis nicht zweckmäßig ist (König 1991, 228). Auch die Schleusen bei
Kanalbauten konnten beträchtliche Größen erreichen. Bei aller Bewunderung dieser tech-
nischen Großleistung bleibt darauf hinzuweisen, dass es sich dabei nur um partiell
weiterentwickelte neue Techniken gehandelt hat. Beachtenswerter ist, ähnlich wie beim
Festungsbau, die geschickte Organisation von Arbeitermassen, die größtenteils aus Soldaten
und fronenden Bauern der Region bestanden hat. Der Einsatz technischer Mittel war im
gesamten Bauwesen durch die Tatsache bestimmt, dass sich auf den Baustellen im Regelfall
nur menschliche und tierische Muskelkraft einsetzen ließ. Erdbewegungen geschahen in
Handarbeit mit der Schaufel, der Transport von Erde und Baumaterialien erfolgte mit
Schleifen, Karren und Wagen. Schwere Lasten wurden mit Kränen und Hebezeugen bewegt
(König 1991, 238).

78
Jean Adolphe Peronnet hat dem Brückenbau ein wissenschaftliches Fundament zu geben
gesucht und selbst hervorragende Brücken entworfen und gebaut. Berühmt wurde er vor allem
Dingen mit dem Pont de Neuilly in Paris (König 1991, 240). Ein Ingenieur war im späten
Mittelalter ein Mann, der Kriegsgerät herstellte, im Gegensatz zum Architekt, der sich mit
dem Zivilbau befasst hat. Diese Scheidung, die auch in den Architekturbüchern vorgenommen
wurde, war jedoch eher formaler Natur-. Denn in der Realität waren Architekt und Ingenieur
sehr häufig ein und die selbe Person, das heißt sie mussten sich auf beides verstehen und
darüber hinaus erhebliche organisatorische Fähigkeiten besitzen, wie sie bei der
Durchführung großer Bauvorhaben gefordert wurden. Durch die Gründung der Ingenieur-
korps wurden eine allmähliche Trennung von Zivil- und Militärbauwesen sowie eine
Spezialisierung innerhalb des Heeres vorangetrieben. Obwohl zur Architektur auch die
Mechanik im weiten Sinne zählte, und mancher Baumeister die für seine Arbeit notwendigen
Maschinen entwarf oder verbesserte, hatte der eigentliche Maschinenbau seine Hauptwurzeln
in jenen Bereichen, die eng mit den Gewerben, also mit der Produktionstechnik verbunden
waren. Ihre Hauptvertreter, die Mühlenbauer, die vor allen mit dem Werkstoff Holz um-
gingen, oder die Kunstmeister, die die bergbaulichen Maschinen sowie die städtischen
Wasserkünste bauten und es hervorragend verstanden, dabei Metall zu verwenden, waren
reine Empiriker, die ihr Wissen und Können von Generation zu Generation weiter gaben
(König 1991, 249-252).

Entwurf, Planung nicht nur des technischen Artefakts selbst, sondern auch seine Erzeugung
und Herstellung umfasst das Prinzip der technischen Konstruktion. Die routinisierte techni-
sche Konstruktionspraxis, von der es immer wieder kleine Abweichungen gegeben hat, ist das
kontinuierliche Entwicklungsprinzip letztendlich auch der technologischen Fortschritt und
Innovation hervor gebracht hat. Die Konstruktionsstruktur mechanischer Geräte, wie sie z.B.
Mühlen in verschiedenen Variationen enthalten, basiert auf einer Implementierung von
technischem Umgangswissen in Geräte. Dabei gehen auch gelegentlich lokale Versionen oder
Alternativen dieses technischen Umgangswissens in die technischen Geräte selbst mit ein.
Während das funktionale Wissen in den Maschinen weltweit gleich funktioniert, kann es
lokales Umgangswissen geben, welches in lokalen Bereichen in technische Artefakte
implementiert wird und dann möglicher Weise in anderen Bereichen ganz andere und
ungeahnte Wirkungen hervorruft. Technisches Umgangswissen ist zunächst eine Kompetenz,
die aus der ersten Personperspektive zu beschreiben ist. Diese muss, um sie in Maschinen
implementieren zu können, zunächst in technologisches Umgangswissen transformiert wer-
den, bevor es zum mechanischen Wissen um Ereignisabfolgen transformiert werden kann,
welches dann in mechanische Ereignisabläufe transformiert werden kann. Die theoretische
Erfassung und Präzisierung des Umgangswissens war eine wesentliche Voraussetzung für die
Erfassung komplexer Bewegungsabläufe welche technische Handlungen aufgrund von
technischem Umgangswissen darstellen. Dies lag zum Beispiel bestimmten Teilprozessen der
Tuchherstellung zugrunde, nicht zuletzt des Vorgangs des Spinnens und Webens. Dies war
Gegenstand von Beckmanns Technologiebegriff, der allerdings mit Verwissenschaftlichung
noch nichts zu tun hat.

Eine der für die Technik wichtigsten Folgen der Buchdruckerkunst war die Verbreitung
technischen Wissens durch das Buch. Das wichtigste technische Problem bestand in der
Erzeugung von Kraft, um mechanische Apparate zu bewegen. In diesem Zusammenhang sind
zunächst Wasserräder zu erwähnen. Der Fortschritt mit der Vergrößerung des Mehlrades darf
auf jeden Fall nicht unterschätzt werden. Außerdem gab es Innovationen im Bereich der
Windmühlen. Die Holländer erfanden offenbar schon im 14. Jh. die Windmolen, bei der nur
die Turmhaube bewegt zu werden brauchte. Eine wichtige Neuerung war die Verbindung der
Windmühle mit der Säge. Eine der wichtigsten Anwendungsmöglichkeiten war die

79
Schraubenpresse für den Druck und die Münze (Kellenbenz 1979, 116-121). Der Umgang mit
Metallen gipfelte in der Probierkunst, die auf der Basis des Experimentes betrieben wurde.
Die Darstellungen bei Biringuzzio, Agricola und besonders Ercker zeigen, dass dieser
Höhepunkt im 16. Jh. erreicht wurde (Kellenbenz 1979, 122).

Die Zünfte waren immer bestrebt, ihren Besitzstand zu erhalten. Sie verteidigten die
Interessen ihrer Mitglieder gegen Außenseiter und so auch gegen die Erfinder, die mit ihren
neuen Apparaten und Techniken die Ruhe des Besitzstandes ihrer Mitglieder bedrohten.
Deshalb waren sie gegen den Fortschritt. Aber ihr Gewicht hing von ihrer politischen Rolle in
der Gemeinschaft, im Staat ab. Im Allgemeinen lässt sich sagen, dass ihr Gewicht mit dem
Aufstieg des Absolutismus abnahm. Es gab ferner die privilegierten Meister, die so genannten
Freimeister, und es gab die ländliche Produktion, die nicht organisiert war oder vom
Verlagssystem erfasst war. Hier konnten moderne Techniken umso besser Eingang finden.
Das Verlagssystem existierte schon in den Industrielandschaften des Mittelalters. Es weitete
sich im Laufe des 16. und des 17. Jh. mit dem weiteren Aufschwung der Exportindustrie und
namentlich dem Anwachsen der ländlichen Gewerbe aus. Das Verlagssystem begünstigte den
Prozess der Differenzierung. Häufig hatten diejenigen Handwerker die Möglichkeit zu
Unternehmern aufzusteigen, die über den Rohstoff verfügten, der für den Endprozess der
Fabrikationskette erforderlich war (Kellenbenz 1979, 152f).

Wenn besondere Kenntnisse und Technik erforderlich waren, dann waren die Unternehmer an
der Konzentration des Produktionsprozesses unter einem Dach in Form der Manufaktur
interessiert. Angesichts des Widerstandes der Zünfte und der Politik des Staates, setzte eine
neue Tendenz zur Manufakturbildung zu Anfang des 16. Jh. ein und verstärkte sich in der
zweiten Hälfte des 17. Jh. Häufig war die zentralisierte Manufaktur, das heißt der
zentralisierte Betrieb, und die Verlagsorganisation miteinander kombiniert. Gelegentlich kam
es zur Großproduktion mit fortgeschrittener technischer Apparatur. Ein wesentlicher Zug der
Manufaktur war es, dass sie die Handarbeit zusammenfasste. Andererseits benutzten viele
Produktionszweige einen technischen Apparat mit Pumpen, Öfen, Hämmern und Maschinen.
Das galt besonders für den Bergbau, die Verhüttung und weitere Metallverarbeitung. Die
unterdeutschen Handelsgesellschaften wurden führend in der Ausbeutung der Buntmetall-
vorkommen in Mitteleuropa in dem sie die Kapitalien für den kostspieligen Betrieb der
Saigerhütten und anderer Anlagen beschafften. Häufig war technische Innovation mehr eine
Frage der Organisation, als der Technik selbst (Kellenbenz 1979, 153-157).

Insgesamt ist für die Zeit zwischen dem 15. und dem 18. Jh. vor allem die Brückenfunktion
zwischen den Neuerungen des hohen und späten Mittelalters und de starken Veränderungen
zu betonen, die die industrielle Revolution mit sich brachte. Das Zeitalter, dem die großen
Gelehrten Kopernikus, Galilei und Newton angehörten, wurde in technischer Hinsicht nicht
durch die Leistungen der Gelehrten geprägt, sondern war das Werk von Praktikern. Die
wichtigsten technischen Innovationen gehörten früheren Jahrhunderten an. Die am meisten ins
Auge fallenden Fortschritte erfolgten im Bergbau und in der Aufbereitung der Metalle, in
geringerem Maße im Textilsektor, Landwirtschaft und Bauwesen hinkten nach. Einer der
Hauptgründe, die neuen Maschinen im Bergbau nicht oder nicht mehr zu verwenden, waren
die hohen Kosten im Vergleich zum Ertrag. Ein weiteres Hemmnis war der zunehmende
Mangel an Brennmaterial, besonders Holzkohle. Ein anderer Grund warum der Fortschritt
sich nicht voll entfalten konnte, lag darin, dass die Einführung technischer Verbesserungen
zurückgestellt wurde, weil ältere Verfahren zu einem gegebenen Zeitpunkt einen größeren
Gewinn abwarfen (Kellenbenz 1979, 164f). Gibt es also bedarfsorientierte Innovationen?
Natürliche wäre es gut, wenn wir unsere erfinderischen Fähigkeiten an unseren wahrhaften
Bedürfnissen ausrichten könnten. Aber Erfindungen werden gemacht, indem wir heraus-

80
finden, dass etwas funktioniert, was einem als nützlich, neu oder sonstwie brauchbar er-
scheint. Ob eine Invention brauchbar ist, finden wir durch den Gebrauch heraus. Was wir
nicht gebrauchen können, wird keine Innovation, vielleicht später unter anderen Umständen,
wenn der Zufall zur Wiederentdeckung führt. Wichtig für die Idee eines Fortschritts in der
Technik ist der spätere Gebrauch einer Invention, wobei spätere Umnutzungen oftmals konsti-
tutiv für die Erfindung werden.

81
2. Industrielle Revolution, Maschinenkonstruktion und
Produktionsorientierung der technischen Konstruktion
Die verstärkte Hinwendung der Wissenschaft zu dem Problem der Produktion und damit der
Technik ist ein prägendes Charakteristikum für die Zeit nach 1840. In dieser Epoche fand die
tief greifende Veränderung in den wechselseitigen Beziehungen zwischen Praxis und
Wissenschaft durch das Zusammenwirken der Autodidakten, Techniker-Unternehmer und
Forscher, die nicht in wissenschaftlichen Institutionen beschäftigt waren. Die Hand-Werk-
zeug-Technik zeichnete sich eben dadurch aus, dass sie vom Menschen im Einklang mit den
Gesetzen der klassischen Mechanik, aber ohne deren Kenntnis gemacht und eingesetzt
werden konnte. Die Tüftler-Konstrukteure verfügten außer der praktischen Erfahrung und den
handwerklichen Fertigkeiten auch über solide theoretische Kenntnisse (König 1991, 456-458).
Die wichtigste Form des Informationsaustausches auch im 19. Jh. über die Technik war die
persönliche Kommunikation. Die Verbreitung erfolgte überwiegend durch den Verkauf von
Maschinen, die danach gebaut wurden (König 1991, 464). Exportverbote erwiesen sich als
nicht effektives Verfahren zur Unterbindung des Technologietransfers (König 1991, 473). Die
häufig anzutreffende Behauptung, die Arbeitsintensität sowie die Arbeitszeit seien von der
Technik bestimmt gewesen, ist irreführend. Sie wurden von den ökonomischen Erwartungen
der Unternehmer bestimmt. Der Dauerbetrieb basierte auf ökonomischen Überlegungen, die
die Erwartungen des Öfteren nicht erfüllten. Der aus dem Dauerbetrieb resultierende Ver-
schleiß der Maschinen und der Menschen hatte gezeigt, dass mit einer Schicht die Nutzung
der Anlagen letztendlich kostengünstiger zu gestalten war (König 1991, 485).

Das häufigste Argument gegen eine technische Revolution ist die Betonung eines
nichtsprunghaften, vielmehr kontinuierlichen Charakters der technischen Entwicklung seit
dem Mittelalter bis in die Gegenwart. Man hat sogar die Theorie der permanenten Revolution
bemüht. Allerdings entwickelte sich in dieser Zeit die Fähigkeit, sich vom technischen
Grundprinzip des Vorhandenen zu lösen. Was den Bruch im geschichtlichen Ablauf herbei-
geführt hat, war nicht diese oder jene Maschine, sondern der größte allgemeine Nenner: das
Realisieren des Prinzips der Maschinenarbeit, oder genauer gesagt: des Prinzips der maschi-
nellen Ausführung der Relativbewegung zwischen Werkzeug und Werkstück in der Form-
veränderung von Stoffen. Die in der Produktionstechnik der industriellen Revolution
massenweise realisierte Übertragung einiger Funktionen des Menschen auf technische
Einrichtungen war das wichtigste Merkmal der Maschinisierung. Sein Verlauf, das Tempo der
Technisierung, wurde von den in der Wirtschaft herrschenden Kräften bestimmt. Der
unverkennbare ökonomische Erfolg der Maschinisierung, das Bewusstsein, auch die führende
technische Macht der Welt zu sein, brachte eine euphorische Bewunderung der Technik
zunächst in Großbritannien, dann aber auch insbesondere in den USA hervor (König 1991,
491-494).

Das Kernstück der industriellen Revolution war eine ineinander verzahnte Folge
technologischer Umwandlungen. Die materiellen Fortschritte fanden auf drei Gebieten statt.

(1) traten mechanische Anlagen an die Stelle menschlicher Fertigkeiten;


(2) ersetzte die Natur-Kraft – insbesondere der Dampf – die menschliche und tie-
rische Kraft; und

82
(3) wurden, speziell im Bereich der metallurgischen und chemischen Industrie, die
Verfahren der Erzeugung und der Verarbeitung der Rohstoffe wesentlich
verbessert.

Die Disziplin in den Fabriken war anders geartet. Sie erforderte und erzeugte eine neue
Generation von Arbeitern, die sich den unerbittlichen Forderungen der Uhr beugen mussten.
Sie barg auch den Keim weiteren technologischen Fortschritt in sich, denn die
Arbeitskontrolle implizierte die Möglichkeit der Arbeitsrationalisierung. In der ganzen Man-
nigfaltigkeit des technologischen Fortschritts wird eine einheitliche Entwicklung sichtbar: der
Wandel erzeugt den Wandel. Einmal waren viele technische Verbesserungen erst nach
Fortschritten auf benachbarten Gebieten möglich. Die Dampfmaschine ist ein klassisches
Beispiel dieser technologischen Interdependenz. Eine funktionsfähige Kondensationsma-
schine konnte erst gebaut werden, nachdem verbesserte Methoden der Metallverarbeitung die
Konstruktion geeigneter Zylinder ermöglicht hatten. Zum anderen übte die Erhöhung der
Produktivität und der Produktion durch eine bestimmte Erfindung einen Druck auf verwandte
Industrietätigkeiten aus. Die Nachfrage nach Kohle führte dazu, dass die Gruben immer tiefer
führten, bis das Sickerwasser eine ernste Gefahr darstellte; die Antwort war die Konstruktion
einer wirksameren Pumpe, betrieben mittels der pneumatischen Dampfmaschine (Landes
1973, 15-17).

In diesem Sinne stellt die industrielle Revolution einen bedeutsamen Wendepunkt in der
Geschichte der Menschheit dar. Bis dahin waren die Fortschritte in Handel und Industrie, so
befriedigend und eindrucksvoll sie auch gewesen sein mögen, im Wesentlichen oberfläch-
licher Art. Sie hatten lediglich höheren Wohlstand, mehr Waren, blühende Städte und schwer-
reiche Kaufleute hervorgebracht. Erst die industrielle Revolution initiierte einen kumulativen
und sich selbst tragenden technischen Fortschritt, dessen Auswirkungen in allen Bereichen
des Wirtschaftslebens spürbar wurden. Der technische Fortschritt ist keineswegs ein reibungs-
loser und ausbalancierter Prozess. Vielmehr scheint jede Neuerung eine bestimmte Lebens-
spanne zu umfassen: experimentierende Jugend, kraftvolle Reife und ein den Verfall ankün-
digendes Alter. Aus diesem Grunde begann der Aufstieg jener Industrien, die das Kernstück
der industriellen Revolution bildeten – der Textilindustrie, der Eisen- und Stahlindustrie, der
schweren chemischen Produkte, der Dampftechnik, des Eisenbahnverkehrs -, gegen Ende des
19. Jh. in den fortschrittlichsten westeuropäischen Ländern langsam abzuflauen. Tatsächlich
haben aber die fortgeschrittenen industriellen Volkswirtschaften bewiesen, dass sie über eine
beachtliche technologische Vitalität verfügen. Der am Ende des 19. Jh. in den damals moder-
nen Industriezweigen abklingende Impuls wurde durch das Entstehen neuer Industrien mehr
als kompensiert. Letztere basierten auf spektakulären Fortschritten auf den Gebieten der
Chemie und Elektrotechnik und einer neuen mobilen Kraftquelle – dem Verbrennungsmotor.
Diese Gruppe von Erfindungen hat man häufig als die zweite industrielle Revolution be-
zeichnet. Die Industrialisierung bildet das Kernstück eines größeren und komplexeren
Prozesses, den man häufig als Modernisierung bezeichnet. Es geht um die Erzeugung materi-
ellen und kulturellen Reichtums. Der einzige geradezu unentbehrliche Bestandteil der Moder-
nisierung ist die technologische Reife und die mit ihr verbundene Industrialisierung. Jeder
Wandel hat etwas Dämonisches. Er schafft Neues, vernichtet aber auch Bestehendes. So ging
die Zahl der Opfer der industriellen Revolution in die Hunderttausende und selbst in die
Millionen (andererseits wäre es so vielen dieser Opfer ohne die Industrialisierung noch viel
schlechter ergangen). Sie vertiefte insbesondere in ihrem Frühstadium die Kluft zwischen
Reichen und Armen, zwischen Arbeitgebern und Arbeitnehmern und stieß dadurch das Tor zu
Klassenkonflikten von einer nie geglaubten Bitterkeit auf. Sie erschuf zwar nicht die ersten

83
Kapitalisten, doch eine Geschäftsklasse von beispielloser Größe und Stärke (Landes 1973, 17-
21).

Die Bereitwilligkeit, von anderen, auch von den übrigen europäischen Staaten, zu lernen – die
Industriespionage ist eine Erscheinung, die die ganze Geschichte des modernen Europas
durchzieht -, ist der Beweis dafür, dass es bereits damals eine aufblühende einheimische
Technologie gab; gute Erneuerer gaben auch gute Nachahmer ab (Landes 1973, 40). Die
europäische Wissenschaft und Technologie zogen auch großen Nutzen daraus, dass der
Kontinent nicht unter der Herrschaft eines ökumenischen Reiches vereint, sondern in
Nationalstaaten geteilt war. Die Zergliederung erzeugte einen Wettbewerb unter gleichen
(Landes 1973, 43). Warum fand diese technische und organisatorische Revolution der Manu-
faktur zuerst in England statt? Der technologische Wandel geschieht niemals automatisch. Er
bedeutet vielmehr die Abschaffung bestehender Methoden, Schädigung verwurzelter Interes-
sen und häufig auch Standortveränderung des Menschen. Zunächst muss die Möglichkeit
einer Verbesserung gegeben sein, weil die vorherrschenden Techniken nicht mehr den Anfor-
derungen genügen oder aber weitere Verbesserungen in Folge selbständiger Erhöhungen der
Faktorkosten notwendig werden. Ferner müssen die neuen Methoden den älteren derart
überlegen sein, dass sie einen ausreichenden Gewinn abwerfen, um die Kosten der Verän-
derung zu decken. Die Fabrik bildete eine neue Art von Gefängnis – die Uhr eine neue Art
von Kerkermeistern (Landes 1973, 53f).

Beim Spinnen und Weben geschah der erste Durchbruch. Man benötigte mindestens fünf
Spinnräder, um einen Webstuhl zu versorgen, was sich gewöhnlich wegen der Zusammen-
setzung der Bevölkerung als unmöglich erwies. Als sich aber die Webindustrie auf das Land
ausdehnte und immer mehr Bauern in diesen Beruf überwechselten, wurde dieses
Ungleichverhältnis zu einem Hemmnis für die Expansion. So zog der Garnpreis Ende des 17.
bis Mitte des 18. Jh. stark an. Die industrielle Aktivität ermöglichte dadurch, dass sie neue
Hilfsquellen erschloss, eine extensive Teilung des Landes. Sie begünstigte die Frühehe und
schuf eine Bevölkerungsdichte, die ansonsten undenkbar gewesen wäre. Wir müssen die
Bedingungen für die Erfindung arbeitssparender Maschinen und die Voraussetzung
untersuchen, die die Verwendung dieser Maschinen und ihre Verbreitung im industriellen
Bereich beeinflusst haben. Der Technologie flossen relativ wenige Ideen und Methoden von
Seiten der Wissenschaft zu. Erstaunlich ist, dass die meisten Erfinder von Textilmaschinen
der Mittelklasse entstammten. Im 18. Jh. bedeutete es für die Kinder aus guten Familien keine
Erniedrigung, bei Webern oder Tischlern in die Lehre zu gehen. Manuelle Arbeit und
Geschicklichkeit hatte nicht die Bedeutung von Stigmata (Landes 1973, 66-70).

Die Impulse für die Anwendung technischer Neuerungen aber gingen vom Manufakturwesen
aus. Die Mechanisierung erstreckte sich allerdings in der Regel nicht auf den gesamten
Fertigungsvorgang, sondern vorwiegend auf die Bereiche der Rohstoffaufbreitung und der
Produktveredelung, wobei die mechanisierten Einzelarbeitsschritte manchmal Jahrzehnte oder
gar Jahrhunderte auseinanderlagen (König 1991, 145f). Der komplizierte Bewegungsablauf
des Aufrauens von Tüchern wurde schon frühzeitig, nämlich im 17. Jh. mechanisiert. Erst
gegen Ende des 18. Jh. wurden sie in einem Arbeitsgang zusammengefasst, mechanisiert und
automatisiert. Auch die Seidenzwirnmühlen sind solche vorindustriellen Mechanisierungen
von Arbeitsabläufen. In diesem Zusammenhang ist der geniale Automatenbauer Jacques de
Vaucanson zu erwähnen, der auch Leiter einer Seidenspinnmaschine gewesen ist (König
1991, 151-152). Man versuchte bereits im 17. Jh. den gesamten Webvorgang zu mechani-
sieren. Zu diesem Zweck mussten alle Bewegungen, die bisher von den Händen des Webers
ausgeführt wurden, durch eine sinnvolle Kombination von hölzernen Zahnrädern, Wellen und
Gestängen ersetzt werden (König 1991, 158). Bei der Beschreibung eines Bleiplattenwalz-

84
werks von 1670 ist bemerkenswert, dass an dem ganzen Fertigungsprozess, zumindest nach
der bildlichen Darstellung, nur 6 Arbeiter, und rechnet man den nichtsichtbaren Göpelknecht
hinzu, 7 Arbeiter beteiligt gewesen sind. Ofen, Kran und Walzwerk waren, um jeden
unnötigen Weg zu vermeiden, in der Reihenfolge der Verfahrensschritte im Betriebsgebäude
aufgestellt – ein Organisationsprinzip, wie man es erst bei Fabriken und Hüttenbetrieben des
19. Jh.s vermuten würde. Bei aller Bewunderung für diese vorindustrielle Betriebsorgani-
sation darf man jedoch nicht vergessen, dass es sich bei Blei um einen leicht verformbaren
Werkstoff handelt, der zudem das Kaltwalzen erlaubt. Schon beim Kupfer und dem spröden
Messingblech musste das Walzgut immer wieder im Ofen geglüht werden, was den zügigen
Arbeitsablauf unterbrach, außerdem ließen sich nur wesentlich kleinere Werkstücke walzen
(König 1991, 189).

Seit dem Anfang des 18. Jh. mehrten sich die Klagen der Unternehmer über einen Garn-
mangel. Sie offenbarten, dass in der dominierenden Wollverarbeitung das Spinnen mit dem
Handrad für die nachfragegerechte Steigerung der Tuchproduktion zu einem Engpass
geworden war. Es war keine technische Überlegenheit gegenüber anderen Erfindungen,
welche die Spinnmaschine zum Auslöser einer technischen Umwälzung werden ließ, sondern
das sozialökonomische und technische Umfeld, in das diese Arbeitsmaschine der Form-
veränderung dieses Mal hineingeboren wurde. Einmalig an diesem Prozess des Überganges
von der Hand- zur Maschinenarbeit war nicht bloß der Einsatz von Maschinen für die
Formveränderung von Stoffen, sondern der Umstand, dass die Maschinen in einem
volkswirtschaftlich führenden Sektor massenhaft eingesetzt wurden. Dies ließ den Prozess der
Maschinisierung vorerst nur im Textilgewerbe unumkehrbar erscheinen. Solche Engpässe
konnten vermieden oder schnell überwunden werden, weil sich gleichzeitig, aber ohne einen
Kausalzusammenhang mit den breiter verwendeten Arbeitsmaschinen, nicht weniger epochale
Veränderungen in der Energietechnik und in der Stoffumwandlung ereigneten. James Watt
(1736-1819) hatte mit seinen Verbesserungen der Dampfmaschine zwischen 1769 und 1784
den Schritt von der optimierten Einzweckdampfmaschine zum universal einsetzbaren Motor
vollzogen und damit die Energieversorgung auf Kohlebasis ökonomischer entwickelt und
attraktiv gemacht. Ebenfalls ohne Zusammenhang mit den Veränderungen im Textilgewerbe
war in den 60er Jahren nach gut vier Jahrzehnten des Experimentierens die Verhüttung von
Eisenerzen mit Koks technisch so ausgereift, dass die Nutzung der reichen Ressourcen an
Kohle und Eisenerz auf breiter Basis in Angriff genommen werden konnte (König 1991, 276-
278).

Es gab keinen anderen Bereich des Textilgewerbes, in dem das Fingerspitzengefühl eine so
wesentliche Rolle gespielt hat wie bei den verschiedenen Techniken des Handspinnens. Beim
kontinuierlichen Spinnen mit dem Flügelspinnrad geschieht das Aufwinden, dank der
Konstruktion der Flügelspindel, ohne Unterbrechung des Spinnvorgangs (König 1991, 286).
Die Arkwright Mills waren nicht nur der Prototyp der Fabrik, sondern schon mit der
technischen Ausstattung der 80er Jahre auch die Geburtstätte der modernen Massenproduk-
tion (König 1991, 300). Längst bevor sie eine Gewerkschaft gründeten und in den 20er Jahren
mit Methoden des kollektiven Arbeitskampfes versuchten, ihre Lohnforderungen durchzu-
setzen, versuchten einige Unternehmer – Techniker, die „Mule“ (Spinnmaschine) selbsttätig
zumachen. Das erste Patent auf eine „Selffacting Mule“ erhielt im Jahr 1792 William Kelly.
Das Ziel seiner Bemühungen um den maschinellen Antrieb und die Steuerung des Auf-
windens war mit jungen Leuten oder anders formuliert mit angelernten Arbeitskräften gedacht
(König 1991, 304). Die Werkstatt des Mühlenbauers, Millwrights Shop, wie die ersten
Fertigungsstätten für Textilmaschinen hießen, wich der Werkstatt des Maschinenbauers, dem
„Machine-Maker“ oder dem „Engineering Shop“ (König 1991, 324). Ganz zentral für die
Weiterentwicklung der industriellen Evolution war die Entwicklung der

85
Universaldrehmaschine, mit der Schrauben und Gewinde nun sehr viel präziser als zuvor ge-
fertigt werden konnten (König 1991, 330).

Die Erfinder fanden relativ leicht Geldgeber, die ihre Projekte finanzieren, und die Produkte
ihres Einfallsreichtums auch bei den Unternehmern schnell Anklang. In dieser Hinsicht wurde
der Baumwollfabrikant des 18. Jh. durch die Neuartigkeit der industriellen Revolution
begünstigt. Die ersten Maschinen stellten zwar für den Menschen der damaligen Zeit
komplizierte Gebilde dar. In Wirklichkeit waren sie einfache Holzkonstruktionen, die für
lächerlich geringe Beträge gebaut werden konnten. Nicht das Kapital an sich bewirkte
demnach den großen Fortschritt in England. Die britische Wirtschaft zeichnete ein besonders
gut ausgebildetes Empfinden für günstige ökonomische Gelegenheiten aus. Die Engländer
ließen sich als einzelne und als Volk von Reichtum und von Geschick nicht faszinieren
(Landes 1973, 71-73). In England erzeugte der Druck der Nachfrage auf die Produktionsweise
die neuen Techniken, und das überreiche elastische Angebot an Produktionsfaktoren
ermöglichte ihre rasche Ausnutzung und Verbreitung (Landes 1973, 82). Die vielen kleinen
Fortschritte hatten fast die gleiche Bedeutung wie die aufsehenerregenden frühen
Erfindungen. Keine diese Neuerungen erwies sich sofort als vollkommen. Seit den 30er
Jahren des 18. Jh. verwendeten die britischen Schmiedemeister viel Mühe und Geld darauf,
ein kürzeres und sicheres Verfahren zu finden, bei dem an Stelle von pflanzlichem
mineralischer Brennstoff verwendet werden konnte. Die Suche dauerte ein halbes
Jahrhundert. Der erste Fortschritt, den man dabei erzielte, stellte nur eine Teillösung dar.
Indem zwischen den Hochöfen und der Schmiede ein Frischofen und zuweilen auch ein
reversierendes Feuer (bei dem die Flammen nicht unmittelbar das Metall erfassten)
eingeschaltet wurden, war es möglich, zunächst für einen Teil und schließlich für die gesamte
Frischarbeit Kohle oder Koks statt Holzkohle zu verwenden. In dieser Zeit feierte die Kohle
durch eine technische ganz andere Erfindung – Henry Corts Puddleverfahren, das 1783 und
1784 patentiert wurde – ihren endgültigen Triumph (Landes 1973, 93).

In der Eisenindustrie haben wir es wie in der Textilindustrie mit einem ständigen auf und ab
von Herausforderung und Antwort zu tun. So übt die Verwendung des Kokses bei der
Eisenverhüttung trotz der Erfindungsgabe der Schmiedemeister in der Entwicklung neuer
Bearbeitungsmethoden für das Gusseisen einen neuen Druck auf das Frischen des Eisens aus.
Corts erfolgreicher Versuch, das Puddlen und das Walzen miteinander zu kombinieren
verminderte zwar zeitweise die Schwierigkeiten, doch hatte der Bau neuer und größerer
Hochöfen im 19. Jh. erneut ein Ungleichgewicht zur Folge. Die grundlegende Schwierigkeit
bestand darin, dass das Puddlen eine außergewöhnliche physische Kraft und Ausdauer
verlangte. Das Ungleichgewicht wurde jedoch erst korrigiert, als es Bessemer und seinen
Nachfolgern gelang, billigen Stahl herzustellen. In der Eisen- wie in der Textilindustrie waren
die kleinen anonymen Fortschritte auf die Dauer bedeutsamer als die großen Erfindungen. Die
Ursache hierfür ist teilweise der empirische Näherungswert dieser ersten Neuerungen. Die
Patente stellten sowohl einen Anfang als ein Ende dar, und die Eisenfabrikanten fanden, dass
jegliche Kombination von Erz und Brennstoff oder von Metall und Brennstoff ein eigenes
Rezept erforderlich machte. Denn die Eisenproduktion war ihrem Wesen gemäß eine Art
Kochkunst, die ein feines Gefühl für die Verwendung und das Verhältnis der einzelnen
Zutaten zueinander sowie ein Instinkt dafür erforderte, wie lange der Topf auf dem Ofen
bleiben musste. Erst in der Mitte des 19. Jh. kannten die Naturwissenschaftler den Prozess der
Umwandlung des Eisenerzes in Metall so genau, dass sie Anleitungen für eine rationale
Technik geben und Vorkehrungen für eine Überprüfung dieser Verfahren zu treffen
vermochten (Landes 1973, 94).

86
Bei der Anpassung des Schmelz- und Frischprozesses an verschiedenartige Erze und
Brennstoffe konzentrierten sich die kleineren Verbesserungen in der Eisentechnologie im
wesentlichen auf drei Bereiche: (1) Einsparung von Brennstoff; (2) Anpassung an das
Wachstum, (3) die ständige Vergrößerung des Hochofens bezweckte weniger Rohstoffe
einzusparen, als die Produktion und wenn möglich auch die Arbeitsproduktivität zu erhöhen.
Gleichzeitig erzeugte die größere Vertrautheit im Umgang mit Eisen die Nachfrage nach
immer größeren Metallstücken (Landes 1973, 94f). Diese Entwicklung der mechanisierten
Industrie, die sich in großen Produktionseinheiten konsentrierte, wäre nicht ohne eine
Energiequelle möglich gewesen. Die die menschliche und tierische Kraft bei weitem übertraf
und nicht von den Launen der Natur abhing. Die Lösung des Problems wurde in einem neuen
Energieumwandler, der Dampfmaschine, und der gigantischen Ausnutzung eines seit langem
bekannten Brennstoffs, der Kohle gefunden (Landes 1973, 97). Hierin lag der große Vorzug
der Dampfmaschine. Sie ermüdete nicht, und man konnte ihre wenigen Pferdestärken viel
wirksamer einsetzen als die Kraft von fünfhundert Pferden miteinander verbinden. Außerdem
und dies war für die revolutionären Auswirkungen der Dampfmaschine auf das Tempo des
ökonomischen Wachstums entscheidend, verbrauchte sie mineralischen Brennstoff und stellte
damit der Industrie eine neue und offenbar unerschöpfliche Energiequelle zur Verfügung
(Landes 1973, 99).

Die standardisierte Präzisionsarbeit, die die Herstellung austauschbarer Maschinen und Teile
ermöglichte, war die Vorläuferin gemeinsamer Normen im gesamten industriellen Bereich
(Landes 1973, 108). Während die Fabrik mehr Güter billiger erzeugen kann, ist der
Handwerker eher in der Lage, einen spezifischen Auftrag ökonomischer auszuführen. Das
Verlagssystem erwies sich als widerstandsfähiger als erwartet. Es schleppte sich insbesondere
in den Gewerben fort, in denen der technologische Vorteil der Kraftmaschinen noch gering
war (wie beim Weben) oder in denen sich der Heimhandwerker selbst rudimentäre
mechanische Geräte bauen konnte (Landes 1973, 118f). Nur einige Industrien waren infolge
besonderer Bedürfnisse gezwungen, sich an geeigneten Plätzen zu konzentrieren: die
Porzellanmanufakturen, gewisse Branchen der chemischen Industrie und die Produktions-
stätten von Nichteisenmetallen. Gewiss gab es auch in den besonders stark zersplitterten
Industriebereichen Zentren außergewöhnlicher Aktivität, die mehr als die örtlichen Bedürfnis-
se befriedigten: das französische Flandern, Verviers, Sachsen, die Normandie und der Lan-
guedoc in der Wolltuchfabrikation; die Schweiz, Süddeutschland und die Normandie in der
Herstellung von Baumwoll- und Barchentstoffen; Wallonien, die Provinz von Nevers, das
obere Marnetal, das Siegerland, Schlesien und die Steiermark in der Eisenindustrie. Es
verwundert kaum, dass sich diejenigen Zentren am besten entwickelten, d. h. am raschesten
wuchsen und die höchsten Produktionsziffern aufwiesen, die durch keine Gildenvorschriften
eingeengt waren. Die Wettbewerbsfreiheit erwies sich als entscheidend. Etwas überraschend
ist, dass die freien Unternehmen die staatlichen an Leistungsfähigkeit übertrafen (Landes
1973, 133f).

Wenn man alles erwägt, gestalteten sich die Versuche, Großbritannien nachzueifern, nach
Waterloo wahrscheinlich schwieriger als vorher. Die technologische Lücke hatte sich
verbreitert, während die grundlegenden erziehungsmäßigen, ökonomischen und sozialen
Hindernisse für eine Nachahmung fortbestanden. Die Geschichte der Generation nach 1815
ist daher weitgehend von dem Bemühen gekennzeichnet, diese Hemmnisse zu beseitigen oder
doch wenigstens zu verkleinern (Landes 1973, 144f). Allgemein hinkte die französische
Baumwollindustrie beträchtlich hinter der britischen zurück. Die Anlagen waren kleiner und
die Maschinen älter und weniger leistungsfähig. Auch die Arbeit gestaltete sich, selbst wenn
man die Unterschiede in der Ausrüstung berücksichtigt, weniger produktiv. Dessen unge-
achtet war Frankreich der bedeutendste Erzeuger von Baumwollfabrikaten auf dem Kontinent

87
(Landes 1973, 159). Strukturell und technologisch glich die deutsche Industrie stark der
französischen. Auch sie war geographisch verstreut, mit Schwerpunkt im Rheintal, Sachsen
(mit der höchsten Produktion aller Gebiete vor 1850), Schlesien und Bayern. Es handelt sich
jedoch in der Regel um kleine Familienunternehmen (Landes 1973, 162). Die außerge-
wöhnlich billigen Arbeitskräfte und der durch die britischen Unternehmen verursachte
Wettbewerbsdruck bildeten die größten Hindernisse für die Entwicklung einer großen
Maschinenindustrie. Die meisten kleinen Firmen verdankten ihre Existenz der Tatsache, dass
sie sich auf einen speziellen Artikel konzentrierten, der im Ausland nicht produziert wurde
(Landes 1973, 167).

In technischer Hinsicht ist der Beitrag der Industriellen Revolution in der Übertragung der
Funktion des Haltens und Führens sowohl des Werkstückes als auch des Werkzeuges vom
Menschen auf eine technische Vorrichtung zu sehen (Paulinyi 1989). Es entsteht eine indu-
striell-teilautomatisierte Maschinenkunde im Sinne der Industriellen Revolution. In der
Epoche der Hand-Werkzeug-Technik hat sich in der Produktionstechnik von der Steinzeit bis
zum Mittelalter und bis ins 18. Jh. hinein nichts grundsätzlich geändert. Die Optimierung der
Hand-Werkzeug-Technik bis zur Mechanisierung der Werkzeuge wie Hammerwerk, Spinn-
rad, Trittwebstuhl und Drehbank ändern daran nichts. Auch die Entstehung und Vermehrung
von Arbeitsmaschinen zur Formveränderungen im Manufakturbereich ist dagegen kein
Einwand. Selbst das Textilgewerbe Ende des 13. Jh. mit Seidenzwirnmaschinen als erster
Arbeitsmaschine der Fadenverarbeitung ändert an dem grundlegenden Schema nichts. Zwar
haben Transport und Energietechnik im 13. Jh. gewaltige Fortschritte gemacht. Aber auch
dies ist kein Argument gegen die Datierung der Industriellen Revolution ins 18. Jahrhundert.

Maschinen simulieren nun Aspekte technischer Praxis wie Spinnen und Weben. Es entsteht
eine semiautonom „intelligente“ Technik, die vom Ergebnis her bestimmte menschliche
Kompetenzen nachahmt. Noch laufen die Maschinen nicht ohne menschliche Einrichtung,
Überwachung, Energiezufuhr usw., aber eine Reihe technischer Prozesse laufen teilweise
ohne menschliche Eingriffe. Auch ein Segel repräsentiert technische Intelligenz, denn es fängt
den Wind ein und setzt die so gewonnene Energie in Fortbewegung um. Aber das Segel setzt
sich nicht selbst (erst heute im Zeitalter autonomer intelligenter Technik gibt es solche
Segelschiffe), repräsentiert also technisches Umgangswissen in einer nichtautonomen Weise.
Daneben gibt es aber auch eine „eigene“, vom Konstrukteur nicht intendierte und hineinkon-
struierte technische Intelligenz von technischen Artefakten (Mitteln und Werken), ein Poten-
tial, das im Gebrauch dieser Technik „entdeckt“ wird oder sich zeigt („entbirgt“).

Mit dem Beginn der Industriellen Revolution ergibt sich eine Veränderung in der Struktur
technischer Mittel. Nicht zu leugnen ist die Abbildung von technischem Umgangswissen in
Maschinen durch Übertragung von Handlungsschemata, wie es sich insbesondere in der
Spinnmaschine zeigt. Der Übergang zu einer anderen Energietechnik erfolgt als zweiter
Schritt um 1800 in der Mitte der sog. Industriellen Revolution. Das technische Umgangs-
wissen ist ein operatives Wissen. Aber technische Konstruktion und andere operative
Theoriebildungen technischen Wissens gab es bereits vor der Industriellen Revolution, z. B.
Konstruktionszeichnungen, operative Theorien, Modellbildung und Simulation. So lässt sich
also eine gewisse Eigenlogik technischen Wissen und technischen Konstruierens konstatieren,
aber seine Entwicklungsrichtung ist nicht determiniert, weil sich diese auch aus anderen,
nicht-methodischen Randbedingungen technischen Wissens ergeben. Die Gestaltung
(Regulation) technischen Wissens ist eine Konsequenz der Interferenz einer Reihe von
Steuerungsfaktoren nicht nur interner Art (Verfahrens-, Konstruktions- und Methodologie-
kriterien), sondern auch ökonomischer, kultureller, weltanschaulicher und sozialer Art
(institutioneller Art). Institutionalisierung technischer Entwicklung ist daher nicht nur von

88
Gesellschafts- oder Ökonomietypen abhängig, sondern auch von erkenntnisgeleiteten Paradig-
men wie von Werten. Auch der kulturelle Einfluss auf technische Entwicklung durch Leit-
bilder, Normen und Werte ist nicht zu leugnen.

Der Übergang von der Hand-Werkzeug-Technik zur Maschinen-Werkzeug-Technik markiert


einen entscheidenden Wandel in der technischen Konstruktion und im technischen Handeln.
Der erste massenhafte Einsatz der Maschinen-Werkzeug-Technik fand im britischen
Textilgewerbe statt. Großbritannien war schon vor der Industriellen Revolution der Spitzen-
reiter des europäischen Textilgewerbes. Die Verbreitung der Spinnräder und des Trittweb-
stuhls im ausgehenden Mittelalter und die 1733 patentierte Schnelllade John Kays sowie der
1589 von Wilhelm Lee entwickelte Strumpfwirkstuhl erhöhten die Produktivität gegenüber
der Handwirkerei um das 10 bis 15fache. In Großbritannien war eine breite Rohstoffbasis
durch die Schafzucht vorhanden. Ein Mischsystem hatte sich entwickelt zwischen Hand-
werksbetrieben, Heimspinnerein und einer Reihe von Zwischenhändlern. Die Tuchweberei
war von der Gewinnung des Garns bis zur Herstellung des Tuches ein relativ komplexer
technischer Vorgang, der Spinnen, Krempeln, Kämmen und Weben umfasste.

Dabei dauerte es Jahrzehnte, bis das technische Umgangswissen mit Artefakten und die
Geschicklichkeit der Arbeiter in Maschinen implementiert werden konnte. Technisches
Handeln verselbständigte sich und löste sich vom Leib-Schema ab, obwohl auch die neu
entstandenen Maschinen überwacht und bedient werden mussten, wozu leibhaft vollzogene
Erfahrung und Geschicklichkeit nun im Umgang mit Maschinen entwickelt werden mussten.
Da sich die technischen Medien veränderten, musste sich auch das Umgangswissen ändern.
Keinesfalls aber kam es zu einer Aufgabe des Umgangswissens. Das Leib-Schema
handwerklichen technischen Handelns wird durch das industrielle Schema technischen
Handelns nicht völlig ersetzt, sondern vielmehr transformiert. Umgangswissen ist nun
weniger unmittelbar, aber keineswegs aufgehoben. Die Industrielle Revolution erhöht die
Komplexität technischer Medien und damit auch die technischen Handelns, zerstört aber
keineswegs den Umgangscharakter technischen Handelns. Es entwickeln sich verschiedene
Formen semiautonomer intelligenter Formen von Technik.

Die Versuche, die Produktivität durch die Automatisierung aller Abläufe zu erhöhen,
begannen schon in den neunziger Jahren des 18. Jh., erfolgreich jedoch waren sie erst um
1830. Mit dem Erfolg der Spinnmaschine wurden nun Maschinen für das Krempeln und
Vorspinnen erforderlich. Lösungen wurden erreicht durch Zuführung des Faserstoffes mit
Hilfe eines Förderbandes. Kadiermaschinen und Streckmaschinen wurden Ende des 18. Jahr-
hunderts entwickelt. Um 1810 konnten alle Arbeitsgänge der Verarbeitung der Baumwolle
zum Garn maschinell durchgeführt werden (Paulinyi 1989). Damit ist der lange Weg zur
Maschinenweberei als der Initialzündung der industriellen Revolution umschrieben. Die neue
Technik der Industriellen Revolution wurde im Wesentlichen zunächst von Praktikern ent-
wickelt. Im Hinblick auf die Industrielle Revolution muss die überhöhte Einschätzung der
Rolle der Wissenschaft bei der Entstehung der Technik des 19. Jh. zurückgenommen werden.
Zwar ist die professionelle Herkunft der meisten Erfinder zu konstatieren, und wissenschaft-
liche Erkenntnis erhält im Rahmen der Aufklärungsphilosophie immer mehr Praxisbezogen-
heit, dennoch muss von einem eigenständigen Charakter der Industriellen Revolution ausge-
gangen werden. Die Industrielle Revolution meint immer die zuerst in Großbritannien voll-
zogenen technischen Neuerungen und die grundlegenden Veränderungen der gesamten
Technik im Hinblick auf eine Maschinentechnik. Zentral war das Leitbild des kontinuier-
lichen Betriebs. Man verstand darunter, dass alle Elemente des unmittelbaren Fertigungs-
prozesses pausenlos in Bewegung sind, benutzt werden, bzw. der Veränderung unterliegen.
Als Engpass erwies sich dabei die Montage (Wengenroth 1990, 243). Die zunehmende Ver-

89
netzung führte dabei von der Werkstattzentrale zur Verbundwirtschaft (Wengenroth 1990,
484).

Der zweite Schub der Industriellen Revolution beruhte auf der Technisierung des
Umgangswissens mit Naturprozessen, bei der Verwendung der Dampfenergie, im Bergbau
und in Verhüttungsprozessen sowie schließlich beim Aufbau der pharmazeutisch-chemischen
Industrie. Die chemische Industrie war von Anfang an durch stärkste Rückkoppelung an die
Entwicklung der Wissenschaften gebunden. Von der Apotheke zur Großindustrie erfolgte die
Entwicklung in wenigen Jahrzehnten, wobei die Großproduktion der drei Grundstoffe
Schwefel-säure, Soda und Chlor die moderne chemische Industrie begründete (Paulinyi
1989). Wichtig war vor allem die industrielle Nachfrage nach Schwefelsäure für Papiererzeu-
gung und Desinfektionsmittel. Hier könnte man von einer zweiten Welle der industriellen
Revolution sprechen, die tatsächlich auf eine Anwendung naturwissenschaftlichen Wissens
hinausläuft. Insgesamt ist der Prozess der Industrialisierung technischer Entwicklung jedoch
komplexer und manifestiert sich zunächst in einer Ökonomisierung der Berufsarbeit und
später in einer Verschränkung von empirisch-naturwissenschaftlichem Forschungshandeln mit
technischem und ökonomischem Handeln, die sich in zunehmendem Maße in industrieller
Produktion verdichtet.

Dass man durch das Erhitzen von Wasser in einem geschlossenen Gefäß Dampf erzeugen
kann, der bei seinem Austritt durch ein enges Rohr zu scharfer Strahlarbeit leistet, hatte schon
der antike Mechaniker Heron von Alexandria mit seinem Dampfreaktionsrad gezeigt, das
allerdings eher als Spielzeug gedacht. Auf den Gedanken, die anderen Erfindungen von ihm
verwendeten Zylinder, Kolben und Ventile mit der Dampferzeugung zu kombinieren, ist
Heron nicht gekommen-. Vermutlich wären die Materialprobleme seiner Zeit unüberwindbar
gewesen. Im Jahre 1575 erschienen Herons Schriften erstmals als Buch in lateinischer
Sprache, dem mehrere Übersetzungen in die verschiedenen Landessprachen folgten. Gerade
das Dampfreaktionsrad scheint die für das ungewohnte, das „Curiöse“ empfänglichen
Menschen das Barock besonders angesprochen zu haben (König 1991, 47f).

Die Vorstellung, dass die Dampfmaschine irgendeine Erfindung des Handwerks sei, und die
damit zusammenhängende Meinung, das die Naturwissenschaftler an solchen praktischen
Erfindungen uninteressiert gewesen seien, hält sich hartnäckig und kehrt in unterschiedlichen
Zusammenhängen immer wieder. Ihre Erfindung wurde verursacht durch die Notwendigkeit,
Bergwerke zu entwässern und die Wasserversorgung für die wachsenden Städte
sicherzustellen – Bedürfnisse die zu Anfang des 17. Jh. dringend geworden waren. Zumindest
diejenigen Versuche, die uns überliefert sind, wurden eher von begüterten und gelehrten
Männern durchgeführt, als von Praktikern in den Bergwerken. John-Thomas Savery erhielt
auf seine Maschine 1698 ein Patent. Seine Maschine erwies sich jedoch als ein Fehlschlag, da
sie nicht betriebsfähig war und zwar nicht wegen einer unrichtigen Anwendung wissen-
schaftlicher Prinzipien, sondern wegen Unzulänglichkeiten in der technischen Ausführung
und im Material. Tatsächlich ist Savery´s Prinzip in modifizierter Form und mit einem auto-
matischen Dampfventil in die moderne Vakuumpumpe eingegangen (Hausen, Rürup 1975,
96-98). Newcomens Leistung bestand darin, das zuerst von Papin entwickelte Konzept in eine
praktisch brauchbare Maschine umzusetzen. Mit Sicherheit war Newcomen, als Papin seinen
Plan im Jahre 1690 veröffentlichte, bereits damit beschäftigt, Savery´s Maschine zu ver-
bessern. Natürlich muss jede Maschine eine praktische Sache sein und jeder Erfinder ein
Mann der Praxis. Wie fest auch immer so eine Maschine auf wissenschaftlichen Prinzipien
gegründet sein mag, für den Erfinder bleiben dennoch Probleme: Die Montage der Teile, die
Festigkeit der Werkstoffe und die notwendigen Konstruktionen, die die Maschine nicht nur
einfach funktionieren, sondern effizient, das heißt wirtschaftlich arbeiten lassen. Die Wissen-

90
schaftler des 17. Jh. waren außerordentlich stark an der praktischen Nutzbarkeit von
Wissenschaft interessiert, und viele ihrer Probleme waren an Gegenständen orientiert, die für
die technische Entwicklung nützlich waren. Angesichts des wirtschaftlichen Erfolges der
Newcomen-Maschine seit etwa 1712, waren die weiteren Fortschritte bis in die Zeit Watts in
erster Linie konstruktiver und handwerklich-mechanischer Art. Durch Verbesserungen der
Gestaltung und Ausführung der Teile erreichte die Newcomen-Maschine ihre Höchstleistung.
Darüber hinausgehende Fortschritte setzten eine grundlegende technische Neuerung voraus,
die dann von James Watts geleistet wurde. Seine Erfindung des getrennten Kondensators
führte zu einem bedeutenden Fortschritt in der Technikgeschichte. Es ist bemerkenswert, dass
Watt die Dampfmaschine zunächst als Versuchapparat und nicht als Maschine kennerlernte.
Watt standen als Freunde und Ratgeber zwei der wissenschaftlichen Köpfe seiner Zeit zur
Verfügung, nämlich Black und John Robinson (Hausen, Rürup 1975, 98-101).

Bei der Erfindung der Dampfmaschine haben wir es mit einem kumulativen Prozess zu tun,
der sich über zwei Jahrhunderte erstreckte und tausende von Schritten umfasste, so dass der
Erfindungsvorgang sich auf vielen Ebenen vollzog. Die Dampfmaschine war ein Produkt des
Zeitalters der Wissenschaft und leitet sich aber nicht von den Naturwissenschaften her. Watt
selber hatte die Expansionswirkung des Dampfes entdeckt und benutzt und obschon er
persönlich der Hochdruckmaschine gleichgültig gegenüberstand, erkannten einige seiner
Mitarbeiter wie auch andere sehr deutlich ihre Vorteile. So gab um die Wende zum 19. Jh.
noch einmal eine Überfülle an neuen Entwürfen. Ein großer Teil der Dampfmaschinen und
Turbinenkonstruktionen wurde, besonders in Frankreich, von der neuen Klasse der
Berufingenieure entwickelt. In Frankreich versorgten die großen Ingenieursschulen, wie die
Ecole Polytechnique, Ecole de Mines, Ecole des Ponts et Chausses und viele andere in den
Provinzen die Armee, die Beamtenschaft und die Industrie mit Ingenieuren, die durchdrungen
waren von der besten Tradition der Naturwissenschaften und der Forschung. In der ersten
Hälfte des 19. Jh. überholte Frankreich aufgrund der Ausbildungsanstrengungen England
hinsichtlich der Quantität guter wissenschaftlicher und technischer Arbeit. Es ist bezeichnend,
das der nächste größere Durchbruch in der Dampftechnologie mit dem Namen von Charles
Parsons und seiner Erfindung einer erfolgreichen Dampfturbine 1884 verbunden ist.
Schließlich können wir auf den jungen französischen Dampfmaschineningenieur Sadi Charnot
hinweisen. Die Naturwissenschaft stellt der Technik verschiedenen Instrumente, Daten, Kon-
zepte, Theorien etc. bereit. Sie bietet niemals eine völlig fertige Theorie. Es ist noch nicht
einmal nötig, das die allerneuste Theorie vermittelt wird, um den Anspruch zu rechfertigen,
das eine bestimmte technologische Innovation durch die Wissenschaft ermöglicht wurde
(Hausen, Rürup 1975, 102-104).

Im Rahmen der Industriellen Revolution entwickelte sich die Ingenieurtechnik durch


Verwandlung von implizitem in explizites technisches Wissen, wobei technisches als
industriell nutzbares Wissen konzipiert wurde. Dies impliziert eine gewisse Veränderung der
erkenntnistheoretischen Fragestellung: „tacit knowledge“, gebunden an das Leib-Schema
technischen Handelns, wird durch die Maschinenimplementation technischen Handelns
verändert, allerdings in keineswegs allen Fällen zum expliziten, mathematisch erfassbaren
ingenieurmäßigen Wissen. In der Regel muss allerdings ein Mechanismus entwickelt werden,
der technisches Handeln in Maschinen simuliert, so z.B. die technische Praxis des Spinnens
und Webens. Dabei muss die Antriebskraft nun von anderen Quellen als dem menschlichen
Umgang mit dem Werkzeug kommen. Hier bieten sich Energiemaschinen an. Damit verändert
sich aber auch das Paradigma technischer Konstruktion. Wurden bislang eher Endprodukte als
Werkzeuge konstruiert, werden nun die Werkzeuge selbst zum Gegenstand der Konstruktion,
insofern sie Maschinen sind. Werkzeugmaschinen sind in gewisser Weise dafür
paradigmatisch, denn nun stellen Maschinen Werkzeuge her. Die konstruktive Leistung be-

91
trifft nun nicht mehr die Werkzeuge, sondern die sie herstellenden Maschinen. Die Bedeutung
des technischen Umgangswissens wird dadurch aber nicht geschmälert, sondern verlagert sich
auf eine andere Ebene. So kommt es zu einem sekundären Umgangswissen mit technischen
Mitteln, die nun keine Werkzeuge mehr sind, sondern Mascinen (später ganze Anlagen und
große technische Systeme).

Eine andere Form semiautonomer „intelligenter“ Technologie, in der nicht eine bestehende
technische Praxis in Maschinen implentiert wurde, sondern für Maschinen eigene Formen
„technischer Praxis“ mittels Umgangswissen mit Maschinen entwickelt wurde, war die
Dampfmaschine. Otto von Guericke hatte schon 1661 gezeigt, dass ein Kolben, der durch den
Luftdruck in einem evakuierten Zylinder hineingetrieben wird, zur Arbeitsleistung genutzt
werden kann. 1706 baute Papin erneut eine direkt wirkende Dampfpumpe, die mit Hochdruck
arbeitete. Papins Dampfmaschinen, so richtungsweisend auch seine Erfindungsgedanken
waren, kamen wegen technologischer Schwierigkeiten nicht über das Versuchsstadium
hinaus. In England erfand Thomas Savery 1698 eine Dampfpumpe, bei der ein Wechselspiel
stattfand von direkter Arbeit des Dampfes und indirekter Wirkung durch Erzeugung eines
Vakuums. „The Miner’s Friend“ nannte Savery 1702 eine kleine Schrift über seine Erfindung,
denn die Maschine sollte dem mit dem Grubenwasser kämpfenden Bergmann helfen.
Praktische Arbeit in Bergwerken leisteten seit 1711/1712 erst die von Henry Newcomen wohl
im Anschluss an Papins Versuche gebauten großen atmosphärischen Dampfmaschinen. Die
Newcomensche Maschine funktionierte. Sie wurde in zahlreichen Bergwerken eingeführt.
Doch sie war wegen ihrer großen Energieverluste unrationell. Erst als man die Wärme-
verhältnisse des Wasserdampfes genauer erkannt hatte, konnten neue Wege beschritten wer-
den. Hier setzte die Arbeit Watts ein. Die Aufklärung des 18. Jh. rückte die Vernunft aus dem
Bereich der Wissenschaft in Leben. Die Aufnahme der Naturwissen-schaften und Technik in
die allgemeine Bildung bereitete einen günstigen Boden für den weiteren Fort-schritt der
Technik (Klemm 1999, 119-123). All die genannten wissenschaft-lichen Erfolge wirkten sich
früher oder später fördernd auf die Technik aus, die gerade im 18. Jh. teilweise zur ange-
wandten Naturwissenschaft zu werden begann. Der Newcomen-Maschine wurde allseits ihre
praktische Unbrauchbarkeit bescheinigt. Dabei ist festzustellen, dass mindestens 1.300
solcher Maschinen im England des 18. Jh. Verwendet wurden. Möglicherweise waren es
sogar 2.200 bzw. 2.500 (Harris 1982, 208 f).

Die Bezeichnung “revolutionär” an der industriellen Revolution ist immer mehr umstritten.
Die Wandlungsvorgange, die sich graduell vollzogen haben und die britische Ökonomie an
ihren Wurzeln transformiert haben, begann bereits in voller Auswirkung im 17. Jh. und führt
zu einem Verständnis dieser Kontinuität, die hier kritisch eingewandt wird gegen die Analyse
des Wandels. Das Ausmaß an Kontinuität in Strukturen, Organisationsformen und Arbeits-
prozessen des frühen modernen Großbritanniens im 17. Jh. mit denen des industriellen
Zeitalters sind hervorzuheben. Dabei wird im Hinblick auf die Industrielle Revolution häufig
genug die Bedeutsamkeit der Wandlungsprozesse im landwirtschaftlichen System vergessen.
Diese Wandlung kennzeichnet sich auch darin, dass z. B. jetzt der Maschinenbau mehr denn
bisher als Teil der Mathematik behandelt wurde, wohingegen er in der Renaissancezeit als
Anhängsel der Architektur erschien. An der Spitze der großen technischen Errungenschaften
der zweiten Hälfte des 18. Jh. stand die mit genialem technischen Sinn und wissenschaftlichen
Geist konstruierte Dampfmaschine Watts. Sie erst ermöglichte einen ungeahnten Siegeszug
der Erz- und Kohleförderung. Die Einführung des Kokses in den Hochofenprozess, die
Erfindung des Tiegelgussstahles, des Zylindergebläses und des Flammofenfrischens brachen
dem Eisen als wichtigsten Werkstoff die Bahn. Verbesserte Werkzeugmaschinen und neue
Arbeitsmaschinen, besonders im Gebiet der Textiltechnik, führten bald zusammen mit der
Dampfmaschine als Antriebskraft zu einer völligen Umgestaltung der industriellen Verhält-

92
nisse. Der durch den rapiden Aufstieg der Textiltechnik, insbesondere durch die Zunahme der
Baumwollverwendung, gesteigerten Bedarf an Chemikalien gab der chemischen Industrie
kräftigen Auftrieb, die in der zweiten Hälfte des Jahrhunderts die ersten Verfahren zur
Herstellung von Schwefelsäure und Soda im großen Stil, das Bleichkammer und Leblanc-
Verfahren, entwickelte (Klemm 1999, 124-126).

Carnot suchte nun die allgemeinen Bedingungen zu ergründen, unter denen aus Wärme
mechanisch Arbeit gewonnen werden kann. Durch das Gedankenexperiment des umkehrbaren
Kreisprozesses gelangte er zu Erkenntnis des idealen Arbeitsmaximums, das lediglich
abhängig ist von der überführten Wärmemenge und den Temperaturen, zwischen denen die
Überführung stattfindet, nicht aber vom Arbeitsmittel. Der an Carnot anschließende Ausbau
der Thermodynamik schuf die Grundlage für die neuere wissenschaftliche Behandlung des
Wärmemotors, und um die sich zunächst seit 1860 Gustav Zeuner besonders bemühte
(Klemm 1999, 145). Ein bedeutsames formales Mittel für das wissenschaftliche technische
Schaffen wurde neben der Infinitesimalrechnung die darstellende Geometrie. Sie fand ihre
erste wissenschaftliche systematische Behandlung 1799 durch Monge, den Organisator der
Ecole polytechnique. J. N. P. Hachette, Lehrer an dieser hohen Schule der Technik, wandte
die Methoden der darstellenden Geometrie als Erster 1811 in umfassender Weise auf dem
Maschinenbau an. In seinen „Prinzipien“ hob Redtenbacher 1852 die Notwendigkeit der
technischen Zeichnung für den Maschinenbau mit Nachdruck hervor (Klemm 1999, 162). Die
Dampfmaschine leistet technische Arbeit und stellt als Produkt Antriebsenergie bereit.

Der Wissenschafts- und Technikhistoriker muss auch die nichtverbalen, visuellen Vorstufen
des technischen Schaffensaktes zum Gegenstand der Untersuchung erheben. Dies lenkt die
Aufmerksamkeit auf den Entwurfsprozess. Gewöhnlich werden die Wurzeln des wissen-
schaftlichen Maschinenbaus vorrangig in den Naturwissenschaften gesehen. Aber es kam
bereits frühzeitig zu einer Verdichtung handwerklich-künstlerischen Könnens zu technischem
Wissen. Die Visualisierung technischer Gebilde und Verfahren war dabei ein Mittel, kausale
Zusammenhänge aufzudecken. Die damit einhergehende Geometrisierung mechanisch-
technischer Sachverhalte leitete die wissenschaftliche Durchdringung ein und mündete in der
Herleitung elementarer Methoden und Theoriefragmente. Eine besondere Rolle spielte dabei
die technische Zeichnung, welche über das jeweilige Niveau des Entwurfsdenkens Aufschluss
gibt. Die Herausbildung der Maschinenmechanik ging zunächst mit der Entwicklung der
praktischen Geometrie einher. Elementarisierung und Systematisierung waren im 18. Jh. die
wesentlichen methodischen Bausteine einer deskriptiven Maschinenkunde. Bereits im Zei-
chen der Industriellen Revolution stand die auf der deskriptiven Geometrie begründete
kinematische Maschinenlehre der Monge-Schule an der Pariser Polytechnischen Schule. Da-
rauf aufbauend wurde im Weiteren konsequent der Übergang von geometrischen (visuellen)
zu mechanischen (analytischen) Prinzipien im wissenschaftlichen Maschinenwesen vollzogen
(Mauersberger 1994, 8-11).

Mit der Dampfmaschine als Antriebskraft erschienen auch neue Arbeitsmaschinen auf dem
Plan. Das Zusammentreffen beider ermöglichte erst jene ungeheuere Mechanisierung und
Industrialisierung, die wir als Industrielle Revolution bezeichnen. Die Maschine bedurfte zu
ihrer Herstellung wieder der Maschine. Mit der Erzeugung immer leistungsfähigerer und
komplizierter Kraft- und Arbeitsmaschinen in immer größerer Anzahl ging die Ausbildung
immer präziser arbeitender Werkzeugmaschinen, insbesondere für die Metallbearbeitung,
einher. Wichtig für die Werkzeugmaschinen war die absolute Genauigkeit, mit dem man
bestimmte Teile herstellen konnte. Voraussetzung war dabei die den Handwerkern eigene
technische Gewandtheit, die sie befähigte, Einzelteile von Maschinen und Mechanismen
herzustellen, bei denen vollkommen ebene Oberflächen erforderlich waren. In den meisten

93
Fällen kam man zum Ziele durch den geschickten Gebrauch der Feile, so dass das Planfeilen
damals, wie noch heute, eine der höchsten Fertigkeiten des gewandten Handwerkers war. Die
große Genauigkeit in der Herstellung von Maschinenteilen und damit zusammenhängenden
Möglichkeiten, genau gleiche Teile – zunächst handelte es sich um Schrauben – mehrfach zu
erzeugen, so dass also ein Austausch vorgenommen werden konnte, waren revolutionierende
Leistungen (Klemm 1999, 148-150).

Die Dampfmaschine war eng mit dem Aufstieg der Mechaniker zu Ingenieuren verbunden.
Die Dampfmaschine war keine Triebkraft des Geschehens, aber auch kein bloßer Reflex eines
ökonomischen Bedarfs. An dieser Geschichte manifestiert sich die Frage nach angepasster
Technik im Kontext eines regionalen Ansatzes. Ansatzpunkt waren Erfindungen im
Maschinenbau, die sich günstig auf den Fortschritt in der Bergbauindustrie, der Metallurgie,
im Straßen- und Kanalbau und im Dampfschiff- und Lokomotivenbau auswirkten
(Schuchardin u.a. 1981, 138). James Watt studierte dabei zur Optimierung der Dampfma-
schine die Literatur (Schuchardin u.a. 1981, 158) und trug damit zur Verwissenschaftlichung
der Technik bei. Erst durch diese Verbesserungen war eine gewerbliche Nutzung möglich.
Die Dampfmaschine erzwang dann den Übergang vom Holz zur Kohle als dem wichtigsten
Energieträger. Die Entwicklung der Dampfmaschine basierte dabei auf einem Zusammen-
wirken von Forschern und Erfindern mit innovativen und risikobereiten Unternehmern.
Bevorzugte Abnehmer von Dampfmaschinen waren die Erzgruben von Cornwall. Und durch
Dampfmaschinen wurde das Erzeugen mechanischer Energie bedeutend preisgünstiger
(Schuchardin u.a. 1981, 163). Ein weiterer wesentlicher Schritt war die Erfindung von Uni-
versalwerkzeugmaschinen. Durch die manuelle Produktion von Maschinen waren Maschinen
teuer und der Ausstoß gering. Die Erfindung von Maschinen zur Produktion von Maschinen
bedeutete hier einen erheblichen Fortschritt. So erfand man die Universalwerkzeugmaschine
mit beweglichem Support (Werkzeugschlitten). Auch dieses veränderte die Arbeitsorganisa-
tion (Schuchardin u.a. 1981, 172f). Hooke entwickelte die wissenschaftlichen Grundlagen der
Elastizitätslehre, wodurch die Festigkeit der Materialen besser berechnet werden konnte. J.
Smeaton gelang dann in der zweiten Hälfte des 18. Jh. ein entscheidender Fortschritt, der zur
Entwicklung der Technikwissenschaft führte. Er begründete die wissenschaftlich fundierte
experimentelle Analyse der Arbeitsweise von Maschinen unterschiedlicher technischer Vor-
richtungen (Schuchardin u.a. 1981, 118f). Zudem war bereits seit der ersten Hälfte des 18. Jh.
begonnen worden, zur Lösung praktischer Aufgaben wissenschaftliche Erkenntnisse heran-
zuziehen.

Für die Industrielle Revolution charakteristisch ist auch der Wechsel von Holz zu Eisen. Um
weitere Verbreitung zu erlangen, musste der Preis für Eisen attraktiv sein. England war um
1750 alles andere als ein Massenproduzent von Eisen, hatte jedoch gute Voraussetzungen
dafür, es zu werden. Seit dem 17. Jh. stiegen die Holzpreise. Nicht zuletzt war das Anwachsen
des Eisenhüttenwesens mit Schmelzen und Umgießen eine wichtige Quelle für den steigenden
Preis von Holz. 1709 gelang es, den Schmelzbetrieb auf Koks umzustellen und somit die
Nachfrage nach Holz zu dämpfen. Steinkohle war zu diesem Zeitpunkt sehr viel billiger als
Holzkohle, da die Holzkohle sehr effektiv eingesetzt werden konnte. So wurden schließlich
Lufterhitzer für Hochöfen gebaut. Im ausgehenden 18. Jahrhundert verdrängt Walzen das
Schmieden. Und die Walztechnik ist eine Maschinen-Werkzeug-Technik. 1792 wird die erste
Dampfmaschine in einem Walzwerk eingesetzt. Ein Glücksfall war, dass in Großbritannien
bei den wichtigsten Produktionsstätten Eisenerz und Kohle gemeinsam vorkamen (Paulinyi
1989, 135). England war der größte Kohlenpott Europas vor der Industriellen Revolution.
Dabei verleitete die Entwicklung von Sicherheitslampen zu riskantem Abbau und erhöhte so
ungewollt das Unfallrisiko beim Kohleabbau (Paulinyi 1989, 145). Es gibt eine (1)
Technologie der Maschine, (2) eine Technologie der Chemie und (3) eine Technologie der

94
Elektrizität als Motor und Ursache für die Ausbildung spezifischer industriegesellschaftlicher
Systemgefüge. Diese hat Auswirkungen auf die Familie und Stadtstrukturen. Zu analysieren
sind also die Grundbedingungen der Entstehung dieses Systems (Pohlmann 1997, 13-15).

Die wachsende Zahl an erteilten Patenten auf landwirtschaftliche Geräte und Maschine in der
zweiten Hälfte des 18. Jh.s ist ein deutlicher Hinweis auf eine zunehmende Innova-
tionsbereitschaft im ländlichen Raum (König 1991, 110). Welchen ungeheuren Aufschwung
der Kutschenverkehr innerhalb von rund 100 Jahren genommen, verdeutlichen zwei Zahlen:
1658 zählte man in Paris 320 Kutschen und Karossen, 1762 war ihre Zahl auf ungefähr
14.000 angestiegen (König 1991, 121). Aus der Fülle von Publikationen zu physikalischen
Problemen des Schiffbaus darf jedoch keinesfalls geschlossen werden, dass damit eine
Verwissenschaftlichung verbunden gewesen wäre. Auch weiterhin blieb die Arbeit auf dem
Werfplatz von der Empirie bestimmt. Aber die Untersuchungen der Wissenschaftler so
praxisfern sie vorerst sein mochten, stellten – und hier müssen Isaak Newton und Gottfried
Wilhelm Leibniz genannt werden – Theorien und vor allem Rechenmethoden zur Verfügung,
die dann in weiter entwickelter Form seit der 2. Hälfte des 18. Jh.s allmählich Eingang in den
Schiffbau fanden. Wachsende Konkurrenz bekam das städtische Gewerbe durch das sich
immer stärker ausdehnende, durch die Trennung von Produktion und Absatz charakterisierte
Verlagssystem, das nun auch im städtischen Raum breiten Fuß fasste. Die Impulse für die
Anwendung technischer Neuerungen aber gingen vom Manufakturwesen aus. Die Mechani-
sierung erstreckte sich allerdings in der Regel nicht auf den gesamten Fertigungsvorgang,
sondern vorwiegend auf die Bereiche der Rohstoffaufbreitung und der Produktveredelung,
wobei die mechanisierten Einzelarbeitsschritte manchmal Jahrzehnte oder gar Jahrhunderte
auseinander lagen (König 1991, 143-146).

Erst die zunehmende, mit der Frühaufklärung einhergehende Ökonomisierung des Denkens,
bei der zudem alles auf seinen Nutzen und Zweck hin bedacht wurde, führte im Maschi-
nenbau zu Überlegungen, z. B. Material so sparsam wie möglich zu verwenden, unnötige
Reibung zu vermeiden, Brennstoff einzusparen und so die Gesamtkosten zu senken. Dabei
wurden die Regeln der mechanischen Wissenschaften berücksichtigt, andernfalls zog man
sich auf Proportionen zurück. Die Maschinenbücher waren ein zentrales Element der Ver-
breitung technischen Wissens. Erst im letzten Drittel des 17. Jh. lassen sich in der den
Maschinenbau berücksichtigenden Literatur tendenzielle Veränderungen wahrnehmen, die
stärker auf ökonomischen Einsatz der technischen Mittel, auf bessere Wirkungsgrade und auf
die Einbeziehung wissenschaftlicher Erkenntnisse bei der Konstruktion von Maschinen ab-
gehoben, den Bau nützlicher Maschinen als Beitrag zur Steigerung der Landeswohlfahrt
betrachten hat. Obwohl mit Leupolds Werk, das man als deskriptive Maschinenkunde be-
zeichnen kann, empirische und theoretische Technikbetrachtung zumindest ansatzweise
miteinander verbunden worden sind, bemerkte später der Philosoph und Mathematiker Chri-
stian Wolff, dass die Anfertigung von Instrumenten diesem keine Zeit gelassen habe, sich in
die Theorie allzu sehr zu vertiefen, und auf deren Applikation in der Kunst zu gedenken.
Weitere wichtige Werke der technischen Literatur waren die Enzyklopädie von Johann
Heinrich Zedler und die Enzyklopädie von D’Alembert und die Diderot (König 1991, 253-
259).

Im Hinblick auf die französische Revolution hat man die Enzyklopädie und die
Enzyklopädisten oft als die Avantgarde des dritten Standes des Bürgertums bezeichnet. Es
muss da festgestellt werden, dass der große Bereich gewerblicher und handwerklicher Tech-
nik in einem bis dahin nicht gekannten Umfang in die Enzyklopädie einbezogen worden war.
Das geschah umfassender, als in allen enzyklopädischen Vorläufern, so dass die Enzyklopädie
von Diderot und d’Alembert geradezu als ein technisches Kompendium angesehen werden

95
muss. Das Ziel ist nicht zuletzt Veränderung der Gesellschaft durch Wissenschaft und Tech-
nik. Die Ausrichtung auf Naturerkenntnis als Naturbeherrschung, auf die Praxis und auf
praktische Ziele fand mit der in hervorragendem Maße erfolgten Einbeziehung der gewerb-
lichen Technik, die in enger methodischer Wechselbeziehung mit den exakten Naturwissen-
schaften potenziell als angewandte Naturwissenschaft gesehen wurde, erst ihren entscheiden-
den Ausdruck (Manegold 1979, 46-18).

Die Würdigung der Handwerker und der technischen Arbeit korrespondierte im gewaltigen
Bildungsoptimismus der Zeit mit der angestrebten Demokratisierung der Wissenschaften
(Manegold 1979, 51). Das hier auftauchende unbewältigte Theorie-Praxisproblem sprach
Diderot deutlich im Artikel „Art“ an: wie viele schlechte Maschinen werden uns doch täglich
von Leuten vorgeschlagen, die sich eingebildet haben, dass die Elemente einer Maschine in
der Praxis eben so wirken, wie theoretisch auf dem Papier. Er hatte selbst vielfach auf die
Untauglichkeit einer theoretischen, abstrakten Mathematisierung hingewiesen und die Not-
wendigkeit einer praktischen, handwerklichen Geometrie beschworen. Diderot ließ verschie-
dentlich eigenes Werkzeug oder Maschinen oder deren Modelle anfertigen, um sie bis ins
Einzelne studieren zu können. Die Enzyklopädie war bemüht gewisser Maßen eine Moment-
aufnahme zeitgenössischer Gesamttechnik zu geben. Eine Absicht freilich, die naturgemäß
nicht bewältigt werden konnte. Es handelt sich hier wie auch in den Deskriptionen um die
letzten technischen Abbildungen innerhalb der technisch-wissenschaftlichen Literatur, die im
Gegensatz zu der mathematisierten, technischen Zeichnung bei allen wesentlichen Verrich-
tungen immer auch den Menschen in Verbindung mit den Werkzeugen und der Maschine
zeigen (Manegold 1979, 57-60). Es war bezeichnend, dass die „Descriptiones“ der Akademie
andererseits sogleich die Aufmerksamkeit der deutschen Kavalleristen im 18. Jh. erregte, lag
hier doch ein ihnen verwandter Geist zu Grunde (Manegold 1979, 63).

Die chemische Fabrikation, die Elektrifizierung und so weiter stellen aus technischer
Perspektive Formen des Umgangswissens mit technisch erzeugten Naturprozessen (Labor-
phänomenen) dar, welche in Maschinen implementiert werden sollten. Dies gelang natürlich
nicht immer, sondern nur in den Bereichen, und in den Situationen, in denen die erforderli-
chen Randbedingungen gegeben waren. Das Produkt technischkonstruktiver Praxis ist seit der
Mechanisierung nicht mehr ein einzelnes technisches Artefakt, sondern eine Technologie. Die
Mechanisierung beruht auf einer Implementierung des Umgangswissens mit physikalisch
beschreibbaren Theorien auf Gegenstände und Prozesse. Später gab es eine Elektrifizierung,
eine Chemisierung, eine Pharmakologisierung und eine Biotechnologisierung. Die Mechani-
sierung und die Maschinisierung erzwingen sukzessive die Explizierung des impliziten tech-
nologischen Wissens. Das Experiment bzw. das Labor erzeugen bevorzugt technologisches
Wissen als Umgangswissen und erst in zweiter Sicht naturwissenschaftliches Gesetzes- oder
Regelwissen. Der Bedarf nach einer besonderen Antriebsenergie führte zur Suche nach
Maschinen, die sonst von den Werkzeug führenden Menschen geliefert wurde. Die
Mathematisierung des Ingenieurswesens im 16. und 17. Jh. erfolgte in der Regel nicht aus
technischer Zweckrationalität, sondern aufgrund des mathematischen Zeitgeistes. Der
Übergang von der Mechanik zur Maschinenkunde bedeutete insbesondere eine ökonomische
Transformation, denn Maschinen waren in erster Linie Produktionsmittel. Die Spinnmaschine
gehört noch in den Bereich der sinnlich wahrnehmbaren Technik. Die Dampfmaschine ist
bereits eine Blackbox.

Seit der 2. Hälfte des 18. Jh. entstanden mit der Produktion von Schwefelsäure, Soda und
Chlor, zu denen sich in den ersten Jahrzehnten des 19. Jh. die Erzeugung von Leuchtgas aus
Steinkohle gesellte, die Grundlagen der chemischen Industrie. Die Reinigungsvorgänge sowie
das Färben der Fasern und Gewebe in allen Sparten der Textilindustrie und hauptsächlich das

96
unumgängliche Bleichen der Leinen- und Baumwollgarne oder –gewebe verlangte nach so
großen Mengen an Säuren und Alkalien, dass die herkömmliche, überwiegend pflanzliche
Basis – Holz, Seetank, Barrilla, Buttermilch – bzw. wie bei der Schwefelsäure, die alte
Verfahrenstechnik der Stoffumwandlung, den ständig wachsenden Bedarf allmählich nicht
mehr decken konnten. Das Vitriolöl, das seit dem 18. Jh. hauptsächlich in Sachsen und
Böhmen aus einem Schiefer gewonnen wurde, wurde seit Ende des 18. Jh. in den größten
Unternehmen der chemischen Industrie produziert (König 1991, 412). Die Pottasche wurde
durch künstliches Soda verdrängt. Die wichtigsten Verfahrensschritte des von Leblanc
entwickelten mehrstufigen Prozesses der Sodagewinnung sind die Erzeugung von Natrium-
sulfat oder calcinierten Glaubersalz aus Schwefelsäure und Kochsalz in einem Flammofen.
Die Entfaltung einer Massenproduktion von Glas zu Preisen, die es zum ersten Mal in der
Geschichte allmählich breiteren Schichten zugänglich machte geschah ebenfalls im 19. Jh.
(König 1991, 418-420). In kurzer Folge entstanden weitere öffentliche Gasgesellschaften in
London, Glasgow, Edinburgh, Manchester, Liverpool, Dublin und andernorts. Um 1820 hatte
London 4 Gasgesellschaften, 47 Gasometer mit einem Gesamtvolumen von 28.000 m3,
51.000 Gaslichter und das Röhrennetz war etwa 300 km lang. Der schnellen Verbreitung der
Gasbeleuchtung waren die fallenden Kohlepreise förderlich. Die Verbreitung der Eisenbahn
und die damit verbundenen Umstellungen wurden zu einem der wesentlichen Faktoren des
Wandels im industriellen Zeitalter. Die Railwaysgentlemen, die Projektemacher im ersten
Eisenbahnfieber der 30er Jahre, waren hier die Pioniere (König 1991, 425-429).

Ein weiterer Fortschritt war die Verwendung von Gusseisen für die Tragkonstruktionen von
Brücken, die durch die Eisenbahn im verstärkten Maße erforderlich wurden. Dennoch blieben
Wasserstraßen und Kanäle zunächst die wesentlichen Faktoren der Verkehrsinfrastruktur. In
zunehmendem Maße gab es Versuche, Bewegungsabläufe von Lebewesen mit mechanischen
Mitteln nachzuahmen zunächst war die Lokomotive ein echtes Dampfross, das sich auf den
Schienen mit zwei von der Dampfmaschine betriebenen Hinterbeinen fortbewegen sollte. Die
erste Industrialisierungsphase war vorwissenschaftlich. Die Naturwissenschaft und ihr Willen
zur Naturbeherrschung und der primatkontrollierter Erfahrung haben eine implizite Techni-
zität. Technik ist ein wesentliches Element der Naturwissenschaften. Dazu gehört insbeson-
dere auch der rationale Kausalitätsbegriff (Pohlmann 1997, 71-74). Die Arbeits- bzw. Werk-
zeugmaschine kann mit der Dampfmaschine verknüpft werden. Die Auswirkungen der
Maschinisierung der Arbeit sind immens. Für den nach Verwissenschaftlichung der Technik
strebenden Ingenieur wurde der Übergang vom Holz zum Eisen eine Prinzipienfrage,
unabhängig vom ökonomischen Kalkül. Die herkömmliche Auffassung, der zufolge die Tech-
nik im 16. Jh. bis zur Industriellen Revolution im Wesentlichen stagnierte und danach die
Dampf- und Spinnmaschine den Fortschritt in eine archaische Agrarlandschaft brachten, ist in
neuerer Zeit mit Recht revidiert worden. Sie beruhte auf einem bestimmten Bild von
Fortschritt: auf der Vorstellung, dass der Weg des Fortschritts nur über Basisinnovationen,
über Steigerung des Energieeinsatzes und über die Ersetzung von menschlicher Arbeit durch
Maschinen führte. Was wirtschaftlich rational war, hing wesentlich von den Vorstellungen ab,
die man sich über künftiges wirtschaftliches Wachstum machte. Wenn mit den Maschinen
auch zeitweise die Vorstellung verknüpft wurde, dass diese bei den Arbeitern Können,
Wissen und Erfahrung überflüssig machten, war diese Einbildung doch nur vorübergehend.
International betrachtet fällt auf, dass eine erfolgreiche Industrialisierung vor allem dort ge-
lungen ist, wo es zunftartige Traditionen professioneller Arbeit gab. Der Werkstoff Holz
beflügelte die Experimentierfreude, auch die unprofessionelle und dilettantische. Dadurch,
dass es überall und in großer Artenvielfalt vorhanden, ungemein vielseitig zu verwenden und
obendrein viel bequemer als Metalle zu bearbeiten war. Holz begünstigte die Handarbeit
(Radkau 1989).

97
Die Dampfmaschine warf mit dem Übergang zu höheren Brücken zugleich die Sicher-
heitsfrage als zentrales Thema auf: Kesselexplosionen waren schockierende Ereignisse. Der
Übergang zu massenhaftem Kohlegebrauch um die Mitte des 19. Jh. bedeutete nicht nur
Wirtschafts- sondern auch umweltgeschichtlich eine tiefe Zäsur durch die Bindung der indu-
striellen Dynamik an eine nicht regenerative Ressource und durch die von nun an
unaufhaltsam wachsende CO2-Belastung der Atmosphäre. Die volle ökologische Tragweite
dieses Vorganges war zu jener Zeit nicht zu überblicken; dass jedoch Kohlerauch schädlich
sei, war seit Alters eine verbreitete Überzeugung, die der sinnlichen Wahrnehmung entsprang.
Dabei wurde bemerkenswert rasch erkannt, dass eine Unschädlichkeitsgrenze der Schadstoffe
nicht bestand, eine weitere Verteilung durch hohe Schornsteine also nur eine breite Streuung,
aber keine Verhütung von Schäden bewirkte. Es gab jedoch Untergrenzen, unterhalb derer ein
exakter Kausalnachweis der Schädigung nicht mehr zu führen war. Im späten 19. Jh. setzte
sich in der Gewerbeaufsicht das Konzept der Toleranzgrenze durch, das die Umweltbelastung
legalisierte und der Kontrolle einen Schein von Exaktheit verlieh (Radkau 1989, 201).

Mit dem beginnenden 19. Jahrhundert fängt die theoretisch-wissenschaftliche Behandlungs-


weise bautechnischer Probleme allmählich an, zur Selbstverständlichkeit zu werden und die
einseitig wissenschaftsfeindlich eingestellten Praktiker werden in die Verteidigungsstellung
gedrängt. Dabei ist zu berücksichtigen, dass die Theoretiker damals noch häufiger als heute
über ihr Ziel hinausschossen, indem sie sich der Grenzen, der Unzulänglichkeit der Methoden
und der Unsicherheit der Voraussetzung ihrer Rechnungen nicht genügend bewusst blieben.
Rondelet versuchte 1810 noch einmal in einem Werk trotz der eingetretenen Spezialisierung
alle Aspekte der Baukunst, nämlich Kunst und Statik, Architektur und Ingenieurwesen in
einem universalen Opus zu vereinigen (Straub 1992, 176). Neben den Hafenbauten bildete die
Anlage von Schifffahrtskanälen die wichtigste Aufgabe der Tiefbauingenieure des 17. und 18.
Jh. (Straub 1992, 181). Die Baustatik entsteht in Frankreich zwischen 1750 und 1850. Die
ersten theoretischen Untersuchungen über die Wirkungsweise des Gewölbes, dieser vielleicht
wichtigsten Tragwerksform des Ingenieurbaus, finden sich gegen Ende des 17. Jh. Vor der
Erfindung des Betons hat im Massivbau der Steinschnitt von jeher eine wichtige Rolle
gespielt. Weil der Einsturz und die Zerstörung von Gewölben meist durch das Nachgeben der
Kämpfer verursacht werden, ist für den Konstrukteur die Bestimmung der Größe des Bogen-
schubs und die davon abhängige Bemessung der Widerlager beinahe noch wichtiger als eine
genaue Kenntnis der Wirkungsweise des Bogens selbst (Straub 1992, 191-194).

Der für die Entwicklung der Wissenschaft bedeutendste Vertreter der französischen Inge-
nieuroffiziere des 18. Jahrhunderts ist Charles Auguste Coulomb (1736-1806). Er verfasste
zwischen 1773 und 1776 die bedeutendsten Werke der Bauingenieurkunst. In der ersten, nur
knapp 40 Seiten umfassenden Schrift wird das klassische Problem der Biegung eines Balkens
endlich erschöpfend und richtig behandelt. Auch die Frage der Beanspruchung durch Schub
wird angeschnitten. Die Materialkonstanten, die Coulomb für seine Lösungen baustatischer
Aufgaben benötigt, sind die Reibung und die Kohäsion. Zusammenfassend kann man sagen,
dass es Coulomb mehr als allen seinen Vorgängern gelungen ist, die Baukunst unmittelbar
interessierende Probleme durch Anwendung wissenschaftlicher Methoden, aber unter
Berücksichtigung der Bedürfnisse der Praxis zu behandeln (Straub 1992, 198-201). Auf
keinem anderen Gebiet des Hochbaus kommt die Entwicklung der Berechnungsmethoden, der
Wandel der statischen Auffassungen in der sichtbaren Erscheinung des Bauwerks so deutlich
zum Ausdruck wie bei den großen eisernen Fachwerkbrücken der zweiten Hälfte des 19.
Jahrhunderts (Straub 1992, 263). Neben der Verwendung von Eisen und Stahl wurde
revolutionär für das Bauwesen der Eisenbeton (Patent 1855). Schließlich stellte das Spann-
betonverfahren zwar hohe Anforderungen an Rechnung und Ausführung, da es dem
Brückenbauer mit dem Hochbauingenieur eine Fülle neuer Möglichkeiten bietet, hat sich

98
seine Anwendung auf allen Gebieten des Massivbaus rasch ausgebreitet. Nun wurden ganz
andere Bogenkonstruktionen möglich als früher. Neben dem Entstehen der Baustatik und der
Verwendung der neuen Baustoffe Eisen und Beton bringt das 19. Jh. als dritte umwälzende
Neuerung für den Ingenieurbau eine weitgehende Mechanisierung, ja Maschinisierung der
Bauarbeiten (Straub 1992, 281). An erster Stelle sind mechanische Betonmischer, Sortier- und
Waschtrommeln, Schaufelbagger für Erdbewegungen, Dampf- und Presslufthämmer, Bohr-
maschinen, Kompressoren usw. zu nennen. Hinzu kommen leistungsfähige eiserne Turm- und
Derrickkrane, Kabelkrane und dergleichen.

Im historischen Kampf der beiden Fortschrittsideologien Marxismus und Liberalismus, der


nunmehr offenbar zugunsten des Liberalismus als historisch entscheidbar gilt, ist mit dem
notwendigen Gestus der akademischen Erfurcht von den Fachkollegen sehr kontrovers die
Kategorie des technischen Fortschritts bewertet worden (Pirker u.a. 1987, 14). Das Konzept
der Industriellen Revolution das zu den lange Zeit gültigen historisch wertvollen und
prägenden sozialwissenschaftlichen Paradigmen gehört hat, kann den heutigen Stand der
Forschung jedoch nicht mehr Aufnehmen, geschweige denn noch befruchten, sondern ist zu
einem wirklichen Hindernis der Forschung geworden, dass mehr Irrwege als Anregungen
enthält (Pirker u.a. 1987, 25). Auf der Basis der Marxschen Industrieanalyse kann man die
Berechtigung des Revolutionsbegriffs mit dem Kriterium der Zäsur zwischen ingenieurs-
wissenschaftlich prinzipiell unterschiedenen Systemen der Technik unterstützen und sich
gegen das evolutionäre Konzept der großen Schar kleiner Verbesserungen wenden (Pirker u.a.
1987, 120).

Die Technologie des Manufakturwesens vor allem im 18. Jh. und die Entwicklung der
Mühlenmaschinen vom 15. bis 19. Jh. lassen von einer Industriellen Evolution vom 15. bis
zum 19. Jh. sprechen. Hinzu kommt ein technisch gewerblicher Umbruch von erheblicher
Qua-lität im Spätmittelalter dessen Errungenschaften in einer evolutionären Fortentwicklung
bis zum 18. Jh. die Basis schufen, die erst den Vorgang der (englischen) Industriellen
Revolution erklärbar macht. Technologie verschiedener Produktionsprozesse (Spiegelglas-
herstellung, Draht- und Nadelproduktion, Papiermacherei), ferner Alltagstechniken (Wasch-
maschine) oder infrastrukturelle bzw. Kommunaltechniken (Wasserversorgungssysteme) sind
hier wichtig. Die Entwicklung der Mühlentechnologie wird als technologisches Kernsystem
dieses Zeitraums im Überblick erarbeitet und durch Fallstudien vertieft. Das Repräsenta-
tionsbedürfnis des Absolutismus führte zur Nachfrage bestimmter Waren und damit in
verschiedenen Gewerben zur Konzentration auf eine entsprechende Luxusproduktion. Hohl-
und Flachglas wurde in Deutschland bereits seit dem Mittelalter hergestellt, wobei die
Produktion in bestimmten Regionen konzentriert war (Böhmen, Bayern). Neben der Verfüg-
barkeit entsprechender Rohstoffe war das Vorhandensein größerer Waldgebiete eine wichtige
Standortvoraussetzung (Pirker, Müller 1987, 123f).

Bis zum Ende des 18. Jh. waren somit in der Papiermühle eingeführt: Wasserpumpwerke,
Lumpenwaschmaschine, Lumpenschneider, Lumpenstampfwerk, Holländer, Rechenkasten
oder Rührwerk, Wasserpresse, Schlagstampfe, Glättzylinder. So war der arbeitsteilige, aber
auch auf Handarbeit beruhende Kernprozess des Schöpfens von einem Kranz von
Maschineninnovationen umgeben, die Arbeitsprozesse der Rohstoffaufbereitung und der
Veredelung mechanisiert hatten. Der Papiermühle folgte am Ende des 18. Jh. die Papier-
maschine. Der Mechanisierungsgrad in den Produktionszweigen auch außerhalb des Montan-
gewerbes war deutlich höher als bislang in der wirtschafts- und technikgeschicht-lichen
Literatur dargestellt wurde. Die Mechanisierung erstreckt sich in der vorindustriellen Zeit in
der Regel nicht auf den gesamten Fertigungsprozess, sondern vorwiegend auf die Bereiche
Rohstoffaufbereitung und Produktveredelung (Ausrüstung), wobei die Mechanisierung der

99
Einzelarbeitsschritte zu unterschiedlichen Zeiten erfolgen kann. Der eigentliche Kernprozess
der Produktion – die Darstellung des Produktes, die Stoffumwandlung und Verformung – sind
in der Regel mit den damals zur Verfügung stehenden Mitteln nicht mechanisierbar, da dieser
Bereich erhebliche manuelle und sinnliche Fähigkeiten erfordert und zudem Steuerungs- und
Kontrollfunktionen komplexer Art auszuführen sind. Im Zentralbereich der Produktion war
ein „bottleneck“, ein Flaschenhals entstanden. Die erste Phase der Industriellen Revolution
war dadurch gekennzeichnet, dass diese Lücke des alten technologischen Systems geschlos-
sen wurde. Bei einer zunehmend steigenden Bevölkerung entstanden Bedürfnis- und Nach-
fragesituationen, die befriedigt werden konnten (Pirker u.a. 1987, 133f).

Marx hat zumindest versucht, aus den mannigfaltigen Erscheinungen der Werkzeugma-
schinen das ihnen gemeinsame technische Prinzip herauszufinden und fand es in der Über-
tragung des Werkzeuges (aus der Hand des Menschen) auf einen Mechanismus der, wie er es
formulierte die Operationen des Menschen ausführen, oder wie es heute der Fertigungs-
techniker oder Industriesoziologe sagen würde, auf den einige entscheidende Funktionen des
Menschen übertragen wurden (Pirker u.a. 1987, 148). Alle Artefakte und Handlungen sind
unge-achtet ihrer sozial-ökonomischen Bedingtheit und Eingebundenseins Elemente einer
nach technischen Merkmalen strukturierten Ganzheit (eines technischen Systems). Sie sind
Elemente, die zueinander und zu der Ganzheit (zu dem System) in Beziehung stehen, die
einander und dem System zugeordnet sind und deren Zuordnung nicht beliebig geändert
werden kann. Diese Beziehungen (Zuordnungen) ergeben eine Struktur und das Überwiegen
gewisser technisch definierbarer Elemente prägt den Gesamtcharakter des Systems (Pirker
u.a. 1987, 140).

Durch Verbesserungen des Handspinnrades entsteht ein besseres Spinnrad, aber keine
Spinnmaschine. Durch die Perfektionierung des Handwebstuhls ein anderer Webstuhl, mit
dem der Handweber mehr Stoff weben kann, aber nicht ein Maschinenwebstuhl. Um vom
Handspinnen zum Maschinenspinnen zu kommen, bestand die Aufgabe nicht in der
Perfektionierung der Funktion der Spinnerin oder in der Einführung einer anderen
Übersetzung zwischen Antriebsrad und Spindel, sondern in dem Verlassen des Grundprinzips
der Spinnerei, in der Übertragung der Werkstoffführung und anderer Funktionen der
Spinnerin auf eine technische Einrichtung (Pirker u.a. 1987, 143f). Zwischen dem fossilen
Energiesystem der Industriegesellschaft und dem solaren Energiesystem der Agrargesellschaft
besteht ein fundamentaler Unterschied. Beide besitzen Systemeigenschaften, die unterschied-
lichen Entwicklungen Raum geben, die unterschiedlichen Innovationsgeschwindigkeiten
alimentieren und somit an der Definition des Evolutionskorridors teilnehmen (Pirker u.a.
1987, 157). Zwar waren in Großbritannien spätestens seit dem Ende des 18. Jh. die neuen
Techniken auch ökonomisch den traditionellen Verfahren deutlich überlegen, jedoch galt dies
nicht in den meisten Regionen Kontinentaleuropas. Vielmehr konnten traditionelle oder
teilmodernisierte Techniken hier lange Zeit in ihren Revieren oder traditionellen Absatz-
märkten sehr wohl konkurrieren (Pirker u.a. 1987, 168).

John Stuart Mill zählt zu den Hauptantriebskräften für die Industrielle Revolution. Er
unterstützt das Wachstum der Produktion, den Fortschritt der Wissenschaft und Technik, das
Bildungswesen und das Unternehmertum, wie auch die Kapitalbildung, das Bevölkerungs-
wachstum, die Arbeitsteilung und die Verbesserung des Könnens. Das Bildungswesen hielt er
für den dynamischsten Faktor, einmal wegen seines allgemeinen gesellschaftlich- wirtschaft-
lichen Impulses und zum anderen wegen der Entwicklung und Verbreitung wissen-schaftlich-
technischer Kenntnisse (Musson 1977, 12). Dabei müssen auch die dynamischen Faktoren
wie der technische Wandel erklärt werden. In welchem Maße sind technische Veränderungen
Reaktionen auf die Nachfrage, in welchem Maße schaffen sie etwa neue Märkte? Inwieweit

100
werden sie von Veränderungen der Industriestruktur beeinflusst. Das langsam aufdämmernde
Bewusstsein der Wirtschaftswissenschaftler, dass Wissenschaft und Technik grundsätzlich
realistischerweise nicht mehr als exogen behandelt werden können, führt zu einem neuen
Verständnis. Es wurde immerhin von einem Take-of Englands während der Industriellen
Revolution gesprochen (Musson 1977, 21-23). Nun gibt es in der Tat Probleme der direkten
Messung des technischen Wandels. Neue Untersuchungen haben gezeigt, dass die Zunahme
des intellektuellen Kapitals, die Entwicklung und Verbreitung neuen technischen Wissens
eine wesentlich größere Rolle gespielt haben als die Akkumulation physischen Kapitals und
daher die ökonomischen Faktoren in den Hintergrund gedrängt haben. Allerdings sind Erfin-
dungen das Ergebnis von Angebot und Nachfrage: Auf der Angebotsseite ergeben sich
Projekte aus der Ansammlung technischen Wissens, doch auf der Nachfrageseite werden sie
unter Nutzergesichtspunkten bereitgestellt zur Befriedigung von Verbraucherwünschen.
Aller-dings muss oft ein Markt für neue Erzeugnisse erst gefunden werden (Musson 1977, 33-
38). Es sind mehrere Phasen nötig, ehe eine konkrete Technik zustande kommt. Verschiedene
Formen der sozialen Organisation und konkreter Produktionsfaktoren treten hinzu und
bringen die Möglichkeiten in der Produktion voll zum tragen (Musson 1977, 42).

Der Hauptanstoß sei von Wandlungen in der Industrie ausgegangen, doch Adam Smith´s
Erklärungen dieser Wandlungen sei immer noch die beste, nämlich das es sich aus einer
Ausdehnung des Handels, einer Ausweitung des Marktes, aus Zunahme und Verschiebungen
der Nachfrage ergaben, die zu stärkerer Arbeitsteilung, höherer Effizienz, zu Erfindungen und
Verbesserungen von Maschinen führten. In jedem Falle war die allgemeine Wirtschafts-
entwicklung und nicht die technische Neuerung als solche für den Verlauf des Wandels
maßgeblich. Schon vor 200 Jahren ganz wie heute waren führende Neuerer wie Boulton oder
Wedgewood oder die Baumwollfabrikanten von Manchester es, die in sehr erheblichem Maße
die Märkte für ihre neuen Erzeugnisse durch nachdrückliche Verkaufsförderungen schufen
(Musson 1977, 52-54). Trotz aller Plausibilität bleibt die Unterscheidung zwischen Erfindung
und Neuerung oder kommerzieller Ausnutzung schwierig. Watt erfand nicht nur den
getrennten Kondensator, sondern beschäftigte sich auch mit den langwierigen technischen,
finanziellen und organisatorischen Problemen seiner Entwicklung und diese erforderten
weitere Erfindungen und Verbesserungen (Musson 1977, 59).

Das steigende Interesse an experimenteller und angewandter Wissenschaft war jedenfalls auf
nationaler Ebene in Großbritannien ein wesentlicher Faktor zum Anstoß für die Industrielle
Revolution. Das englische wissenschaftliche Denken, das von den Lehren Francis Bacons
ausging und durch Boyle und Newton bereichert wurde, war einer der Hauptbeiträge zur
industriellen Revolution. Neuere Untersuchungen haben die Bedeutung der Verbindungen
zwischen Industrie und Wissenschaft zu dieser Zeit bestätigt. Einige führende Industrielle
haben eine Ausbildung an einer Universität, vor allem in Schottland, oder aber einer der
Dissidentenakademie genossen, während andere höchst bemerkenswerte autodidaktische
Leistungen vollbrachten mithilfe von Büchern und Bibliotheken, wie auch Kursen von
Gastdozenten, die ihrem oft großen und heterogenen Publikum viele praktische Maschinen-
typen und ähnliches vorführten. Ganz entscheidend war auch die Entwicklung des Bildungs-
wesens (Musson 1977, 72-74). Herkömmliche rein empirische Geschicklichkeiten waren bei
der Ausbreitung der Industriellen Revolution zweifellos von Bedeutung (Musson 1977, 114).
Die Schlüsselrolle kommt auf jeden Fall der Textilindustrie zu und in deren Geschichte sucht
man vergeblich nach der geringsten Spur eines wissenschaftlichen Einflusses außer beim
Bleichen und Färben des fertigen Erzeugnisses (Musson 1977, 141).

Übereinstimmung besteht zunächst darin, dass im Hinblick auf die Verwissenschaftlichung


technischen Wissens die Industriellen Revolutionen des 18. bzw. des 19. Jh. große historische

101
Zäsuren bildeten. Allerdings ist diese zweite Entwicklungsphase nicht zu unterschätzen, in der
Maschinen mit Hilfe von Maschinen hergestellt werden. Unter diesen Bedingungen musste
das überlieferte technische Wissen versagen, wenn sich ihm nicht wissenschaftliche
Überlegungen zur Seite stellten. Mit dem Übergang von der handwerklichen zur maschinellen
Produktion vollzog sich ein Umbruch, der eine dynamische, auf erweiterte Reproduktion
orientierte marktwirtschaftliche Wirtschaftsform hervorbrachte. Erst dadurch wurde es allge-
mein notwendig, die Wissenschaft als produktive Potenz einzubeziehen. Die Verwissenschaft-
lichung der Technik ist zum unumkehrbaren Prozess geworden. Ihr Ort ist verbunden mit dem
technischen und industriellen Labor. Bei dem Werk von August Koelle "System der Technik"
(Berlin 1822) macht sich ein wissenschaftliches Bestreben bei der Sammlung des technischen
Wissens und der Aufstellung ihrer Systematik bemerkbar. Hier bemerkt man die Bearbeitung
der Technik durch die Wissenschaft. Für die wissenschaftlich systematische Behandlung bie-
ten sich 4 Hauptansichten der Technik dar, nämlich die des Materials, der Werkzeuge, der
Arbeit und des Produktes. Dabei werden vier Stufen unterschieden, nämlich (a) Erzeugung,
(b) Entfaltung, (c) Verarbeitung und (d) Veredelung. Ziel der Systematisierung ist die Verein-
fachung des Prozesses (Seibicke 1968, 223). Um das Jahr 1800 sind im Hinblick auf die
Technik-Terminologie demnach alle materiellen und geistigen Voraussetzungen und
Möglichkeiten der Be- oder Verarbeitung von Materialien gegeben (Seibicke 1968, 243). Es
sind die Methoden und Verfahrensweisen, die den Forscher und Gelehrten vom Techniker
unterscheiden. Kunstfertigkeit umschreibt auch die artistische Technik des Restaurateurs oder
die Technik der Malerschulen. Das technische bleibt aber im Sinne eines neuen Begriffes der
Kunstfertigkeit stets ein Mittel des künstlerischen Schaffens. Der Künstler ist auf Verfahren
und Kunstfertigkeiten angewiesen. Ein technischer Künstler ist aber ein Künstler, der ein
Meister eines technischen Faches oder Handwerkes ist.

Am Ende des 18. Jh. setzt sich Technik allmählich anstelle von Kunst. Um die Mitte des 17.
Jh. beginnen sich die so genannten schönen Künste aus der Gesamtheit der Artes zu lösen.
Der Kunstbegriff verlagert sich nun immer mehr auf den Bereich der ästhetischen
Phänomene. Das Wort verliert damit seine Eindeutigkeit. Mit Beckmanns bewusster Um-
gehung des Wortes Kunst entfaltet das Wort Technik seine Wirkmacht. Der in dem Wort
Technik enthaltene sprachliche Zugriff konstituiert überhaupt erst dieses Sachgebiet als
gedankliche Einheit. Denn in der Realität gibt es nur einzelne Handwerke, Gewerbe, Künste,
Fabriken, Manufakturen (Seibicke 1968, 267). Die Möglichkeiten autodidaktischer wissen-
schaftlicher Bildung waren vielfältig. Wissenschaftliche Gesellschaften spielten hier eine
bedeutende Rolle. Von der Industriellen Revolution zu unterscheiden ist eine zweite Phase, in
der Maschinen von Maschinen gebaut wurden (Buchheim/Sonnemann 1990, 145). Allerdings
blieb die Gewinnung und Nutzung von wissenschaftlicher Erkenntnis der privaten Initiative
überlassen. Die technischen Schulen entstanden in Großbritannien erst um die Mitte des 19.
Jh., während in Frankreich bereits 1795 aus militärischem Interesse die Polytechnische
Hochschule gegründet wurde. Allerdings setzte sich in Frankreich nach der Französischen
Revolution die Industrielle Revolution nur zögerlich durch.

So wurde die Kenntnis der Mechanik einschließlich der Reibung als naturwissenschaftliche
Grundlage der Streckenführung und -förderung ab 1800 berücksichtigt. Die Industrielle
Revolution brachte vielfältigste Bauaufgaben mit sich. Dies führte zur Herausbildung der
Bauingenieurwissenschaften in der Polarität von traditioneller und neuer Bautechnik. Dabei
war der Vorstoß in bautechnisches Neuland ohne ausreichende Erfahrungsbasis und wissen-
schaftliche Absicherung von vielen Unfällen begleitet. Daher bezeichnete man diese Zeit
häufig als "heroische Zeit" des Ingenieurbaus. In der Baumechanik wurde in zunehmendem
Maße Eisen verwendet. Die Baumechanik war einem strikten Determinismus rechnend
experimenteller Wissenschaft verpflichtet. Die Aufgabenfelder von Ingenieur und Architekt

102
begannen sich zu trennen. Die Eisenbahn und der Eisenbahnbau waren zum Katalysator der
Wissenschaftsentwicklung der Technik aufgestiegen. Die Verwissenschaftlichung der Tech-
nik nimmt in rasantem Maße zu. Technische Biegelehre und mathematische Elastizitätslehre
griffen ineinander. Watts Erfindertätigkeit bei der Verbesserung der Dampfmaschine wies
eine gänzlich neue, den handwerklichen Schaffensprozess sprengende Merkmale durch die
Verwendung der Wissenschaften auf. Er verwendete bei der Optimierung seiner Maschine
Kenntnisse über die Eigenschaft des Dampfes und der Umwandlung von Wärme in mechani-
sche Energie. Allerdings war dieses Wissen am Anfang noch recht unvollkommen. Die
äußerst leistungsschwachen Niederdruckdampfmaschinen ließen einfache geometrisch kine-
matische Betrachtungen zu. Watts Erfindertätigkeit, die sporadische Einbeziehung techni-
schen Wissens und naturwissenschaftlicher Erkenntnisse mit einfachen theoretischen Mitteln
zum Programm erhob, machte bald bei den englischen und anderen europäischen Ingenieuren
Schule (Buchheim/Sonnemann 1990, 182).

103
3. Verwissenschaftlichung der Technik:
Naturwissenschaftsbasierte Technologien, Laboratorien,
Großindustrie und die technische Universität
Das kinematische Konzept wurde zu einem tragfähigen Fundament der Maschinen-
wissenschaften, das freilich noch mancher Ergänzungen bedurfte. Die technische Thermody-
namik entsprang den Bedürfnissen der Wärmekraftmaschinen (Buchheim/Sonnemann 1990,
200). Zu Beginn des 19. Jh. war es daher vor allem die kinematische Schule in der Nachfolge
von Monge, welche das Bewegungsspiel der immer komplizierter werdenden Maschinerie
zum Gegenstand erhob. Auf der Grundlage einer konsequenten Elementarisierung konstruk-
tiver Strukturen gelang es Wissenschaftlern im Umfeld der Ecole Polytechnique Jean Nicolas
Pierre Hachette, Jose Maria Lanz und Augustin de Betancourt Methoden zur Erzeugung und
Koordinierung praktisch sinnvoller Bewegungsvorgänge zu entwickeln und ein Ordnungs-
raster für die Synthese der nach Art und Richtung definierten Bewegungsformen vorzugeben.
Eine solche Art orientierte Maschinenlehre war vorwiegend auf die Belange der Kraftmaschi-
nen, des Kraftbedarfs industrieller Technik und der Festigkeit der Bauteile ausgerichtet. Im
Mittelpunkt theoretischer Erwägungen stand die energetische Optimierung und Effizienzstei-
gerung (Mauersberger 1997, 46-52).

Reuleaux‘ Werk führte zu einer vehement geführten methodischen Auseinandersetzung, die


sich vor allem an theoretischen Einseitigkeiten, an einer Überbetonung mathematisierbarer
Modellbildung gegenüber der praktischen Beherrschung des Gegenstandes entzündete. Für
den mathematisch gebildeten Ingenieur war es durchaus verlockend, das neu gewonnene
theoretische Instrumentarium zum dominierenden Prinzip zu erheben und dabei stärker
praxisbezogene Ansätze zu vernachlässigen. Gerade die Kinematik bot ein weites Feld für
überzogene Theoretisierung. Vollends gesprengt wurde das kinematische Konzept durch
Wandlungen im Maschinenwesen, die auf den Begriff gebracht werden können: Das dynami-
sche Gewissen des Ingenieurs erwacht. Johann von Radinger, einem österreichischem Ingeni-
eur, gebührt das Verdienst, diese Wende herbeigeführt zu haben. Während die Entwicklung
der schnelllaufenden Dampfmaschine in den 70er Jahren zunächst eine typisch amerikanische
Angelegenheit war, drang Radinger in die wissenschaftlichen Probleme des „Schnellbetriebs“
ein, untersuchte die Einflüsse auf Unwuchten, Massenwirkungen und den unruhigen Gang der
Maschinen, kurzum, legte die wissenschaftlichen Grundlagen der Maschinendynamik. Die
Ingenieurpraxis selbst war mithin zum Korrektiv gegen die Einseitigkeiten der kinematischen
Herangehensweise an den Entwurf von Maschinen geworden (Mauersberger 1997, 54f).

Franz Reuleaux geht es um die Gesamtheit der Kinematik in ihrer ungeteilten Einheit. Die
Vorgänge in der Maschine und in der Natur sind dieselben, zumindest wenn es um das
Analysieren geht. Maschinenvorgänge sind äquivalent den mechanischen Naturerscheinun-
gen. Die Maschine ist ein Beispiel der reinen Mechanik. Reuleaux schreibt: „Während die
Maschine für den Unbefangenen sich in ihrem Wesen von den in der Natur tätigen Bewe-
gungs- und Kraftspendern stark unterscheidet, besteht für den theoretischen oder reinen
Mechaniker zwischen beiden eine solche Verschiedenheit nicht“. Reuleaux geht es um die
wissenschaftlichen Grundlagen des Maschinenbaus, nicht um die Einschränkung auf techni-
sche Nützlichkeit oder auf gebräuchliche Einrichtungen. Die Verhinderung der störenden Be-
wegungen durch latente Kräfte ist in der Maschine Prinzip. In ihr herrscht die bezweckte
Bewegung. Reuleaux definiert: „Eine Maschine ist eine Verbindung widerstandsfähiger

104
Körper, welche so eingerichtet ist, dass mittelst ihrer mechanische Naturkräfte genötigt
werden können, unter bestimmten Bewegungen zu wirken“. Der Zweck der Maschinenwis-
senschaften ist die Beleuchtung des Kausalzusammenhanges der Erscheinungen in der Ma-
schine (Reuleaux 1875, 31-39). Die allgemeine Maschinenlehre behandelt die Gesamtheit der
vorhandenen Maschinen, und zwar beschreibend. Die theoretische Maschinenlehre befasst
sich mit Vorliebe mit den Kraftmaschinen, also den Dampfmaschinen, Wasserrädern, Tur-
binen, Windrädern usw. oder, um auf seine Definition zurückzugehen, mit derjenigen beson-
deren Einrichtung der Maschine, vermöge deren sie die Naturkräfte auf die günstigste Weise
aufnimmt. Dieser spezielle Teil der Maschinenlehre ist der mechanischen Technikwissen-
schaft zuzurechnen. Der dritte Teil der Kinematik ist die Maschinenbaukunde oder Konstruk-
tionslehre. Ausschlaggebend ist hier die Eigenschaft der Widerstandsfähigkeit. Ein weiterer
Teil ist die Maschinengetriebelehre (Reuleaux 1875, 41-43).

Eine Maschine beruht auf Ketten, auf einen spezifischen Mechanismus über Getriebe. Dieses
besteht aus paarweise zusammengehörigen Körpern. So entsteht eine geschlossene kinema-
tische Kette, ein Mechanismus mit einem Antrieb, der als Maschine bezeichnet werden kann.
Die Konstruktion einer Maschine bzw. das Erfinden einer Maschine geschieht mit Hilfe des
„Pröbelns“ (Reuleaux 1875, 56). Die Maschinenwissenschaft beschreibt die Zusammen-
setzung der Maschine aus Gruppen von Bestandteilen. Dabei lassen sich Rezeptur, Trans-
mission und Werkzeug unterscheiden (Reuleaux 1875, 472f). Das Werkzeug ist keine
Grundlage für die Definition der Maschine (Reuleaux 1875, 480). Kraftmaschinen und
Arbeitsmaschinen können ebenfalls unterschieden werden. Die Maschinenwissenschaft ist
eine beschreibende Analysierung der Bestandteile der Maschine. Eine Konsequenz des
vermehrten Einsatzes von Maschinen ist die auffallende Abnahme der Geschicklichkeit der
Arbeiter. Es führte dazu den Arbeiter auf den bloßen Wärter der Maschine herabzudrücken
(Reuleaux 1875, 519f). Reuleaux spricht von einer neuen allgemeinen Technologie und meint
damit das, was heute Technikwissenschaft genannt wird. Die mechanische Technologie ist die
Lehre von der Gestaltung von Körpern durch mechanische Bearbeitung. Die Technologie der
geschichtlich älteren Handarbeiten enthält nicht, wie viele annehmen, die Maschinentechno-
logie vorgebildet in sich. Nach Analogie der strengen Maschinentechnologie sollte eine allge-
meine mechanische Technologie entwickelt werden. Die alte Definition von Technologie, die
auf Beckmann zurückgeht, basiert auf der Fachvereinzelung, die die Ordnung nach Stoffen
mit sich bringt, die allerdings nur wenige anzieht. Die eigentliche Gelehrsamkeit für die
Werkstatt liegt doch bei der neuen Technologie (Reuleaux 1900, 711-714).

Franz Reuleaux möchte eine wissenschaftliche Begründung für Inventionen bringen. Dabei ist
eine theoretische Fundierung eigentlich kaum von Interesse. Die Kinematik legt den Schwer-
punkt auf Bewegungsgeometrie unter Vernachlässigung der wirkenden Kräfte. Die darstel-
lende Geometrie dient als Forschungsmethode und Kommunikationsmittel des Ingenieurs.
Mit dieser Methode sollen komplizierte Bewegungsvorgänge erfasst werden. Das synthetische
Erfinden soll dadurch befördert werden, das Getriebe nach inneren Strukturen Schrauben-,
Kurven-, Kurbel-, Rollen-, Räder-, Gesperrtrieb gegliedert werden. Dabei kommt es zur
Überbetonung mathematischer Modelle gegenüber der praktischen Beherrschung der Ma-
schinenkonstruktion. Neuere Anforderungen an Maschinen wie Schnelligkeit der Rotation,
hohe Drücke, Schwingungen und Unwuchten werden nicht berücksichtigt. Außerdem fehlt
eine praxisnahe Ausbildung an der Maschine. Reuleaux entwickelt ein heuristisches Grund-
konzept, wobei die mathematische Behandlung zur größeren Klarheit im Detail führt.

Die historische Analyse unterstreicht die Evidenz der spezifischen integrierenden Funktion
der Technikwissenschaften bei der Herausbildung qualitativ neuer Beziehungen zwischen
Wissenschaft und Produktion. In der Genese technikwissenschaftlicher Disziplinen überlagert

105
sich eine Vielzahl unterschiedlicher Entwicklungslinien, Wissen mannigfacher Herkunft
verschmilzt, so dass theoretische Voraussetzungen oft mehrerer naturwissenschaftlicher Dis-
ziplinen zur notwendigen Bedingung einer Lösung werden. Die Entstehung technikwissen-
schaftlichen Wissens ist durch das Zusammenfließen unterschiedlichen Wissens nach der Art
der Gewinnung gekennzeichnet. Erst das 19. Jh. zeitigte jene gravierende Spezialisierung, die
Integration auf höherer Stufe wieder notwendig machte. Das anfängliche Überwiegen mecha-
nischer Prinzipien wurde schon bald verdrängt durch höhere und komplexere Formen. Die
Beherrschung solch komplizierte Prozesse erforderte frühzeitig die Vereinigung zu großen
Disziplingruppen wie das wissenschaftliche Maschinenwesen, das Bauingenieurwesen oder
das Montanwesen. Freilich waren solche disziplinären Konstellationen genuin vorgeformt und
setzte die Ansatzpunkte der Vorperiode bezüglich der Gliederung des technischen Wissens
kontinuierlich fort. Schon die Pariser „Ecole Polytechnique“ ging von der Einheit der techni-
schen Bildung aus (Mauersberger 1986, 20-23).

Kognitive Prozesse in den Technikwissenschaften sind in dieser Phase von einer


ausgesprochenen Theoriendynamik gekennzeichnet. Ein Musterbeispiel für solcherart
Entwicklungsgang gab die Kinematik und Getriebelehre der Schule um Franz Reuleaux
(1829-1905). Die Theorienbildung war zunächst wie in anderen traditionellen Disziplinen,
durch methodische Anleihen bei den Naturwissenschaften, namentlich der analytischen
Mechanik, vorgezeichnet und wurde von dort tradiert. Das sich eröffnende weite Feld theore-
tischer Fundierung elementarer Bewegungsformen an Mechanismen und Maschinen brachte
die Kinematik allerdings nicht der Ingenieurpraxis näher, sondern glitt in bewegungs-
geometrische Eingleisigkeit ab. Kollisionen mit praktischen Erfordernissen der fortgeschrit-
tenen Zweige des Maschinenbaus führten zu vehement ausgetragenen methodischen Ausein-
andersetzungen, die bald auch auf andere Disziplinen übergriffen. Die Praxis wurde so zum
Regulativ für ein neuerliches Hinwenden zu integrativen Leitlinien im Maschinenbau. Ein
neues Paradigma brach sich ausgangs des 19. Jh. in den Technikwissenschaften Bahn, die
Einbeziehung moderner experimenteller Mittel in den Prozess der theoretischen Bildung. Eine
Folge davon war die Errichtung großer Maschinenlaboratorien (Mauersberger 1986, 22).

Als Darby mit einer Wanne zum Zwecke des Schmelzens von Eisen experimentierte oder
Paul mit Wolle für das Spinnen von Baumwolle (eine Idee, die später durch Arkwright wieder
aufgenommen wurde), verstanden sie sich weiterhin in einer Reihe alter Traditionen
technologischer Innovationen. Wenn die Einführung des Experimentes in die technische
Praxis vor dem Ende des 18. Jh. geschah, so ist das noch eine sehr vage Idee vom Experimen-
tieren, die bisweilen eher zufällig in eine systematische Form geriet und es sind sehr graduell
die Konstruktionen von Mühlenbrücken und chemischen Anlagen, die hier auf eine
rationalere Basis gestellt wurden. Die Alternative, technologische Praktiken entweder vom
wissenschaftlichem Wissen abzuleiten oder nur durch Tradition bzw. durch Zufall, Erfahrung
und Faustregeln entstehen zu lassen, führt notwendigerweise dazu, die Rolle von kohärenten
Konstruktionsprozeduren zu übersehen, die in vielen Handwerken (der Schiffbau ist ein
offensichtliches Beispiel) den Kern von technologischen Kompetenzen konstituieren. So
schlecht begründet diese Prozeduren im Hinblick auf abstrakte und demonstrierende
Prinzipien auch sein mögen, sie hatten Erfolg und zwar nicht allein im Hinblick auf
ökonomische und effiziente Maxima. Wissenschaftliches Wissen war ungeeignet, die meisten
der Experimente vor der Mitte des 19. Jh. durchzuführen. Weder der Schiffbau noch der
Ruderbau, die Mühle oder der Uhrmacher der vorindustriellen Revolution wurden durch diese
nichterklärbare Mystik geleitet oder traten nur sklavische Kopierer auf. Allerdings ist es
weniger den Konstrukteuren als dem Wandel des Geschmacks der Konsumenten zu
verdanken, dass sie in beträchtlicher Art und Weise durch nichtwissenschaftliche Erkenntnis-

106
verfahren und ein Wissen, was eine gute Konstruktion ausmacht, in ihren jeweiligen Hand-
werken ausgestattet wurden (Hall 1994, 147).

Smeaton, Wedgwood, Watt, Telford, Trevithick, Stephenson und Rennie verfügten alle über
große technische Konstruktionsfähigkeiten. Sicher hatten sie exaktere und ausgefeiltere
Methoden der Experimentierkunst als ihre Vorgänger, sie vertrauten auch mehr auf die Ana-
lyse quantitativer Daten. Aber diese neuen Charakteristika – und ihre Bedeutung war immer
noch begrenzt genug – sollte betrachtet werden eher als vorauslaufende Modifikation einer
alten Tradition, teilweise verstärkt durch den Wunsch, neue Materialien zu verwenden wie
etwa Eisen, welches als Effekt der Revolution innerhalb der Technologie in seiner Bedeutung
angewachsen war durch eine Verknüpfung von wissenschaftlichen Theorien und Entdeckun-
gen. Hall übernimmt nicht nur die Ergebnisse einer historischen Unterscheidung zwischen
technischer Forschung und der Verbesserung technischer Konstruktion auf der einen Seite
und wissenschaftlicher Forschung oder ihrer Anwendungen in der Industrie auf der anderen
Seite (Hall 1994, 147f).

Der Fortschritt einfacher Ingenieurmechanik verdankte seit den Zeiten von Huygens und
Newton im späten 18. Jh. viel mehr einem unbestimmten Konzept von Kraft (gewöhnlich als
Synonym betrachtet für Macht) als der Physik, die Ingenieure waren keine Spezialisten in
Wissenschaft oder Mathematik. Experimentelle Studien der Maschinen starteten nicht bei der
Analyse der Bewegungsgesetze, auch wenn sie diese bekannt waren. Die Ingenieure ver-
wendeten kein klares Konzept des Momentbegriffes und der kinetischen Energie und
begannen mit Informationen über die Vorgangsweise aktuell funktionierender Maschinen, um
sie mit ihren Konstruktionsplänen zu vergleichen. Die Konstruktionsweise des einen Teils
von Maschinen sollte mit der Konstruktion anderer Teile verglichen werden (so z. B. das
vorschiebende oder zurückschiebende Rad in einer Kompressionsmaschine). Oder sie mach-
ten wie Smeaton ein Modell, um damit mehr und präzisere komparative Daten zu erhalten.
Sie erforschten die Beziehungen zwischen der Geschwindigkeit und dem Rad und dem
Wasser, welche sie bewegten. Sie erforschten den Effekt von Platten mit verschiedenen Stär-
ken oder von Erhitzern mit verschiedenen Konstruktionsmechanismen. Sie entwickelten eine
Einheit für ihr eigenes Maß oder die Bemessung der Kraft von Maschinen, die nicht in das
wissenschaftliche Vokabular Eingang fand. Durch jeden dieser Versuche der Suche nach
perfekten Maschinen wuchs ihre Bereitwilligkeit, nur gemäß den rationalsten effizientesten
Konstruktionsmechanismen zu suchen. Durch ihren Willen, nützliche Aufgaben zu unter-
suchen, wurden die Mühlen allmählich verbessert (Hall 1994, 149).

Diese neuen Konstrukteure waren wissenschaftlich in ihrem Zugang zum Ingenieurswesen,


aber sie hatten kein adäquates Verständnis von Wissenschaft. Weil sie neue Windmühlen oder
Turbinenräder konstruieren konnten, indem sie das Schmelzen oder Puddeln zu managen ver-
standen oder die chemischen Fabriken ihre Rezepte meisterten, wurde eine neue Art von
Ingenieurkunst geschaffen, in der ein quantitativer Gebrauch von in Tabellen erfassten empi-
rischen Daten und einfachen Gleichungen, die verschiedenen Variablen miteinander ver-
banden, die für den Konstrukteur von Maschinen wichtig wurden, konstitutiv war. In einem
bestimmten Sinn ist diese neue Form der Konstruktion empirisch wie die alten Regeln der
Schiffbauer, Holz zu bearbeiten. In den meisten Fällen konnten keine fundamentalen physika-
lischen Gründe dafür angegeben werden, warum die angewandten Prinzipien gültig waren.
Sie wurden durch Testverfahren entwickelt und waren in der Lage, ein Maß und eine Analyse
des aktuellen Verhaltens zu geben oder aber ein Modell von Maschinen und Strukturen zu
liefern. Die größten englischen Ingenieure waren völlig unfähig, die Druckverhältnisse einer
elastischen Struktur durch ein basistheoretisches Modell zu bestimmen, das nicht vor
Coulomb formuliert wurde. Die Techniker und Unternehmer der frühen industriellen Revolu-

107
tion in Großbritannien waren höchst erfolgreich in der Kunst, Ideen in Metall zu transfor-
mieren. Sie hatte ein Problem, das überall da auftauchte, wo in größerer Art und Weise ihr
Wunsch durchgesetzt werden sollte, neue Materialien und neue Methoden zu erproben (Hall
1994, 150f). Bei dieser Art Ingenieurkunst handelt es sich ebenfalls um Umgangswissen, um
implizites Wissen, nur anders im heuristischen Aufbau als in vorindustriellen Zeiten. Durch
experimentelle Verfahren wird implizites Wissen expliziter.

In der Tat jedoch hatten sie sehr schnell viele Probleme zu lösen, die sich ihnen stellten. Sie
konnten nicht warten auf eine langsame Ansammlung von Erfahrungen im Umgang mit dem
Schmelzen und Verarbeiten von Eisen, so wie es die Architekten in der Hauskonstruktion
angesammelt hatten, noch konnte die Dampfmaschine wie die Wassermühle sich über
Jahrhunderte hin entwickeln. Die Gelegenheit für Ingenieure, große feuersichere Gebäude
bauen zu können oder kräftigere und mächtigere Maschinen zu entwerfen und geeignetere
Transportbehälter zu schaffen, ist offenkundig. Daher bezogen sie in ihre Konstruktions-
Berechnungen und ihr Experimentieren mit ein, was Naturwissenschaftler zu sagen hatten,
aber auch ihre eigene Erfahrung und ihre technische Intuition. Sie schufen ihre eigenen
Methoden der Konstruktion, um so ihre Erfahrungen machen und diese in der Wissenschaft
anwenden zu können (Hall 1994, 151). Angesichts der Beschreibung der Entstehung der Inge-
nieurskunst der industriellen Revolution ist das Konzept der technologischen Regel in diesem
Kontext eine Explizierung des impliziten Wissens und als Verwissenschaftlichung von techni-
schem Wissen extrem abstrakt beschrieben (Hall 1994, 97).

Ein Indikator für integrative Prozesse ist in allen Etappen der Entwicklung der
Technikwissenschaften das Verhältnis von „Konstruktion“ und „Technologie“ gewesen.
Einheit zwischen beiden wesentlichen Bereichen technikwissenschaftlicher Forschungstätig-
keit wurde stets angestrebt, die Geschichte freilich kennt temporäre Diskrepanzen. Die gegen-
seitige Durchdringung auf immer höherer Ebene setzte die Verwissenschaftlichung beider
Bereiche voraus. Schon der klassische Maschinenbau suchte die konstruktive Arbeit auf ein
wissenschaftliches Fundament zu heben. Die klassische Konstruktionslehre im 19. Jh. war ein
Konglomerat aus darstellender Geometrie, Maschinenzeichen, Festigkeitslehre und Kinema-
tik. Gegenwärtig formiert sich die moderne Konstruktionstechnik als eine Art Metadisziplin
mit Querschnittscharakter. Sie wächst deutlich aus dem Maschinenbau heraus. Der methodi-
scher Aspekt herrscht vor: Die Bereitstellung handlungsorientierter Denktechnologie. Der
Prozess des Konstruierens steht im Zentrum der Entstehung von wissenschaftlicher Technik.
Manche Ingenieure sahen und sehen im Konstruieren einen kreativen, künstlerischen Schaffen
gleichkommenden Akt, in dem sich schöpferische Kraft und Intuition der Konstrukteure
entfalten. Diese Interpretation kontrastiert mit Beschreibungen des Konstruktionsprozesses,
welche die Bedeutung von Routine und Erfahrung betonen. Gemäß Wolfgang König über-
führt der Konstrukteur Funktionsanforderungen in eine technische Gestalt. Konstruktion
geschieht in einem sozialen Raum (König 1999, 9). Dabei gibt es nationale Konstruktions-
kulturen, insbesondere ist von einer amerikanischen Produktionskultur zu sprechen. Hat es
sich im Rahmen der Industriellen Revolution die Entwicklung der britischen Technik weit-
gehend empirisch in der industriellen Praxis vollzogen, ohne das Bildungsinstitutionen eine
wesentliche Rolle spielten, so setzte man im deutschen Staaten von vorne herein stärker auf
technische Bildung. Am stärksten praxisbezogen war die 1821 gegründete Berliner Gewerbe-
schule. Die französische theoretische Tradition beeinflusste am stärksten die Gründung von
Karlsruhe.

Dort wirkte Ferdinand Jacob Reddenbacher (1809-1863). Ihm ging es um die Entstehung und
den Ausbau einer Maschinenbaulehre als eigenständiger wissenschaftlicher Disziplin. Es
stellte die Verbindungen her zwischen der britischen Empirie und der französischen theore-

108
tischen Schule. Er richtete eine mechanische Werkstatt ein und initiierte Modellsammlungen.
Dabei schrieb er ein Werk über Wasserräder und Lokomotiven (König 1999, 15-18). In
technisch-wissenschaftlicher Intelligenz sah er Art Substitut für Geld und Erfahrung, es ging
ihm um die Frage der Dimensionierung der Maschinenteile und um die Methode der
Verhältniszahlen. Reddenbachers Verdienst war, das Zeichenwesen einer systematischen
Betrachtung unterzogen zu haben. Er betonte die Nützlichkeit von Maschinenzeichnungen.
Auf der anderen Seite stellte er Gefühl und Berechnung in Rechnung. Er vertrat damit einen
Methodenpluralismus und einen Methodeneklektizismus (König 1999, 25f). Franz Grashof
betonte die experimentelle Arbeit. Grashof war Gründungsmitglied und langjähriger Direktor
des 1856 gegründeten VDI. Gustav Zeuner beschäftigte sich mit der technischen Thermo-
dynamik als Vermittlung zwischen Physik und Technik (König 1999, 30-32). Franz Reuleaux
war eher Konstrukteur, er betrachtet die Kinematik als Erfindungslehre. Er suchte nach der
direkten allgemeinen kinematischen Synthese. Es ging vor allem um die Herstellung einer
gebrauchsfähigen Maschine. Reuleaux spricht immer vom Erfinden und nicht von einer
Wissenschaft des Konstruierens. Die Maschinenwissenschaft umfasst drei Teilbereiche (1)
Maschinenlehre (beschreibend theoretisch), (2) Maschinenkunde bzw. Konstruktionslehre, (3)
Kinematik oder Maschinengetriebelehre (König 1999, 45).

Peter Klimentitsch von Engelmeyer schrieb eine Systematik des Konstruktionsprozesses.


Engelmeyer unterscheidet vier Schulen der Maschinenlehre: die technologische, die
kinematische, die konstruktive und die wirtschaftliche und er entwickelt eine synthetische
Maschinenlehre. Engelmeyer schrieb ein Buch über das Entwerfen. Für den ersten Akt, das
Erfinden nennt er besonders Gedächtnis und die konstruierende Einbildungskraft, während
Fachkenntnisse erst in zweiter Linie gebraucht würden. Um die Gedanken wenigstens
andeutungsweise zu Papier zu bringen, müsse der Ingenieur skizzieren können. Der Erfolg
des zweiten Aktes, der Festlegung der Maschinenbewegungen, hänge von der Stärke der Ein-
bildungskraft, vom Gedächtnis, von der kinematischen Schulung und dem Vorrat an fak-
tischen Kenntnissen ab. Besonders die Reuleauxsche Kinematik soll im Unterricht eher noch
ausgebaut werden. Fertigkeiten im einfachen Zeichnen und Risszeichnen seien zu erwerben.
Der dritte Akt, das Konstruieren im engeren Sinn, erfordere eher bescheidene wissenschaft-
liche Kenntnisse: elementare Mathematik, ein wenig Mechanik, einige Kenntnisse der Festig-
keitslehre. Darüber hinaus müsse man sich in den Hilfsbüchern auskennen, in denen
zahlreiche Konstruktionen als Vorbilder aufgeführt seien. Die praktische Arbeit in Maschi-
nenwerkstätten sei eine notwendige Voraussetzung. Für weitere Aufgabenbereiche empfiehlt
er die darstellende Geometrie. Intuition, Schöpfungskraft sei, wenn auch in unterschied-
lichem Ausmaß, überall voll von Nöten. Konstruktion beruht auf der Klärung der Aufgaben-
stellung und das Konzipieren als Einheit gefasst im ersten Akt, das Entwerfen im zweiten Akt
und das Ausarbeiten im dritten Akt. Damit ist Engelmeyer wohl der erste Maschinen-
theoretiker, der in größerem Umfang Konstruieren als Prozess betrachtet und sich ansatzweise
bemühte, den Bereich der Intuition genauer zu erfassen und damit einzugrenzen (König 1999,
59f). Während sich Franz Grashof in seiner analytischen Maschinentheorie bemühte, Maschi-
nenkonstruktionen durch ein geschlossenes System von mathematisch formulierten physika-
lischen und mechanischen Regeln und Gesetzen zu erfassen, wollte Reuleaux mit den Regeln
der Logik ein allgemeines konsistentes Beschreibungssystem für Maschinen schaffen. Unab-
hängig davon, wie man den wissenschaftlichen Erfolg oder Misserfolg dieser Unternehmun-
gen beurteilt, ist zumindest schon deutlich geworden, dass sich die Maschinentheoretiker auf
diesem Weg von den technisch-industriellen Bedürfnissen entfernen.

Auch in den USA kommt es zur Professionalisierung des mechanischen Ingenieurs. Die an-
wachsende Nachfrage nach trainierten Fähigkeiten organisatorischer Art führt dazu, dass eine
sich auf Dauer etablierende feste Elite und rigide Oberklassenstruktur nicht mehr herausbilden

109
konnte. Die Beziehungen zwischen Individuen, die an wenigen signifikanten Maschinenjobs
arbeiteten, waren der Ursprung der amerikanischen Kultur des mechanischen Ingenieurs und
der damit verbundenen Elite und auch die soziale Grundlage von Amerikas Entwicklung.
Insofern entstand hier eine Vorherrschaft des Arbeitens für Kollegen über der des Arbeitens
für Klienten, also eine Kollegenorientierung an Stelle einer Klientenorientierung bei den
Praktikern, die insbesondere eine standesethische Lösung des Ethikproblems nahe legte. Die
Klientenorientierung erschien damals zu exklusiv und war daran ausgerichtet den Klienten,
den Kunden und den Boss zu befriedigen, wie der Fall jeweils lag. Calverts Untersuchung
versucht nicht, den letztendlichen Erfolg oder das Misslingen des Konzeptes des mecha-
nischen Ingenieurs zu bewerten, doch einen professionellen Status zu erreichen. Vielmehr ist
der Gegenstand dieser Studie der Wandel im Status und in der Aufgabenbeschreibung des
mechanischen Ingenieurs und seiner Grundhaltung im Hinblick auf professionelles Verhalten
und den entsprechenden Status (Calvert 1967, VIII-XVII).

Spätestens seit dem Beginn des 19. Jh. haben die Amerikaner eine ungewöhnliche Liebe zur
Technik und zur Praxis der mechanischen Künste entwickelt. Eine ganze Menge dieser Liebe
kann stimuliert worden sein durch den Glauben, dass es durch die Anwendung der neuen
Quellen der Machtmittel von Produktion so wie Arten und Weisen des Transportes möglich
sein könnte, den amerikanischen Kontinent zu bevölkern und zu entwickeln. Seitdem das
Maschinengeschäft parallel zum Eisenbahngeschäft und dem Schiffgeschäft sich entwickelte,
begann die Geschichte des mechanischen Ingenieurs in den USA. Das Flussdampfschiff war
ein sehr früher Stimulus für den amerikanischen Ingenieur, gefolgt von den ozeangängigen
Dampfschiffen und der Eisenbahn nach 1830. Das große relativ spezialisierte Maschinen-
geschäft erhielt seine eigene Entwicklung zwischen 1840 und 1860. Gemeinsam war all die-
sen Arbeiten und Ingenieuren der gemeinsame Glaube an die Würde der Handarbeit (Calvert
1967, 3-8). In den USA gab es zunächst keine großen unpersönlichen Fabriken, in denen Rei-
hen von Arbeitern an entsprechenden Vorrichtungen saßen, stattdessen gab es kleine
experimentelle Shops und/oder sogar Laboratorien, in denen Innovationen in relativ neuen
technischen Künsten und Wissenschaften statt fanden. Die geringe Größer dieser Unter-
nehmen (in der Regel einige dutzend Mitarbeiter, meistens deutlich weniger als einhundert)
machten es möglich, dass persönliche Begegnungen und Beziehungen stattfanden, und ein
Faktor wurden in der Entwicklung und Anwendung, sowie Ausbildung von entsprechenden
Fachkräften. Der Maschinenshop bot beides an: intellektuelle Herausforderung und die Gele-
genheit, einen respektablen Verdienst einzufahren. Nach den Werkzeugmaschinen- und den
Maschinenshops, gab es als nächstes die Eisenbahnshops. Um 1850 näherte sich die
amerikanische Entwicklung der Eisenbahn solchen Ausmaßen an, die über den Status von
Eisenbahnshops hinausging und fordert neue administrative und technische Talente erst-
klassiger Ingenieure (Calvert 1967, 12f).

Um 1850 begannen die Eisenbahningenieure ein eigenes Selbstbewusstsein zu entwickeln im


Hinblick auf die Verwaltung der Eisenbahnlinien. Insgesamt ist um 1850 zwar von einem
Oberbegriff des mechanischen Ingenieurs auszugehen, aber die Ausdifferenzierung hat schon
in starkem Maße stattgefunden. Um 1850 entstand auch ein breiteres Sicherheitsbewusstsein
und wurde als Werbemittel für die eigene Eisenbahngesellschaft eingesetzt. Die Eisenbahn
schuf bestimmte mechanische Probleme, welche am besten gelöst wurden durch Leute, die in
den mechanischen Künsten ausgebildet waren. Die Schiffbaukunst war eine andere Quelle
professioneller mechanischer Ingenieure, und sie wurde in einer sehr eigentümlichen Shop-
kultur entwickelt. Aus strategischen Gründen wurden Kriegsschiffe häufig nicht gebaut für
Reparaturen in Kriegszeiten selbst und so musste die Funktionsfähigkeit des gesamten
Maschinenparks in der Schlacht gewährleistet sein, und zwar zu jeder Zeit. Wissenschaftliche
Ingenieure mit einer Spezialität in der Dampftechnik und in der Konstruktion dieser

110
Techniken waren erforderlich, um jedenfalls auf dem Schlachtfeld siegreich hervorzugehen.
Diese Position musste attraktiv gemacht werden für Gentleman, also für höher stehende Leute
mit den entsprechenden technischen Künsten. Damit verlor der Nimbus der Handarbeit etwas
von seiner Attraktivität. Die Schifffahrtsingenieurskunst schuf einen eigentümlichen profes-
sionellen Status für mechanische Ingenieure, die gerade junge Ingenieure, auch Autoren ein-
lud, um über diesen Bereich zu schreiben (Calvert 1967, 16-21).

Die Seeschifffahrtsingenieurskunst entwickelte einen Weg, aber die Shopkultur schützte den
Einzelnen und seine Orientierung. Es gab diesen Gentlemaningenieursstatus und dieser
trennte die mentale und die Handarbeit und beide Kulturen mischen sich nicht untereinander.
Mechanische Ingenieure, selbst in der frühen Periode der Professionalisierungen, erkannten
ihre Abhängigkeit von den Mühleningenieuren an. Die Organisation der mechanischen Inge-
nieure und ihre Magazine blühten zwischen 1820 und 1850 im industriellen Nordosten und
waren repräsentativ für die Shopkultur (Calvert 1967, 23-29). Junge Ingenieure mit einer Vi-
sion einer Welt, die durch die Dampfmaschine in ein Paradies verwandelt wurde, traten auf.
Dabei gab es ein gewisses Bewusstsein für eine Lücke zwischen der Theorie und der Praxis.
Diese kann in den früher periodischen Schriften gefunden werden. Einer der wichtigsten
Faktoren, der die letztendliche Spezialisierung der Ingenieure beeinflusste, war der erziehe-
rische Komplex, welcher so schnell in der Periode nach 1850 wuchs, dass er eigene Probleme
schuf. Auf verschiedenen Wegen führte nun die Ausbildung im Ingenieurswesen zu Bedürf-
nissen, die sich durch die Auflösung der Organisation der Ingenieure um diese Zeit
andeuteten. Aber sie brachten einen starken Trend im Hinblick auf eine Verwissen-
schaftlichung und Mathematisierung der Erziehung und führten so auch zu einer stärkeren
Definition der Rolle des Ingenieurs (Calvert 1967, 35-40).

Ausbildungsinstitutionen und professionelle Gesellschaften, die sich um die Erziehung der


Ingenieure kümmerten, mussten spezielle Formen der Sozialisierung für individuelle
professionelle Ingenieure entwickelten. Sie mussten verschiedene Stufen und Grade dieser
neuen Karrieren definieren sowie Fähigkeiten, Standards des Wissens und Fertigkeiten
festlegen, die ihnen jeweils zuzuordnen waren. Eine ganze Reihe dieser mechanischen
Institute wurden zwischen 1820 und 1870 gegründet und waren tatsächliche Versuche, die
Funktionen der professionellen Gesellschaften und die der Schulkultur zu verknüpfen. Die
Schiffsakademie diente dabei als eine Trainingsinstitution für mechanische Ingenieure.
Thurston´s Erfahrung im Schiffsbereich war wertvoll in dem Sinn, dass er eine ganze Reihe
von mechanischen Ingenieuren kannte. Dies erlaubte ihm, einige Tests durch zuführen im
Hinblick auf die Beratung der Regierung und zum Schluss hatte er noch einige Erfahrungen in
der Shopkultur. So entwickelte er eine Theorie der Ausbildung von Ingenieuren. Aus
Deutschland kam die Praxis, dass man Schulen aufbaute, und technisches Personal auf allen
Ebenen der Ausbildung trainierte (Calvert 1967, 43-47).

Ab 1870 hatten sich dann die Dampfmaschinenlaboratorien in etablierter Form mit der
Forschung solcher Fragen zu beschäftigen, wie die von Dampfkesselexplosionen. Die
Ausbildung wurde immer wissenschaftlicher, die Ingenieursschule wurde zum Teil einer
Universität oder eines Colleges. Die zweite Art von Erziehungsinstitutionen im Hinblick auf
Technik war der Handel oder die industrielle Erziehungsschule, die zu ihren Objekten das
Training oder die Ausbildung von in hohem Maße talentierten und kompetenten Ingenieuren
hatte, die in höhere Positionen in der Industrie aufrücken sollten. Um 1890 wurde die
Ingenieurserziehung selbst professionell (Calvert 1967, 56f). So war in gewisser Weise ein
Konflikt zwischen der Schulkultur und der Shopkultur in der Ausbildung von Ingenieuren
gegeben. Insgesamt gab es aber neben dem Konflikt in zunehmendem Maße Kompromisse.
Natürlich gab es Defizite der Shopkultur als einer Institution, um Ingenieure zu selektieren, zu

111
erziehen, zu sozialisieren und zu professionalisieren. In ihnen stand tatsächlich die
persönliche Erfahrung und Kompetenz im Vordergrund. Auf Grund von strukturellem Wandel
in der Rolle des mechanischen Ingenieurs in der Industrie waren sie wegen der Ausbildung in
der Shopkultur nicht mehr in allen Dingen auf den Erfolg vorbereitet. Auf der anderen Seite
kann man sich natürlich fragen, ob die mechanischen Laboratorien nicht aus der Shopkultur
herausgekommen sind. Technische Erziehung bot ein Potenzial für mechanische Ingenieure,
um sich zu professionalisieren (Calvert 1967, 63-65).

Die kommerziellen Bedingungen der Shopkultur brachten eine fruchtbarere Grundhaltung der
Akkuratheit hervor als die Schulkultur (Calvert 1967, 67). Die leitende Kritik an der
technischen Erziehung durch die Verteidiger der Shopkultur lief darauf hinaus, dass die
Mitglieder Teil der mechanischen Ingenieurselite wurden. Sie waren also nicht gegen techni-
sche Erziehung, aber sie glaubten, dass das Shoptraining in vielfacher Hinsicht einer rein the-
oretischen Schulausbildung überlegen sei, da diese nur auf eine formale Erziehung hinaus-
liefe. Die sehr schnelle Ausdehnung der technischen Erziehung sprach aber in gewisser Weise
gegen die Shopkultur. Denn sie war eher dezentral ausgerichtet und vermochte so den Wün-
schen einer neuen Bürokratie in den anwachsenden Industrien nicht gerecht zu werden. Zum
Beispiel wurde das technische Zeichnen immer wichtiger. Dies war eine theoretische Kompo-
nente. Die technischen Studenten unter diesem Programm mussten mit geringerem Verdienst
in den ersten zwei Jahren arbeiten, in denen sie dann das technische Zeichnen lernten. Zu spä-
teren Zeiten durften sie dann aktiv in das Unternehmen eingreifen. Diese technischen Zeich-
ner wurden trainiert für spätere Managementpositionen. Die elektrische Industrie war der
Pionier in diesem Bereich einer Theoretisierung. Dieser Prozess war um 1910 abgeschlossen
(Calvert 1967, 70-75).

In zunehmendem Maße wurde die Idee zurückgewiesen, dass die Shopkultur und die darin
erworbene Erfahrung eigentlich vor der technischen Erziehung kommen sollten. Die Debatte,
die sich daran anschloss, führt zu verschiedenen Auseinandersetzungen zwischen der „Ameri-
can Society of Civil Engineers“ (ASCE) und dem „American Institute of Mining Engineers“
(AIME) in Philadelphia. Die meisten der technischen Erzieher glaubten, das es nicht
notwendig war für den mechanischen Ingenieur in handwerklichen Fähigkeiten ausgebildet zu
sein, sondern sie entwickelten einen Elitegedanken, der häufig darin sich ausdrückte, dass er
theoretisch ausgebildet sein sollte. William F. Durfee repräsentierte die Reaktion auf eine
ganze Reihe Vertreter der Shopelite in seinem Skeptizismus, dass ein vernünftiges Maß an
Intelligenz, Geld und drei oder vier Stunden Ingenieurschule ausreichen könnten, um
jemanden zu einem wirklichen Ingenieur zu machen. Ingenieure würden geboren und nicht
gemacht. Insofern unterschied sich die technische Erziehung auch von klassischen Erzie-
hungsidealen (Calvert 1967, 77-81).

Thurston war charakterisiert durch seine intensive Erforschung der Methoden für die
Ausbildung von Ingenieuren, er wurde sowohl in England und Frankreich, wie auch in
Deutschland anerkannt (Calvert 1967, 101). Die Verteidiger der Shopkultur wiesen darauf
hin, dass der mechanische Ingenieur als ein ausgebildeter und kreativer Handwerker anfangen
müsse, der dann höhere Mathematik und andere Werkzeuge der Ingenieurswissenschaften
anwenden können sollte, aber sollte durch sie keine eingeengte Sichtweise entwickeln. Der
American Engineer entstand als technisches Journal 1860 in New York City. In ihm kann man
einen Teil des Streites zwischen der Shopkultur und der Schulkultur ablesen (Calvert 1967,
107). Der ASCE hatte keine Massenmitgliedschaft und eine entsprechend umfangreiche
Organisation (Calvert 1967, 117). Der ASCE war eine Organisation für die Elite der Shop-
kultur (Calvert 1967, 120). So kam es zu einem Konflikt zwischen den beiden Gesellschaften.
Es entstanden neue Ingenieurszeitschriften wie der „American Machinist“ (1885), die sich an

112
der Diskussion beteiligten (Calvert 1967, 127). Der in der Shopkultur groß gewordene
konservative mechanische Ingenieur konnte nicht die innovative Rolle weiter spielen, die er in
früheren Zeiten einmal innehatte. Der bürokratisch orientierte, auf dem College trainierte
Ingenieur hatte seinen Platz an einer anderen Stelle gefunden als die Vertreter der frühen
Shopkultur. Es waren die großen industriellen Unternehmen, die früher einmal Teil der Shop-
kultur gewesen waren, aber durch immer größeres Wachstum einen immer größeren Bedarf
an Ingenieuren hatten (Calvert 1967, 152).

Wichtig wurde der professionelle Status für Ingenieure als Rechtfertigungsinstrument für
private oder öffentliche Auftraggeber, die freie Ingenieurs-Beratung nachfragten. Insofern
entwickelte sich eine strenge professionelle Union von Ingenieuren. Der mechanische
Ingenieur musste ein Minimum an Einkommen für die Dienste bzw. Ratschläge erhalten, aber
es gab keine Regeln und keinen Ethikcode und in der Tat schützte nichts oder wenig die
Mitglieder vor den Effekten eines unkontrollierten Wettbewerbs um Arbeit. Daher waren die
Ingenieursschulen nicht in der Lage, ein uniformes Produkt heranzubilden (Calvert 1967, 156-
160). Die Mitglieder und die Verteidiger der Shopkultur kümmerten sich nicht um den Status
des Ingenieurs, weil die meisten der Individuen, die von der Shopkultur her kamen, bereits
einen sozialen oder ökonomischen Status höherer Ordnung hatten. Allerdings gab es auch die
am College trainierten Ingenieure, die aus der Mittelschicht kamen. Aus diesem Grund hatten
die Erzieher und ihre Produkte ein anwachsendes Interesse an der Ausbildung eines neuen
Status des mechanischen Ingenieurs als einer Profession (Calvert 1967, 166f).

Am Ende des 19. Jh. entstand der Berufsstand eines nicht professionellen Maschinenführers
(Calvert 1967, 190). Nun wurde in zunehmendem Maße der Ingenieursstatus fragmentiert.
Anfang des 20. Jh. wurde der Ingenieursberuf im Wesentlichen ein Geschäft. Die
konsumentenorientierte Industrie ist oft als sehr viel instabiler beschrieben worden, zumindest
in den frühen Stadien, als die Industrie, die ihre Produkte an andere Industrien weiter
verkaufte (Calvert 1967, 227). Auch das Konzept des wissenschaftlichen Managements
gewann Einfluss auf die Ausbildung und Entwicklung von Ingenieuren (Calvert 1967, 236).
Eine wichtige Rolle im Hinblick auf die Disziplinierung spielte die Kriegsmarine. Diese
erwarb auch einen entsprechenden Einfluss auf die Ingenieurskorps unter ihrer Leitung bei
der Einführung von Stahlschiffen in einem breiten Umfang. Hier entdeckten Schiffsingenieure
täglich, was sie für einen militärischen Rang hatten und was das bedeutete. Einige Ingenieure
hatten fortlaufend Schwierigkeiten, mit der militärischen Disziplin in der Navy und dem
damit verbundenen Kommandierungssystem (Calvert 1967, 254). Die amerikanischen
mechanischen Ingenieure dachten vor 1910 nicht ernsthaft über eine berufsständische Ethik
und ihre Entwicklung nach (Calvert 1967, 263). In zunehmendem Maße ging durch die
Verwissenschaftlichung das intuitive Element, das Fingerspitzengefühl (engl. Fingerknow-
ledge) verloren (Calvert 1967, 279).

Im Laufe des 18. Jh. befanden sich die gewerblichen Produktionsformen in einem Wand-
lungsprozess, durch die Entfaltung von Verlagssystemen, Manufaktur, Handwerk und – auf
dem Lande - nebenberuflichem Handwerk. Daneben gab es das Zunftmäßige Handwerk, das
sich seit dem Dreißigjährigen Krieg seinerseits beträchtlich verändert hatte. Durch die
Einführung der Gewerbefreiheit in einigen deutschen Territorien, einschließlich Mainz, hatte
die französische Revolution den Handel beschleunigt. Dieser Wandel in der Organisation der
Produktion setzte sich in den ersten Jahren der napoleonischen Zeit fort und verstärkte sich
zwischen 1830 und 1860. In vielfacher Form schlossen sie sich zur Fabrik zusammen,
verstanden als arbeitsteilige Kooperation mit Arbeitsmaschineneinsatz. Diese Phase war
indessen erfüllt vom ständigen Experimentieren im Bereich der Organisation und Produktion

113
mit fortwährenden Verbesserungen durch neue Technologien und ausgeklügelten Anwen-
dungen der Dampfkraft (Engelhardt 1984, 146-148).

Die Agrarkrise von 1846/47 führte zu einer doppelten Belastung der Handwerker durch die
unmittelbaren Auswirkungen der Hungersnot und Teuerungen und zusätzlich durch den
gravierenden Rückgang an Nachfrage und Verdienst (Engelhardt 1984, 326f). Die Diskon-
tinuität zwischen Handwerkstradition und Arbeiterklassenbildung, erscheint als viel ausge-
prägter als die Kontinuität. Handwerksgesellen verteidigten ihre Autonomie und ihr Recht
nicht nur gegen Meister und – später - gegen Unternehmensleitungen, sondern ebenso gegen-
über anderen Arbeitern, ungelernten und weiblichen zumal. Auf jeden Fall sollte eine Neu-
interpretation der frühen Arbeiterbewegung erfolgen. Die Arbeiterbewegung war nicht
ausschließlich das Resultat eines Konfliktes zwischen Kapital und Arbeit, sondern auch Pro-
test herkömmlicher, bedrohter Lebenswelten gegenüber Neuerungen, die im Kapitalismus,
Industrialisierung und Staatsbildung steckten und sich durchsetzten. Die Abwendung von der
Tradition, deren Nachteile man kannte, die Orientierung am Fortschritt an dem man mehr
teilhaben wollte, ohne ihn zu Bekämpfen, die Akzeptanz der industrielaisierten Gesellschaft,
deren kapitalistische Aspekte man verändern wollte, ohne sie rückgängig zu machen – all dies
kennzeichnete auch die frühe Arbeiterbewegung. In Deutschland hatten jedenfalls ständig
zünftige Traditionen in gewissen Hinsichten ein längeres Leben als in England und Frank-
reich (Engelhardt 1984, 461-467). Die Handwerkskultur war vor allem eine Arbeitskultur.
Arbeit bedeutete für den Handwerker sinnstiftenden Mittelpunkt seines Lebens: Sie war Le-
bensform. Der Stolz auf die eigene Arbeit und die Zugehörigkeit zu einem abgegrenzten
Berufsstand, beruhte auch auf der Überzeugung, die eigene Tätigkeit habe einen besonderen
Wert für das Allgemeinwohl und die christliche Gesellschaft. Die Sicherung der Nahrung auf
ehrliche Weise setzte die Beachtung der Prinzipien der Gegenseitigkeit und der Solidarität
voraus. Arbeitsstolz und Standesehre verknüpften sich miteinander. Ausdruck dieser Solidari-
tät war die soziale Fürsorge für arme und kranke Mitglieder wie die feierlichen Bestattungs-
züge der gesamten Zunft bei Beerdigungen von Mitgliedern (Engelhardt 1984, 473-479).

Die moderne, auf Wissenschaft basierende Technologie entstand durch eine Entfesselung des
überwältigenden Imperativs der Manufakturen: profitable Nützlichkeit. So erfolgte die
Transformation der Wissenschaft in ein Mittel der Kapitalakkumulation. Wissenschaft wurde
eingeführt in die Welt der Produktion durch die kombinierten Anstrengungen von innovativen
Unternehmern. Die moderne wissenschaftsbasierte Industrie, das industrielle Unternehmen
mit andauernden wissenschaftlichen Forschungen und einer systematischen Anwendung
wissenschaftlichen Wissens auf den Prozess der Unternehmensproduktion entstand im späten
19. Jh. und wurde Routine. Sie war das Produkt von signifikanten Fortschritten in der Chemie
und in der Physik und gleichfalls des anwachsenden Willens und der Anstrengungen der
Kapitalisten, kostenintensive, zeitintensive und unsicheren Pfade der Erforschung und der
Entwicklung anzuwenden. Das Zeitalter der neuen Industrien war 1880 bis 1920. Insbe-
sondere die chemische und die elektrische Industrie spielte hier eine Rolle (Noble 1979, 3-6).

Am 21.10.1879 hatte Edison sein erstes erfolgreiches elektrisches Licht installiert. So wurde
die Formation der General Electric Company vorbereitet. Thomsons Houston und General
Electric hielten jeweils Patente, die für die Entwicklung der jeweils anderen Firma essentiell
waren. So schwebten sie jeweils beide in Gefahr, die Rechte der jeweils konkurrierenden
Firma zu verletzen. Die systematische und strategische Entwicklung ihrer eigenen patentierten
Erfindungen war erklärtes Ziel dieser Firmen (Noble 1979, 9f). Benjamin Franklin erkannte
schon früh die Bedeutung technischer Erziehung. 1756 wurde die Public Academy of Phil-
adelphia gegründet. Bis 1815 gab es nur wenige Ingenieure in den USA. Der Bau des Erie-
Kanals erforderte Fachkräfte und erhöhte die Anzahl der Ingenieure. 1846 wurde Yale ge-

114
gründet. Ab 1870 gab es mehr Ingenieurschulen und eine stärkere Verwissenschaftlichung
ihrer Lehrpläne. So entstand ein Trend hin zur Wissenschaft und zur Mathematik in den
Ingenieurakademien und warf genauso viele Probleme auf wie sie löste. Die „Shop Culture“
und die „Field Culture“ wurden von einer „School Culture“ abgelöst (Noble 1979, 20-27).

Der Ingenieur in Amerika war das legitime Kind der epochalen Hochzeit von Wissenschaft
und den nützlichen Künsten. Die moderne Technologie hatte längst das Ingenieurswesen
erfasst und es entstand ein industrieller Kapitalismus. Ziel des Ingenieurwesens war es nun,
die Kosten für die ausgebildeten Arbeiter herunterzusetzen. 1852 wurde die amerikanische
Gesellschaft für Zivilingenieure gegründet. Danach entstanden Ingenieursvereinigungen für
das Montanwesen, für Mechanik und Chemie. Da sie keine Traditionen hatten, wurden die
hierarchische Struktur und die wissenschaftliche Ausbildung dominant. Es erfolgte eine
rasche Expansion der Ingenieure in den ersten drei Dekaden des 20. Jh. Auch die
Unternehmerführerschaftsfunktion wurde immer mehr Ingenieuren übertragen. Ingenieure
wurden damit zu Angestellten eines Unternehmens und die wissenschaftliche Natur des
Ingenieurswesens wurde immer stärker betont. Es bestand eine Heraushebung der Verant-
wortlichkeiten für das Management. Die Ingenieure aber fanden, dass die Organisation von
Arbeit schwierig sei. Ingenieure waren Individualisten, Firmenmitarbeiter sollten aber eher im
Kollektiv denken. So entwickelte sich das wissenschaftliche Ingenieurswesen, das wissen-
schaftsbasierte Unternehmen und der Unternehmensmanager (Noble 1979, 33-47).

Die Unternehmen erhielten Kontrolle über die Produktion, über Preise und über die Märkte.
So wurde die wissenschaftliche Expertise der Ingenieure stark hervorgehoben. Das rasche und
unkontrollierte Wachstum der modernen Industrie führte zu einer modernen industriellen
Standardisierung. Die Ausbildung kompetenter Mechaniker legte die Basis für die moderne
Werkzeugmaschinenindustrie, die wissenschaftliche Standardisierung für die industrielle
Standardisierung und führte zum Geschäftsmanagement (Noble 1979, 69-82). Das Patent-
system wurde geschaffen für den wechselseitigen Nutzen des Erfinders und der Gesellschaft.
Damit bekam wissenschaftliche Forschung ein Ziel. Die einzelnen Firmen wandelten sich
nicht in signifikanter Weise aufgrund ihrer Dominanz. Die Frustration der unabhängigen
Erfinder führte dazu, dass die große Mehrzahl der Erfinder in den Forschungslaboratorien der
großen Unternehmen in den Prozess der Erfindung selbst transformiert wurde. Es entstand die
Teamforschung, und es gab keine individuellen Erfindungen mehr. Von der Firma bezahlte
Patentanwälte setzten die Patentforderungen durch. Die Firmen erhielten einzelne For-
schungsabteilungen oder Sektionen. So bekam der neue unternehmensabhängige Erfinder eine
neue Rolle und war vom Patentsystem hervorgebracht worden. Die Erfinderaußenseiter wur-
den eliminiert. Insofern gab es eine gewisse Entwertung der einzelnen Erfindung. Es kam
darauf an, Standardisierung sowohl im Blick auf Patentverfahren und auf die juristische
Evaluierung von Patenten zu einer behördlichen Praxis zu überführen (Noble 1979, 84-103).

Patente versteinerten den Fortschritt der Wissenschaft. Vor 1900 war sehr wenig organisierte
Forschung in der amerikanischen Industrie zu finden. Mit dem Jahr 1920 gab es eine Reihe
von großen Kompanien, die begonnenen hatten, dem Beispiel der elektrischen und chemi-
schen Unternehmen zu folgen und eigene Forschungslaboratorien einzurichten. Außerdem
entstanden private Forschungsförderungsvereine. Die finanzielle Hilfe für die chemische
Ausbildung wurde eingeführt. Ab 1900 verstärkten sich die Versuche, das Erziehungssystem
nach den Bedürfnissen der Industrie umzustrukturieren. Industrielle Sponsorenschaft und die
Ausrichtung von universitätsbasierter wissenschaftlicher Forschung wurde angeregt (Noble
1979, 110-147). Gemäß Laytons Analyse wurde der Erfolg von Amerikas technologischer
Entwicklung im 19. Jh. nicht allein auf der Basis einer wissenschaftsbasierten Technologie-
entwicklung erreicht, wie dies bei der Elektrizität und der Chemie der Fall war, sondern mit-

115
hilfe eines breiten Spektrums von Technologien einschließlich des Transportes von Dampf,
Eisen und Stahl, Mechanik, Maschinen und Strukturen. Eine wirklich wissenschaftliche For-
schung in der Industrie kam gemäß der gängigen Interpretation der amerikanischen Technik-
entwicklung erst um 1900 in Gang, als General Electric 1901 ihr erstes Forschungslabor
begründete. Das US-Marine-Forschungslaboratorium wurde erst 1923 gegründet. Allerdings
weist Layton auf die sehr wichtigen hydraulischen Experimente hin, die durch James B.
Francis und andere schon sehr viel früher im 19. Jh. durchgeführt wurden. Die späteren dieser
Experimente waren sicher wissenschaftlich, aber in diesem Fall benutzten Ingenieure Experi-
mente und theoretische Methoden, um auf diese Art und Weise ein wissenschaftliches Wissen
zu erzeugen, das die Technologieentwicklung brauchte. Die Verknüpfung von Ingenieurs-
wesen und Wissenschaft im Hinblick auf die Erforschung der Wasserkraft waren ein wesent-
licher Entwicklungsfaktor im industriellen Leben der USA (Layton 1979, 64-66).

In der Mitte des 19. Jh. entwickelt sich die Physik stürmisch und die Chemie wird auf eine
neue experimentelle Grundlage gestellt. 1842 formuliert Julius Robert von Mayer das Gesetz
von der Erhaltung der Energie. Justus von Liebig begründet die Agrikulturchemie und macht
Gießen zu einem Zentrum der chemischen Forschung. Der Physiologe Johannes Peter Müller
führt insbesondere die mikroskopische Forschung ein. Ein ganz entscheidender Schritt in der
Industrialisierung war aber die Entdeckung der organischen Synthese durch Friedrich Wöhler.
Diese führte zum Aufbau der Industrie der synthetischen Farbstoffe, Arzneistoffe und
Sprengstoffe (Schuchardin u.a. 1981, 212). Nun begann die Schwefelsäureproduktion auf
breiter Basis, die Kaliindustrie produzierte Stickstoffdüngemittel, Salpetersäure und Spreng-
stoffe. Hinzu kamen zahlreiche aromatische Kohlenwasserstoffe, Arzneimittel und Kosme-
tika. So entstand in der zweiten Hälfte des 19. Jh. die technische Chemie als Zweig der ange-
wandten Wissenschaft. Die These der Technik als angewandter Naturwissenschaft gewinnt
damit für die Chemie in der zweiten Hälfte des 19. Jh. eine gewisse Plausibilität, sie gilt aber
keineswegs für Technik in ihrer Gesamtheit. Die chemische Industrie war von Anfang an
durch stärkste Rückkoppelung an die Entwicklung der Wissenschaften gebunden. Von der
Apotheke zur Großindustrie erfolgte die Entwicklung in wenigen Jahrzehnten, wobei die
Großproduktion der drei Grundstoffe Schwefelsäure, Soda und Chlor die moderne chemische
Industrie begründete (Paulinyi 1989, 151). Wichtig war vor allen Dingen die industrielle
Nachfrage nach Schwefelsäure für Papiererzeugung und Desinfektionsmittel.

Die angestrebte Synthese von Naturwissenschaft und Technik, von theoretischer Erkenntnis
und praktisch-konstruktiver Anwendung begründete die rationelle, die wissenschaftliche,
Technik oder die technischen Wissenschaften, wie jener Bereich mit unfester Begrifflichkeit
im bezeichnend wechselnden Sprachgebrauch etwa seit Beginn des 19. Jh. umschrieben wird
(Manegold 1969, 379). Erst wo die wesensmäßige Einheit der modernen Technik und ihre
wissenschaftliche Begründung erkannt und ausgesprochen wurde, konnte auch die Form der
technischen Hochschule ihre eigene Rechtfertigung finden und den Anspruch erheben, nicht
lediglich Spezial- oder Fachschule im engeren Sinne, viel mehr eine „Universitas Scientiarum
Technicarum“, die Hochschule für einen ganzen eigenständigen Lebensbereich sein, nichts
weniger als dies ist damals in Wien praktisch geschehen. Noch vor dem Jahr der Revolution
kam der Chemiker und ehemalige Assistent an Liebigs Labor, Friedrich Schödler, in einer
vergleichenden Betrachtung von Anspruch und Wirklichkeit, der bestehenden Anstalten zu
dem Ergebnis, die konsequente Durchführung des Parallelismus zwischen technischer
Hochschule und Universität muss durchgeführt werden, wie sehr auch immer die Universi-
täten sich dagegen wehrten (Manegold 1969, 386-389).

Die Entwicklung der höheren technischen Anstalten vollzog sich in engem Zusammenhang
mit dem industriellen Aufschwung, der in Deutschland erst nach der Jahrhundertmitte mit

116
besonderer Intensität einsetzte und entsprach ganz den steigenden Bedürfnissen der Industrie
und der Staatsdienste nach „höheren Technikern“, in dem sich allmählich stärker differen-
zierende Fachrichtungen bildeten (Manegold 1969, 390). In den entsprechenden Beschlüssen
des VDI und in gemeinsamen Erklärungen traten sie dafür ein, die Mathematik in ihrer
ganzen Ausdehnung nach wie vor als grundlegend für alle technischen Aufgaben und als
entscheidend für den wissenschaftlichen Rang der technischen Hochschulen zu erklären. Eine
öffentliche Gegenerklärung, unterzeichnet von der doppelten Anzahl der Professoren, meist
aus den Ingenieurfächern, ließ nicht auf sich warten. Sie bekräftigten den technischen
Standpunkt. Klarer und energischer als zuvor waren jetzt die Bemühungen bewusst, auf einen
eigenständigen Raum „technische Wissenschaft“ gerichtet (Manegold 1969, 395).

Neu war der Gedanke, technische Laboratorien für die Ingenieurfächer einzurichten. Es war
ursprünglich nicht in dem Zusammenhang mit den Anforderungen des Unterrichts gefasst
worden, sondern ging aus den Bedürfnissen der Praxis nach genauer Kenntnis der Elastizität
und Festigkeitsverhältnisse der Werkstoffe hervor, aus der Notwendigkeit, theoretische
Grundlagen durch systematische Materialprüfung zu ergänzen. Die kleine Prüfungsanstalt, die
Johann Bauschinger, Professor der technischen Mechanik und graphischen Statik bei der
Eröffnung der technischen Hochschule München im Jahre 1868 einrichtete und bald zum
mechanisch-technischen Laboratorium entwickelte, ist als Anfang planvoller, experimenteller,
technischer Forschung an den Hochschulen anzusehen. In München wurden zum ersten Male
auch organisatorisch die Folgerungen aus der Erkenntnis gezogen, dass die Technik
experimenteller Forschung bedurfte, dass hier aber andere Methoden nötig waren, als in der
Physik, nämlich Versuche an Maschinen in natürlichen Maßstäben und unter Bedingungen,
die einer wirklichen Ausführung entsprachen. Erst zu Beginn der neunziger Jahre ist es
allgemein zur Forderung nach systematischer Einführung von technischen Laboratorien
gekommen (Manegold 1969, 396f).

Zunächst ist der Kontext bedeutsam, in dem die Gründungen von Maschinenbau-Laboratorien
und deren Zielsetzung gegen Ende des 19. Jh. stehen. Dabei lohnt es sich, die Entwicklung
der technischen Wissenschaften zu verfolgen zwischen dem Gründungszeitraum der
polytechnischen Schulen in Deutschland in den 1820er und 30er Jahren und der Zeit ab 1880
(Feuchte 2000, 7f). Die technische Entwicklung begann einen Stand zu erreichen, der generell
die Beibehaltung und das Praktizieren der empirischen Methode an ihre Grenzen stoßen ließ.
Innovationen konnten mit Erfahrung und Empirie nicht mehr befriedigend ökonomisch und
nicht mehr ausreichend sicher realisiert werden. Zunächst unlösbare Probleme förderten eine
strenge wissenschaftliche Untersuchung und Herangehensweise geradezu heraus, wenn ihnen
ausreichend sichere Lösungen zuteil werden sollten. Diesem Ansatz fühlten sich die
„Theoretiker“ verpflichtet: Nur ein wissenschaftlicher Maschinenbau mit exakten Ergebnissen
und Methoden kann die tragfähige Grundlage einer zukünftigen Entwicklung der Technik und
Maschinenbau-Praxis sein. Die zeitgenössische Kritik an der Lehre und der Methodik der
technischen Hochschulen gegen Ende des 19.Jhd. war umfassend und massiv, durchaus
berechtigt, angemessen und notwendig. Der in der technikhistorischen Literatur zu findende
Begriff „Übertheoretisierung“ für einen in der zweiten Hälfte des 19. Jh. liegenden
Entwicklungsabschnitt der Technikwissenschaften ist für einen bestimmten, näher zu
erläuternden Blickwinkel treffend gewählt (Feuchte 2000, 12-15).

Nicht allzu viel an Theorie im naturwissenschaftlichen Sinn und ein Desinteresse gegenüber
der Praxis, sondern Schwierigkeiten, Fehltritte und mangelhafte Richtungsbestimmungen bei
der ausreichend umfassenden Nutzbarmachung und Rezeption vorhandenen Wissens, also der
klassischen Mechanik und Physik als Naturwissenschaften für die Anwendung im
Maschinenbau und die Lösung praktischer, ingenieurstechnischer Probleme durch spezifisch

117
technikwissenschaftliche Theorie- und Modellbildung kennzeichnen die Epoche und führten
zu untauglichen ingenieurwissenschaftlich-theoretischen Systemen. Trotzdem folgte gerade
aus der Trennung von Theorie und Praxis durch den Versuch strikter theoretischer Systeme,
mit denen gerade die zukunftsträchtige Erkenntnis verunreinigenden empirische Element der
Praxis als Quelle und hoch unzureichend genauer Analyse und Beschreibung maschinen-
technischer Objekte eliminiert werden sollten, eine zwangsläufige Umkehrung der eigent-
lichen Absicht. Ein Grund liegt in der Bedeutung theoretischer Einsicht als wichtiger
Voraussetzung kompetenter und gewinnbringender Durchführung und Anwendung experi-
menteller Methoden, die bald in die Ingenieursausbildung genauso wie in die Forschung an
den Hochschulen und der Industrie als unverzichtbares Reformelement Eingang fanden und
sich als Nukleus für die Lösung praktischer und theoretischer Probleme der damaligen Zeit
erwiesen. Das Prinzip „Probieren geht über studieren“ hat zwar, und dies gilt aufgrund des
Standes der technischen Entwicklung damals stärker als heute, von Fall zu Fall den Vorteil,
kurzfristiger, objektbezogen-befriedigender Problemlösungen, lässt aber kaum ein verallge-
meinerndes Verstehen und Erklären als Voraussetzung einer Übertragbarkeit zu, die noch-
maliges Probieren überflüssig machen kann und die den langfristig entwicklungshemmenden
Rahmen sich wiederholender empirischer Erfolgshandlungen im Maschinenbau sprengen
kann (Feuchte 2000, 16-18).

Die zunehmende Inadäquatheit zwischen den überwiegend theoretisch ausgerichteten


technischen Wissenschaften, wie sie sich an den technischen Hochschulen entwickelt hatten,
und wie sie in mehr oder weniger universitärer Form gelehrt wurden, und der industriellen
Praxis mit ihren stark wachsenden Anforderungen and die Ingenieure und deren Ausbildung,
entwickelte sich im Laufe des letzten Viertels des 19. Jh. zu einem in den 1890er Jahren
heftig diskutierten Problem. Insbesondere Alois Riedler (1850-136) initiierte und verstärkte
massiv den Ruf nach praktischen Elementen im Ingenieursstudium und der Einführung von
Laboratoriumsunterricht, wie er an amerikanischen Ingenieursschulen als Ausbildungsteil
dominierend im Vordergrund stand. Auch der VDI hat eine gezielte Kampagne initiiert, die
den Staat zum Laboratoriumsbau bewegen sollte, sich für die Einrichtung neuer, freistehender
Maschinenlaboratorien eingesetzt und leistete den technischen Hochschulen unverzichtbare
Hilfestellungen. Die frühen Bemühungen und die Einrichtung maschinentechnischer Labors
dienten in der Hauptsache der Verbesserung und Vervollkommnung der Lehre. Eine
Verbindung zwischen Polytechnikum und Fabrik, wie sie etwa der Verbindung von Klinikum
und Krankenhaus in den Universitätsstädten entsprechen würde, sei allerdings ein frommer
Wunsch gewesen. Die staatlichen Hochschuletats wurden in großzügiger Weise der
Einrichtung elektrotechnischer Loboratorien zugewandt, was die mechanisch-maschinen-
technischen Bereiche zwar als kaum abwendbares Schicksal feststellten konnten, aber doch
hinzunehmen hatten. Zweifellos liegt hierin ein schwerer Grund für die chronische
Mittelknappheit unter der die Maschinenabteilung der technischen Hochschulen litten, und die
nur durch besonderes Engagement und Beharrlichkeit einzelner Professoren die Einrichtung
maschinentechnischer Laboratorien oder die verstärkte Nutzung in dieser Zeit meist vorhan-
dener Materialprüfanstalten für Unterrichtszwecke erlaubten. In München war von Carl Linde
bereits Ende der 1870er Jahre ein Laboratorium für theoretische Maschinenlehre eingerichtet
worden, welches bald darauf auch in die Lehre integriert wurde. In Dresden wurde um 1883
unter Ernst Hartig begonnen, ein technologisches Laboratorium mit einem Unterrichtsprak-
tikum für Studierende aufzubauen. 1884 konnte in Darmstadt ein Maschinenmesskundelabor
eröffnet werden. Das sind Beispiele für frühe Bemühungen und Erfolge, maschinentechnische
Laboratorien an den technischen Hochschulen aufzubauen (Feuchte 2000, 21-28).

Um 1884 stand jedoch die Verbesserung der Ausbildung im Vordergrund. Der Meinungs-
austausch zur Spezialisierung der Maschinenbaufächer und zur Notwendigkeit einer Umge-

118
staltung der Lehrpläne wurde auch vor dem Hintergrund der wichtigen Frage geführt, welche
Experimente und Versuche in welchem Umfang in den Lehrveranstaltungen in den einzu-
richtenden maschinentechnischen und technologischen Versuchsräumen zur Durchführung
gelangen sollten. Unklarheit bestand über die Ausstattung und Einrichtung der Labore. Sollte
man im Interesse größtmöglicher Praxisnähe Kraft- und Arbeitsmaschinen, wie sie in der
Industrie zum Einsatz kamen im Laboratorium bereitstellen? Das Maschinenaggregate aus der
industriellen Praxis für Experimente ungeeignet, und systematische Fragestellungen an modi-
fizierten Objekten zielgerichteter zu untersuchen sind, kann, je nach Fragestellung, durchaus
zutreffen (Feuchte 2000, 31-35). Um Abhilfe zu schaffen, propagierte Ernst den Ausbau der
vorhandenen Prüfungsanstalten und Versuchsinstitute an den technischen Hochschulen zu
vollständigen Maschinenbaulaboratrien (Feuchte 2000, 37). Riedler suchte aus taktischen
Gründen eine umfassende Bildungsreform zunächst auf die Einrichtung von Maschinenbau-
laboratorien zu beschränken (Feuchte 2000, 43). Die Einrichtung von Maschinenbaulabora-
torien an den technische Hochschulen im deutschsprachigen Raum um die Jahrhundertwende
beeinflusste sowohl die Lehre als auch die Forschung in den Ingenieurwissenschaften
grundlegend und zukunftsweisend (Feuchte 2000, 58). Mit der Gründung von Laboratorien
und immer engeren Kontakten zwischen Hochschulen und Industrie entwickelte sich eine
fruchtbare Interaktion, die einerseits zu einer fortschreitenden Verwissenschaftlichung im
Maschinenbau führte und andererseits an den Hochschulen den theoretischen Blick verstärkt
auf praktische Anwendung, Problemlösung und maschinentechnische Innovation lenkte. Am
Züricher Polytechnikum machten weniger beklagenswerte Mängel in der Lehre und über-
mäßig theoretisierte Ausbildungskonzepte das Maschinenlabor erforderlich, vielmehr dräng-
ten der technische Fortschritt, verstärkte ökonomische Bedingungen und neue Anforderungen
an die Ausbildung seitens der Industrie zum Bau neuer technischer Hochschu-len in Deutsch-
land (Feuchte 2000, 241).

Verbunden ist die Entstehung der Industrietechnik mit dem wissenschaftlichen und dem
technischen Labor. Das Laboratorium ist der Platz, an dem die Wissenschaftler und die
Erfinder arbeiten. Wissenschaftliche Aussagen werden aus den Instrumenten abgelesen.
Meistens wird damit ein visueller Beweis begründet. Es geht um die Interpretation von
Diagrammen. So werden audiovisuelle und verbale Instrumente zugleich eingesetzt. So steht
am Ausgang wissenschaftlicher und technischer Theorie die Kunstkultur des Laboratoriums.
Heute sind Laboratorien mächtig genug, um die Realität zu definieren sowie den Zugang zur
Natur (Latour 1987, 97-99). Maschinen sind gezeichnet, beschrieben, begutachtet und
ausgerechnet, bevor sie gebaut werden (Latour 1987, 253). Berücksichtigen wir das implizite
Wissen, das in Instrumente inkorporiert ist (Latour 1987, 44), studieren wir Wissenschaft in
Aktion und nicht als Resultat. So erreichen wir ein Stadium der Wissenschaft, bevor Fakten
und Maschinen entstanden und zur Blackbox geworden sind. Außerdem gibt es die Möglich-
keit, die Kontroversen zu rekonstruieren, die zu ihrer Konstruktion geführt haben und diese
wieder zu eröffnen und möglicherweise alternative Wege der Konstruktion zu gehen. Das
Konzept einer Anthropologie der Wissenschaft läuft darauf hinaus, dass anstelle des Begriffs
der wissenschaftlichen Wahrheit die Glaubwürdigkeit und die Vertrauenswürdigkeit eine
zentrale Rolle spielt (Latour, Woulgar 1986, 191). Zentral für die Beschreibung des Labors
und seinen Möglichkeiten sind Fertigkeiten, Arbeitsgewohnheiten und Apparate, die zu ihrer
Verfügung stehen (Latour, Woulgar 1986, 56). Wissenschaftliche wie technische Daten
werden nicht aus der Natur abgelesen, sondern in einem Prozess laboraturmäßiger Verfahren
konstruiert.

Die Laboratoriumssituation gehört in je unterschiedlicher Weise zum Entdeckungs- und zum


Rechtfertigungskontext (Knorr-Cetina 1991, 28). Dort findet die Selektion von Interpreta-
tionen, Methoden und Verfahren im Sinne von Antworten auf bestimmte Umstände statt.

119
Damit wird die Frage mit einer kontextabhängigen Variabilität konfrontiert, die der
Sozialwissenschaftler nicht endgültig bestimmen kann. Die Unbestimmtheit in der Erfassung
der Laborsituation trägt diesem Ansatz den Vorwurf der Irrrationalität ein (Knorr-Cetina
1991, 31). Das Labor ist der Ort der Innovationen. Aus einem Pool von Variationen werden
Innovationen ausgewählt, wobei Innovation insgesamt kein intentionaler Prozess ist, sondern
wesentlich zufallskonstituiert ist. Im Hinblick auf Innovationen kann man von einer gewissen
Indeterminiertheit aufgrund der Freiheit und Kreativität des Einzelwissenschaftlers ausgehen.
Allerdings sind Innovationen nicht der reine Zufall (Knorr-Cetina 1991, 37f). Messinstru-
mente sensibilisieren in der Laborsituation, objektivieren aber nicht. Die Situationspragmatik
des spezifischen Beobachtungsfeldes muss die teilnehmende Beobachtung aus der Nähe
betrachten und in kulturspezifische Beschreibungskategorien einordnen. Dies führt zu einer
Art von Ethnoscience. Es genügt nicht, standardisierte makroskopische Verfahren durch
hermeneutische Tiefenverfahren zu ersetzen, um eine konzeptionelle Kontrolle durch das Feld
anstelle durch den Beobachter zu erreichen. Daher ist für Laboratoriumswissenschaft ein
Fallstudienansatz erforderlich (Knorr-Cetina 1991, 44-46).

Die Projekte werden an das, was machbar ist, angepasst. Die Möglichkeiten von Labors
werden für die Projekte genutzt, auch vorhandene Messinstrumente und Geräte werden
einbezogen. Genauso wird auf vorhandene Ideen in einer Forschergruppe und die üblichen
Präferenzen zurückgegriffen (Knorr-Cetina 1991, 65-68). Die allgemeine Energiekrise führte
zum Einbezug von Fragen des Energieverbrauchs im Labor. Sehr wichtig für Projekte ist auch
Knowhow bei Messungen (Knorr-Cetina 1991, 90). Vergleiche sind wichtig für konzeptio-
nelle Innovationen. Dabei spielen halberahnte Ähnlichkeiten eine zentrale Rolle für die La-
borwissenschaft. Eine gewisse Konservativität des Analogieräsonierens sowie die Beschäfti-
gung mit lösbaren Problemen machen einen Teil der opportunistischen Forschungslogik aus.
Innovative Ideen werden vor dem Hintergrund von bereits getätigten Erfahrungen gemacht.
Fragen der Datierungen und der Urheberschaft von Innovationen können nicht durch Beob-
achtung geklärt werden. Das integrierende Prinzip für die Rekonstruktion einer Innovation ist
der Prozess, in dem Laborideen zu Innovationen werden. Innovationen stellen damit einen ge-
wissen Erfolg bei der Konstruktion im Labor dar (Knorr-Cetina 1991, 123). Merton stellte als
Motor der Wissenschaft einen quasi ökonomischen Wettbewerb fest. Die teilnehmerzentrierte
Perspektive der Laborwissenschaft zielt auf Glaubwürdigkeit der erzeugten Ergebnisse ab.
Die Mitarbeiter wissen oft nicht, was von ihnen erwartet wird (Knorr-Cetina 1991, 164). Bei
den Laborselektionen spielen nicht-epistemische Erwägungen z.B. finanzieller Art etwa bei
der Auswahl von Versuchstieren eine große Rolle. Dabei liegen epistemische und nicht
epistemische Erwägungen, also Geld- und Zeitfragen einen Entscheidungspfad in der
Laborsituation fest (Knorr-Cetina 1991, 168f). Bei der Abfassung der Publikation müssen
gewisse Regeln beachtet werden. Die Papierversion der Labormethode hat ihre eigene
Organisation und ihre eigene Regeln. In der Einleitung wird die Relevanz des Themas insze-
niert. Man hat den Eindruck eines Rezeptes. Auch ein Abschnitt über Material und Methoden
der Laboroperationen darf nicht fehlen. Eine Typisierung der Laboroperationen zeigt die
Konstruktivität der Laboroperationen. Die Komponente des impliziten Wissens in Gefolge
von Kuhns Wissenschaftstheorie wird allerdings von Knorr-Cetina für problematisch gehalten
(Knorr-Cetina 1991, 238).

Knorr-Cetina geht von der Universalität von Interpretieren und Verstehen aus.
Hintergrundannahmen gibt es auch in den Naturwissenschaften. Auch wissenschaftliche
Praxis ist durch Interessen, Interpretationen und Verständigungen charakterisiert. In die
Wissenschaft gehen alltägliche Beobachtungsterme mit ein. Allerdings ist Habermas
Unterscheidung von Arbeit und Interaktion für den Prozess der Wissenschaft nicht klar genug
zu trennen. Die Fabrikation von Wissen ist entscheidungsgeladen. Insofern müssten konstruk-

120
tive anstatt deskriptive Operationen als Grundlagen für die wissenschaftlichen Interpretations-
prozesse herangezogen werden. Außerdem ist die opportunistische Logik der Fabrikation von
Wissen zu berücksichtigen. Die interpretative Komponente wissenschaftlicher Rationalität
müsste mehr als bislang berücksichtigt werden (Knorr-Cetina 1991, 271f). Im Labor werden
in einer ersten Instrumentalisierung technische Objekte dekontextualisiert und aus den un-
mittelbaren Zusammenhängen ihrer Umgebung herausgenommen, um herauszufinden, wie sie
in einer neuen Umgebung funktionieren, d. h. in einer zweiten Phase wird das dekontextua-
lisierte technische Objekt kontextualisiert, kombiniert und koordiniert mit allen anderen
Systemen in einer erneuerten Umwelt (Achterhuis 2001, 90). Daraus ergibt sich, dass die
Mensch-Technologie-Interaktion multistabil ist. Instrumente konstituieren die erforschte Rea-
lität mit. Sie macht Dinge der Realität sichtbar die auf andere Art und Weise nicht sichtbar
geblieben wären, Aspekte, die repräsentiert und interpretiert werden durch die entsprechenden
Instrumente (Achterhuis 2001, 145). Im Labor wird technisches Umgangswissen erzeugt,
sowohl im wissenschaftlichen wie im technischen. Im wissenschaftlichen Labor handelt es
sich um ein technisches Umgangswissen mit physikalischen, chemischen und biologischen,
im technischen Labor um Umgangswissen mit technischen Ereignissen. Dieses technische
Umgangswissen kann man versuchen, in technische Artefakte zu implementieren. Im Labora-
torium erzeugtes Umgangswissen lässt sich daher in hervorragender Weise technisch verwer-
ten.

Der Inhalt der Ingenieurserziehung insbesondere in seiner institutionellen Form hat zu einer
sehr viel stärkeren Zusammenarbeit von Wissenschaft mit den industriellen Anforderungen
geführt. Zunehmend wurde die Universitätsausbildung als Vorbereitung für das Industrie-
unternehmen verstanden. Die Universitäten und technischen Schulen führten zum Unterneh-
men. Es entwickelten sich systematische Forschung und eine Transformation der höheren
Erziehung. Die industrielle Laboratoriumsforschung konstituierte sich. Es gab Testkurse zum
Training in technischen Fragestellungen. So entstand das Teamwork der Industrieunter-
nehmen. Es wurde sozialisiert für eine Beschäftigung im Rahmen von Subordination. Zu den
wichtigsten erzieherischen Zielen der Western Electric gehörte der graduierte Kurs für
Ingenieure. Das Bell Erziehungsdepartment entwickelte Trainingsprogramme für andere
Unternehmen, um graduierte Ingenieure für Managementaufgaben wie für technische Positio-
nen im Rahmen eines Unternehmens vorzubereiten. So gab es auch Schulausbildung im Rah-
men von Unternehmen. Die tatsächlichen Anfänge der chemischen Ingenieurserziehung in
den USA und in der modernen chemischen Industrie wurden am MIT (Massachusetts Institute
of Technology) zentriert. Das MIT entwickelte ein Programm für eine Schule der Ingenieurs-
praxis. Es waren unternehmerische Pläne einer Ingenieurserziehung (Noble 1979, 170-195).

Neben an der an Unternehmen ausgerichteten Methode der Ingenieurserziehung gab es auch


eine Koordination und Ausrichtung durch die Regierung. Dies führte zu einer Zentralisierung
der Ingenieursausbildung und zu einer neuen Wissenschaft der Erziehung (Noble 1979, 241-
252). Menschen nicht Maschinen erzeugen Profite. Die fundamentale Innovation des Kapita-
lismus war nicht die Einführung des Maschinenwesens in den technischen Produktions-
prozess, sondern eher die Transformation der menschlichen Arbeit in ein abstraktes Mittel der
Produktion von Waren und der Kapitalakkumulation. Eine wichtige Rolle spielt die des
modernen Managements. Die Ingenieure waren die ersten Menschen, die in der Industrie
versuchten, systematisch die intellektuellen Methoden des Business Managements anzu-
wenden. Der originale wissenschaftliche Managementzugang zum menschlichen Ingenieur-
wesen hingegen war weniger als adäquat (Noble 1979, 259-264).

Frederick, W. Taylor führte auf der Basis der Managementbewegung 1895 die Karriere des
beratenden Managers ein. Ehe 1911 Taylor untersuchte, wie ein Geschäft mit minimaler

121
Arbeitsorganisation zu führen sei, konzentrierte er seine Aufmerksamkeit auf den Arbeiter.
Der neue menschliche Fokus auf das Ingenieurswesen forderte eine Disziplin, die die
Ingenieure selber verpflichtete, zu expandieren und die neuen Methoden der sozialen Wis-
senschaft einzuschließen. Die Widerlegung oder Zurückweisung der Vorschläge des wissen-
schaftlichen Managements selbst basierte auf zu engen Konzepten von Wissenschaft. Diese
Methoden schlossen psychologisches Training und formales Management durch Erziehung
ein. Die wissenschaftliche Managementbewegung und die unternehmensliberale Reform-
bewegung griffen ineinander (Noble 1979, 268-277). Die Personalmanagement-Bewegung
hob zwei sich wechselseitig bedingende Aspekte eines Menscheningenieurswesens hervor. Es
ging darum, die abhängigen Arbeiter zu motivieren und effizient das Humanmaterial der
Industrie zu gebrauchen. Die industrielle Erziehung, die systematische Befähigung und das
Training der arbeitenden Klassen gemäß einer optimalen Leistungserbringung im Sinne des
Unternehmens standen oben an. Insofern gab es sowohl eine Industriepsychologie wie eine
Unternehmensreform. Das moderne Management hatte einen Schwerpunkt auf dem mensch-
lichen Faktor in der Industrie. Darauf basierend wurde ein .Lehrplan für das Ingenieurswesen
entwickelt (Noble 1979, 290-317). Die soziale Transformation, hervorgerufen durch die
wissenschaftliche Managementbewegung und die Parallelisierung von modernem Unterneh-
mertum und wissenschaftlich-technologischer Forschung ist nicht zu leugnen.

Die Förderung der Technik und die Entwicklung der Industrie gründeten sich in England ganz
auf private Initiative. Der englische Techniker wurde in der Praxis gebildet. Frankreich schuf
sich am Ende des 18. Jh. in seiner „École polytechnique“ ein Institut, das mit den an sie
anschließenden hohen Spezialschulen die erste große Pflanzstätte einer streng wissenschaft-
lich betriebenen Technik wurde. Im Umkreis dieser Hochschule wurden in der ersten Hälfte
des 19. Jh. die wissenschaftliche Baumechanik und Maschinenlehre begründet. Seit 1825
entstanden auch die ersten deutschen Polytechnischen Schulen, voran die zu Karlsruhe. Sie
ließ in ihrem Aufbau eine gewisse Abhängigkeit von der Pariser Polytechnischen Schule
erkennen. Weitere polytechnische Schulen folgten 1827 in München, 1828 in Dresden, 1829
in Stuttgart und 1831 in Hannover. 1857 begründete Ferdinand Redtenbacher in Karlsruhe
den wissenschaftlichen Maschinenbau. Während die Pariser École polytechnique die Technik
mehr als mathematische und physikalische Disziplin theoretisch betrieb, trat Redtenbacher für
eine selbständige Maschinenlehre ein, bei der die wissenschaftliche Beherrschung der
Maschinenwelt aus dieser selbst heraus entwickelt wurde und zwar im Sinne eines reinen
technischen Denkens. Im Ganzen wünschte Redtenbacher zur Verwirklichung jener großen
Aufgabe der Heranbildung von Männern für den Aufbau eines deutschen Industriestaates, die
Wissenschaft stärker mit der Praxis zu verbinden als in Paris (Klemm 1999, 160).

Erörterungen über das „American system of manufactures“ reichen bis in die Zeit der
Londoner Weltausstellung von 1851 zurück. Aus deutscher Sicht gehörte der verschwen-
derische Umgang mit natürlichen Ressourcen zu den auffallenden und ärgerlichen Zügen der
amerikanischen Wirtschaftsweise. Amerika war das Land, wo man immer bereit war, rasch
etwas Neues anzuschaffen, anstatt das Alte zu pflegen und zu reparieren: eine Verhaltens-
weise, die das Wirtschafts- und Innovationstempo beflügelte. Amerikanische Maschinen
mussten auf eine häufig wechselnde, kurzzeitig angelernte Bedienungsmannschaft eingestellt
sein. Deutsche Fabriken kultivierten mit Vorliebe einen festen Arbeiterstamm und einen
Arbeitertypus, der sich mit bestimmten Tätigkeiten identifizierte und diese ein Leben lang
betrieb. Wie weit die in Deutschland beliebte Professionalisierung der Arbeit einer techni-
schen Notwendigkeit entsprang, wird bei einem Blick über die deutschen Grenzen zur offenen
Frage (Radkau 1989, 35-38). Fortschritt durch Verwissenschaftlichung: dieses Geschichts-
und Zukunftsbild ist für die Interpretation der deutschen Technikgeschichte von zentraler
Bedeutung. Eine Überprüfung der These vom deutschen Weg zur wissenschaftlichen Technik

122
ist umso nötiger, als es sich dabei nicht um einen allumfassenden und logisch zwingenden
Trend der Technikgeschichte handelte.

Mit der Entwicklung der Industrie stieg die Dringlichkeit wissenschaftlicher Lösungen
sprunghaft an. In England gab es keine eigentliche wissenschaftliche Fundierung der techni-
schen Inventionen. Dies war in den USA und in Deutschland anders. Deutschland war bis in
die 30er Jahre des 20. Jh. führend in der Industrieforschung. Mit der Integration des Kaliberg-
baus in Forschung und Lehre der Bergbaukunde sowie der Eisenhüttenkunde in die Metal-
lurgie kann die Herausbildung der Montanwissenschaften als Wissenschaftszweig um 1875
als abgeschlossen gelten (Buchheim, Sonnemann 1990, 238). Technikwissenschaften und
Ingenieurausbildung fanden in den aufstrebenden polytechnischen Schulen eine stabile
institutionelle Basis. Die Ingenieurwissenschaften konnten erste Erfolge bei ihrer praktischen
Umsetzung vorweisen (z.B. bei der Konstruktion leistungsfähiger Wasserräder und –turbi-
nen); wissenschaftlich begründete Technik wurde aber gleichermaßen von herben Misser-
folgen und Rückschlägen heimgesucht (genannt seien Brückeneinstürze, Kesselexplosionen,
Radreifenbrüche u.a.m.). Am Ende des Jahrhunderts bildete die Trias technischer Hochschule,
Industrieforschung und staatlicher Forschungs- und Prüfanstalten ein leistungsfähiges Netz
interaktiven Wissenschaftstransfers. Das 19. Jh. war aber gleichwohl gekennzeichnet von
Spannungsfeldern auf dem Gebiet technikwissenschaftlicher Erkenntnis sowie von Möglich-
keitsfeldern konstruktiver und technologischer Entwicklungen. Es war eine Zeit des Wider-
streits unterschiedlicher konzeptioneller Vorstellungen und der Suche nach alternativen Me-
thoden und Verfahren innerhalb der sich entfaltenden technikwissenschaftlichen Disziplinen.
Eine Zeit der verallgemeinernden und übergreifenden Denkweise, der Herausbildung wissen-
schaftlicher Schulen und Denkstile sowie regionaler und nationaler technologischer Stile, aber
auch eine Zeit des zumindest ansatzweise bzw. strukturell vollzogenen Übergangs von
disziplinären zu interdisziplinären Strukturen in den Technikwissenschaften (Mauersberger
1997, 45).

Die Betrachtung der „Wiener technologische Schule“ mit ihren Repräsentanten Johann Josef
Prechtl, Georg Altmutter und Karl Karmarsch und die Anwendung des Konzeptes der
Disziplinengeneseforschung auf das Konzept der Spezifik der Technikwissenschaften kommt
zu dem Ergebnis, dass Technikwissenschaften keine angewandten Naturwissenschaften sind.
Vielmehr liegt eine zweiseitige Transformation im Sinne einer Wechselwirkung zu Grunde.
(1.) Transformation naturwissenschaftlicher Erkenntnisse und Methoden in eine für die
technische Praxis applikable Form. (2.) Vermittlung von Anforderungen aus der technischen
Praxis an die naturwissenschaftliche Forschung. Insgesamt kann man von einer Verwissen-
schaftlichung von Technik allgemein sprechen, die sich in zwei Bedingungen manifestiert:
(1.) Verallgemeinerung und theoretische Verdichtung von Erfahrungswissen (Eruierung von
Regeln). (2.) Aufbereitung und Anwendung naturwissenschaftlicher Theorien (Mauersberger
1997, 47-49). Die historische Entwicklung der deutschen technischen Bildungsstätten im 19.
Jh. ist aufschlussreich. Die Gewerbeschulen und Polytechnischen Schulen in Deutschland, seit
den 20er Jahren des 19. Jh. auf eher niedrigem wissenschaftlichen Niveau entstanden,
steigerten sukzessive die Ansprüche an sich selbst und an ihre Schüler und erhoben etwa seit
der Jahrhundertmitte zunehmend einen Anspruch auf Gleichwertigkeit mit den Universitäten.
Bei den sich nun allmählich entfaltenden und über ein Jahrhundert andauernden Ausein-
andersetzungen zwischen technischen Hochschulen und Universitäten ging es im Kern um
zwei unterschiedliche Bildungskonzeptionen: zweckfreie versus praxisbezogene Bildung.

Wenngleich zwischen den Exponenten dieser Bildungskonzeptionen grundsätzliche, häufig


polemische Auseinandersetzungen stattfanden, so war doch die Politik der technischen
Hochschulen von einer grundlegenden Ambivalenz geprägt. Einerseits setzten sie sich mit den

123
Universitäten auseinander und grenzten sich von ihnen ab, andererseits lehnten sie sich
organisatorisch und inhaltlich an das Vorbild der Universitäten an. Zunächst trug man an den
Polytechnischen Schulen der vorausgegangenen bzw. geplanten Entwicklung insofern
Rechnung, als man sich in den siebziger und achtziger Jahren – Stuttgart und Dresden waren
im Jahr 1890 Nachzügler -, die höherwertige Bezeichnung Technische Hochschule zulegte.
Preußen übernahm 1879 endgültig die Führung bei der Entwicklung der deutschen techni-
schen Hochschulen mit der Zusammenlegung der Bauakademie und der Gewerbeaka-demie
zur Berliner Technischen Hochschule. An den Technischen Hochschulen wurden die allge-
meinbildenden Fächer, die zwischen 1850 und 1865 einen vorübergehenden Rückgang zu
verzeichnen hatten, wieder ausgebaut und zu allgemeinen Abteilungen zusammengefasst. Die
technischen Wissenschaften bezogen ihren Inhalt aus der Mathematik, der Mechanik, der
Naturwissenschaften, formten ihn auf eine nicht beschriebene Weise um und gaben diese Er-
kenntnisse dann an die Industrie weiter: technische Wissenschaft als Mittlerin zwischen
Naturwissenschaft und Industrie, Technik als angewandte Naturwissen-schaft (König 1999,
52-55).

Zentrum der Auseinandersetzungen zwischen Theoretikern und Praktikern war die Berliner
Technische Universität. Der Rücktritt Reuleauxs und die Streichung der Kinematik aus dem
Lehrplan hatte eine Aufwertung der Praktiker zur Folge. H. von Reiche schrieb 1869 „Die
Maschi-nenfabrikation. Entwurf, Kritik, Herstellung und Veranschlagung der gebräuch-
lichsten Maschinenelemente“. Er führte die Auseinandersetzung um die Rolle der Mathematik
in den technischen Wissenschaften. Das Hauptproblem bei der analytischen Erfassung lag in
der Modellbildung (König 1999, 56f). Bei der Einrichtung von Maschinenbaulaboratorien
tauchten Kriterien auf wie leichte Herstellbarkeit, Reparaturfreundlichkeit, Brennstoffökono-
mie, Wartungsbedarf und Betriebskosten. Hierin manifestierten sich unterschiedliche Ziel-
vorstellungen. Alois Riedler mit seinem Werk „Maschinen-Zeichnen“ gehört ebenfalls in die
Reihe der Praktiker. Die Maschinenzeichnung ist das Mittel, die Vorstellungen des Kon-
strukteurs für einen bestimmten Zweck auszudrücken. Zeichnen sollte im Konstruktions-
unterricht gelernt werden. Dabei beschränkte man sich auf Schwarz-Weiß-Zeichnungen.
Riedler darf als einer der Begründer des modernen technischen Zeichnens betrachtet werden
(König 1999, 63-66). Bei Alois Riedler geht das Konzept des Gestaltens über in den des
Konstruierens und über den des Zeichnens hinaus. Er bezieht sich auf eine allgemeine
Gestaltungslehre und schließt damit die kreativen und wirtschaftlichen Dimensionen mit ein.
Damals wurden dann auch einseitige Konstrukteure angeprangert (König 1999, 71). Es geht
um die Überwindung des Gegensatzes zwischen Theorie und Praxis durch Spezialisierung.
Carl Bach schreibt ein Werk über Maschinenbau als experimentelle Erfahrungswissenschaft.
Er erhebt die Forderung nach einem Industriepraktikum. Aurel Stodola schreibt eine Theorie
und Praxis der Turbinenkonstruktion. Die schöpferischen Tätigkeiten sind die des praktischen
Ingenieurs (König 1999, 59). Die Kinematik verbreitet sich schnell im Unterricht der TUs.
Ein weiteres Hilfsmittel ist das Modell. Der Eintritt in den Staatsdienst war für Maschi-
nenbauer in Preußen erst ab 1876 möglich. Der Einfluss des technischen Staatsdienstes auf
das Sozialprestige von Ingenieuren war groß (König 1999, 90).

Karl Laudien beschäftigte sich mit den Anfängen einer Konstruktionslehre unter dem Einfluss
der Rationalisierungsbewegung. Diese Rationalisierungsbewegung der Ingenieure richtete
sich insbesondere auf das Sparen in der Konstruktion. Zwischen 1860 und 1890 gab es die
Maschinenwissenschaften beherrschende Bestrebungen, die Maschinentechnik theoretisch zu
durchdringen. Je weiter aber dieses Vorhaben erfolgreich betrieben wurde, umso mehr
entfernte man sich von den Problemen des praktischen Maschinenbaus (König 1999, 98). Die
methodische Durchdringung des Konstruktionsprozesses fand kaum statt. Bis zum ersten
Weltkrieg sollte der technische Unterricht im Konstruieren kulminieren. Dieses im Konstru-

124
ieren enthaltene Moment der künstlerischen Intuition wurde von vielen Ingenieuren in mehr
oder weniger feierlichen Worten beschworen. Zu Beginn wie am Ende des 19. Jh. ging es
darum, Vorstellungen über die Wirksamkeit mechanischer Kräfte auch auf einer visuellen
Erfahrung der von ihnen ausgelösten und getragenen Bewegungsabläufe zu gründen und diese
in die bei der Konstruktionstätigkeit unerlässliche Intuition münden zu lassen. Meist aller-
dings ließ sich selbst an den Modellen von Kraftmaschinen lediglich der raum-zeitliche
Ablauf der Bewegung einzelner Elemente veranschaulichen. Gezeichnet wurde inzwischen
auch weniger, um die Beobachtungsfähigkeit und das gedankliche Operieren in Bildern
räumlicher Zusammenhänge sowie das entsprechende Geschick auszubilden, als vielmehr, um
lediglich Konstruktionsmuster zu reproduzieren (Mende 1994, 20f).

Jetzt bildete sich die eigentliche Konstruktionspraxis in der Industrie heraus. Die
Kommunikation zwischen den Konstrukteuren und den Fertigungsleuten über funktionale und
hierarchische Differenzierungen der Konstruktionsabteilungen führte zu unterschiedlichen
Konzeptionen des erfindenden Ingenieurs: (1) die Meisterkonstruktion: hier stand die münd-
liche Anweisung im Zentrum; es wurden Modelle und Skizzen benutzt und die unbemaßte
Werkstattzeichnung propagiert. (2) die Erfinderkonstruktion stützte sich auf die unbemaßte
Werkstattzeichnung. (3) die Konstrukteurskonstruktion: hier herrschte die bemaßte Werkstatt-
zeichnungen vor. (4) die Firmenkonstruktion: ging von schwarz-weiß-bemaßten Werkzeug-
zeichnungen aus und erstellte auf dieser Basis Stücklisten, Arbeitsvorbereitungs-, Mittel- und
Packpapierlisten auf. Damit ist endlich die Trennung von Konstruktion und Fertigung, Wirt-
schaften und Wissenschaft gestrichen. Die Trennung von Konstruktion und Fertigung geschah
aus arbeitsorganisatorischen Gründen, aus Gründen der Rationalisierung.

Bei der Meisterkonstruktion war die Einheit von Konstruktion und Fertigung gegeben. Selbst
Siemens arbeitete in dieser Weise und nach diesem Schema. Die Meister gingen in Zeitraum
von 1847 bis 1867 ausschließlich aus den handwerklich gebildeten Arbeitern hervor (König
1999, 105). Die Erfinderkonstruktion hat sich die Herauslösung der Konstruktion aus der
Fertigung zum Ziel gesetzt. In Fabriken kam es zur Serienfabrikation. Ein erstes Beispiel
dafür war Hefners Konstruktionsbüro. Auch Siemens verlegte seine Untersuchungen mehr
und mehr in sein privates Labor. Ein eigener Bote für den Kontakt zwischen Werkstatt und
Modelltischlerei war erforderlich. Die Arbeitsteilung zwischen Konstrukteur und Zeichnern
war insbesondere wichtig. Es gab große Freiheiten beim Umsetzen der Pläne und umfang-
reiche Nacharbeiten waren erforderlich. Unbemaßte Werkstattzeichnungen in Originalgröße
gezeichnet erlaubte nur eine höchst ungenaue Fertigung. Häufig traten Konstruktions- und
Werkstattfehler bei Montagen oder bei Revisionsarbeiten zutage (König 1999, 117). Eine
räumliche Nähe zwischen Konstruktionsbüro und Werkstätten wurde angestrebt. Es bildete
sich eine hierarchische Strukturierung zwischen Konstrukteuren und Zeichnern, zwischen
Copisten und Zeichnern heraus. Es gab aber keinen großen Wandel in der Ausstattung der
Zeichenbüros. Die Konstrukteure skizzieren mit Bleistift, ins Reine gezeichnet wurde mit
Feder und Tusche. Ein weiterer Schritt voran geschah mit der Konstrukteurskonstruktion. Es
kam zu einer Entwicklung der Herrschaft des Büros. Zweitens traten die Erfordernisse der
Fertigung hinter der Konzeption des Produktes zurück. Es entstand so ein neues konstruk-
tionsorientiertes Denken. Mit der Werkstattzeichnung gab man die Perspektive auf und stellte
das Objekt nach den Kriterien der Eindeutigkeit und Vollständigkeit in orthogonalen Projek-
tionen im Grundriss, im Schnitt und in verschiedenen Ansichten dar. Zeichnen ist jetzt vor
allem eines von Maschinenteilen. Angebotszeichnungen für Kunden sind ein eigenes Metier.
Dabei gibt es Zeichnungen mit Symbolen für bestimmte Bearbeitungsverfahren. Bürokrati-
sierungstendenzen traten auf.

125
Im internationalen Vergleich lassen sich für diesen Zeitraum unterschiedliche nationale Kon-
struktionstraditionen herausarbeiten. In Großbritannien ist das geringe Engagement der
britischen Industrie zugunsten der Ingenieurausbildung auffällig. Die Konstruktions- und
Zeichenbüros rekrutierten ihren Nachwuchs vor allem aus der Werkstatt. Dieser spezifisch
britische Konstruktionsstil bedingte, dass man im britischen Werkzeugmaschinenbau im
Unterschied zu dem der USA mehr Einzweck- als Mehrzweckmaschinen baute und nicht auf
Lager, sondern auf Bestellung fertigte (König 1999, 174-179). In den USA entstand die
Berufsgruppe der Maschinenbauingenieure vor allem in der industriellen Praxis. Diese
beruhte auf dem Selbststudium der Arbeiter. 1861 wurde MIT gegründet. Die Ingenieur-
ausbildung in den USA hatte unterschiedliches Niveau. Positiv war die Praxisnähe. Allerdings
bestanden unterschiedliche Zeichnungssysteme. Aus dem langjährigen Umgang mit Maschi-
nen entstand die Praxisnähe der amerikanischen Ingenieurausbildung im späten 19. Jh. Sie
manifestiert sich im relativ späten Zeitpunkt der Gründung einer Vereinigung der Maschinen-
bauingenieure. Zwischen 1880 und 1900 bildete sich die bemaßte oder unbemaßte Zeichnung
für Konstruktion und Fertigung nur im Zusammenhang mit anderen Kommunikationsmitteln
wie mündliche Anweisung und Modelle heraus (König 1999, 191). Die Fortschritte in der
Fertigungstechnik hatten einen Bedeutungszuwachs des Konstruktionsbüros zu folge. Es kam
zu einer stärkeren Trennung von Konstruktions- und Zeichenbüro im Sinne einer starken
Arbeitsteilung. Große Zeichensäle, aber auch Einzelbüros konnte man finden. Es gab mehr
Zeichenroutine und repetitive Tätigkeiten. Das „American system of manufacture“ schloss
handwerkliche Nacharbeit bei Maschinenteilen mit ein. Bessere Werkzeugmaschinen und
eine präzisere Auftragsvergabe an Zulieferer war die Folge, setzte aber umfangreichere
Normierung bzw. Typisierung voraus. Dies erlaubte die Produktion weit höherer Stückzahlen,
führte andererseits zur Entwicklung eines besonderen Konstruktionsstils, in dem nicht techni-
sche Perfektion angestrebt wurde, sondern Funktionsfähigkeit (König 1999, 199).

In Frankreich gab es technische Bildungseinrichtungen schon aufgrund der Bedürfnisse des


absolutistischen Staates. Dieser wollte eine Verkehrsinfrastruktur schaffen. Das Überwech-
seln in die Industrie allerdings war schwierig. Im Hinblick auf die Industrielle Revolution
kam es zu einer nachholenden Industrialisierung Frankreichs. Es gab zwei Ingenieurschulen,
wobei die eine die Theorie, die andere die Praxis in den Vordergrund stellte. Im 19. Jh.
erfolgte der Aufbau eines dichten Netzes technischer Primär- und Sekundärschulen etwa seit
1880. Dies verhindert aber nicht die hohe Bedeutung des technischen Self-made-man (König
1999, 206f). Die Technikentwicklung ist im Wesentlichen von externen Faktoren gesteuert. P.
Hughes Begriff des Technological Style hat aber gewisse Grenzen. Bei Hughes bezeichnet
Technological Style Variationen von technisch Gleichartigem. Darin manifestieren sich noch
Reste eines Technikdeterminismus. Hinzu kommen die kunstwissenschaftlichen Implika-
tionen des Stilbegriffs. Daher sollte man eher von Technik- und Konstruktionskultur spre-
chen. Hierin ergeben sich Konnotationen zum Kulturbegriff der modernen Anthropologie, die
im Rahmen einer Praxiskultur von einer Gesamtheit der Technik ausgeht. So lassen sich eine
Schul- und eine Praxiskultur unterscheiden. Die Schulkultur herrschte insbesondere in
Deutschland und in Frankreich. Hier wurde das technische Bildungssystem zunächst für die
Bedürfnisse des Staates geschaffen und es bedurfte einer Umorganisation für die Bedürfnisse
der Industrie. Die Angebotsorientierung im technischen Ausbildungs- und Beschäftigungs-
system, die Hochschätzung von Bildung und sozialer Aufstiegsmöglichkeiten sind Kenn-
zeichen der Schulkultur.

Durch die Weltkriege des 20. Jh. wurde die Verwissenschaftlichung der Technik zum interna-
tionalen Trend. Dabei ging es nicht nur um die experimentell im Labor zu reproduzierende,
sondern auch um die in der Praxis gewonnene, einmalige und personengebundene Erfahrung.
Dieses praktische Wissen überschreitet den im engeren Sinne technischen Bereich. Technik-

126
wissenschaft umfasst, so verstanden Wissenstypen, die ganz sozialer, politischer und
kultureller Art sind. Mit Begriffen wie Erfahrung, Know how, Tacit Knowledge ist ein
Phänomen angesprochen, dem man in der Technikgeschichte auf Schritt und Tritt begegnet.
Das gilt besonders für die Großtechnik: für den Bau und den Betrieb großer und komplexer
Anlagen, wo langfristige Materialeigenschaften, schwer überschaubare Wechselwirkungen
zwischen der Vielzahl der Komponenten und auch sehr seltene, zunächst mehr hypothetische
Störfallmöglichkeiten ins Gewicht fallen (Radkau 1989, 41-43). In der Technik gibt es keines-
wegs nur den Trend zum Großen und Komplexen. Aber die Verwissenschaftlichung der Tech-
nik wurde bereits zu einer Zeit emphatisch programmiert, als in Wahrheit davon noch keine
Rede sein konnte. An die Stelle der Zufallserfolge der frühen Jahre trat die wissenschaftliche
Sicherheit, zielte wissenschaftlich mit Sicherheit assoziiert, vor allem auf geregelte,
systematisierte Verfahren. Die Missachtung der Technik durch die humanistischen Bildungs-
eliten war in der Tat aufreizend und nahm im Laufe des 19. Jh. eher noch zu. Entgegen einer
verbreiteten Annahme ergab sich die Verwissenschaftlichung der Technikerausbildung
keineswegs von selbst aus der wachsenden Komplexität der Technik, sondern erforderte eini-
gen Legitimationsaufwand. In mehrfacher Hinsicht konsolidierte der Kampf um das Patentge-
setz das Bündnis zwischen Industrie und Wissenschaft (Radkau 1989, 158-161).

Werner von Siemens erfand die dynamoelektrische Maschine durch Probieren, und noch
Jahre danach versprach er sich von studierten Leuten kaum einen Nutzen für seine Firma.
Rein empirisch, ohne jede Systematik verfuhr der berühmte Edison. Nach in den zwanziger
Jahren waren weder die Vorgänge im Hochofen noch die im Walzwerk in theoretischer
Hinsicht vollständig geklärt. Ein besonders typisches und erfolgreiches Exportgut der deut-
schen Eisen verarbeitenden Industrie wurde Ende des 19. Jh. die Werkzeugmaschinen. Gerade
sie aber blieben laut Georg Schlesinger, dem ersten Inhaber eines Lehrstuhls für Werkzeug-
maschinen, von der deutschen Wissenschaft arg vernachlässigt. Die Werkzeugmaschine wur-
de eben nicht als vollwertige Maschine angesehen, sondern nur als maschinelles Werkzeug,
zu dessen Entwurf und Herstellung ein erfahrener Meister und vielleicht noch ein besserer
Techniker gut genug war. Ein Theoriebedarf bestand in besonderem Maße beim Großma-
schinenbau, überhaupt bei Großbauten; denn dort war das Risiko am höchsten und die
Möglichkeit, sich an ständig wiederholten Alltagserfahrungen zu orientieren, am geringsten.
Der Großbrückenbau, insbesondere der Bau der Eisenbahnbrücken gab seit der Mitte des 19.
Jh. der wissenschaftlichen Statik entscheidende Impulse. Gerade bei Großbrücken, wo Wind-
druck und Materialprobleme am stärksten ins Gewicht fielen, waren Berechnungen unzu-
verlässig (Radkau 1989, 164-167).

Die entscheidende Triebkraft bei der Verwissenschaftlichung der Ingenieurausbildung waren


nicht die Anforderungen der Technik, sondern Standesinteressen der Ingenieurselite,
unterstützt durch die in Deutschland vorherrschende Bildungsideologie. Das Verhältnis
zwischen Wissenschaft und Technik ist keineswegs nur durch die wachsende Affinität,
sondern auch durch die Entstehung neuer Spannungsfelder – vor allem der Spannung
zwischen Grundlagen- und angewandter Forschung – gekennzeichnet (Radkau 1989, 170f).
Die Niedergangsthese entsprang einer Idealvorstellung vom alten Zunfthandwerk, die sich mit
der Realität nur begrenzt deckte, und einem Zukunftsbild, in dem Fortschritt mit höherer
Mechanisierung identisch war. Anders verhält es sich, wenn man das Handwerk arbeits-tech-
nisch und anthropologisch definierte: als eine Arbeitswelt, in der es entscheidend auf manuel-
le Fertigkeiten, Erfahrung und Gefühl für Werkstoffe ankommt, wo Planung und Ausführung
nicht oder nicht überwiegend getrennt sind und die Arbeit Selbstbewusstsein vermittelt.
Handwerk, so verstanden, kann es auch in den Fabriken geben. Solingen überwand in den
70er Jahren des 19. Jh. den Makel des Billigen und Schlechten und überflügelte Sheffield, so
war das entgegen einer herkömmlichen Meinung nicht nur der Mechanisierung des Schmiede-

127
verfahrens, sondern auch der Neuformierung der Schleifer als qualifizierter Facharbeiter zu
verdanken (Radkau 1989, 188f). In der Frühzeit der Firma Siemens, als diese noch eine
Mechanikerwerkstatt und keine Fabrik war, fanden die Brüder Siemens wiederholt Anlass zu
Ärger über die Handwerker-Freiheiten, die sich ihre Mechaniker, die Herren Künstler heraus-
nahmen (Radkau 1989, 191). Im aufsteigenden Ingenieurstand waren verächtliche Bemer-
kungen über die Handwerker verbreitet. Der Sturz des Meistersystems um die Jahr-
hundertwende war das erklärte Ziel der wissenschaftlichen Ingenieure. Bis dahin war der
Ingenieur vor allem Konstruktionszeichner gewesen. Aber je mehr das Konstruieren zur
Routinearbeit wurde, und die Methoden der Massenfertigung den Ruf nach fertigungsgerech-
ter Konstruktion aufkommen ließen, desto mehr ging das Bestreben der Ingenieure dahin,
auch die Fertigung unter ihre Kontrolle zu bekommen.

1847 gründeten Werner Siemens und Johann Georg Halske eine mechanische Werkstatt zur
Ausführung elektrischer Telegrafen, doch ohne Ausschließung anderer Arbeitsgebiete. Der
Siemenssche Zeigertelegraf wurde schon zu Beginn der 1850er Jahre von dem Morseapparat
verdrängt (Hausen, Rürup 1975, 267). Aufgrund eines Großauftrages aus Russland waren die
Anfangsjahre begünstigt. Siemens stand gut da. Allerdings weisen Beschreibungen der Arbeit
in den Werkstätten aus dem Jahre 1850 auf den handwerklichen, wenig arbeitsteiligen, kaum
Werkzeug und deshalb auch kaum Kraftmaschinen erfordernden Einsatz der in der Werkstatt
vorherrschte, selbst als sie schon um die 150 Arbeiter beschäftigte. Es scheint dieser
handwerkliche Kern der Arbeiter gewesen zu sein, der sich gegen eine Rationalisierung der
Arbeit durch größere Arbeitsteilung sträubte. Die handwerklich orientierten und gelernten
Arbeiter wurden nicht Arbeiter genannt, sondern als Mechaniker, Schlosser und so weiter
insgesamt aber Gehilfen bezeichnet. Arbeiter nannte man nur die ungelernten Hilfsarbeiter,
die in der besprochenen Periode eine verschwindende Minderheit bilden. Das große Gewicht,
das auf Ausbildung, Erfahrung und Geschick der Arbeiter gelegt wurde, führte zu großen
Differenzen bei den Löhnen der Arbeiter, je nach deren Qualifikation, Geschick und Erfah-
rung. Dennoch war der tatsächlich gezahlte Unterschied im Lohn minimal. In der klaren
Arbeitsbegrenzung wie in der strikten Trennung von Arbeitsplatz und Arbeiterwohnung, aber
auch in der Möglichkeit der schnellen Entlassung von Arbeitern zeigt sich die klare
Abgrenzung der Telegrafenbauanstalt vom traditionellen Handwerksbetrieb. Um 1855 gab es
schon sechs Arbeitssäle. Jede der Säle wurde von einem der Meister geleitet. Somit fand die
erste Strukturierung der Arbeiterschaft in überschaubaren Einheiten statt. Weder die Differen-
zierung der Herstellungsobjekte, noch die Aufteilung der Arbeitsprozesse hatte einen Grad
erreicht, der sie als Gliederungsmerkmal benutzbar gemacht hätte. Mit zunehmender Diffe-
renzierung und Ausweitung des Arbeitsprozesses stellte sich das Koordinationsproblem in
verschärfter Weise. Im vorwiegend handwerklichen Arbeitsprozess scheint der Meister seine
Autorität gegenüber den Arbeitern hauptsächlich aus seiner Beherrschung des Handwerks, aus
seiner beruflichen Qualifikation gezogen zu haben. Die Art der Arbeit verlangte, dass er
seinen Untergebenen praktisch zeigen konnte, was sie tun sollten. Er hatte die Funktion, neue
Arbeiter einzuweisen (Hausen, Rürup 1975, 270-275).

Erst die Aufschwungsperiode am Ende der 1860er und am Beginn der 1870er Jahre, mit der
in Deutschland die erste Phase der Industrialisierung die Industrielle Revolution abschloss,
und die auch für die Firma Siemens intensiven Aufschwung und Expansion bedeutete, brachte
die noch immer unvollkommene Umwandlung der Telegrafenbauanstalt in eine Fabrik. bevor
der Beginn der Depression 1873 den Prozess der Ausdehnung und Umstrukturierung zunächst
bei Siemens stocken ließ. Die Grenze fand die Expansion der Firma im Mangel an Arbeits-
kräften. Die konsequente Einführung von Werkzeugmaschinen und damit auch der verstärkte
Gebrauch von Kraftmaschinen, die Hauptsächliche Antwort der Firmenleitung auf das Pro-
blem der Arbeiterknappheit und Arbeiterforderungen. Innerhalb des Berliner Geschäftes über-

128
nahm Werner Siemens die Initiative und Führung dieses Modernisierungsprozesses. Das Aus-
scheiden Halskes erleichterte es ihm, den schon lange anhaltenden Ermahnungen seiner Brü-
der aus England zu folgen und gegen den Widerstand er Werkstatt Massenfabrikation – diesen
Ausdruck gebrauchte er selbst – einzuführen. Die sich durchsetzende Maschinisierung und
veränderte Marktorientierung im Zuge des Übergangs von der Manufaktur zur Fabrik,
bedeutete nicht nur zunehmende Fremdbestimmung und Statusverlust für den einzelnen
Industriehandwerker, sondern auch Funktionsverlust für die Werkstatt im Ganzen. Die
Anstrengung wurde auf gute Konstruktion verlegt, dass Bestreben ging dahin, Normal-
konstruktionen einzuführen, welche dann billig fabriziert werden konnten und so die Konkur-
renz erleichterten. Im Juli 1869 wurde ein Zeichenzimmer eingerichtet, ein zweiter Zeichner
eingestellt und ein Tagelöhner vermittelte als Bote die Gänge zwischen Zeichenzimmer und
Modelltischlerei. Ungefähr zur selben Zeit entstanden ein technisches Vertriebsbüro und ein
erstes Laboratorium. Alle drei Abteilungen bedeuten zunehmende Fremdbestimmung für die
Werkstatt als solche. Kopf- und Handarbeit hatten sich in zwei Produktionsbereiche getrennt
(Hausen, Rürup 1975, 278-282).

Besonders die Elektrizität begründete gegen Ende des Jahrhunderts einen neuen populären
Traum vom technischen Fortschritt und einen Glauben an die Fähigkeit der Technik, die
durch sie entstandenen Probleme auf Dauer selbst lösen zu können. Erst mit der Elektrizität
wurde eine Allgegenwart der Technik, eine Technisierung des gesamten Lebens, eine Versöh-
nung von Technik und Kultur vorstellbar (Radkau 1989, 217). Der Glaube an eine wachsende
Einheit von Technik und Wissenschaft war bei sozialistischen Theoretikern besonders beliebt:
die Vergeistigung der Technik versprach, die Atmosphäre brachialer Gewalt aus der Arbeits-
welt zu verbannen und die Einheit von Hand- und Kopfarbeit wiederherzustellen. Sie glaub-
ten, dass der Weg der kollektiven Emanzipation der Arbeiterklasse über den technischen Fort-
schritt führe. In der ersten Hälfte des 20. Jh. kam es zu einer Technisierung aller Lebens-
bereiche und zur Vergesellschaftung des technischen Risikos (Radkau 1989, 222). Der
Rückgang des Dienstpersonals in vielen bürgerlichen Haushalten nach dem Krieg verstärkte
das Interesse an der Technik. Technisierung und Rationalisierung, ja Verwissenschaftlichung
des Haushalts wurden in den zwanziger Jahren zu einem beliebten Thema. Eine technische
Revolution im Haushalt wurde bis in die fünfziger Jahre durch die sparsame Gewohnheit,
vorhandene Geräte so lange wie möglich zu gebrauchen, behindert (Radkau 1989, 233f). Der
Elektroingenieur war ein anderer Typus als die herkömmlichen Maschinenbauer. Die Technik
war in dieser abstrakten Form im 19. Jh. kein Thema gewesen. Jetzt begannen Betrachtungen
über Mensch und Technik, Kultur und Technik zur Mode zu werden (Radkau 1989, 254).
Rein technisch gesehen besteht tatsächlich ein fließender Übergang zwischen Spar- und
Vergrößerungsmaßnahmen. Denn die Wärmeverluste lassen sich durch Vergrößerung der
Dampfkessel, Erhöhung des Drucks und Kombination mehrerer Produktionsprozesse vermin-
dern.

Im Zentrum der theoretischen Auseinandersetzung stand der Streit um die Mathematik und
die mathematischen Methoden in der sich ausbildenden technologischen Diskussion. Eine
idealisierte mathematische Theorie wird dabei in der Regel bestimmte Faktoren vernach-
lässigen, die für die Theorie keine Rolle spielen. Dies ist jedoch in der technologischen
Diskussion nicht so einfach möglich. Daher richtete sich der fundamentale Einwand der
Ingenieure im Hinblick auf die mathematische Theorie, dass sie eine solche Idealisierung
vornahm. Idealisierung ist fundamental für das Verständnis der Interaktion zwischen Wissen-
schaft und Technologie. Die klassischen Methoden der mathematischen Physik haben sehr oft
Linearisierung benutzt und wurden auf diese Art eine Idealisierung natürlicher Phänomene,
die sie häufig unbrauchbar machten für technologische Lösungen. So unterstellte man im
Turbinenbau ideale, homogene und uniforme Flüssigkeiten. Aber im tatsächlichen Turbinen-

129
bau spielten Wirbel, Unregelmäßigkeiten und Störungen eine zentrale Rolle, so dass die
idealisierte Theorie oft unbrauchbar war für die vitalen Interessen der Technologen. Zu den
größten Problemen für die Turbinenbauer, welche eine mathematische Theorie nicht beach-
tete, waren Probleme der Maßeinheiten, des Strömungsabbruchs und des internen Wider-
standes des Wassers. Diese einzelnen Wirkungen mussten aber in der Technologie berück-
sichtigt werden. Die unvermeidbare Idealisierung der mathematischen Theorie führten
Boyden und Francis dazu, diese zurückzuweisen verbunden mit dem Versuch eine
Turbinentheorie mit den Mitteln der klassischen Mechanik aufzustellen (Layton 1979, 76-78).

Weder Boyden noch Francis hatten irgendetwas Ähnliches wie eine allgemeine Theorie des
Widerstandes von Flüssigkeiten, aber sie dachten darüber nach, welche Effekte Turbulenzen
hervorbringen könnten. Was die beiden an theoretischen Verständnismöglichkeiten durch die
Aufgabe der Idealisierung verloren, das gewannen sie aber an Konstruktionseinsichten. Die
vollzogene Verwerfung mathematischer Theoriebildung durch Boyden und Francis wurde
ergänzt durch eine erneute Betonung der Bedeutsamkeit des Experimentes. Es war eine Art
experimenteller wissenschaftlicher Forschung, die kontinuierlich seit den 1840er Jahren bis
zum Ende des Jahrhunderts verbessert wurden, die als eine der wesentlichsten Gründe für die
bemerkenswerten Erfolge amerikanischer Turbinenkonstrukteure angeführt werden kann. Die
industrielle Erzeugung von Turbinen begann mit dem Zusammenbau von Turbinen gemäß
den von Francis vorgeschlagenen Typs und zwar in großer Stückzahl, um diese auf einem
Massenmarkt zu verkaufen. Ohne Zweifel verfolgten die Ingenieure eine Methode des
Erprobens und Versuchens inklusive Fehlversuche, aber auch die Methode rationalen
Konstruierens (Layton 1979, 80-84).

Boyden und Francis wiesen die Anstrengungen zurück, die Wissenschaft von den Turbinen in
die klassische Mechanik zurückzuversetzen und in der Tat wiesen sie fast jede mathematische
Theoriebildung zurück. An dessen Stelle entwickelten sie Konstruktionsprinzipien und ex-
perimentelle Verfahren, die die Grundlage einer empirischen Wissenschaft bildeten. Im Falle
der Turbinenkonstruktion beugten sich die Ingenieure und adaptierten die Methode und den
Geist der Naturwissenschaft, um eine eigene Ausprägung eines Typs von Wissenschaft und
Experimentierkunst zu etablieren, der in der Technologie gebraucht wurde. Aber diese
ursprüngliche Ablehnung mathematische Idealisierung zeigt den Weg auf, in denen Technik-
wissenschaften sich von Forschung und Wissenschaft unterscheiden. Forschung und Wissen-
schaft wollen Wissen, sie suchen generelle und exakte Lösungen auch um den Preis der
Idealisierung. Technikwissenschaften bzw. Ingenieurwissenschaften, da sie praktischen Zie-
len dienen, hat keine von diesen Aufgaben. Die Ingenieure nutzen Theorie aber für ihren
tatsächlichen Erfolg für die Entwicklung von technischen Artefakten ist deren Testung, Über-
prüfung und Beschreibung in Maßeinheiten nach wie vor zentral (Layton 1979, 88 f).

Der Ingenieur ist sowohl Wissenschaftler wie Geschäftsmann. Die Ingenieurskunst ist eine
wissenschaftliche Profession. Allerdings liegt der Test auf das erfolgreiche Bestehen der
Aufgabe des Ingenieurs nicht im Laboratorium, sondern auf dem Marktplatz. Dabei gibt es
einen Konflikt zwischen professioneller Unabhängigkeit und bürokratischer Loyalität. Der
Ingenieur ist der eigentliche und ursprüngliche Organisator bzw. Manager in großen Unter-
nehmen. Im 18. und weitgehend auch im 19. Jh. entwickelte sich Amerika recht schnell zu
einer Nation mit fortgeschrittenen Technologien, ohne dabei auf ein Heer wissenschaftlich
ausgebildeter Experten zurückgreifen zu können. Erst die großen Firmen und das Militär
benötigten nach dem Bürgerkrieg Experten. Zwischen 1816 und 1850 erfolgte die erste
Nachfragewelle nach Ingenieuren durch den Bau von Kanälen und Eisenbahnlinien (Layton
1986, 1f).

130
1850 gab es 2.000 Zivilingenieure in den USA, von 1880 bis 1920 wuchs die Zahl von 7.000
auf 136.000 neue technische Spezialisten. Der Ursprung der Ingenieursprofession wurde
begleitet durch eine wissenschaftliche Revolution in der Technologie. Der Professionalismus
war ein Mittel des Schutzes der Umsetzung und der Vermehrung dieses technologischen
Wissens. Der Übergang von einer traditionellen an Faustregeln orientierten Methoden zur
wissenschaftlichen Rationalität in der Technologie beinhaltet einen Wandel sowohl in
momentkraftorientierten Hinsichten wie in den langfristigen Folgen der Industriellen Revolu-
tion selbst. Ein zentrales Element in diesem Zusammenhang war die Entwicklung des Erzie-
hungswesens im technischen Bereich. Die frühen Zivilingenieure wurden durch Selbst-
studium und durch die Erfahrung in der Lehre beim Jobtraining vermittelt. Eine College-
Erziehung wuchs erst nach 1870 in den USA an. Das College-Trainung war ein Anzeichen für
eine größere Betonung wissenschaftlicher Verfahren. Aber auch hier war der Wandel eher
evolutionär als revolutionär. Das Argument für eine Kontrolle auf College-Ebene der profes-
sionellen Arbeit der Ingenieure ist eng verbunden mit der Forderung nach Autonomie für die
Ingenieure. Die professionelle Freiheit impliziert soziale Verantwortlichkeit. Für Ingenieure
war das meiste und wichtigste Element an Professionalismus der Anspruch auf einen sozialen
Status. Professionelle Autonomie ist wichtiger als Schutz gegenüber der Bürokratie. Der
Professionalismus ist nicht in sich demokratisch, aber er setzt Hierarchien unter Druck. So hat
er eine mächtige Gegenbewegung gegen die Geschäftswelt ins Leben gerufen. Er ist eine
Quelle für das Verständnis des beruflichen Hintergrundes des Ingenieurs. Außerdem geht es
darum, Selektionskriterien in der Rekrutierung von Ingenieurstudenten insbesondere aus der
Mittelklasse, aus kleineren Städten und aus alteingesessenen Familien heraus zu entwickeln.
Die meisten Ingenieure arbeiten in industriellen Bürokratien. Das professionelle Ideal wird
ausgedrückt durch Morgan. Es geht um den Einfluss auf die Geschäftswelt, es ist aber ein
indirekter und subsidiärer Einfluss auf die Geschäfte (Layton 1986, 4-18).

Die Entwicklung der Ingenieursprofession macht sich an der Qualifikation der Mitglieder in
den entsprechenden Ingenieursvereinigungen bemerkbar. Es geht um Kreativität, Design,
Konstruktion um letztendlich eine Ingenieursgesellschaft in Amerika zu formen. Die Mitglie-
der waren dazu aufgefordert einen aktiven professionellen Status in den entsprechenden
Bereichen aufzuweisen. Erforderlich für die Mitgliedschaft waren fünf Jahre Berufserfahrung
und die aktuelle Beschäftigung in einem Ingenieursbereich. Der ASCE bezahlte einen hohen
Preis für seine exklusiven Standards der Mitgliedschaft. Es gilt dabei eine Linie zu ziehen
zwischen Ingenieuren und Managern. Es war allerdings in der Tat sehr schwierig dies zu tun.
Die Definitionsmöglichkeit technischer Konstruktion war eine der Hauptschwierigkeiten der
Ingenieursgesellschaft. Der ASCE entwickelte ein ausgearbeitetes Set von Prozeduren um
professionelle Standards aufrecht zu erhalten. Es ging um die Sicherung von professioneller
Autonomie. Dazu dienten die Weltausstellungen nicht zuletzt auch um die rivalisierenden
Gesellschaften präsentieren zu können (Layton 1986, 28-32). Von 1871 bis 1912 war der
AIME mehr oder weniger eine Einmannveranstaltung. Es handelt sich um den Vorsitzenden
W. Raymond. In diesem Verein gab es gewisse Annäherungen an die Unternehmen. Mit
anwachsender Größe wurde mehr Bürokratie erforderlich. Die Mitglieder forderten
Beteiligung an den Angelegenheiten der Gesellschaft. Ein Grund für die Bildung neuer
Gesellschaften im Ingenieursbereich war die Unzufriedenheit mit dem einzelnen Ausgleich
zwischen Geschäft und Professionalität in den bestehenden Ingenieursgesellschaften. Es ging
um das Verhältnis von Geschäft und die Aufteilung der Ingenieursprofession. Der Geist
professioneller Einigkeit wurde immer wieder betont (Layton 1986, 34-46).

Ingenieure beanspruchen nicht, Philosophen zu sein. Die Konsistenz einer Theorie des
Ingenieurswesens wurde zwar immer angestrebt, war jetzt aber kein zentraler Punkt, um
dessen Einlösung man sich bemühte. Die Ingenieure haben die Spannungen innerhalb ihres

131
Konzeptes und mit den Philosophen dadurch angeheizt, dass sie den Ausdruck Gesetzmäßig-
keit in ihren Theorien sehr unterschiedlich angewendet haben. Darin manifestierte sich der
gespaltene Charakter des Ingenieurs. Die Ingenieure waren beeinflusst von Spencer, sie teilten
aber seinen Determinismus nicht. Die Ingenieure waren auf der Suche nach einer eigenen
Identität und nach einer eigenen sozialen Rolle. So wurden professionelle Werte hervorge-
hoben. Ingenieure schufen eine eigene Ideologie indem sie professionelle Werte auf eine
Spencer’sche Metaphysik begründeten. Technologie galt als angewandte Wissenschaft. Diese
professionelle Ideologie umfasste (1) Professionalismus, (2) den Ingenieur als Rationalisten,
(3) eine spezielle soziale Verantwortung (Layton 1986, 53-57). Zentral war dafür das wissen-
schaftliche Selbstverständnis. Der bindende Zement der Ingenieursgesellschaften war der
Ingenieur in seinem Verhältnis zu seiner Profession als wissenschaftlichem Wissen. Die wich-
tigste Differenz zwischen Ingenieuren und progressiven Reformern bestand in der Haltung
gegenüber der Demokratie. Die Ingenieure teilten nicht den Glauben der Progressiven an die
Demokratie. So gab es Grundstrukturen für die Rekonstruktion der Ingenieursgesellschaften.
Der Glaube an die Möglichkeiten wissenschaftlicher Lösungen sozialer Probleme gehörte zu
den Grundannahmen der Ingenieursgesellschaften. Das war ein technokratisches Modell.
Ingenieure sahen keine Gefahr in der Macht und in den Vorgaben der Geschäftswelt. Es gab
nur schwache Einflüsse der Gewerkschaften auf die Ingenieursgesellschaften. Leitend wurden
die Ideen des Erfolgs und der Kontrolle des Ingenieurswerkes (Layton 1986, 58-73).

Die Professionalität der Mitglieder wurde ein zentrales Motiv, auch um die formalen
Voraussetzungen für den Beitritt neu zu klären. In den 20er Jahren des 20. Jh. fand eine
Wende von Professionalismus zum Geschäft statt. Es entstand eine professionelle Elite
(Layton 1986, 79-93). Veränderungen in den Aufgaben des Ingenieurs im 20. Jh. warfen
erneut Statusfragen auf. Die zu schnelle Ausdehnung der Erziehung der Ingenieure führte zu
einer Verlängerung der Studienzeit. Der Technokratieansatz macht den Menschen zum Mate-
rial. So entstand die Idee einer Ingenieurskooperation mit anderen professionellen Feldern.
Das Ingenieurskonzil schlug fehl in der Aufgabe einer Vereinigung der Ingenieursprofession
(Layton 1986, 111-127). Im Zeitalter der wirtschaftlichen Depression erfolgte auch eine Para-
lyse der Ingenieursprofession. Es gab keine Ingenieurslösung für die wirtschaftliche Depres-
sion. Dies war auch in gewisser Weise ein Rückschlag für die technokratischen Ideale. So
wurde 1935 der New Deal formuliert der auf stärkeren Regionalismus setzte. Das Ingenieurs-
konzil für die professionelle Entwicklung wurde 1932 gegründet und sollte der Professio-
nalitätssicherung dienen. Der wissenschaftliche Professionalismus war aber letztendlich nicht
unbedingt erfolgreich. Es kam zu gewissen Verwerfungen in der Ingenieurstechnologie.

Henry Perkin, der Entdecker des ersten Teerfarbstoffs, hat sein Verfahren nur dadurch
erfolgreich industriell umsetzen können, dass er sich von der erlernten chemisch-wissen-
schaftlichen Methodologie löste und sich der traditionell britisch handwerklich-empirischen
chemischen Technologie anvertraute (König 1995, 289). In der Zeit, als die Chemieunter-
nehmen noch über keine Forschungslaboratorien verfügten, aber auch noch später, erwarben
sie von den Leitern der chemischen Hochschulinstitute Verfahren, die zu Stoffen führten, für
die man sich Chancen auf den Markt ausrechnete. Die Synthesen der wichtigsten Naturfarb-
stoffe kamen alle aus den Hochschulen (König 1995, 291f). Für die Elektrotechnik kann man
durchaus von einer Verwissenschaftlichung sprechen. Der Verwissenschaftlichungsprozess
der Elektrotechnik lief im 19. Jh. langsam an, erfuhr seit den 1890er Jahren eine enorme
Beschleunigung und ist bis zur Gegenwart nicht abgeschlossen. Die wissenschaftliche Elek-
trotechnik entwarf zur Beschreibung und Erklärung elektrotechnischer Maschinen, Apparate
und Prozesse technikwissenschaftliche Modelle.

132
In diese Modelle flossen naturwissenschaftliche Gesetzesaussagen ein, Ergebnisse technik-
wissenschaftlicher Versuche, aber auch formuliertes praktisches Erfahrungswissen. Mit der
Verbesserung der Abbildungsqualität der Modelle wurden sie zunehmend in der elektro-
technischen Praxis zur Vorausberechnung von Variantenkonstruktionen sowie bei Entwick-
lungsarbeiten eingesetzt. Zum Verhältnis von Wissenschaft und Technik gibt es in der Litera-
tur unterschiedliche Thesen:

(1) Technik und Wissenschaft sind unabhängig voneinander, weil prinzipiell unter-
schieden,
(2) Technik und Wissenschaft sind zufälligerweise interdependent, die Richtung des
Einflusses wechselt,
(3) Das Verhältnis von Wissenschaft und Technik hat sich dahingehend historisch ge-
wandelt, dass die zunächst bestehende Unabhängigkeit und die spätere Führung-
srolle der Technik gegenüber der Wissenschaft durch die Verwissenschaftlichung
der Technik abgelöst wird,
(4) Technik und Wissenschaft befinden sich in einem systematischen Abhängig-
keitsverhältnis, es gibt eine Verwissenschaftlichung der Technik und eine gleich-
zeitige Technisierung der Wissenschaft (König 1995, 297f).

Im Hinblick auf die Elektrotechnik und ihre Verwissenschaftlichung lassen sich drei Phasen
unterscheiden: (1) eine Zeit des Probierens, die bis in die 1880iger Jahre hinein dauerte, (2)
eine Zeit der empirischen Rechnungsformeln in den 1880er Jahren und (3) eine Zeit der
theoretischen Durchdringung, die um 1890 einsetzte (König 1995, 305). Selbst manche
Formeln in den Lehrbüchern drückten einfach Erfahrungswissen aus, das aber nur einen auf
eine Reihe von Maschinen begrenzten Gültigkeitsbereich besaß (König 1995, 310). Verwis-
senschaftlichung der Elektrotechnik lässt sich verstehen als Dominanz antizipativer Theorie in
erfolgreichen Erfindungs-, Entwicklungs- und Konstruktionsprozessen. Bei den genannten
Beispielen kann man zwar den Standpunkt vertreten, dass Technik aus Wissenschaft hervor-
ging, aber nicht aus dem wissenschaftlichen Wissen, sondern aus Wissenschaft als sozialem
System. Mit der qualitativen Expansion der Wissenschaft im 18. und 19. Jh. ist eine grundle-
gende Verschiebung der kognitiven Beziehungen zwischen Wissenschaft und Technik nicht
gegeben (König 1995, 316-318).

Anfang der 1880er Jahre richteten die Hochschulen erste Vorlesungen und kurz danach
Professuren und Laboratorien für Elektrotechnik ein. Der Institutionalisierungsschub stand im
Zusammenhang mit einem Aufschwung der praktischen Elektrotechnik, insbesondere mit der
Einrichtung von Lichtstromnetzen in den großen Städten (König 1995, 1). Die Elektrotechnik
entstand im Spannungsfeld zwischen naturwissenschaftlichen und technikwissenschaftlichen
Disziplinen, wobei die letzteren erst in der Zeit um die Jahrhundertwende ihre methodo-
logische Eigenständigkeit erreichten. Die fachliche Herkunft der Elektrotechnikprofessoren
wandelte sich in den 1890er Jahren radikal. Die Gründergeneration des Fachs entstammt in
erster Linie der Hochschulphysik. Nach der Jahrhundertwende vertraten solche Professoren
allenfalls die theoretische Elektrotechnik, während die für Elektromaschinenbau und Anla-
genprojektion zuständigen Fachvertreter jetzt Elektrotechnik und Maschinenbau studiert hat-
ten und über in der Industrie gewonnene praktische Erfahrung verfügten.

An den Hochschulen herrschte anfangs große Unsicherheit bezüglich der Gestaltung des
elektrotechnischen Studiums. Die rivalisierenden Konzeptionen bewegten sich zwischen den
Polen Theorieorientierung und Praxisorientierung sowie Physik und Maschinenbau (König

133
1995, 3f). Außerdem geht es um die Nahtstelle zwischen Ausbildungs- und Beschäftigungs-
system. Das Bewusstsein einer Forschungsaufgabe der technischen Hochschulen begann sich
Ende des 19. Jh. durchzusetzen. Dann gab es gut ausgestattete Maschinenlaboratorien auch
für die Elektrotechnik. Zwar lieferte die Hochschule über die Ausbildung von Elektrotechnik-
studenten Wissen an die Industrie, aber die Inhalte dieses Wissens stammten letztendlich aus
der Industrie selbst. An die Hochschule berufene Industrieingenieure wirkten als Wissensver-
mittler. Die Hochschule war also eher eine Instanz der Wissensvermittlung als der Wissens-
erzeugung. Insofern kann man hier von einer industriebasierten Wissenschaft reden. König
bestimmt Verwissenschaftlichung als Dominanz antizipativer Theorien in Erfindungs-, Ent-
wicklungs- und Konstruktionsprozessen. Die soziale und akademische Institutionalisierung
der Elektrotechnik geht also der kognitiven Verwissenschaftlichung voraus (König 1995, 5f).

Wegen der geringen zur Verfügung stehenden elektrischen Arbeit im 18. Jh. blieb das
Repertoire elektrischer Experimentier- und Unterhaltungskünste begrenzt. Als dann Allessan-
dro Volta 1799 mit seiner „Säule“ den Prototyp einer Batterie der Öffentlichkeit präsentierte,
stand eine konstante Stromquelle zur Verfügung, die systematisches Experimentieren mit der
neuen Naturkraft der Elektrizität erlaubte. Um 1880 begann sich eine neue Fachgemeinschaft
der Elektrotechnik herauszubilden. 1879 gründete sich in Berlin der Elektrotechnische Verein
und entwickelte sich die Starkstromtechnik. Die Frage liegt nahe, warum für die Elektro-
technik nicht im Zusammenhang mit der Einführung und Verbreitung der Telegrafie,
immerhin eine Industrie und ein technischer Anwendungsbereich von beträchtlicher Potenz,
ein Institutionalisierungsprozess einsetzte. Der Bedarf an Technikern war in der telegrafischen
Industrie klein und ließ sich ohne weiteres durch innerbetrieblichen Aufstieg qualifizierter
Arbeiter befriedigen. Auf diese Weise stand das staatliche Post- und Telegrafenmonopol
einem Ausbau der Telegrafie an den technischen Hochschulen im Wege (König 1995, 9-13).
Es lag in der besonderen Situation der Darmstädter Hochschule, dass die bestehenden
Tendenzen zur akademischen Institutionalisierung der Elektrotechnik gerade hier einen
fruchtbaren Boden fanden. Die für die weitere Entwicklung des Faches entscheidende Frage
lag darin, wie man die Elektrotechnik in das Fächerspektrum der Hochschule eingliedern
sollte. Der Erfolg Darmstadts beruhte auf der Person Kittlers, der frühen zukunftsweisenden
Institutionalisierung und den im Vergleich zu anderen Hochschulen erheblichen für den Auf-
und Ausbau der Übungseinrichtungen zur Verfügung stehenden Mittel. Werner Siemens
Anregung, an den Technischen Hochschulen Lehrstühle für Elektrotechnik einzurichten,
scheint in Stuttgart eine größere Rolle gespielt haben als in anderen Hochschulen (König
1995, 13-21).

Im Jahre 1882 begann eine intensive Diskussion über die Institutionalisierung der Elek-
trotechnik an den Technischen Hochschulen; einige Hochschulen und Regierungen bereiteten
spezielle elektrotechnische Veranstaltungen oder schon die Einrichtung von Laboratorien und
Lehrstühlen vor. Siemens und Halske war das einzige elektrotechnische Großunternehmen in
Deutschland. Viel spricht dafür, dass es sich bei der fraglichen Passage von Siemens mit der
Aufforderung der Einrichtung von Elektrotechnikprofessuren um eine Nebenbemerkung
handelte, hinter der keine durchdachte oder ausgearbeitete Institutionalisierungsstrategie
steckte. Darüber hinaus lässt es der Quellenbefund sogar sehr fraglich erscheinen, dass
Siemens den Institutionalisierungsprozess in irgendeiner Weise auch nur beschleunigte (Kö-
nig 1995, 87-89). Schließlich kam Siemens geringes Interesse auch daher, dass er der Auf-
fassung war, Elektrotechniker werde man erst in der industriellen Praxis und nicht auf der
Hochschule. Ganz falsch antizipierte Siemens die beruflichen Einsatzfelder der Elektrotech-
niker und die Größe des Bedarfs (König 1995, 92f). Die Bedeutung der technisch-industriel-
len Ursache der Institutionalisierung übertraf die der wissenschaftlich-kognitiven bei weitem.
Weder gab es um 1880 entscheidende Durchbrüche bei der theoretischen Erklärung elektri-

134
scher Maschinen, dem Schlüsselelement der sich entwickelnden Starkstromtechnik, noch
nahm die Industrie die Institutionalisierungs-Diskussion auf Ergebnisse der theoretischen
Elektrizitätslehre überhaupt Bezug. Die Institutionalisierungsmaßnahmen zielten auf die Aus-
bildung von Elektrotechnikern, nicht auf die Produktion theoretischen Wissens. Die Anstöße
für eine Institutionalisierung der Elektrotechnik fielen in einen Zeitraum als die Technischen
Hochschulen eine Krise durchzumachen hatten. Sie durchschritten eine Talsohle in der
Besuchsfrequenz, deren tiefster Punkt 1883/84 lag. Die Existenzfrage stellte sich besonders
für die kleineren Hochschulen und wurde oft mit dem Versuch der Institutionalisierung neuer
Studiengänge beantwortet (König 1995, 102f).

In der Zeit zuvor war an Technischen Hochschulen Wissenschaft und Theorie identifiziert
worden, als deren Zentrum und Inbegriff die Physik galt. Technik dagegen galt als bloße
Anwendung und deswegen als eine außerhalb der Naturwissenschaften stattfindende wissen-
schaftliche Behandlung. Aus dieser Betrachtungsweise heraus erschien die an den Techni-
schen Hochschulen zu lehrende Elektrotechnik als Addition von physikalischer Wissenschaft
und technischer Anwendung. Wenn dann Lehmann und Brown noch die Aussagen hinzu-
fügten, Anwendungskenntnisse seien besser in der Industrie als an der Hochschule zu erwer-
ben, dann war es nur noch ein Schritt, um Technischen Hochschulen generell ihre Existenz-
berechtigung abzusprechen (König 1995, 105). In der Technik geht es um die Lösung von
Aufgaben unter ungünstigen Bedingungen. Mehrere Prinzipien technischer und technikwis-
senschaftlicher Arbeit finden Verwendung:

(1) Das Ökonomieprinzip: Technik steht in wirtschaftlichen Zusammenhängen. Diese


Zusammenhänge haben technik- und technikwissenschaftliche Lösungen zu be-
achten.
(2) Das Ziel–Mittel–Prinzip: Technische Lösungen sind nur unter Bezugnahme auf
Ziele zu beurteilen. Eine Veränderung der Ziele führte zu einer Veränderung der
Mittel.
(3) Das Prinzip der Offenheit technischer Systeme: Auf technische Systeme wirken
immer zahlreiche Einflussfaktoren ein. Während es in den Naturwissenschaften
darum geht, das zu untersuchende System von Störgrößen zu isolieren, geht es in
den Technikwissenschaften darum, diese einzubeziehen. Aus diesem Grund legten
die Elektrotechniker auch keinen Wert darauf, ihre Laboratorien von Außen-
einflüssen, wie durch Straßenbahn herrührende Erdströme oder Erschütterungen
abzuschirmen. Im Gegenteil: Diese waren erwünscht, denn so ließen sich praxis-
nähere Messmethoden und Erklärungsmodelle entwickeln (König 1995, 108f).

Sieht man von Hannover als Ausnahme ab, so hemmte eine Anlehnung an die Physik die
Entwicklung des Faches. Das Fach Physik bewahrte an den Technischen Hochschulen im
Großen und Ganzen seine Stellung. Allerdings hieß dies in der Zeit vor dem 1. Weltkrieg,
dass die Physik an den meisten Hochschulen ein auf die Lehre konzentriertes Schattendasein
führte. In der Elektrotechnik dagegen entstanden materiell ausgezeichnet ausgestattete Groß-
institute. Aus einem Randbereich des Fächerspektrums der Technischen Hochschule war die
Elektrotechnik in das Zentrum der Ingenieurfächer gerückt. Früher ein Teilgebiet der Physik
nutzte Elektrotechnik diese jetzt als Hilfswissenschaft. Günstige Bedingungen für eine
gedeihliche Entwicklung des Faches ergaben sich vor allem da, wo sich die Elektrotechnik
möglichst früh verselbständigte. Die Gegner einer Differenzierung und Spezialisierung der
Elektrotechnik standen auf verlorenem Posten. Zuerst bahnte sich dieser Prozess in Form von
thematischen Lehrveranstaltungen an; nach der Jahrhundertwende nahm er durch die
Einrichtung spezieller Professuren seinen Lauf. Zu dieser Zeit ging die scientific community

135
der Elektrotechniker zumindest von einer Dreigliederung des Faches aus: die theoretische
Elektrotechnik, Elektromaschinenbau und Anbauprojektion (König 1995, 110-116).

Die Entwicklung des Faches hing im hohen Maße von der Person des ersten Fachvertreters
ab. Bei den Hausberufungen lag ein Problem darin, dass die Dozenten bereits in die Physik
oder in den Maschinenbau eingebunden waren, was sie zur Rücksichtnahme nötigte. Das
machte es ihnen schwer, für das Fach Elektrotechnik einen Neuanfang zu setzen. Der
fachliche Erfolg hing nicht davon ab, ob die Elektrotechniker Physik oder Maschinenbau oder
beides studiert hatten, sondern davon, ob es ihnen gelang, sich in die durch die Industrie
geschaffene Elektrotechnik einzuarbeiten und mit ihrer Entwicklung Schritt zu halten. Die
grundsätzliche Einsicht, dass man an die Technischen Hochschulen Industrietechniker
berufen müsse, ließ sich nur langsam in die Tat umsetzen. Eine Standardkarriere des
Hochschullehrers für Elektrotechnik hatte sich noch nicht endgültig herausgebildet (König
1995, 121-128). Hinsichtlich der Frage einer möglichen Dominanz des Siemenskonzerns
besagt die eine Hypothese, dass im Technologiekonzern Siemens Forschung und Entwicklung
einen größeren Stellenwert besaßen als bei anderen Firmen, so dass sich die Mitarbeiter in
diesem Bereich besonders qualifizieren konnten. Und die andere Hypothese, die die erste
gegebenenfalls ergänzt, geht dahin, dass der Siemenskonzern seinen Mitarbeiter größere
Freiräume ließ, Forschungs- und Entwicklungsergebnisse in der Fachöffentlichkeit vorzu-
stellen wie Patente zu erwerben und sich dadurch für einen Lehrstuhl zu qualifizieren. Für ein
elektrotechnisches Unternehmen bedeutete die Berufung eines ihres Mitarbeiters an die
Technische Hochschule Gewinn und Verlust gleichermaßen. Kurz und mittelfristig überwog
der Verlust bei weitem (König 1995, 133). Gegenüber der Industrieerfahrung standen alle
anderen Kriterien zurück (König 1995, 137). Indem die maschinentechnische Interpretation
der Elektrotechnik gegenüber der physikalischen und die praxisorientierte gegenüber der
theorieorientierten das Übergewicht gewann, verschoben sich auch die Gewichte in der
Ausbildung (König 1995, 149). Deutlich wird die zunehmende Praxisorientierung des
elektrotechnischen Studiums bei einer differenzierten Betrachtung der elektrotechnischen
Studienanteile (König 1995, 157). Bis zu einem Tiefpunkt 1908/1909 verminderte sich die
Zahl der Elektrotechnikstudenten um mehr als die Hälfte (König 1995, 183).

Schon die Zeitgenossen, aber auch Historiker haben eine Verbindung zwischen dem
wirtschaftlichen Aufstieg Deutschlands in der Hochindustrialisierung und dem deutschen
System der technisch-naturwissenschaftlichen Bildung hergestellt (König 1995, 189). Ein
wichtiger Faktor war der Konkurrenzkampf unter den Technischen Hochschulen im Fach
Elektrotechnik. Mit der Zeit und besonders nach der Jahrhundertwende drangen immer mehr
Ingenieure in die Spitzen der technischen Leistungsverwaltungen der Kommunen ein (König
1995, 235). Für viele Hochschulabsolventen bildete die Konstruktion die Anfangsstellung in
der Industrie, ehe sie in andere Abteilungen wechselten (König 1995, 242). Während die
elektrotechnische Elite im Staatsdienst teils von den Universitäten, teils von Technischen
Hochschulen kamen, entstammte die elektrotechnische Elite in der Industrie zum ganz über-
wiegenden Teil den Technischen Hochschulen. Die Universitäten, die technischen Mittel-
schulen und die praktische Ausbildung in der Industrie teilten sich den Rest. Nach der Jahr-
hundertwende, als die Technischen Hochschulen das Promotionsrecht errungen hatten, waren
die Professoren im allgemeinen auf angewandte Forschung und Lehre als gleichgewichtige
Aufgaben an und damit den Jahrzehnte dauernden Internalisierungsprozess dieses zentralen
Elementes des Humboldt‘schen Universitätsideals abgeschlossen (König 1995, 255-257).

Nach der Jahrhundertwende tauchten vereinzelt Klagen von Hochschullehrern auf, dass das
Beratungsgeschäft schwieriger geworden oder ganz eingeschlafen sei. Befanden sich die
Professoren in den 1880er Jahren noch auf einer weiten Flur, so hatte sich inzwischen die

136
selbst großgezogene Konkurrenz in Gestalt ihrer Absolventen zu ihnen gesellt. Es gab
freiberuflich tätige Elektrotechniker, die ihre Dienste anboten. Dazu kam der konjunkturelle
Einbruch in den Jahren 1901/02, der die Firmen zumindest vorrübergehend veranlasste, selbst
für die Kunden detailliert ausgearbeitete Projektangebote zu erstellen. Die städtische Verwal-
tung hatte mittlerweile eigene elektrotechnische Kompetenz aufgebaut und ihre Abhängigkeit
vom Gutachten Externer verringert. In den 1880er und 1890er Jahren hatten die Professoren
wichtige Anstöße für die Elektrifizierung gegeben. Nun hatte diese eine Eigendynamik
gewonnen und lief auch ohne sie (König 1995, 276f). Der Karriereweg der Professoren verlief
als Einbahnstraße von der Industrie zur Hochschule. Das in der Industrie erzeugte
Forschungswissen war – implizit oder explizit – in den elektrischen Maschinen, Apparaten,
Anlagen und Verfahren inkorporiert, mit denen sich die Professoren und die Studenten prak-
tisch und theoretisch beschäftigten. Wenn König den Begriff Science-based-Industry
problematisiert und stattdessen die akademische Elektrotechnik als Industriewissenschaft, als
industry-based-science charakterisiert, dann liegt dieser Umkehrung eine Analyse des Rich-
tungsverlaufes der Wissensströme zwischen der Industrie und Wissenschaft zugrunde (König
1995, 286f).

Im Bereich der Technikwissenschaften gibt es eine eigene Grundlagenforschung. Viele


technische Probleme konnten nur durch ingenieurwissenschaftliche Grundlagenforschung
gelöst werden. Die Ingenieursleistung sollte als eigenständige wissenschaftliche, also geistige
Leistung anerkannt werden. Demgegenüber wird Technik bevorzugt als manuelle Leistung
empfunden. Dies ist allerdings nicht richtig, denn Technik trägt zur Durchgeistigung der
materiellen Welt bei. Zunächst ist die Tatsache wichtig, dass nach dem zweiten Weltkrieg die
theoretische, insbesondere auf Mathematik und Physik aufbauend Komponente der Ingenieur-
wissenschaften, von der auch die entscheidenden Konstruktivleistungen abhängig sind, an
Wichtigkeit für die Gesamtentwicklung erheblich zugenommen hat (Klöppel 1961, 1145f).
Vorraussagen über die Sicherheit der Konstruktion aufgrund solcher Forschungsergebnisse
sind auch noch mit einem hohen Maß persönlicher Verantwortung belastet, wie sie viele
Wissenschaften nicht kennen. Auch das Experiment spielt bei dieser Grundlagenforschung
der Ingenieurwissenschaften eine immer größere Rolle; darum hat auch die Anzahl der
Laboratorien für ingenieurwissenschaftliche Lehrstühle in den letzten Jahrzehnten bedeutend
zugenommen (Klöppel 1961, 1149-1151). Leiblichkeit ist ein Mittelding zwischen Körper-
lichem und Geistig-Seelischem. Umgangswissen enthält einen impliziten Anteil an Gegen-
standsbezug, nämlich zur Natur und zum technischen Artefakt wie mit dem anderen
Menschen, denn Technik ist ein kultureller und als solcher auch einer leiblicher Vorgang.

Die wachsende Wissenschaftsorientierung der Technik gilt gemeinhin als ein Signum der
Moderne. Bis zur zweiten Hälfte des 19. Jh. hatten die Wissenschaften im Wesentlichen Welt-
beschreibungen abgeliefert. Jetzt aber begannen sie, substantiell an der Möblierung der Welt
mit Artefakten mitzuwirken und zugleich ein Sicherheitsversprechen dafür abzugeben. In
Gestalt der, grob veranschlagt, zwischen dem späten 17. und der zweiten Hälfte des 19. Jh. in
ihrer klassischen Form entstehenden Technikwissenschaften schufen sich Ingenieure ein
identitätsstiftendes Sonderwissen und eine genuine Wissenschaftskultur mit spezifischen
Anwendungskontexten, Sprachen, Denk- und Argumentationsstilen, Methodenarsenalen,
symbolischen Repräsentationen und Traditionsbildungen, die vornehmlich die deutsche
Ingenieurkultur nachhaltig prägte. Die Operationalisierung der mit der Technisierung des
Alltags und des Konsums im 20. Jh. allmählich reifenden Einsicht, dass technisches Wissen
nicht nur in den Sphären von Wissenschaft und Gütererzeugung entsteht, sondern die Nutzer
von Technik als aktive Koproduzenten zu begreifen sind, die im Umgang mit technischen
Objekten ebenfalls relevantes Wissen erzeugen, würde unser Thema sprengen (Hänseroth
2003, 16).

137
Ein die Gesellschaftlichkeit von Technik integrierendes Technikverständnis hatte bereits in
dem 1806 von Johann Beckmann alternativ zu den entstehenden klassischen Technikwissen-
schaften entwickelten Wissenschaftsprojekt der allgemeinen Technologie zugrunde gelegen,
das freilich noch stark von vormodernen Entstehungs- und Anwendungskontexten geprägt
war (Hänseroth 2003, 18). An bau- und maschinenmechanischen Erkenntnissystemen
orientierte wissenschaftliche Verfahren begannen auf breiterer Front seit den 1850er und
1860er Jahren, zuerst in Deutschland und Frankreich, in die Konstruktionsbüros einzuziehen.
Bald auch im Fall zu erteilender staatlicher Genehmigungen für neue Technik im Zuge der
Entstehung der modernen technischen Bürokratie zwingend gefordert wurden wissenschaft-
liche Verfahren zu einer festen und obendrein zunehmend professionellen Identität. Dies
führte zu technikbezogenen Praktiken, Routinen und Habitualisierungen von Konstrukteuren
und damit auch allmählich zu funktions- und gestaltbestimmenden Bestandteilen technischen
Handelns (Hänseroth 2003, 20).

Dabei verhalf zunächst keineswegs der Nachweis überlegener Leistungsfähigkeit in der


Konstruktionspraxis wissenschaftlichen Methoden zum Durchbruch. Ihre Bedeutung war
vielmehr in jenen wenigen Fällen, in denen bis dahin bau- und maschinenmechanische
Analysen in den Konstruktionsprozess Eingang gefunden hatten, eher gering. Die Konstruk-
tionspraxis kam zu dieser Zeit noch ohne wissenschaftliche Verfahren aus, die ohnehin erst ex
post zur wissenschaftsgestützten Analyse eingesetzt wurden. Zudem waren angesichts sowohl
noch gering ausgeprägter Praxisrelevanz bau- und maschinenmechanischer Verfahren
einschließlich ihres mathematischen Apparates als auch ungenügend entwickelten Umgangs-
wissen der Akteure mit den neuen Theorien gravierende Fehler bei mechanischem Ansatz und
im Rechnungsgang an der Tagesordnung. Insofern erlangte das nunmehr in den Alltag des
Konstruierens einziehende Leitbild verwissenschaftlichter Ingenieurtätigkeit zwar handlungs-
orientierende Kraft und prägt im Verein mit der Durchsetzung der Schulkontur im Maschi-
nenwesen und in den technischen Berufen des Bauwesens rasch die professionelle Identität
von Ingenieuren, vermochte dagegen keineswegs handlungsbestimmend zu wirken. Die tech-
nische Praxis musste mit ihrem Zwang zu geschlossenen, komplexen Lösungsstrategien, die
den methodischen vize versa vorgehenden und ohnehin nur Teilbereiche erfassende inge-
nieurwissenschaftlichen Ansätzen eine unterstützende Funktion einräumen konnten, dass
szientistische Leitbild Tag für Tag ad absurdum führen. Für die Gesellschaft geriet Wissen-
schaft primär zu einer Instanz, die in Technik umsetzbares sicheres Wissen zu erzeugen hat
(Hänseroth 2003, 21).

Das der offenen Situation einer Umbruchzeit geschuldete Defizit zeigt sich bei der näheren
Betrachtung zu dem als Defizit an allgemein akzeptierten Legitimationsquellen neuer Technik
sowohl gegenüber Fachkollegen, Nutzern und Auftraggebern sowie ihren Banken und
Versicherungen und im Schadensfall eventuell. unternommenen Versuchen, den Konstrukteur
haftbar zu machen, als auch in freistaatlicher Genehmigungspflicht. Hatte man doch zusam-
men mit den nunmehr als defizitär begriffenen Wissens- und Könnensbeständen auch der für
die vorindustrielle Technikgenese typisch personengebundenen Könnensnachweis funktio-
nierender Technik seine Beweiskraft verloren. Das Paradigma vermeintlicher Unfehlbarkeit
wissenschaftlich begründeter Aussagen sorgte dafür, dass in die aufgebrochene Lücke der
Apologie und Legitimation neuer Technik nunmehr scheinbar objektives, allgemeingültiges
wissenschaftliches Wissen als abstrakter Wahrheitsnachweis einer von der Autorität der
Wissenschaft gestützten, „objektiv richtigen“, gleichsam sachzwangartig zustande gekomme-
nen Technik hineinwuchs. Zur Vertrauensbildung in den Fortschritt der Wissenschaft als
Fundament modernen Fortschrittsglauben vermochten sich jetzt natur- und technikwissen-
schaftliche Ergebnisse und Erkenntnissysteme zur Kompensation all dieser Legitimations-
defizite zu präsentieren (Hänseroth 2003, 22-24).

138
Heftige Auseinandersetzung um Umfang, Inhalt, Methoden und Stellenwert der mathemati-
schen Ausbildung für Ingenieure wurde in den 90er Jahren des 19. Jh. hauptsächlich auf der
Ebene der technischen Hochschulen geführt und sie sind unter der zeitgenössischen Bezeich-
nung „antimathematische Bewegung“ in die Geschichte eingegangen. Der Streitpunkt war die
Praxiswirksamkeit der Mathematik. Das Kernproblem bei der mathematischen Modellierung
lässt sich wie folgt umreisen: Ziel ist es, einen realen Sachverhalt hinreichend genau in eine
mathematisches Problem abzubilden. Die Wirklichkeit ist aber im Allgemeinen viel zu
komplex, um in einem noch überschaubaren und handhabbaren Modell ausgedrückt werden
zu können. Daher erfordert die Modellbildung stets eine Vereinfachung, indem bestimmte, für
das jeweilige Modellierungsziel „unwesentliche“ Faktoren vernachlässigt, andere Faktoren
von ihrem Charakter her idealisiert werden (Hensel u.a. 1989, 1-4). Die Genese der
Technikwissenschaften wird in drei große Perioden gegliedert. Die Vorperiode reicht bis etwa
1780, wobei von etwa 1450 bis etwa 1780 die unmittelbaren Voraussetzungen für die
Herausbildung der Technikwissenschaften geschaffen wurden. An die klassische Periode (von
1780 bis etwa 1950) schließt sich die moderne Periode an. Die klassische Periode wird in eine
Herausbildungsphase (1780 bis etwa 1860), eine Konsolidierungsphase (etwa 1860 bis etwa
1920) und eine Phase der Vorbereitung der modernen Periode unterteilt. Da das Maschinen-
wesen aber auch noch um die Wende zum 20. Jh. den Kern der Technikwissenschaften
ausmachte, die Auseinandersetzungen um die mathematische Lehre für Ingenieure wesentlich
von Vertretern des Maschinenwesens getragen wurden und sich zunächst vor allem auf die
Ausbildung der Maschineningenieure bezogen, werden wir uns jetzt und im Folgenden
vorrangig an diesen Teil der Technikwissenschaften konzentrieren (Hensel u.a. 1989, 5).

Insbesondere das englische Ausbildungssystem war dadurch charakterisiert, dass die techni-
schen Fachkräfte noch fast bis zum Ende des 19. Jh. nach dem Lehrlingssystem oder dem
sogenannten „On the Jobtraining“ ausgebildet wurden. Frankreich und Deutschland waren in
Bezug auf ihre ökonomische Entwicklung im Rückstand. Um ihn wettzumachen, gingen sie
den für sie am aussichtsreichsten erscheinenden Weg, nämlich die Wissenschaft in die
Produktion und das gesamte technische Schaffen hineinzutragen. Diese Gedanken beruhten
auf einem Analogieschluss: Da sich Mathematik und Naturwissenschaften bereits im Bereich
der Naturerkenntnis, insbesondere beim Ausbau der Himmelsmechanik großartig bewährt
hatten, lag es nahe, sie auch zur Förderung der Gewerbe einzusetzen. In den deutschen
Staaten waren die zumeist als höhere Gewerbeschulen gegründeten polytechnischen Schulen
direkter Ausdruck der Suche nach Wegen, den Erfordernissen der industriellen Revolution zu
entsprechen (Hensel u.a. 1989, 6). Im deutschsprachigen Raum formierte sich in Anlehnung
an die Vorzüge der französischen Ingenieursausbildung und die Besinnung auf die Gestalt der
Bergakademien vorhandenen eigenen Traditionen ein eigenständiges polytechnisches
Konzept, das methodisch auf das Erfassen des Verhältnisses von naturwissenschaftlichen
Erkenntnissen und praktischen Erfahrungen gerichtet war. Die auf G. Monge zurückgehende
Grundidee, dass Mathematik und Naturwissenschaften einschließlich der Mechanik grund-
legende Disziplinen für den Ingenieur seien, war auch bei der Organisation der polytech-
nischen Schulen maßgebend gewesen und drückte sich in dem hohen Anteil aus, den diese
Fächer im Studienplan einnahmen (Hensel u.a. 1989, 7).

Das Wirken Redtenbachers kennzeichnet den Abschluss der Herausbildung des


wissenschaftlichen Maschinenwesens als technikwissenschaftliche Disziplin. Die Periode der
Konsolidierung des wissenschaftlichen Maschinenwesens war vor allem dadurch charak-
terisiert, dass ihre Vertreter bewusst über die mathematische Modellierung technischer Sach-
verhalte, wie sie die französischen Polytechniker bereits ausgeführt hatten, hinausgingen. Es
kam ihnen dabei darauf an, aus dem Maschinenwesen selbst sich ergebende theoretische
Konsequenzen von möglichst hohem Allgemeinheitsgrad zu schaffen. Als Ziel schwebte

139
ihnen vor, das Erfinden und Konstruieren deduktiv zu gestalten und die Probleme des
Maschinenbaus damit vorausberechenbar, also aufgrund sicherer Regeln in hohem Maße
beherrschbar zu machen. Dabei kam nun der Mathematik eine grundlegende Rolle zu. Sie
stellte für die zu schaffenden technikwissenschaftlichen Konzeptionen nicht nur Rechenhilfs-
mittel bereit, sondern lieferte in erster Linie das methodische Vorbild (Hensel u.a. 1989, 10).
Für das Verhältnis von Technik und Mathematik ist insbesondere die Mechanik von Bedeut-
samkeit:

(1) Erkenntnis und Methoden der Mathematik finden vor allem über die Mechanik
Eingang in die Technikwissenschaften.
(2) Die Mechanik ist für die Technikwissenschaften des mechanischen Zyklus eine
grundlegende Wissenschaft.

Im Mechanikunterricht kam es allmählich besonders aber im Zusammenhang mit der anti-


mathematischen Bewegung, zu wesentlichen Veränderungen (Hensel u.a. 1989, 11f).

Das relativ niedrige Niveau der mathematischen Lehre ist zum einen auf die noch geringen
Anforderungen der Ingenieurtätigkeit an die Verwendung von Mitteln der höheren Mathe-
matik zurückzuführen, zum anderen auch auf das niedrige Vorbildungsniveau der Ingenieure
bei ihrem Eintritt (zwischen dem 15. und 17. Lebensjahr) in die polytechnischen Schulen.
Somit musste ein erheblicher Teil des Unterrichts zur Vermittlung der notwendigen Grund-
lagenkenntnisse für die Aufnahme eines technischen Studiums aufgewendet werden, die
später beim Eintritt in die Technische Hochschule vorausgesetzt wurden. Die Aufnahme-
bedingungen wurden erst in der zweiten Hälfte des 19. Jh. mit der Entwicklung der poly-
technischen Schulen zu Technischen Hochschulen einheitlich geregelt. Die erhöhten Anforde-
rungen an die technischen Wissenschaften infolge der Vollentfaltung der industriellen Revo-
lution in Deutschland um die Mitte des 19. Jh. führte zu einem bedeutendem Entwicklungs-
und Emanzipationsprozess der Technischen Hochschulen. Eingeschlossen war darin ein
starker qualitativer Aufschwung der mathematischen Lehre an diesen Bildungseinrichtungen,
der aber sehr widersprüchlich erfolgt. Ausschlaggebend für diese Entwicklung waren die um
die Mitte des 19. Jh. einsetzenden Bemühungen um ein wissenschaftliches Maschinenwesen
auf theoretischer Grundlage (Hensel u.a. 1989, 13-15).

Trotz der bei den Berufungen ausgesprochenen Orientierung, dass die spezifischen
Bedürfnisse der TH von den Mathematikern in ihrer Lehrtätigkeit zu beachten seien, spiegeln
sämtliche Gutachten die vorzugsweise Orientierung der Technischen Hochschulen an den
Universitäten wieder (Hensel u.a. 1989, 20). Fragen der Anwendung mathematischer Modelle
Methoden auf technikwissenschaftliche und technikwissenschaftlich relevante Probleme oder
solche Gebiete, die wie die numerische Mathematik in der Folgezeit an Bedeutung für die TU
gewannen, spielten in den 80er Jahren noch eine untergeordnete Rolle in Forschung und
Lehre der Mathematik. Mathematische Methoden, die zunächst für einzelne Disziplinen
zunehmend an Bedeutung gewannen, wurden an den Hochschulen zuerst von Nichtmathe-
matikern, später parallel auch von Mathematikern behandelt. Dazu gehörte vor allem die
Vektoranalyse, die ihre Darstellung in ihrer heutigen Form zuerst durch den Technikwis-
senschaftler und Ingenieur A. Föppl erhielt. Die Potentialtheorie wurde als Gegenstand der
mathematischen Physik zuerst von den Physikern vorgetragen und fand seit 1870 Eingang in
die fakultativen Vorlesungen (Hensel u.a. 1989, 27).

Die daraus resultierende Praxisbezogenheit der Mechanikausbildung und ihr ungenügendes


Potential, die Voraussetzungen für die technischen Disziplinen in ausreichendem Maße zur

140
Verfügung zu stellen, trugen zur Entstehung der Kluft zwischen Theorie und Praxis bei und
lagen somit der Kritik vieler Techniker an der Lehre in der Mechanik und an den betreffenden
Lehrkräften zugrunde. Forderungen nach Erhöhung der Anschaulichkeit und nach engeren
Beziehungen zu den Anwendungsgebieten in den Mathematikvorlesungen wurden erhoben
(Hensel u.a. 1989, 31f). Das Hauptwerk von G. Zeuner, seine „Technische Thermodynamik“
von 1877 begründete im Wesentlichen seinen bedeutenden Anteil an der Herausbildung einer
wirklich technischen Thermodynamik. Insbesondere im Hinblick auf die Einbeziehung der
Mathematik barg das Zeunersche Werk gegenüber Erashof und Reuleaux eine gewisse
Spezifik. Bei Zeuner stand das Bemühen, den Ingenieursstudenten möglichst verständlich zu
leiten mehr im Vordergrund. Die Elektrotechnik als technikwissenschaftliche Disziplin
bildete sich – um 1880 beginnend – zuerst als Starkstromtechnik heraus. Damit fiel ihre
Herausbildungsphase in eine Zeit, als sich andere technikwissenschaftliche Disziplinen,
insbesondere das Maschinenwesen, bereits in ihrer Konsolidierungsphase befanden. Schon in
der Herausbildungsphase der Elektrotechnik wurde also die grundlegende Rolle der
Mathematik, insbesondere in Verbindung mit den physikalischen Grundlagen, für die
Entwicklung dieser technikwissenschaftlichen Disziplin deutlich (Hensel u.a. 1989, 48-51).

Der Begriff „antimathematische Bewegung“ ist keine Interpretation der entsprechenden


Auseinandersetzungen und Veränderungen bezüglich der mathematischen Ausbildung der
Ingenieure vom heutigen Standpunkt aus. Er wurde von Zeitgenossen geprägt und weist
darauf hin, dass es einen breiten und in die Öffentlichkeit gedrungenen Affront gegen die zu
starke Betonung der Theorie besonders auch gegen die Mathematik und die Mathematiker
gab. Die Stärke der amerikanischen Technik wurde anerkannt, es wurde aber auch darauf hin-
gewiesen, dass ihre Stärken im Wesentlichen in der Weiterentwicklung vorhandener Technik
auf der Grundlage von Erfahrungen lagen. Es bestand also aller Grund für die deutsche
Bourgeoisie, die bereits als dringend notwendig empfundene Reform der Ingenieurausbildung
unverzüglich in Angriff zu nehmen. Als die wichtigste Schlussfolgerung, die im deutschen
Hochschulwesen eine schnelle positive Auswirkung versprach, betrachtete Riedler die Tätig-
keit des Studierenden in Laborpraxen: Wir sollten die wissenschaftlichen Laboratorien als
Lehrmittel ersten Ranges ohne Verzug auch bei uns einführen und ausbilden, so Riedler
(Hensel u.a. 1989, 55-58).

Ernst forderte zunächst die Ergänzung der weitgehend theoretisch ausgerichteten und
angelegten Lehre der Maschinenwissenschaften durch die Einführung der regulären
Ausbildung in Maschinen- oder Ingenieurlaboratorien. Diese wissenschaftsorganisatorische
und wichtige inhaltliche sowie methodische Veränderung wurde mit Bezug auf die bisher
vorherrschende und oft zum Widerspruch zwischen Theorie und Praxis führende Methode
begründet, die darin bestand, dass eine ganze Reihe von Hypothesen mit weitschweifigem
mathematischem Apparat verarbeitet wurde, deren Voraussetzungen nicht zutrafen und deren
Schlussfolgerungen deshalb auch zu falschen Ergebnissen führten. Im Enthusiasmus, den
Anforderungen zu genügen, wurde der bisher einseitig theoretisch ausgerichteten Ingenieurs-
ausbildung eine stark pragmatische Richtung entgegengesetzt, die dazu neigte, den Wert theo-
retischer Forschung und Lehre und besonders der Mathematik für ihr Ziel zu unterschätzen
und deshalb glaubte, ihre Bestrebungen hauptsächlich durch die Kürzung und Zusammen-
drängung der mathematischen Lehre auf das erste Studienjahr realisieren zu können (Hensel
u.a. 1989, 55-62).

Ein eindeutiger Beleg für eine Entwicklungsrichtung innerhalb der antimathematischen


Bewegung ist der Jahrgang 1897 der Zeitschrift für Architektur und Ingenieurwesen. Nach
dieser Kulmination der Kontroversen flauten die vehementen Auseinandersetzungen relativ
schnell wieder ab (Hensel u.a. 1989, 75-77). Sie waren insbesondere auf die TH Berlin kon-

141
zentriert. Andererseits entwickelten sich nicht in allen Technischen Hochschulen solche
harten Kontroversen, wie an der TH Berlin und auch oftmals in der öffentlichen Diskussion
zum Ausdruck gekommen waren. Auch in Frankreich, England, Russland und Österreich kam
es zu einer antimathematischen Bewegung (Hensel u.a. 1989, 81). Unter den Ingenieur-
wissenschaften des 19. Jh. kommt Franz Reuleaux aufgrund seines Wirkens im universitären
und politischen Bereich sowie nicht zuletzt aufgrund seiner umfangreichen und vielseitigen
schriftstellerischen Tätigkeit sicherlich eine Ausnahmestellung zu (Hensel u.a. 1989, 112).

Die das Gebiet der Kinematik betreffenden Neuerungen Reuleaux’ waren indessen nicht auf
die Idee eines logisch-deduktiven Aufbaus gemäß dem Vorbild der Mathematik beschränkt.
Mit der Forderung der Axiomatisierung in formaler Hinsicht stellte sich zugleich die Aufgabe,
das formale Gerüst auch inhaltlich auszufüllen. Im ersten allgemeinen Grundsatz von
Reuleaux, das zum Zweck der Bewegungserzwingung mindestens zwei Maschinenteile oder
Maschinenelemente unter Berührung gegenseitig aufeinander einwirken bzw. sich gegenseitig
umhüllen, zeigt auf, dass die kinematischen Elemente der Maschine nicht einzeln, sondern
immer nur paarweise zur Verwendung kommen. Die Kraft verrichtet dabei eine mechanische
Arbeit, welche unter bestimmten Bewegungen vor sich geht; das Ganze ist also dann eine
Maschine. Es geht um das Bildungsgesetz der Maschine. Hinter Reuleaux’ Konzeption steht
die Idee, dass in allen Erfindungen und Neuerungen eine mehr oder weniger deutliche
logische Gedankenfolge enthalten ist. Gelingt es nun, diese offen zu legen, so gewinnt man
damit gewissermaßen den theoretischen Hintergrund zum Verstehen der entstandene Getriebe
und Maschinen. Das Ziel, das Reuleaux bei dem methodischen Aufbau der Kinematik
verfolgte, nämlich den ganzen gestalteten Reichtum der zu behandelnden Gegenstände auf
einfache logische Grundsätze zurückzuführen, soll durch die Zeichensprache ergänzt werden,
da sie es ermöglicht, die kinematischen Prinzipien zu operationalisieren (Hensel u.a. 1989,
131-135).

Gerade die Entwicklung eines theoretisch anspruchsvollen Gebietes, wie das der
Elektrotechnik, hat gezeigt, dass theoretische Idealisierung und vertiefte Anwendungs-
beziehungen keine Gegensätze sein müssen, sondern korrespondierende Prozesse darstellen
können. Die Vertreter der Elektrotechnik haben sich einerseits nur zu einem geringen Teil an
der sogenannten „antimathematischen Bewegung“ der Techniker beteiligt, aber sie haben
andererseits auch die traditionelle Mathematikauffassung und insbesondere das mit dieser
verbundene kartesische Anwendungsideal keinesfalls geteilt. Reuleaux entwickelt in diesem
Zusammenhang eine deutsche Auffassung des Maschinenkonstruierens als eine wissen-
schaftlich begründete selbstständige technische Kunst, gegenüber einem in England herr-
schenden rein empirischen Verfahren einerseits und einer französischen Auffassung, die die
Technik als angewandte Mathematik und Physik sieht (Hensel u.a. 1989, 191f). Das Bild von
rapide zunehmenden Wechselwirkungen zwischen Wissenschaft, Technik und Industrie
entspricht den tatsächlichen Verhältnissen in den Beziehungen zwischen Technik und Wis-
senschaft besser als die reine Einbahnstraße einer auf Wissenschaft beruhenden Industrie. Die
Naturwissenschaft bildete im Inventionsprozess die Vorhut, indem aus ihren Forschungen
Ergebnisse resultierten, die als Prinziplösungen für Technikentwicklung zu benutzen sind. Die
Hauptstreitmacht, die Industrie, schafft den Durchbruch, indem sie auf vorwiegend empiri-
schem Weg aus Prinziplösungen marktfähige Techniken entwickelt. Und die Wissenschaft
sichert nach und langfristig diesen Durchbruch ab, indem sie die Wirkprinzipien, auf denen
diese Technik beruht, theoretisch durchdringt (König 1995, 324-328).

Je autonomer Werkzeuge und Maschinen wurden, umso mehr repräsentieren sie das sie in
ihnen inkorporierte technische Wissen, später Forschungswissen. Sie werden intelligenter. So
entstand im Laufe der Technikgeschichte neben der technischen Kompetenz der Techniker die

142
technische Kompetenz der technischen Mittel, aber immer noch in mehr oder weniger starker
Abhängigkeit von der technischen Kompetenz des Technikers. Die Technikwissenschaften
beschäftigen sich im Unterschied zur Technik nicht mit dem Machen, sondern mit dem Mach-
baren. Für die Bestimmung der Ziele technikwissenschaftlicher Arbeit ist es wichtig, dass es
sich bei der Produktion gesichertem Wissens über vorhandene oder mögliche Technik um ein
Ziel handelt, das inhaltlich noch nicht bestimmt ist, also noch weiterer Bestimmung bedarf
(König 1995, 332-333). Letztendlich wird nur der Ingenieur mit wirtschaftlicher und allge-
meiner Bildung in der Lage sein, die ihm gestellten Aufgaben auch zu erfüllen (Schimank
1961, 43). Mit der Erfindung des Schießpulvers wird aus dem handwerklichen Betrieb des
Bergbaus ein ingenieursmäßiger. Als im Laufe des 19. Jh. die Technischen Hochschulen
zunehmend ihre Forschungsaufgaben in den Vordergrund stellten, stieß dies lange Zeit auf
Widerstand von Seiten staatlichen Behörden. Allerdings geht es Wissenschaft nicht immer
nur um kognitive Ziele, sondern auch um Selbsterhaltung und die Erweiterung ihrer institutio-
nellen Grundlagen (König 1995, 335-339). Wissenschaft entsteht nicht durch die Kumulation
von thematisch bestimmtem Wissen, sondern erst durch organisierte, normen- und regelge-
leitete Überprüfung neuen Wissens und durch institutionalisierte Bewahrung des Wissens, das
diese Überprüfung übersteht (König 1995, 345). Als die Technischen Hochschulen in der
zweiten Hälfte des 19. Jh. sich bemühten, ihre gesellschaftliche Anerkennung durch eine An-
lehnung an das Forschungsideal der Universitäten sowie an Mathematik und Naturwissen-
schaften zu erhöhen, erreichten sie zwar dieses Ziel, das Promotionsrecht war Zeichen für
diesen Erfolg, aber auf Kosten anderer Konzeptionen wie der der Abbildungsqualität der tech-
nikwissenschaftlichen Modelle und der praktischen Brauchbarkeit der Ingenieursabsolventen.
So mussten soziale Problemlösungstraditionen geschaffen werden (König 1995, 359).

Über die These eines Zusammenhanges zwischen der Verwissenschaftlichung der Technik
und der Industriellen Revolution gibt es unterschiedliche Meinungen. Zunächst ist festzu-
stellen, dass es verschiedene Wissenskulturen technischen Wissens in Großbritannien und in
Frankreich gab. Die Verwissenschaftlichung von Technik hängt mit Technikwissenschaften
zusammen und setzt bereits im 17. Jh. ein. In Frankreich handelte es sich um Staatsinge-
nieure, die eine technische Elite bildeten, während in Großbritannien Techniker häufiger Aka-
demiemitglieder waren. Die Wissenschaftsgläubigkeit führte zur These von der Technik als
angewandter Naturwissenschaft, wobei der Kulturfaktor Technik zunächst unberücksichtigt
blieb. Allerdings wollten die Ingenieure im 19. Jh. gleichberechtigt sein und sprachen von
einer technisch induzierten Kultur. Nicht zu leugnen ist, dass durch die Industrielle Revo-
lution ein stärkerer Einbezug der Wissenschaft stattgefunden hat. Tatsache ist auch, dass bis
zum 17. Jh. kein Naturgesetz mit Hilfe der experimentellen Methode gefunden worden ist.
Erst Galilei mit seinen Fallgesetzen setzt hier entsprechende Wegzeichen. Viele Wissen-
schaftler sind zudem an technischen Problemen gescheitert, wenn es um wissenschaftliche
Fragestellungen gegangen ist, darunter Leibniz, Huyghens und Papin. Ein Austausch
zwischen Wissenschaftlern und Handwerkern war zum Teil nicht einfach, weil Handwerker
häufig Analphabeten waren. Leibniz weigerte sich sogar, mit Handwerkern überhaupt zu
reden. Allerdings gingen diese Handwerker häufig auf Sonntagsschulen, das Bild vom
primitiven englischen Techniker ist falsch, auch wenn gerade unter den innovativen Köpfen
viele Analphabeten waren. Eine genauere differenzierte Betrachtung der Industriellen
Revolution ergibt, dass zunächst eine Ökonomisierung der technischen Inventionen
stattgefunden hat bzw. technische Inventionen durch ökonomische Engpässe überhaupt her-
vorgerufen worden sind. Erst später kam es zu einer Verwissenschaftlichung. Allerdings
lieferten technische Probleme entscheidende Impulse.

Viele halten Ingenieurswissen für angewandte Wissenschaft. Der Charakter von Inge-
nieurswissen unter erkenntnistheoretischer Rücksicht ist bislang wenig untersucht. Ausgangs-

143
punkt einer theoretischen Reflexion ingenieurmäßigen Wissens und Handelns sollte das sein,
was Ingenieure wirklich tun. Es geht um die autonome Rückverankerung des ingenieu-
rmäßigen Wissens. Vincenti möchte das kreative konstruktive Wissen des Ingenieurs
untersuchen. Bisher war man in der Regel von der Unterordnung des technologischen Wis-
sens unter das wissenschaftliche ausgegangen. Aber das Wissen ist für den Ingenieur nicht
Selbstzweck, sondern dient der Konstruktion, ist eigentlich Konstruktionswissen. Es geht um
konkrete Effizienzverbesserungen: Ein besserer Wirkungsgrad der Motoren, weniger Benzin-
verbrauch und geringeres Gewicht. Die Konstruktionswissenschaft geht von einer geeigneten
Untergliederung des Konstruktionsfeldes aus. So geschah eine Aufteilung des Flugzeug-
problems in immer kleinere Parzellen (Vincenti 1990, 3-9). Ingenieurswissen reflektiert auf
das Faktum, dass technische Konstruktion nicht um ihrer selbst willen stattfindet und in
Isolation von anderen Problemen. Vielmehr geschieht ingenieurmäßige Konstruktion als so-
ziale Aktivität, ausgerichtet von einem praktischen Set von Zielen mit der Absicht,
menschlichen Wesen zu dienen. Es geht um ein internes Wissen, das durch Konstruktions-
probleme hervorgerufen wird. Dabei gibt es Spannungen zwischen der technischen Konstruk-
tion und ihrer Umgebung. Wissen entsteht bevorzugt aus den internen Bedürfnissen des
Konstruktionsprozesses selbst (Vincenti 1990, 11). Die Erkenntnistheorie des Ingenieurs-
wesens ist offenkundig erst an ihrem Anfang.

Eines dieser Konstruktions-Segmente im Flugzeugbau war die Konstruktion der Flügel. Die
wesentlichen Fortschritte wurden hier in einem Zeitraum von 1908 bis 1945 in mehreren
Schüben erreicht. Dabei treten unter den normalen alltäglichen Konstruktionsbedingungen
eine ganze Reihe von Unsicherheiten auf, die abgearbeitet werden müssen. Dies zeigte sich an
der aerodynamischen Konstruktion von Flugzeugflügeln (Vincenti 1990, 17). Erforderlich für
eine Reihe von Lösungstypen war eine Kombination von Theorie und Experiment. Diese
methodische vorgehensweise wurde möglich, weil die allgemeine Lösung, der Flugzeugflügel
bekannt war und mit gut definierten Problemen verbunden werden konnte. Unterschiedliche
Kalkulationen des aerodynamischen Profils der Flugzeugflügel waren die Folge. Das
Optimum galt es dabei aus unterschiedlichen Anforderungen heraus zu berechnen. Davis war
dabei ein Unternehmer und autodidaktischer Erfinder und Konstrukteur von Flügeln von dem
Typ der Pioniertage des Flugzeugbaus, die allmählich in den 1930ern verschwanden. Die
Zweifel an Davis Berechnungen wurden im Windkanal ausgetestet (Vincenti 1990, 27). Das
Problem, mit dem die Flugzeugkonstrukteure konfrontiert waren, ist, wie man den Quer-
schnitt und Durchschnitt eines Flügels konstruiert, um den Luftwiderstand möglichst gering
zu halten und Wirbelbildungen zu vermeiden. Dabei waren die Anforderungen unterschied-
lich, je nach dem, ob es sich um einen Langstreckenbomber oder einen schnellen Jäger han-
delte.

Durch einen Mix von Methoden, der mit der Zeit sich änderte, ersetzte die Fließdyna-
miktheorie langsam die Regeln der Erfahrung. Atmosphärische Turbolenzen konnten abgebil-
det werden und allmählich wurden die Effekte mit der Viskosität der Luft in Verbindung
gebracht und ließen sich im Windkanal modellieren. Dies führte zu unterschiedlichen Opti-
mierungsstrategien. Durch die Variation der drei wichtigsten Parameter sowohl unabhängig
von einander wie systemisch verbunden, wurden eine ganze Reihe von Problemlösungen
konstruiert und getestet (Vincenti 1990, 34-37). Wenn das Wachstum des Ingenieurwissens
ein evolutionärer Prozess der Variation und Selektion ist, so sind Fehler in der historischen
Analyse von konstruktiven Problemen verbunden mit dem Erfolg bei weiteren Pro-
blemlösungen. Konstruktion war eine unsichere und wechselnde Kombination von theore-
tischem Denken und Berechnen und einem Schritt für Schritt erprobenden Empirismus
(Vincenti 1990, 50). Eine größere Stabilität des Fliegens konnte durch die Konstruktion des
Flugzeugs oder aber durch eine bessere Ausbildung von Piloten erreicht werden (Vincenti

144
1990, 64). Insgesamt wurde im Folgenden sowohl auf neue Instrumente gesetzt, wie auch auf
bessere Piloten.

Zur Optimierung der Motoren wurde die Ingenieursthermodynamik entwickelt. Bei dieser gibt
es keine Notwendigkeit, Genaues über das Innere der Flüssigkeit oder über die Mechanismen
der Bewegung innerhalb dieser Flüssigkeit zu wissen. Diese Theoreme sind gewöhnlich nütz-
lich, auch wenn die Bewegungsgleichungen in der Regel nicht niedergeschrieben werden oder
zumindestens nicht integriert werden können, aber sie geben ein Wissen um die generellen
Rahmenbedingungen der Molekularbewegung, ohne jedoch all zu sehr ins Detail zu gehen.
Ingenieure müssen sich häufig mit Fließbewegungen abgeben, die so komplex sind, dass die
zugrundegelegte Physik nicht vollständig verstanden ist, sodass die Information für die Kon-
struktion sich nur auf die Randbereiche erstreckt und die interne Physik nicht berücksichtigt.
Die Flüssigkeitsmechanik in den früheren 1900er Jahren musste daher noch erheblich verbes-
sert werden. Dabei erarbeiteten Prandl an der TU München zwischen 1910 und 1920 und
Theodor von Karman an der Universität Göttingen zentrale Hilfestellungen (Vincenti 1990,
116-120). Nun hatten die Studenten und auch die praktizierenden Ingenieure eine klare Me-
thode und ein Beispiel, dem sie in der Bearbeitung von anderen Problemen folgen konnte
(Vincenti 1990, 123). Mit Prandls Synthesis lang das Material für die weitere Entwicklung
bereit.

Die physikalische Theorie braucht keine Strömungslehre und die Idee der Kontrollvolumina,
wohl aber die Ingenieurwissenschaft. Der Ingenieur braucht über das physikalische Wissen
hinaus noch das Wissen und die Prognostik von Materieeigenschaften. Ingenieure
beschäftigen sich nicht mit einer allgemeinen Verteilung von Materie, sondern mit spezi-
fischen Gegenständen und Artefakten. Die allgemeinen Beschreibungen physikalischer Eigen-
schaften und Ergebnisse reichen nicht aus, um zu ingenieurmäßigen Problemlösungen zu
kommen. Somit gibt es eine andere Wissensorganisation in den Ingenieurwissenschaften.
Außerdem ist die Berücksichtigung der Ökonomie für die Ingenieurwissenschaften konsti-
tutiv. Es reicht einfach nicht die Freiheit vom Irrtum. Es gibt jedenfalls eine spezielle Natur
ingenieurmäßiger Probleme, einen Bedarf an ingenieurmäßigen Lehrern, um das Wissen zu
organisieren, und ingenieurmäßige Forderungen für die ökonomische Entwicklung. Diese
wechselseitig verknüpften Anforderungen an das ingenieursmäßige Konstruieren müssen die
Notwendigkeiten, die sich aus Artefakten ergeben, begreifen und analysieren. Spezialisierung
und Ausrichtung wissenschaftlichen Wissens sind erforderlich, um die Bedürfnisse des
Ingenieurs zu treffen. Wesentliche Aspekte der Ingenieurwissenschaften umfassen: Natur-
und Ingenieurwissenschaften basieren auf denselben Naturgesetzen. Sie haben ähnliche
Verbreitungsmechanismen und ähnliche Institutionalisierungen. Es gibt eine kumulative
Wissensanhäufung in beiden Bereichen (Vincenti 1990, 129-134). Die Unterscheidungs-
merkmale bestehen in einem allgemeinen Wissen im Spezialfall bei den Ingenieurwis-
senschaften, im Bezug zur Ökonomie und in der Genauigkeit des Konstruktionsprozesses. Es
geht in den Ingenieurwissenschaften um anwachsende Effizienz.

Mit Durand und Lesley an der Stanford Universität wird in der Entwicklung von
Flugzeugpropellern Knowing how zu einer eigenständigen ingenieursmäßigen Wissensform.
Es kommt zu einer Konvergenz des Wissens und der Methodologie in den Ingenieurwis-
senschaften. Der Zuwachs des Wissens und ein unauffälliger Wandel im Ingenieurwissen
greifen ineinander. John Smeaton hatte 1759 vor der Royal Socienty über Windmühlen zwei
Hauptmethoden der Ingenieurwissenschaften herausgearbeitet: Systematisches Experimen-
tieren und Modellbildung. Diese beiden sind die Basis einer autonomen Tradition im inge-
nieurwissenschaftlichen Forschen. Zentral ist die Parametervariation, die definiert werden
kann als Prozess der ständig wiederholten Determinierung bei der Durchführung einiger

145
Materialerprobungsprozesse oder die ständig wiederholte Variation von Parametern, die das
interessante Objekt definieren bzw. die Bedingungen der Handhabung. Smeatons Modell der
Wirkungsmessung ist wichtig bei allen Flüssigkeitsmodell wie bei Wind- und Wassermühlen
(Vincenti 1990, 137-139).

Eiffels Marinepropeller waren Vorbilder für die Propeller an Flugzeugen. Friederick Durands
an der Stanford Universität entwickelte im Windkanal Modellpropeller, wobei die Versuche
und Triumphe dieser Art des Vorgehens in den Ingenieurwissenschaften charakterisiert sind
durch eine Versuch- und Irrtumsmethode, in der in seltener Form auch formale Zugänge
erprobt wurden. Die Anwendung des Gesetzes der Ähnlichkeit in dieser Methode ist generell
für all die Zweige des Ingenieurswesens, in denen Skalenmodelle gebraucht werden. Inge-
nieurmäßiges Wissen wächst und konsolidiert sich als Antwort auf die Anforderungen der
Forschung wie der Konstruktion. Das Wachstum des ingenieurmäßigen Verstehens erweitert
den Blick auf das Programm neuer Kenntnisse, wobei weitere Kenntnisse nützlich sind und
anwachsende Beherrschung der Technik anwachsendes Vertrauen fördert (Vincenti 1990,
150f). Dabei lässt sich eine Korrelation zwischen Theorie und Modellexperiment feststellen.

Die Erkenntnistheorie der industriellen Produktion führt zu produktionsausgerichteten


Inventionen. Abhängig sind Innovationen (1) von der inneren Logik technologischer Ent-
wicklung, von (2) internen Konstruktionsbedürfnissen und (3) Bedürfnissen nach einer
Absenkung der Unsicherheit (Vincenti 1990, 204f). Die Lösung von Konstruktionsproblemen
hängt vom Wissen ab. Dabei ist Michael Polanyis operationales Prinzip von besonderer Be-
deutung. Das komplette Wissen einer Maschine als eines Objekts erzählt uns nichts über das,
was sie als Maschine ist (Vincenti 1990, 209). Phänomenologische Theorien haben wenig
erklärendes Potential. Wichtig ist auch Fergusons Methode eines visuellen Denkens bei
Ingenieuren (Vincenti 1990, 221). Das Wachstums ingenieurmäßigen Wissen basiert bevor-
zugt auf der Weiterentwicklung von ingenieurmäßigem Wissen und wird insbesondere durch
Ingenieursaktivitäten vorangetrieben. Die Wissenschaft-Technologie-Beziehung bedarf einer
präziseren Untersuchung. Dabei sollte ingenieurmäßiges Wissen als eine eigenständige epis-
temologische Art anerkannt werden. Ingenieurswissen ist auf Gebrauchswissen angelegt und
zwar im Unterschied zum wissenschaftlichen Wissen. Das Wissen, welches von Ingenieuren
benutzt wird, unterscheidet sich vom Wissen, das durch Wissenschaftler hervorgebracht
worden ist (Vincenti 1990, 225-228).

Der Transfer von der Wissenschaft kann zu einer Invention führen, wobei ein theoretischer
ingenieurmäßiger Forschungsprozess von einem experimentell ausgerichteten ingenieur-
mäßigen Forschungsprozess unterschieden werden kann. Hinzu kommt eine Konstruk-
tionspraxis, eine Produktionspraxis und direkte Versuche über alle Ebenen hinweg (Vincenti
1990, 229). Ingenieure praktizieren darüber hinaus theoretische Forschungen um Konstruk-
tionsprozesse zu unterstützen. Auch Computerprogramme können für die Optimierung von
Konstruktionsprozessen herangezogen werden. Ingenieurmäßiges Konstruieren gebraucht
bestimmte Methoden in ihrer eigentümlichen Art und Weise. Dabei beschäftigt sich
ingenieurmäßiges Konstruieren damit, wie Dinge sein sollten (Vincenti 1990, 237). Die
Entwicklung ingenieurmäßigen Wissens ist als Variations-Selektions-Prozess zu modellieren.
Damit vertritt Vincenti eine evolutionäre Theorie der Entwicklung ingenieurmäßigen Wis-
sens. Naturwissenschaftlich industrialisierte Technik entstand in der zweiten Hälfte des 19.
Jh. und führte zur Entwicklung der technischen Wissenschaften unter Einbezug der ange-
wandten Naturwissenschaften.

Die Trennung der Ingenieurwissenschaften von der Physik ist ein instruktives Beispiel für
Disziplinbildung in den Technikwissenschaften. Sie bleiben Schwesterdisziplinen, auch wenn

146
Fragen der Anwendbarkeit unterschiedliche Schwerpunktsetzungen erforderlich machen
(Layton 1971, 568). Wichtig in diesem Zusammenhang sind auch die Versuche, eine mathe-
matische Theorie für Brücken zu entwickeln. Hermann Haupt mit seiner „General theory of
Bridges Construction“ (1853) gehört in diesen Zusammenhang (Layton 1971, 574). Techno-
logie ist eine Form des menschlichen Wissens. Epistemologische Forschungen haben die
Validität alles menschlichen Wissens, seine Bedingungen und seine Natur herauszuarbeiten
(Skolemowski 1966, 372). Denken in Begriffen der Akkuratheit ist höchst instrumental im
Sinne des Überlebens. Das Denken des Bauingenieurs erfolgt vor allem in Termen der Halt-
barkeit. Spezifisch für mechanische Ingenieure ist das Denken in Effizienz (Skolemowski
1966, 379-381). Es ist zu bemerken, dass im Verlauf des 19. Jh. das ehedem persongebundene
und mit nur wenigen verbalisierbaren Handlungsroutinen versehene Können, das traditionell
als „Kunst“ bezeichnet wurde, in den Ingenieurwissenschaften aufging. Letztere „objekti-
vierten“ diese „Kunst“ durch die systematische Anwendung von allgemein anerkannten For-
men und Methoden. Es entstanden also technikwissenschaftliche Disziplinen mit gemein-
samen Inhalten, Methoden, Institutionen und Organisationsstrukturen. Die gemeinsame
Auffassung war, dass der Fortschritt einzig und allein an die immer intensivere und umfassen-
dere Anwendung wissenschaftlicher Methoden gebunden sein müsse. Trotzdem bleibt die
Frage, ob die Arbeit in der Praxis tatsächlich so aussah, bestehen. Die Konstruktion eines in
seinen Ausmaßen neuen Gasometers in Berlin ist wohl im Jahre 1845 wie üblich intuitiv
erfolgt. Die Berechnungen für den statischen Nachweis zur Erteilung der Baugenehmigung
und zur Beruhigung der Sorge um die öffentliche Sicherheit wurden jedoch nachträglich
übergestülpt. Dadurch wurde ein irrrationales Idealbild der Konstruktion aufgebaut, welche
man rational erklärte. Entwurfsmethoden waren und sind durchaus hilfreich und machen das
Entwerfen erst lehrbar (Seliger 2001, 77f).

Zentral im Bauingenieurwesen ist der Entwurf. Der Entwurf entspricht der vollständigen,
ausführungsreifen Beschreibung des Bauwerkes. Im Bauwesen jedoch sind generelle
Methoden weniger exzessiv gesucht worden. Für Bauwerke aber werden keine Sicher-
heitsgarantien gegeben, sondern Versagenswahrscheinlichkeiten angegeben. Die Vielzahl der
Optimierungsvarianten von Entwurfsarbeit, welche seit den 1970er Jahren vor allem durch die
aus der Luftfahrt stammenden Methoden der finiten Elemente (FEM) geschaffen wurde, kann
durchaus als ein Gelingensbeweis der Wissenschaft gegenüber der Kunst gewertet werden
(Seliger 2001, 83-87). Zur Beschreibung technischen Konstruierens ist implizites Wissen,
Können (Kompetenz/Kunst) und technische Handlung zu berücksichtigen. Ob ein Techniker
über implizites Wissen verfügt, muss er an der Kompetenz, einen Entwurf zeichnen zu
können, demonstrieren. Ob sein implizites Wissen und seine Kompetenz zum Entwerfen
ausreichten, erweist sich aber erst in der Ausführung der technischen Handlung und manch-
mal erst am technischen Produkt. Selbstverständlich kann ich implizites Wissen ver-
wissenschaftlichen und dadurch den Entwurf sicherer machen. Vielleicht kann ich auch
dadurch das Gelingen wahrscheinlicher machen. Letztendlich beurteilen kann ich aber das
Gelingen von Technik nur an der technischen Handlung und ihrem Resultat. So lässt sich von
drei Dimensionen technischen Handelns sprechen: (1) implizites und /oder explizites
technisches Wissen, (2) Kompetenz zum Umgehen Können wie Entwerfen Können techni-
scher Handlungen wie technische Artefakte und (3) Durchführung technischer Handlungen
bzw. Realisierung und technisches Artefakt. Für Konstruktionshandeln entspricht dieser
Phasenablauf (1) der Intuition, (2) dem Modell und (3) dem Prototyp.

Implizites technisches Wissen habe ich als isoliertes Faktum nicht, auch Kompetenz als
solche erschließt sich mir nicht. Ohne die Durchführung einer technischen Handlung kann ich
nicht beurteilen, ob ein Konstrukteur über implizites Wissen oder technische Kompetenz
verfügt. Mit Ausbildungsdiplomen bescheinigt man eben nicht implizites Wissen oder Kom-

147
petenz, sondern nur die Teilnahme an wissenschaftlichen Veranstaltungen. Wenn Technik-
wissenschaft nur zum technischen Entwurf anleitet, aber nicht letztlich zum technischen
Handeln, so hat sie ihren eigentlichen Gegenstand verfehlt, denn der ist ein technisches
Gebilde und nicht ein Modell oder ein Skizzenbuch. Ein weiterer Gesichtspunkt ist der, dass
implizites Wissen und Kompetenz nicht allein durch implizites oder explizites Wissen erzeugt
werden kann, sondern durch Erfahrungen mit technischen Handlungen. Einem technischen
Entwurf liegt eine Konstruktionshandlung zugrunde, sie ist symbolisch realisiert und noch
nicht technisch-materiell. Wenn es technische Wissenschaften nur mit technischem Wissen zu
tun hätten, würden sie einem szientistischen Missverständnis erliegen und sich mit Entwürfen
und Intuitionen begnügen, aber nicht mit realer, materialer Technik. Gewusstes Wissen ist
Wissen. Gewusste Technik aber ist nicht nur gewusstes technisches Wissen.

Die kulturelle Aneignung von Technologie ist ein Prozess, bei dem Neuigkeit unter mensch-
liche Kontrolle gebracht wird. Es ist eine Art und Weise, unsere Gesellschaften zu erneuern
bzw. neu zu schaffen und uns selbst, so dass neue Produkte und neue Ideen Sinn machen. Die
Geschichten der Aneignung sind daher weder Romanzen in dem Sinne, dass die dominante
produktorientierte bzw. zentrierte Theorien bestätigt werden, noch sind es Tragödien der Ver-
gewaltigung, so dass sie im Allgemeinen die Gegenerzählungen einer Umweltzerstörung und
Globalisierung vorbringen. Es handelt sich einfach um dialektische Geschichten einer Hybri-
disierung, von Kombinationen, formuliert im Hinblick auf Praxis und Identitäten der Insti-
tutionen und Organisationen sowie der Diskurse und Disziplinen. Es ist dabei wichtig anzu-
erkennen, dass Aneignung bzw. Inkulturation nicht nur ein Grundzug gegenwärtiger
Gesellschaften und dieser Epoche ist, sondern sich in der Geschichte bereits mehrfach statt-
gefunden hat (Hard, Jamison 2005, 3f). In vielfacher Form hat der Mythos des Fortschritts
verhindert, diese Aneignungsprozesse in adäquater Form wahrzunehmen. Wenn wir nur die
zugrunde liegende andauernde technische Fixierung, die tief eingefleischt ist in unseren
Begriffen der Realität, aufbrechen könnten, könnte auch der Mythos des Fortschrittes ein
adäquates Verständnis finden. Die dominante Struktur einer ewigen Evolution und eines
ewigen Fortschreitens ist zu konfrontieren mit alternativen Geschichten und hat den Zweck,
andere Botschaften zu verkünden (Hard, Jamison 2005, 5-7).

Viele frühe Wissenschaftler waren erstaunlich hybride Charaktere, indem sie neue Methoden
der Forschung und neue Begriffe bzw. Theorien mit älteren diskursiven Horizonten und
Rahmenvorstellungen, Gebräuchen und Praktiken zu verbinden vermochten. Die Geschichte
der Einführung der Haushaltsindustrie zeigt, dass diese neuen Haushaltstechnologien nach
ihrer Einführung nicht notwendiger Weise die Last der Hausfrauen verminderten. Andere
Aufgaben und neue Standards schufen zusätzliche Arbeiten, manche durch die Maschinen
selbst, andere durch neue gesellschaftliche Standards. Modernität ist so zu einem recht-
fertigenden Paradigma geworden. Und Technologie und Wissenschaft haben durch die Jahr-
hunderte immer mehr ein janusmäßiges Gesicht bekommen. In diesem Buch soll die Ge-
schichte von Technologie und Wissenschaft als multiperspektivischer Prozess im Sinne einer
kulturellen Aneignung verstanden werden. Ihre Interpretation, die Meinung bzw. die Bedeu-
tung, die wir den Produkten von Technologie und Wissenschaften geben, führen dazu, die
fundamentalen Arten und Weisen zu transformieren, in denen wir leben, d.h. unsere Diskurse
führen institutionell und politisch zu Normen und Werten. In unseren Tagen sind Informa-
tionsmaschinen dabei, zu persönlichen Computern und zum Cyberspace zu mutieren wie in
früheren Tagen ein pferdeloser Wagen zu einem Automobil transformiert wurde. Wir dürfen
darauf hoffen, dass in der Zukunft auch Gentechnologie in grüne umweltfreundliche Produkte
umgewandelt werden kann (Hard, Jamison 2005, 11-15).

148
Seit Francis Bacon ist die eigentümliche Idee eines wissenschaftsbasierten Fortschritts die
große Rahmenerzählung der Moderne geworden. Die Gründungsväter der modernen Wissen-
schaft wie Robert Boyle und Isaac Newton kamen nicht von ungefähr. Sie waren vielmehr
Teil eines Prozesses im Sinne einer politischen und sozialen Bewegung die sich allmählich in
eine akademische Kultur verwandelte. Man nannte sie experimentelle Philosophen und sie
bewirkten eine wissenschaftliche Revolution (Hard, Jamison 2005, 20-22). Mindestens
genauso bedeutend wie die mechanische Philosophie in der Formierung der modernen
Wissenschaft war der wachsende Einfluss bestimmter Denkwege über Wissen und seine
Funktion in der Gesellschaft, die Francis Bacon als nützliches Wissen bzw. nützliche Wissen-
schaft bezeichnete (Hard, Jamison 2005, 24). Wahrhaft kreative Milieus erlauben, dem Uner-
warteten zu begegnen. Innovation erfordert Freiheit und Flexibilität. Ein solcher Ort war
insbesondere im 19. und 20. Jh. das Laboratorium, nicht zuletzt an den technischen Universi-
täten. Innovatives Leben vollzog sich zwischen dem Vorlesungssaal und dem Laboratorium.
In diesem Transformationsprozess entstanden neue Formen des Lernens, des Trainings und
der Forschung, die in diesen neuen Typen von Institutionen geschaffen wurden. Ein solches
experimentelles Milieu war zunächst die Textilindustrie, dann die Manufakturen von land-
wirtschaftlichen Maschinen und der Energiesektor. Das Maschinenlabor wurde zum inte-
gralen Bestandteil einer stärker akademisch orientierten Schulkultur, die verschiedene syste-
matische Parameter der Variation und exakte Methoden der Forschung und Erfindung lehrten.
Mit dem Laboratorium entstanden auch ein Forschungsimperativ und eine Forschungs-
landschaft. Wie in den Naturwissenschaften wurde das Ingenieurlabor ein Platz, wo Studenten
ausprobieren konnten, was sie im Vorlesungssaal gehört hatten (Hard, Jamison 2005, 84-88).

Der Erfolg des Laboratoriums war Wissensproduktion und Wissensverbreitung und nicht
allein eine Frage ökonomischer Handlungen. Von dieser Zeit an wurde dem Laboratorium
eine im Allgemeinen mystische Dimension zugeschrieben, zumindest in der öffentlichen
Vorstellung. Auf diese Art und Weise wurde die Wissenschaft von der Technik angeeignet
und inkorporiert. Das Establishment der industriellen Forschungslaboratorien wurde durch
einen Prozess von anwachsender Anonymität begleitet. Die allgemeine Benutzung des Hauses
als Platz des Laboratoriums wurde ersetzt durch das große Laboratorium. Während zu
früheren Zeiten einzelne Experimente zu Hause durchgeführt werden konnten, war dies nun
aufgrund des immer größer werdenden Aufwandes nicht mehr möglich. Erst nachdem die
Naturwissenschaften und die Ingenieurswissenschaften eine vollständige Legitimierung und
Anerkennung im Rahmen der Universitäten gefunden hatten, wurde es im 19. Jh. möglich,
Universitätslaboratorien zu bauen. Selbst Liebig hatte am Anfang enorme Schwierigkeiten,
ein gut ausgestattetes Labor zu erhalten. In den Jahren 1870 und 1880 war Edison in der Lage,
eine aktive Rolle in der Entwicklung von Produkten wie dem elektrischen Licht, dem
Plattenspieler und dem Filmvorführapparat zu spielen. Aber Forschung und Entwicklung
wuchsen an Zahl und an Dimensionen an und der Prozess der Erfindung und Innovation
wurde immer stärker die Frucht gemeinsamer Anstrengungen. Mit der Zeit allerdings orien-
tierte sich auch General Electric an der Einrichtung von ersten Forschungslaboratorien und
zwar im Jahr 1900. Forschung und Entwicklung hatte sich nun in Teamwork verwandelt und
der Forschungsprozess hatte sich in eine projektorientierte Aktivität, die durch Manager
geführt wurde, transformiert. Die Bürokratisierung großer Wissenschaft hatte begonnen
(Hard, Jamison 2005, 92). Max Weber sah Professionalisierung der Wissenschaft als Teil
eines allgemeinen Prozesses der Rationalisierung der westlichen Welt. Ein etwas stärkerer
und klarerer Blick auf Ricardos Laboratorium enthüllt allerdings unterschiedliche Perspek-
tiven. Die Arbeiten, die im Rahmen des Laboratoriums ausgeführt wurden, liefen zwar unter
dem Leitbild der angewandten Forschung, aber die Erkenntnisakte und die wissenschaftlichen
Interessen, die mit der Laboratoriumsforschung verbunden waren, waren weder abstrakt noch

149
rein, also im strengen Sinne wissenschaftlich, sondern waren von dem Bild der Wissen-
schaftler geprägt, das sie ihrer Arbeit geben wollten (Hard, Jamison 2005, 93f).

Das amerikanische System der Produktion wurde nicht identifiziert mit Ford Taylor oder
Edisons Innovationen. Es schloss auch den weit verbreiteten Gebrauch von auswechselbaren
Teilen innerhalb der industriellen Landschaft ein und verbreitete sich durch neue Fabri-
kationsstätten und Hausbaumaterial wie Stahl oder anderes. Diese neuen Materialien und neue
Quellen von Energie wie Öl oder Elektrizität erlaubten nun eine ganz andere Art von Pro-
duktion. Die Massenproduktion führte letztendlich zu Massenkonsum und an der Wende des
Jahrhunderts kam es zu neuen Formen der kulturellen Anpassung und der ökonomischen
Steuerungen, die zu bedeutenden Faktoren des gegenwärtigen Lebens geworden waren (Hard,
Jamison 2005, 102). Die Lebensreformbewegung als Vorläuferbewegung auch des National-
sozialismus formulierte ihre eigene philosophische Weltanschauung und ihre eigene Ethik.
Sie können als eine Form von alternativer Modernität verstanden werden. So ähnlich wie die
Eisenbahn und das Automobil hat der Telegraf und das Telefon in einer metaphorischen Art
und Weise die Ausdehnung von Raum und Zeit und die Eliminierung der geografischen
Distanz bewirkt. Unternehmen, die den Eisenbahntransport und die telegrafische Kommuni-
kation in ihre tägliche Operationalität einbauten, um ihre Wettbewerbsfähigkeit zu erhöhen,
sowie normale Bürger entwickelten neue Haltungen des Besuchens und in Kontaktbleibens
mit Fremden, Freunden und Verwandten (Hard, Jamison 2005, 209f).

Die frühe Geschichte des Telegrafen ist eine Geschichte der Indifferenz und der Ablehnung
der neuen Technologie. In Großbritannien machte William Cooke ursprünglich die Erfahrung
desselben Mangels an Verständnis, wie Morse dieses in Washington erfahren hat. Obwohl
eine große Zahl von Erfindern in verschiedenen Ländern intensiv an der elektrischen
Transmission von Signalen für mehrere Dekaden Arbeit hatte, wollte keiner der potenziellen
Nutzergruppen vor der Mitte des Jahrhunderts diese technischen Möglichkeiten nutzen. Sie
zeigten mehr oder weniger überhaupt kein Interesse am Telegrafen und an diesen neuen
Kommunikationstechnologien vor der Mitte der 1840er. Zeitungen und Geschäftsleute Eisen-
bahnkompanie und das Militär spielten eine abwartende Rolle. Betrachtet man dies von der
heutigen oder aus späterer Sicht, waren die offenbaren Vorteile der elektrischen Transmission
von wichtiger Information nicht von so ausschlaggebender Bedeutung wie man das im
Nachhinein meinen würde. Diese vorsichtige Grundeinstellung gegenüber neuen Technolo-
gien mag möglicher Weise überraschen. Bestimmte Faktoren zeigen jedoch an, dass die Vor-
teile des Telegrafen nicht so offenkundig zu dieser Zeit waren. Auf der einen Hand hatte die
Technologie ihre Vorteile. Aber in den 1820ern und den 1830ern war weder die Hard- noch
die Software in ausreichendem Maße etabliert und entwickelt noch war es für die Art und
Weise, wie ihre Fürsprecher agierten. Das technische Material war schwach oder schlecht und
funktionierte nicht unbedingt im gewünschten Sinne. Der Standard für die Transmission und
der Interpretation von Signalen war noch nicht vorhanden. Außerdem waren die Erfinder als
sehr fremd und exzentrisch aufgetreten. Hard und Jamison erklären die mangelnde Akzeptanz
der neuen Kommunikationsmittel durch die kulturelle Form und dadurch, dass sich der Bedarf
für diese Techniken erst dann ausbilden konnte, nachdem der Kult der Geschwindigkeit sich
durch die Eisenbahn und das Automobil zu verbreiten begann (Hard, Jamison 2005, 211).

Frauen spielten eine aktive Rolle bei der Verbreitung dieser neuen Technologien. Sie
übernahmen in wohlwollenderer Weise die neuen Kommunikationsmittel, um Waren und
Dienstleistungen zu bestellen und soziale Beziehungen über größere Distanzen aufrecht zu
erhalten. In dem sie die Telefone benutzten verknüpften sie die Fähigkeit von Leuten und
managten zum Beispiel die Aufrechterhaltung von Verwandtschafts- und Freundschafts-
beziehungen zu Verwandten, die in weit entfernten Städten und Regionen wohnten. Die

150
Mütter akzeptierten diese Technik, um im direkten Kontakt mit ihren Kindern zu bleiben,
auch wenn die in weiter entfernte Städte ziehen mussten. Insbesondere Hausfrauen akzep-
tierten die neue Technologie, um ihre sozialen Beziehungen und ihre Aufgaben als Haus-
frauen besser durchführen zu können. Insbesondere die Frauen von Farmern und die Hausfrau
in städtischen Regionen, die in größeren Distanzen zum Zentrum wohnten, nahmen das Tele-
fon schneller an, um aus ihrer geografischen und sozialen Isolation zu entkommen (Hard,
Jamison 2005, 215-221). Allerdings verbrauchten die neuen Maschinen mehr Energie. In der
zweiten Hälfte der 1960er kam es zu einem Wendepunkt in den Beziehungen zwischen
Wissenschaft, Technologie und Gesellschaft in gewisser Weise wie während des 2. Welt-
krieges. Hier fanden fundamentale Verschiebungen in den Bereichen von Wissen und Macht
statt (Hard, Jamison 2005, 251). Nun sind wir dabei, einen weiteren Schritt zu gehen, nämlich
den von angepasster bzw. geeigneter Technologie hin zu einem grünen Ökomanagement in
Wirtschaft und Politik.

Das erste industrielle Forschungslaboratorium, wie wir es heute kennen, entstand vermutlich
in der deutschen Farbstoffindustrie während der zweiten Hälfte des 19. Jh. Dass es innerhalb
der chemischen Industrie der Farbstoffsektor war, in dem erstmalig das Industrielaboratorium
entwickelt wurde, kann weitgehend mit der Besonderheit des Farbstoffgeschäfts erklärt wer-
den, das als Zulieferer für das Kurzwaren- und Textilgeschäft äußerst anfällig war für die
launischen Schwerpunkte des Geschmacks und dem unstillbaren Drang nach neuem, wie er
die Welt der Mode charakterisiert. Neue Farben erfreuen sich jeweils nur kurzer Popularität.
Erstens musste die Farbstoffindustrie Leistung und Qualität ihrer Produktion verbessern, um
wenigstens teilweise den unvermeidlichen Abwärtstrend der Farbstoffpreise auszugleichen
und zweitens musste sie neue Farben finden, um die alten und nicht mehr profitablen ersetzen
zu können. Die Etablierung einer von der Wirtschaft getragenen Forschung war jedoch nicht
ganz so einfach, wie schon durch die Tatsache bezeugt wird, dass während der gesamten Zeit
vor dem Ersten Weltkrieg weder die Franzosen, noch die Engländer trotz ihrer anfänglich
führenden Rolle in der Herstellung von Anilinfarben, in der Lage waren, auch nur ein einziges
industrielles Forschungslaboratorium einzurichten das diesen Namen zurecht verdient hätte.
Man darf sich auch nicht vorstellen, dass das Forschungslaboratorium, wie wir es heute
kennen dadurch entstanden wäre, das man einfach einen oder mehrer Forschungsassistenten
beschäftigte. Es dauerte mehr als 40 Jahre, von 1868 bis 1910, ehe diese Institution voll
entwickelt war (Hausen, Rürup 1975, 106f).

Ein volles Jahrzehnt lang von 1864-1874 waren diese fachlich ausgebildeten Werkmeister
allein für die Produktion und Forschung in den Bayerwerken verantwortlich. Zwei Ereignisse
des Jahres 1876 zwangen die Bayerwerke, dem Problem der Entdeckung neuer Farben
ernsthafte Aufmerksamkeit zuzuwenden. In diesem Jahr wurde das deutsche Patentgesetzt
erlassen, dass das hoffnungslose Stückwerk der Patentgesetze aus der Zeit vor der
Reichsgründung von 1871 durch ein einziges Gesetz für die gesamte Nation ersetzte. Nahezu
über Nacht endete die bis dahin mit eindrucksvollem Erfolg von den deutschen Farbewerken
angewandte Nachahmungspraxis. Die Fabriken mussten nun ihre eigenen neuen Farben
finden oder sie waren vom Untergang bedroht. Die neue Fabrik der Bayer AG hatte einige
originelle Merkmale der inneren Ausstattung, die von Karl Duisberg selbst entworfen waren
und die seitdem von industriellen Laboratorien oft kopiert worden sind. Zum Laborpersonal
gehörten Glasbläser, Färber, Analytiker und eine Menge anderer Techniker, sowie junge
Laborgehilfen, die alle den Chemiker von der Routinearbeit befreiten und ihm die
ausschließliche Konzentration auf Forschung und Gedankenarbeit gestatteten. Die
Forschungsarbeit in den Laboratorien der Bayerwerke galt nur zu einem Bruchteil der
Erforschung von Farbstoffen auf der Basis völlig neuer chemischer Verbindungen. Der weit-
aus größte Teil der Zeit war unspektakulären oder routinemäßigen Experimenten vorbehalten.

151
Von 2378 Farben, die im Jahre 1896 hergestellt und getestet wurden, erreichten nur 37 den
Markt. Die industriellen chemischen Forschungslaboratorien in Deutschland entstanden im
Jahrzehnt vor dem ersten Weltkrieg bereits weitgehend institutionalisiert, bis auf die Tatsache,
dass sie sich stärker auf die akademische Forschung verließen und selbst wenig zur Grund-
lagenforschung beitrugen. Sie hatten große Ähnlichkeit mit dem kommerziellen Forschungs-
labors unserer Tage (Hausen, Rürup 1975, 108-112).

Derzeit steht keine umfassende Theorie zur Verfügung, die imstande wäre, Ursachen, For-
men, Wirkungen und Richtung des technischen Fortschritts zu verorten (Hausen, Rürup 1975,
121). Bereits im 18. Jh. wurde die enge Verknüpfung des technischen Wandels mit dem öko-
nomischen Wachstum gesehen. Alle diese Aspekte der industriellen Revolution gingen auf
die Übernahme neuer Herstellungstechniken zurück. Es ist jedoch die Frage, ob die Einsicht
in die Wachstumsbedeutung des technischen Wandels begleitet wurde von einem Verständnis
des Prozesses, durch den die Veränderungen der Technologie geschaffen wurden. Gibt es ei-
nen automatischen Hang zur Innovation, so hängt dieser allein mit dem Hang zum Profit
zusammen. Es scheint als ob die Erfindung der frühen industriellen Revolution in erster Linie
Antworten auf ökonomische Erfordernisse waren. Wenn man den technischen Wandel unter
dem Oberbegriff der Innovation analysiert, so spielen Engpässe eine bedeutende Rolle. Die
These, dass das ökonomische Wachstum in der Industriellen Revolution von einem konti-
nuierlichen Prozess des technischen Wandels abhing, ist mittlerweile gut geprägt. Es handelt
sich wohl um einen Prozess der Innovationen. Hinter den meisten Innovationen der industri-
ellen Praxis steht systematisches Denken. Die Wirtschaftshistoriker haben den technischen
Wandel nicht systematisch analysiert. Sie haben vielmehr den technischen Wandel als eine
Veränderung in dem auf industrielle Fertigkeiten bezogenen Wissen verstanden. Historiker
haben zudem kein genaues Maß für den Grad des technischen Wandels im 18. Jh. Es ist zu
klären wie und warum Erfindertätigkeit zumindest zunimmt und warum sie erfolgreich ist. So
hat sich die These erhärtet, dass technischer Wandel als Reaktion auf Nachfrage durch Input
an Wissen, Fertigkeiten und Kapital induziert wird. Eine besondere Rolle spielt dabei die
traditionelle Engpassanalyse (Hausen, Rürup 1975, 127-131).

Erfindungen und Innovationen scheinen stets von fünf Faktoren abzuhängen: 1. Vom Wis-
sensstand, das heißt von der Begrenztheit des technischen und naturwissenschaftlichen Wis-
sens, ohne das es neues Wissen nicht gibt, 2. Von einer genügend großen Anzahl ausgebil-
deter Arbeitskräfte in der passenden Technologie, ohne die die Ideen nicht erfolgreich in
wirkliche Technologie umgesetzt werden können, 3. Von der Nachfrage oder dem gesell-
schaftlichen Bedarf, was sich im Marktwert einer neuen Technologie ausdrückt, 4.Von der
Bereitschaft in die Produktion von Erfindungen zu investieren, d. h. Menschen und Ressour-
cen auf die Erfindertätigkeit zu lenken, 5. Von günstigen Faktoren, die die Umleitung der
Ressourcen auf Erfindung und Innovation gestattet. Als gegen Ende des Jahrhunderts der
Zinsfuß stieg, verlegten sich die Erfinder auf kapitalsparende Erfindungen. Der technische
Fortschritt hängt wesentlich von wirtschaftlichen Phänomenen ab. Ohne Zweifel gibt es
„cultural lags“ in der Sozialgeschichte. So ließ das Automobil viele zuvor existierende gesell-
schaftliche Vereinbarungen und Verhaltensmuster veralten. Es ist unwahrscheinlich, dass
neue Waren und Techniken auftauchen und in das Leben einer Gesellschaft eintreten, ohne
eine vorausgehende vielleicht auch nur latente Nachfrage. Andererseits aber gibt es auch die
technologische Lücke (Hausen, Rürup 1975, 132-136).

Der wesentliche Punkt ist, das der Anreiz eine Erfindung zu machen, genau wie der Anreiz
irgendeine andere Ware herzustellen, von dem Überschuss der erwarteten Gewinn über die
erwarteten Kosten beeinflusst wird. Die Begleitumstände ergeben sich aus den Verän-
derungen der voraussichtlichen Marktchancen für eine Ware oder ein Verfahren; sie hängen

152
nicht von wissenschaftlichen Entdeckungen ab, sondern vom sozio-ökonomischen Wandel,
wie Urbanisierung, Verminderung der Familiengröße, Wandel des Status der Frau, Verän-
derungen bei den relativen Faktorkosten, Bevölkerungsvermehrung, Steigerung des Pro-Kopf-
Einkommens etc. (Hausen, Rürup 1975, 154). Mit der systematischen Industrieforschung
wurden Forschung, Erfindung und Innovation zunehmend zu einem einzigen Prozess ver-
schmolzen und damit die spätere industriemäßige Anwendung von Erfindung von vornherein
in die Planung und Durchführung der Entwicklungsarbeiten einbezogen (Hausen, Rürup
1975, 160). Unter Berücksichtigung all dieser Faktoren war das Handweben nicht nur ein
monotoner, sondern hinsichtlich der vielen Ablenkungen der tatsächlichen Webtätigkeit auch
ein langwieriger Vorgang. Die Einführung von Kays fliegendem Schiffchen ist eine der
bedeutendesten Webererfindungen des 18. Jh. Um 1800 gab es viele Versuche, sowohl den
Handwebstuhl zu verbessern, als auch einen mechanischen Webstuhl zu entwickeln. Diejeni-
gen, die sich mit dem Handwebstuhl beschäftigten, richteten ihre Aufmerksamkeit auf zwei
Hauptprobleme – eine automatische Vorrichtung zur Aufnahme des Tuches auf den Zeug-
baum und eine zeitsparende Methode zum Aufbereiten der Kettfäden. Beide Probleme wur-
den durch die Experimente von William Ratcliff gelöst (Hausen, Rürup 1975, 166-168).

Nach dem Preissturz des Jahres 1826 wurde allgemein anerkannt, dass jetzt der Triumph des
mechanischen Webstuhls unvermeidlich war. Die Abneigung des Unternehmers in unaus-
gereifte Maschinen zu investieren, war gewichtiger als die Sorge der Weber, ihr Handwerk
könne zerstört werden. Trotzdem blieben noch drei Hauptschwierigkeiten bestehen. Sobald
die Webbewegungen durch nicht-menschliche Kraft angetrieben wurden, ließ die Aufmerk-
samkeit des Webers nach und es bestand die Möglichkeit, dass er Fehler, die ihn beim Hand-
weben sofort zur Unterbrechung des Webens veranlasst hätten nicht mehr bemerkte. Der
mechanische Webstuhl benötigte eine automatische Vorrichtung, die den Webstuhl anhielt,
wenn der Schussfaden riss oder zuende war oder wenn das Schiffchen in der Mitte der Kette
stehen blieb. Zweitens war ein automatischer Spannstab notwendig, um das gerade gewobene
Tuch auf der richtigen Breite zu halten und die natürliche Tendenz des Aufrollens auf den
Kanten zu verhindern. Beim Handwebstuhl geschah dies durch einen Satz Stifte auf beiden
Seiten des Zeugbaums, deren Stellung der Weber im Verlauf des Webvorgangs manuell
veränderte. Schließlich gab es noch das Problem, die Drehgeschwindigkeit des Zeugbaums zu
verändern, mit der Zunahme des aufgerollten Tuchs wuchs sein Umfang. Das hatte zur Folge,
dass es sich langsamer drehte, während sich gleichzeitig der leichter werdende Kettbaum
schneller bewegte (Hausen, Rürup 1975, 172f).

Zuerst entstanden Maschinenwerkstätten als Anhängsel von Fabriken, die auf die Herstellung
eines Endproduktes spezialisiert waren. So war die Werkzeugmaschinenindustrie ihrerseits
das Ergebnis von spezifischen Produktionserfordernissen einer Reihe von Industrien, die
während dieser Zeit Techniken der Maschinenproduktion übernahmen. Die Werkzeugma-
schinenindustrie entwickelte sich daher als Antwort auf den Maschinenbedarf einer Reihe von
Spezialindustrien; noch während diese Werkstätten mit ihrem Mutterbetrieb verbunden
waren. Durch die ständig wachsende Nachfrage nach einer immer größeren Zahl von Spezial-
maschinen wurde die Werkzeugmaschinenherstellung als besonderer Industriezweig aner-
kannt, der aus einer großen Zahl von Firmen bestand, deren Produktion beschränkt war auf
einen eng begrenzten Produktionsbereich. Häufig auf einen einzigen Typ von Werkzeugma-
schinen mit geringfügigen Modifikationen in der Größe, der Zusatzausrüstung oder der Be-
standteile. 1914 gab es in den Vereinigten Staaten 409 Werkstätten für Werkzeugmaschinen,
die zusammen im Wert von 31.464.660 Dollar produzierten (Hausen, Rürup 1975, 219-221).

Der erreichte Spezialisierungsgrad verdankt seine Existenz größtenteils der Tatsache, dass
bestimmte technische Verfahren gleichzeitig für viele Industriezweige von Bedeutung waren.

153
Die metallverarbeitenden Industrien wurden ständig mit ähnlich gelagerten Problemen
konfrontiert, die der Lösung bedurften und die, sobald sie einmal gelöst waren, ihren Platz
sehr schnell bei der Herstellung anderer Produkte fanden, die nach ähnlichen Verfahren ver-
langten. Ihre Hauptbedeutung lag daher in der strategischen Rolle für den mit der
Industrialisierung verbundenen Lernprozess. Die Einführung von Thomas Blanchards Holz-
drehbank für das Formen der Gewehrkolben im Jahre 1818, stellte insofern eine interessante
Innovation dar, als sie ursprünglich für das Glätten von Holz entwickelt worden war, jedoch
ein Prinzip enthielt, dass schließlich weitere Anwendungen bei anderen Materialien zur
Reproduktion unregelmäßiger Formen fand. Die Schusswaffenindustrie förderte die Entwick-
lung einer ganzen Reihe von Werkzeugen und Zubehörteilen, von denen die Großproduktion
der Präzisionsmetallteile abhängig war. Obwohl 1850 noch kaum eine Nähmaschinenpro-
duktion gab, war sie 1860 ein blühender Industriezweig. Ein weiterer Schritt ist die Entwick-
lung der Universalfräsmaschine durch Braun und Sharpe. Um 1880 hatte die Ausbreitung
neuer Werkzeugmaschinen in der amerikanischen Industrie überwältigende Proportionen
angenommen. Die Einführung des Hochgeschwindigkeitsstahls bei den maschinellen Schnei-
dewerkzeugen und der Einsatz von besseren künstlichen Poliermitteln sind die hervorra-
gendsten Beispiele der letzteren Entwicklung (Hausen, Rürup 1975, 223-229).

Die technologische Revolution und ihr Resultat – hypermoderne Technologie - sind


gekennzeichnet durch Verselbständigungstendenzen des Konglomerates aus Wissenschaft,
Technologie und Ökonomie (Irrgang 2008). Auch dieser Prozess lässt sich noch gesell-
schaftlich-kulturell gestalten und steuern, es sei denn, es gelingt, Wissenschaft, Technologie
und Ökonomie, selbst die kulturellen Rahmenfunktionen zu übernehmen. Ansätze dazu sind
in den modernen Medien zu finden, aber das Bildungssystem insgesamt erweist sich noch als
weitgehend resistent. Die Ökonomisierung der Werte ist nicht identisch mit der Bewertung
von Nutzenfunktionen. Die Nachhaltigkeit empfiehlt sich als Leitbild für die neue Allianz von
Technologie, Wissenschaft und Ökonomie. In der Phase nach dem 2. Weltkrieg werden wir
Zeugen einer Durchdringung der amerikanischen Gesellschaft mit einer technologischen
Transformation. Seit 1945 ist in den USA ein militärisch-industriell-universitärer Komplex im
Aufbau begriffen, der keine Entsprechung weltweit hat.

Die technologische Revolution verschärft den Wettbewerb von Innovationskulturen.


Wichtiger gemeinsamer Ausgangspunkt für das Nachdenken über nationale Innovations-
systeme (NIS) und nationale Innovationskulturen ist der empirische Befund, dass die
technologische Leistungsfähigkeit der führenden Volkswirtschaften – widergespiegelt etwa in
deren Handelsbilanzen und Patentierungs- bzw. Publikationsverhalten – deutliche Unter-
schiede aufweist. Zur Beschreibung soll vor allen Dingen auf folgende Punkte hingewiesen
werden:

(1) Ursachen von Innovationen, die als interaktive Lernprozesse verstanden werden.
(2) Innovationsprozesse werden von einem System getragen, d.h. von mehr oder
weniger lose strukturierten Faktoren bestimmt, die in einer wechselseitigen Ab-
hängigkeit stehen.
(3) Dieses System umschließt ein organisatorisches und institutionelles Gefüge.
(4) Ökonomische und technologische Entwicklungen werden aus einem evolu-
tionstheoretischen Blickwinkel betrachtet, d.h. die historische Perspektive wird
anerkannt.

154
(5) Der Nationalstaat besitzt zentrale Bedeutung für die Organisation von Inno-
vationsprozessen; daher werden die Bereiche zwischen den Volkswirtschaften be-
tont; ein optimales NIS kann nicht konstruiert werden.
(6) Umfassender und interdisziplinärer Forschungsansatz, der neben ökonomischen
Faktoren z.B. auch soziale und politische berücksichtigt (Wieland 2002, 1).

Im Zentrum des Studiums nationaler Innovationskulturen steht die Frage, wie das nationale
Innovationssystem auf technisch-ökonomische Herausforderungen reagiert. Wie werden neue
Technologiephasen im deutschen Innovationssystem eröffnet bzw. etablierte Technologie-
pfade neu ausgerichtet? Was besonders interessiert, sind typische Verhaltens- bzw. Reaktions-
muster. Innovationskultur ist

(1) als theoretisches Konstrukt,


(2) als methodologisches Konzept bzw.
(3) analytisches Raster, (4.) als empirischer Befund und
(5) als Forschungs- und technologiepolitische Herausforderung zu sehen.

Erforderlich ist eine Abgrenzung von Institution und Organisation. Unter dem Begriff der
Innovationskultur lassen sich jene grundlegenden (wohl überwiegend nicht kodifizierten)
Institutionen versammeln, welche die Verhaltens- und Reaktionsmuster des Innovations-
systems – verstanden als Gesamtheit innovationsrelevanter Organisationen und Akteure -
bestimmen, indem sie kollektive (d.h. auch organisatorische) und individuelle Wahlmög-
lichkeiten inhaltlich einschränken und lenken (Wieland 2002, 2-4).

Innovation gilt als die Quelle der Produktivität, des materiellen Reichtums und der Zerstörung
alter Arbeitsplätze. Der Ansatz bei Systemen der Innovation gilt dem Studium der Innovation
und dem technologischen Wandel. Innovationen sind neue Schöpfungen ökonomischer Signa-
tur. Es handelt sich um Prozesse, durch welche technologische Innovationen hervorkommen.
Diese sind extrem komplex und umfassen Wissenselemente, Handlungselemente und die
Überführung von technischem Wissen und Handeln in neue Produkte. Innovationen werden
heute nicht allein oder von einzelnen Firmen durchgeführt. Wenn wir den Prozess der
Innovation beschreiben, verstehen, erklären und möglicherweise auch beeinflussen wollen,
müssen wir alle wichtigen Faktoren erfassen, die Innovationen gestalten und beeinflussen. Es
geht um die Struktur und die Dynamik solcher Systeme. Der Ausdruck „Nationales System
der Innovation“ (NIS) wurde von Dosi (Dosi 1984) sowie von Nelson und Winter (Nelson,
Winter 1982) verwendet. Es handelt sich um eine Theorie der Innovation und des interaktiven
Lernens im Rahmen eines technologischen Systemzugangs (Edquist 1997, 1-4).

Die Situation der Arbeit hat sich durch den Tatbestand, dass Maschinen, Werkzeuge und
andere Einrichtungen zu integrierten technischen Einheiten zusammengefasst werden, ver-
ändert. Organisation ist das Schüsselwort der modernen Industrie. Es entsteht ein technisches
System. Der rationalisierte Betrieb stellt den Arbeiter so vor eine grundlegend neue Situation.
Die Erfordernisse des einen Systems der Arbeit, dass man beruflich nennen kann und des
anderen Systems das man technisch nennen kann müssen zusammengebracht werden. Die
Geschichte der Industriearbeit zwischen 1914 und 1940 wird dadurch bestimmt, dass die
Spezialisierung der Arbeit zunimmt, das heißt, dass sie ganz auf die Erfordernisse der
Serienfertigung ausgerichtet wird. Es ist schwierig, eine genaue Grenze zwischen den
Erfordernissen der Technik und dem Einfluss ökonomischer und sozialer Bedingungen, unter

155
denen die Technik angewandt wird, zu ziehen. Industriearbeit wird vielmehr durch bestimmte
ökonomische Ziele definiert. Dieses Prinzip der kollektiven Organisation kann auch ohne
Fließbandarbeit im eigentlichen Sinne zur Geltung gebracht werden. Humanisierung der
Arbeit bedeutet hier in erster Linie Abbremsen der Produktion (Hausen, Rürup 1975, 291-
297).

Die vorderste Front wissenschaftlicher Forschung führt direkt zu Fortschritten in der


Technologie. Insofern ist es für Unternehmen sehr interessant zu wissen, wie ökonomische
Fortschritte sich aus einer Ausweitung von Forschungsanstrengungen ergeben, um zu wissen,
ob sich solche Anstrengungen auch lohnen. Die industrielle Forschung hat die Art und
Weise, wie Amerikas Ökonomie funktioniert, radikal verändert. Im Zentrum stehen indu-
strielle Forschungslabors, die komplexe Institutionen darstellen. Sie haben einen beträcht-
lichen Einfluss nicht nur auf die Art und Weise wie sie den Unternehmen Unterstützung
gewähren, sondern auch auf den Wettbewerb zwischen Unternehmungen, auf die Beziehun-
gen von Wissenschaft und Technik selbst und auf die Struktur der Industrie. General Electric
(GE) gegründet aus dem Zusammenschluss von Edison General Electric mit der Thomson-
Houston Company im Jahre 1892 wurde zur dominanten Kraft in der amerikanischen
elektrischen Industrie und konkurrierte mit der American Telephone and Telegraph (AT&T),
der ökonomischen Konsequenz von Alexander Graham Bells Erfindung des Telefons 1876.
Laboratoriumsforschung wurde insbesondere von der GE etabliert und zwar um 1900 herum
und half einem Typ von Forschungsinstitution zum Durchbruch in den USA, welche in der
deutschen chemischen und pharmazeutischen Industrie einige Jahrzehnte vorher konstituiert
wurde. Die Forschungsanstrengungen expandierten sehr viel schneller als diejenigen der
Ökonomie überhaupt. Die meisten der Laboratorien waren für Test- und Prüfverfahren im
Ingenieurwesen zuständig. In ihnen arbeiteten Wissenschaftler und Ingenieure zusammen, um
die Konsistenz und Effizienz der Produktion zu überprüfen und zu gewährleisten. Das
industrielle Laboratorium entstand unabhängig von Produktionskapazitäten. Analyse und
Testverfahren, Testlabors und Ingenieurslabors wurden anfänglich in den USA in den Jahren
nach dem Bürgerkrieg gegründet. Industrielle Forschung per se konzentrierte sich auf die
Gebiete, die technologisch am meisten entwickelt waren (Reich 1985, 1-3).

Mit dem Beginn der industriellen Forschung konnten große Unternehmen beginnen, die Art
und Weise des technologischen Wandels und seiner Ausrichtung zu kontrollieren. So konnte
man von richtigen Entwicklungspfaden für den technischen Wandel sprechen. Die industrielle
Forschung brachte den Unternehmen auch die Möglichkeit, ein progressives Bild von sich
selbst zu entwickeln und damit in gewisser Weise Werbung für Wissenschaft und Techno-
logie in der Gesellschaft zu betreiben und mit Industrie als Fortschrittsfaktor zu verbinden.
Natürlich war der Nutzen für manche Unternehmen im Wettbewerb ein Grund für Schwierig-
keiten für andere. Unternehmen entwickelten ursprünglich Forschungsprogramme um ihre
Interessen auf bestimmten Marktsegmenten zu verfolgen und zu unterstützen. Aber sie fanden
bald heraus, dass Laboratorien sehr viel größere Kapazitäten hatten. Industrielabore
eröffneten ebenso Karrierechancen für Wissenschaftler und Ingenieure zu einer Zeit, in der
diese Chancen begrenzt waren. Als die ersten Laboratorien im frühen 20. Jh. gegründet wur-
den, hatten die meisten amerikanischen Wissenschaftler wenig Zeit oder Hilfestellung bei der
Forschung. Industrielle Forschungslaboratorien boten amerikanischen Wissenschaftlern und
forschungsorientierten Ingenieuren willkommene berufliche Entwicklungspfade. Als die An-
zahl der Forschungslaboratorien in amerikanischen Unternehmen wuchs, unterschieden sie
sich immer deutlicher von den ersten industriellen Laboratorien in den USA. Die Anforde-
rungen, die an die industrielle Forschung gerichtet waren, und die Wege, auf denen man diese
realisieren konnte, führten zu einer immer spezielleren und neuen Umgebung für Forschungs-

156
laboratorien. Industrielle Forschung verband Wissenschaft und Ingenieurskunst um das zu
schaffen, was wir heute High-Technology nennen (Reich 1985, 4-9).

Die Industrie wandelte sich in den 1880er und 1890er Jahren in den USA selbst in drama-
tischer Art und Weise, sowohl was die Struktur, die Technologiebasis und als auch die Anzahl
betraf. Dies war die Voraussetzung dafür, endlich industrielle Forschungslabore zu schaffen.
Die USA waren reich an natürlichen Ressourcen, aber durch einen Bevölkerungsmangel
gekennzeichnet. Außerdem fehlte es an agrarischen Methoden, Manufakturtechnologien und
Transportfähigkeiten, die erforderlich waren, um eine technologische Gesellschaft aufzu-
bauen. Insofern war ein Technologiemanagement erforderlich. Der Glaube an die Effizienz
von Wissenschaft für direkte Inventionen und für die Verbesserung der ökonomischen
Struktur führt dazu, dass mechanische Institute, deren Hauptaufgabe darin bestand, Methoden
und Inhalte von Wissenschaften direkt zu Arbeitern und Mechanikern zu bringen in ihrer
Anzahl anwuchsen (Reich 1985, 12-15). Das Franklin-Institut öffnete 1824 und wurde
erweitert durch das Rensselaer Polytechnische Institut. Die Militärakademie in West Point
wurde im Jahre 1802 gegründet und als eine Art Ecole Polytechnique institutionalisiert.
Außerdem entstand eine Verstärkung technischer Erziehung nach 1818. Der nächste
Einschnitt war eine gewaltige Expansion des US- Erziehungssystems nach dem Bürgerkrieg.
Während der späteren Jahrzehnte des 19. Jh. entwickelte sich eine strenge Ideologie der
Wissenschaft in den USA (Reich 1985, 17-20). Die elektrische Industrie zum Beispiel beute
auf der Basis des mechanischen Ingenieurswesens, auf Mathematik und Physik und
entwickelte sich als eine eigene Disziplin in den 1880ern und 1890ern während enge
Beziehungen zwischen der Elektrizität und dem Magnetismusabteilungen der Physik
bestanden. Die amerikanische Ingenieurspraxis hatte ursprünglich wenig Beziehung zu
Forschung gehabt. Ein Verständnis und eine Kodifizierung der natürlichen Phänomene wurde
ebenfalls in der zweiten Hälfte des 19. Jh. vorangetrieben. 1870 wurden weitere Fortschritte
in der Stahlerzeugung gemacht und so entwickelten sich enge Verbindungen zwischen
Wissenschaft und Ingenieurswesen in verschiedenen Industrien im letzten Drittel des 19. Jh.,
zum Beispiel in der Ölraffinierung, in der Gummiherstellung und in der elektrischen
Industrie. In all diesen Bereichen, war Standardisierung als Erfolgskriterium erforderlich
(Reich 1985, 24-29).

Während der früheren Jahrzehnte des 19. Jh. bestand das amerikanische Geschäft meistens
aus kleinen lokal orientierten Firmen, die begrenzte Interessen und begrenzte Möglichkeiten
hatten. Die Einführung von stationären Dampfmaschinen transformierte die amerikanische
Industrie. Die frühesten Manufakturen, die das kleine Firmenstadium überschritten, ent-
wickelten sich entlang den Strömen und Flüssen, wo sie adäquate Wasserkraft geliefert beka-
men. Das heißt diese Fabriken wurden meistens nicht in die Städte, sondern auf dem Land
errichtet. Mit der Dampfmaschine fanden die Fabriken Eingang in die Städte. Eine weitere
Entwicklung ergab sich aus der Einführung von Dampfmaschinen, nämlich die Notwendig-
keit, nach Steinkohle zu suchen. Während der 1840er und 1850er Jahre war die Dampfkraft
tatsächlich eine reale Möglichkeit industrieller Produktion. Die nun von Standortfragen
befreiten Unternehmer konnten andere Gesichtspunkte der Allokation berücksichtigen. Eine
ganze Reihe der neuen Unternehmen wurden in den rapide wachsenden Großstädten
angesiedelt, in denen auch die Arbeiter sich ansammelten. Dies war einer der wesentlichen
Faktoren für das dramatische Anwachsen der Bevölkerung in der zweiten Hälfte des 19. Jh.,
die letztendlich durch die wachsenden Beschäftigungsmöglichkeiten gegeben waren. Die
Eisenbahnen waren in der Tat die ersten großen Geschäfte in den USA, wie sonst in keinem
anderen Land. So kam es dazu, dass die Preise für viele industrielle Produkte im letzten
Drittel des 19. Jh. nachhaltig fielen. Neue organisatorische Strukturen entstanden und die
tatsächlich sehr schwierigen ökonomischen Bedingungen, insbesondere in den 1890er Jahren

157
wurden nicht zuletzt durch die Agrarrevolutionen im frühen 20. Jh. überwunden. Ein
wesentlicher Faktor des ökonomischen Erfolges, waren auch die Antitrust-Bemühungen der
amerikanischen Regierung. Industrielle Forschung wurde immer begehrter bei Unternehmen,
insbesondere dann, als Physiker fortgeschrittene analytische Methoden und Instrumente durch
diese neuen Forschungsprogramme entwickelten (Reich 1985, 31-38).

Thomas Edison war einer der ersten, der Wissenschaft, Technologie und Geschäft mitein-
ander verbinden konnte. Er eröffnete am 4. September 1882 in Manhattan ein erstes zentrales
Kraftwerk. Edisons Labor im Menlo-Park wurde installiert, als das erste amerikanische
industrielle Forschungslabor, wie es in dem Sinne von Reich entwickelt wurde (Reich 1985,
42 f.). Edisons Fabrik produzierte Dynamos. Er war nicht der einzige, sondern die Thomson-
Houston Electric Company war sein Konkurrent (Reich 1985, 46). 1894 nach ihrer Vereini-
gung installierte GE das erste große elektrische Motorkraftwerk in einem Fabrikgelände.
Nicht zuletzt weil das Management neue Bereiche und neue Wege bescheiten wollte (Reich
1985, 53). Obwohl GE den amerikanischen Markt für elektrische Beleuchtung in den späten
1890ern dominierte, gab es Konkurrenz. Als Edison das elektrische Licht und die elektrischen
Kraftwerkssysteme während der späten 1870er und frühen 1880er erfand, profitierte er von
der Nachfrage nach Gasbeleuchtung, die bereits vor seiner Erfindung installiert worden war.
Das elektrische Licht von Edison fügte der Bequemlichkeit bei der Beleuchtung eine Menge
hinzu, da elektrische Lampen automatisch angezündet werden konnten, im Gegensatz zu
Gaslaternen, die jede jeweils von Hand erleuchtet werden musste und sie eliminierte das
Flimmern, welches Gaslaternen immanent war. Außerdem erschien elektrisches Licht sicherer
als Gas und hatte die Aura der letzten wissenschaftlichen Technologie. So fand diese neue
Technik schnell breite Akzeptanz bei den Verbrauchern. Allerdings hatte auch die elektrische
Beleuchtung gewisse Nachteile, insbesondere nur beschränkte Möglichkeiten bei der Kon-
struktion. Außerdem war das Lichtspektrum dieser alten elektrischen Glühbirnen eher dem
niedrigeren roten Ende des sichtbaren Bereiches zuzuordnen und bot daher nur ein unnatür-
lich rot eingefärbtes Licht. Außerdem produzierte es eine ganze Menge an Wärme. Gegen
Ende des Jahrhunderts, gab es zwei neue Entwicklungstendenzen, die in Deutschland stattge-
funden hatten und die GE bestimmte Konkurrenz machten. Die allgemeine Elektrizitäts-
gesellschaft in Deutschland (AEG) und Westinghouse in Amerika wurden die neuen Kon-
kurrenten für Edisons Unternehmen. Am Ende des 19. Jh. gab es eine Reihe unabhängiger
amerikanischer Forscher, die elektrische Glühbirnen und Röhren entwickeln wollten, die auf
ionisiertem Gas und Unterdruck basierten (Reich 1985, 62-64).

Die Entwicklung von elektrischen Glühbirnen und Leuchtröhren war eine wichtige Aufgabe
zu Beginn des 20. Jh. für Forschungslaboratorien. Es war eine ziemliche Herausforderung für
diese Forschungslabore eine Lampe zu konstruieren, die billig und langlebig genug war, um
in Amerika verkauft werden zu können (Reich 1985, 77). Durch die Forschungslabore
gewann GE eine außerordentliche Vormachtstellung im Hinblick auf die industrielle
Entwicklung selbst. Dies führte dazu, dass es zu einer Diversifizierung der Forschung und der
Forschungsgegenstände industrieller Labore kam. Die elektrische Glühbirne und Leuchtstoffe
waren nur der Ansatzpunkt für eine Ausweitung des Programms. Ganz wichtig wurden für die
weitere Entwicklung der Forschungslabore die Sicherheitsfrage und ihre Überprüfung für die
moderne Technologie. 1909 wurde Irving Langmoir der neue Forschungsleiter der Labora-
torien. Durch ihn kam es zu einer Verstärkung der Grundlagenforschung auch bei General
Electric. Dabei war die Optimierung elektrischer Glühbirnen nach wie vor eine zentrale
Aufgabe, auch über das erste Jahrzehnt des 20. Jh. hinaus. Neue Technologien wurden
ausprobiert. Neben der Entwicklung der Radioastronomie entstand aufgrund der Entdeckung
der X-Strahlen (Röntgen-Strahlung) in den ersten Jahrzehnten des 20. Jh. anscheinend ein
neues Forschungsfeld (Reich 1985, 88). Dies führte zu einer Neuausrichtung des Labors

158
(Reich 1985, 91). Das Labor hatte insbesondere ab den 1920er Jahren neue Aufgaben zu
bewältigen, was die Verwaltung und den Erwerb von Patenten betraf. Alle paar Jahre musste
ein großes Unternehmen neue Produkte auf den Markt bringen, damit seine Gewinnspanne
nicht abzusinken drohte. So musste GE sich um die Schaffung neuer Märkte bemühen (Reich
1985, 95).

Während der zweiten Dekade des 20. Jh. änderte sich die Beziehung zwischen dem
Forschungslabor und der Patentabteilung eines Unternehmens. Nun wurden bestimmte
Forscher angestellt, die systematisch alle Patente, die relevant waren, auf ihre mögliche
Verwendbarkeit im eigenen Firmenkontext hin prüften, eingestellt. Laboratoriumsforscher
wurden ebenso informiert und in die Entwicklung des gesamten Unternehmens und seiner
Operationen integriert wie andere wichtige Mitarbeiter, allerdings auf einer weniger formalen
Basis. Ingenieure und Manager aller Sparten des Unternehmens trafen sich zu Meetings im
Forschungslaboratorium und diskutierten ihre Bedürfnisse (Reich 1985, 103-105). Die
Bücherei des Forschungslaboratoriums war ein anderes wichtiges Betriebsmittel und eine
bedeutsame Voraussetzung zur Ermöglichung von Forschung. Edisons Laboratorium enthielt
1915 ungefähr 1400 Bände und 65 Zeitschriften, die von einem Vollzeitbibliothekar verwaltet
wurden (Reich 1985, 109). Das Radio setzte die Tendenz, die durch das Telefon als
Entwicklungspfade gesetzt wurden, fort (Reich 1985, 157). 1913 hatte sich das Niveau der
Radioforschungsaktivitäten durch unabhängige Erfinder und eine Reihe von amerikanischen
Unternehmungen in signifikanter Art und Weise erhöht. Früh, im Jahre 1915, formte Arnold
eine Radioentwicklungsgruppe um Arbeitsabläufe im Forschungslaboratorium zu testen und
neu zu konstruieren. Laboratoriumsforscher begannen erste Versuche mit Fernverbindungen
im Radiowesen zwischen Long Island und Delaware im April 1915 (Reich 1985, 170-173).
Die Entwicklung eigener Laboratoriumseinrichtungen bei den Belllaboratorien, ausgestattet
mit Wissenschaftlern und forschungsorientierten Ingenieuren, ist gekennzeichnet durch einen
früheren Zugang zur Entwicklung für Technologie. Diese Bewegung passte in die Bemü-
hungen von Unternehmungen, kostengünstige Telefonservice anzubieten, als Teil ihrer
Intentionen, sich selbst gegen eine potenziell zerstörerische neue Technologie abzuschotten,
wie zum Beispiel das Radio. Innerhalb weniger Monate gelang es, die Laboratorien auf die
amerikanische militärische Produktion umzustellen. Als die Vereinigten Staaten 1917 in den
Krieg eintraten, waren sie in der Lage zur Massenproduktion. Die AT&T entwickelten Radio-
und Kommunikationstechnologien für die Kriegserfordernisse (Reich 1985, 177-180).

Zwischen 1912 und 1915 entwickelte sich die Forschungsabteilung langsam weg von den
strengen Aufgaben eines Allokationssystems, um Ingenieursaktivitäten zu dokumentieren und
zu koordinieren. Die Wissenschaftler und Forscher in diesen Laboratorien bekamen ein
Minimum an Freiheit um ihre Forschung adäquat verfolgen zu können (Reich 1985, 191). Die
Bedeutsamkeit von Wissenschaft in den Forschungslaboratorien der Industrie beruhte auf der
Fähigkeit und der Unterstellung einer direkten Anwendung. Wissenschaftliches Wissen, das
zur Anwendung führte, hatte offenbar Wert. Das Wissen allerdings, dass weitere Forschung in
Anspruch nahm und vorschlug, führte nur theoretisch zu neuen Konstruktionen, konnte aber
langfristig durchaus nützlich sein (Reich 1985, 205). Die Ingenieure benutzten Mathematik
und ihre statistischen Techniken in der Vakuumlampenentwicklung, um bestimmte Produk-
tionspfade auszuprobieren und Elemente herauszufinden, die diese Strukturen unterstützten
konnten. Es ging um konkrete Hilfen bei der Konstruktion für die Produktion (Reich 1985,
212f).

In den 1920er waren General Electric und Bell die führenden Unternehmen mit den führenden
Forschungslaboratorien in den USA. General Electric dominierte den Markt für elektrisches
Licht, insbesondere durch seine Forschungs- und Entwicklungsaktivitäten. Jedoch war der

159
Markt für elektrisches Licht mit Bells Kontrolle der Radiotechnologie verbunden, die sich
beide um Forschungs- und Entwicklungstechnologien bemühten. Allerdings war das Radio
nicht so bedeutsam für den sich entwickelnden Markt, dass er durch Forschung abgedeckt und
unterstützt werden musste. An Stelle dessen bewegten sich mehrere Unternehmen in der
Zusammenarbeit ihrer Forschungstätigkeiten, um den wachsenden und potenziell profitablen
neuen Markt kontrollieren zu können. In diesem Zusammenhang machte die Entwicklung des
Industrielaboratoriums weitere neue Wandlungen in den 20er und 30er Jahren durch. Mitte
der 20er Jahre war GE in der Lage, eine Radiostation und Empfängerstationen zu bauen, die
beide auf der Halbvakuumtriode beruhten. Die Forscher von AT&T haben 1914 die ersten
umfangreichen Forschungen über das Radio durchgeführt, als sie ein Programm eröffneten,
welches die Entfernung über den atlantischen Ozean überwinden helfen sollte. Während
Amerikas Beteiligung am ersten Weltkrieg wurden diese Anstrengungen intensiviert. Die
Kriegsmarine übernahm einen Teil der finanziellen Verantwortung für jede Art von Patent-
verletzung, die im Rahmen dieses nationalen Kriegsprogramms auftreten konnten, und bot
Radiotechnologie für die Forschung insgesamt bei allen industriellen Unternehmungen an. So
erreichte die Radioindustrie in den Jahren während des ersten Weltkrieges in den USA den
Status der Massenproduktion (Reich 1985, 218f).

AT&T hatte ernsthafte Anstrengungen unternommen, die transozeanische- und Schiff-zu-


Schiff-Kommunikation zu intensivieren. Obwohl ihnen dabei wichtige Patente fehlten, die
von anderen gehalten wurden, insbesondere was die Empfängertechnik anbelangte, bestand
keine Notwendigkeit in der Annahme, dass die schnelle Ausbreitung der wissenschaftlichen
und technologischen Fortschritte sehr schnell andere Rechte von gleichem oder größerem
Wert bringen würde. AT&T war dadurch sehr erfolgreich in zumindest bestimmten Bereichen
aufgrund ihrer Forschung, Entwicklungsabteilungen und Techniken, die dem Unternehmen
einen gewissen Anteil am Segment der Entwicklung der Radiotechnologie sicherstellte.
Indem Bell aus dem Konkurrenzbereich der Radiokommunikation herausgenommen wurde,
konnte die GE-Gruppe sich selbst in dem Bereich der Erforschung der Radiotechnologie
stabilisieren (Reich 1985, 223). Industrielle Forschungslaboratorien in den USA wurden
eingerichtet, um die Firmen in den USA vom Wettbewerb her zu schützen bzw. sie im
Wettbewerb zu unterstützen. General Electric und Bell entwickelten institutionalisierte For-
men von industrieller Forschung aus einem Grund, nämlich Technologien unmittelbar zu kon-
trollieren, im Hinblick auf ihre kommerzielle Verwertung. Indem industrielle Forschung
durchgeführt wurde, begannen sie einen kontinuierlichen Strom von technischen Mitteln zu
schaffen, um die technologische Diskontinuität zu kontrollieren. Diese Diskontinuität führte
dazu, dass die ökonomische Entwicklung von Unternehmen immer wieder destabilisiert wur-
de (Reich 1985, 239-242).

Die zweite Industrielle Revolution fand während der zweiten Hälfte des 19. Jh. statt (ca 1850
bis 1920) und ist charakterisiert durch die Anwendung formalen wissenschaftlichen Wissens
in der Industrie. Deren größten Anteil an der Anwendung hatte die chemische Industrie. Das
tiefere chemische Know-how basierte auf den neuen Theorien der organischen Chemie, die
durch Kekulé und seinen Benzolring inspiriert wurde und insbesondere in Deutschland zu
einer ganzen Reihe von Innovationen führte, besonders nach 1870, allerdings kaum zu
irgendwelchen Innovationen in Großbritannien (Homburg u. a. 1998, 99-101). Es gab eine
ganze Reihe von Gebieten, in denen die britische Regierung indirekt oder auch direkt die
chemische Industrie unterstützte. Natürlich gab es eine ganze Reihe von Gruppen auch in der
britischen Wirtschaft, die eine solche Unterstützung wünschte. So war eine der Forderungen
immer wieder, die Steuern auf Industriealkohol herabzusetzen. Auch in Deutschland
versuchte die Industrie, sich Wettbewerbsvorteile zu verschaffen, indem sie den Staat um
Unterstützung bat. Trotz beachtlicher Lobbyanstrengungen gelang es der britischen Industrie

160
in der zweiten Hälfte des 19. Jh. nicht, nennenswerte Steuersubventionen zu bekommen. Nach
1870 wurde die britische Kooperation zwischen der akademischen Welt und der Industrie
niemals so stark wie diejenige in Deutschland. Häufig wurde in Deutschland eine Kooperation
auch zwischen Unternehmen im Sinne der Standardisierung durchgeführt (Homburg u. a.
1998, 108-114).

Das Interesse der britischen Regierung und Bevölkerung an Innovationen war geringer als in
anderen Ländern. Die Bürger der reichsten Gesellschaft in der Welt vor 1914 hatten wenig
Bedarf, nach neuen ökonomischen Visionen und Wegen zu suchen. Das alltägliche Leben
hatte ein Niveau erreicht, in der Ökonomie und Administration als besonders gut erschienen.
In Deutschland hingegen war dies nicht so, so dass das Bewusstsein vorherrschte, dass Inter-
ventionen zugunsten besserer Konditionen für Innovationen von Staats wegen durchaus
erforderlich sein könnten, um Wachstum von Ökonomie und Industrie zu befördern In (Hom-
burg u. a. 1998, 118). In Großbritannien wurde immer mehr registriert, dass in den städtischen
Umgebungen die Sache um die öffentliche Gesundheit nicht gut stand. Insbesondere in den
1830er und 1840er Jahren führte die schnelle Urbanisierung zu Epidemien, Armut, Pauperis-
mus und machte die Augen offen für die öffentlichen Kosten einer unregulierten Industri-
alisierung. Angst vor sozialem Abstieg und die Bemühungen um die Stabilität von Institu-
tionen erregte die Öffentlichkeit und vor allen Dingen die Mittelklasse hatte neue Formen von
Politik zu entwickeln. So erscheinen viele Zeitungsartikel als Ausdruck der sozialen Kosten
der Industrialisierung der Gesellschaft und sie definierten neue Felder öffentlichen Interesses
und sittlicher Verpflichtungen. Die Debatte über die industrielle Verunreinigung von Wasser,
Luft und Nahrungsmitteln wurden im engen Zusammenhang zwischen den Fabrikbesitzern
und den Landbesitzern der bürgerlichen Gemeinden ausgetragen. Sie fand in Großbritannien
ab 1860 statt. Die Luftverschmutzung war der Ausgangspunkt britischer Kritik an der Indu-
strie und führte zur Forderung nach angepasster Technologie (Homburg u. a. 1998, 121f).

Hier erfolgte eine gewisse Akzeptanzverweigerung für neue Technologien, da sie das
Umweltproblem verschärften. Insbesondere die chemische Industrie wurde dafür verantwort-
lich gemacht, dass sie die Luft in Großbritannien verschmutzte. Daher musste sie Ein-
schränkungen durch die Gesetzgebung hinnehmen, allerdings nicht vor den 1860er Jahren.
Obwohl die chemische Industrie eine ganze Reihe von Argumenten und Abwehrstrategien
entwickelte, und den öffentlichen Druck und das öffentliche Verlangen nach gesetzlicher
Regulation von Umweltverschmutzungen erfolgreich abwehrte, gelang es ihnen nicht, im
Rahmen der öffentlichen Auseinandersetzungen, die Industrie vor gesetzlichen Restriktionen
und Regulationen zu bewahren. Sie musste damit Einschränkungen der Produktion und der
Gewinnerwartungen in Kauf nehmen (Homburg u. a. 1998, 135). Ein weiterer wichtiger
Punkt war die Entwicklung des industriellen Laboratoriums in der chemisch-pharmazeuti-
schen Industrie in Deutschland in den 70er und 80er Jahren des 19. Jh. Heinrich Caro
gründete das erste industrielle Laboratorium bei der BASF 1868 (Homburg u. a. 1998, 241).

Thomas P. Hughes bezeichnet die Industrialisierung der USA als die zweite Entdeckung
Amerikas. Die heutigen industriellen Städte entstanden früh im 20. Jh. und erblickten eine
langen Prozession von Erfindern, Ingenieuren und Unternehmern und Arbeitern, die ein neues
Amerika schufen. Die Mechanisierung übernahm das Kommando in der Industrialisierung.
Die europäischen Künstler sahen in der amerikanischen Maschine das Symbol einer
technischen Modernität (Hughes 1989, 107-109). Tatsächlich entwickelte sich in den USA am
Ende des 19. und am Anfang des 20. Jh. eine völlig neue Form von Großtechnik, die zwar in
gewisser Weise auch in anderen Ländern kopiert worden ist, für die aber die USA als Leitbild
steht. Das Telefon hat die Lebensgewohnheiten und die Bedingungen des täglichen Lebens
verändert, aber sie hat nicht den basalen Charakter dieses Lebens determiniert. Anstelle einer

161
solchen fundamentalen Umstrukturierung haben die Menschen die neuen Erfindungen im
Horizont unterschiedlicher Vorstellungen und Vorschläge interpretiert, darunter eine ganze
Reihe, die die Erfinder und Produzenten nicht vorhergesehen haben oder gar gewünscht
hätten. In diesem Zusammenhang haben Menschen ihr Leben den veränderten Umständen
angepasst, die durch die neuen Technologien hervorgerufen und geschaffen wurden. Sie
haben also diese Technologien ihrem Leben angepasst. Es gibt zwei Arten eines
technologischen Determinismus: Der ältere war hart, einfach und mechanistisch; der neue ist
sanft, komplex und psycho-kulturell (Fischer 1992, 12).

Wenn man Geld ausgibt für die Benutzung einer neuen Technologie, so muss man andere
Ausgaben begrenzen. Wenn man ein Automobil benutzt, setzt man sich anderen kulturellen
Einflüssen aus, als wenn man zuhause bleiben würde. Also stellt sich die Frage:

(1) Warum benutzen Individuen eine neue Technologie?


(2) Wie benutzen sie diese und wie beeinflussen neue Technologien die unmittelbaren
Aspekte ihres Alltagslebens?
(3) Wie veränderte der kollektive Gebrauch einer Technologie und die kollektive
Antwort auf eine Technologie soziale Strukturen und ihre Kultur?

Also ist entscheidend eine Heuristik des Gebrauchs von neuer Technologie. Wenn im Jahre
1875 ein Amerikaner eine Nachricht verschicken wollte, musste er reisen oder jemanden
finden, der für ihn reiste. Die Nachrichten waren kurz und nur in eine Richtung zu versenden
und die Kommunikationsmöglichkeiten über längere Distanzen waren stark eingegrenzt. 1925
konnten die meisten Amerikaner zueinander sprechen, von Stadt zu Stadt oder von Land zu
Land, schnell Antworten erhalten und relativ. Die Möglichkeiten der persönlichen Kommuni-
kation haben sich in diesen 50 Jahren in weitem Umfang ausgedehnt. Wie haben Menschen
diese drastischen neuen Bedingungen für ihr soziales Leben angenommen und verarbeitet?
(Fischer 1992, 18-23).

Die erste Periode der Einführung des Telefons geschah von 1876 an, als Alexander Graham
Bell und sein Unternehmen das Telefonsystem aufstellten. Das Telefon bedeutete einen
radikalen Wandel in der persönlichen Kommunikation. Für die allermeisten Geschäftsaktivi-
täten allerdings war die Bedeutsamkeit weniger offenkundig. Das Geschäft beruhte auf Brie-
fen und Telegrammen oft mit komplexem Code ausgestattet, um geschriebene Berichte ihrer
Transaktionen zu liefern. Wie Gray hatte auch Bell versucht, den Telegrafen zu verbessern,
als er das erste Telefon im März 1876 konstruierte. Die Monate, in denen er seinen Patentan-
trag formulierte, führten später zu rechtlichen Auseinandersetzungen, und im Mai zeigte er
eine primitive Erfindung auf der Weltausstellung in Philadelphia. Es handelte sich um eine
Art Ferngespräch. Aus der Erfindung ein Geschäft zu machen, war schwieriger. Im Juli 1877
organisierten drei Männer die Bell Telefon Company, verbunden mit dem Hubart-Trust, und
begannen ernsthaft, die Erfindung zu vermarkten. Hubarts Ausrichtung der Firma führte dazu,
dass die Firma zum exklusiven Produzenten von Telefonen wurde und sowohl die Instru-
mente wie die Lizenzen an lokale Vertreter und Betreiber von Telefonservicen weitergab. Bell
kontrollierte sowohl den Service wie die Art und Weise, wie Konsumenten die Technik ge-
brauchen konnten (Fischer 1992, 34-36).

Bell kümmerte sich um den Betrieb der Instrumente und der technischen Apparatur und
erhielt dafür Renten. Mitte 1878 hatte sich das Telefongeschäft stabilisiert, ungefähr 10.000
Apparate waren verkauft. Die Western Union hatte bereits eine ganze Reihe von Telegrafen-
büros überall und nahm auch Telefone auf, die durch Thomas Edison und Elisha Gray als

162
ergänzender Service angeboten wurde. Die gemeinsame Praxis während dieser Periode und
danach war Kunden mit einer Flatrate für den Telefonservice zu belasten und ihnen dabei
unbegrenzte Telefongespräche zu erlauben. Aufgrund der unterschiedlichen Unternehmen und
unterschiedlichen Ansätze zwischen Bell und Edison waren unterschiedliche Visionen von
dem Potenzial des Telefons im Umlauf. Es war nicht jedermann von Anfang an klar, wem das
Telefon dienen könnte und auf welche Art und Weise. Während der ersten Jahrzehnte des
Telefons boten industrielle Vermarkter eine ganze Bandbreite von Anwendungen an ein-
schließlich der Übermittlung von Gesprächen, neuen Nachrichten, Weckrufen und einer Reihe
von anderen Experimenten. Die Industrie verbrachte eine beträchtliche Zeit speziell am
Beginn des 19. Jh. allein damit, der Öffentlichkeit die Nützlichkeit ihrer Instrumente klarzu-
machen und den Kunden falsche Vorstellungen von Telefonnutzung auszureden. Die industri-
ellen Führer fanden den Zugang zum Telefon über ihre Erfahrung mit dem Telegrafen. Dabei
wurde der Telegraf ausschließlich als ein Geschäftshilfsmittel gebraucht. Es war in diesem
Zusammenhang einsichtig, dass Bell das Telefon als Erfindung für das Büro einführte. Ärzte
und Geschäftsleute formten den ersten Markt für Telefone (Fischer 1992, 36-41).

Die Entwicklung der Elektrizität und des Telefonsystems haben manche Ähnlichkeiten.
Obwohl die Europäer ihre ersten Automobile entwickelten und popularisierten, waren es die
USA, die die Primärnation wurde, die Automobile benutzte. So ähnlich war es auch mit dem
Telefonsystem (Fischer 1992, 56f). Die Verkäufer der neuen Technologien waren alles
Männer und sie dachten in dem Sinne auch wie Geschäftsmänner. Sie waren nicht offen
genug für die Bedürfnisse der Konsumenten (Fischer 1992, 60). Am Anfang standen die
technischen Demonstrationen. Allerdings hatten die Telefonverkäufer eine stärkere Heraus-
forderung zu bewältigen, nämlich Leute dazu zu überreden, für diese Erfindung zu bezahlen.
Die Entwicklung des Telefons war am Anfang sehr langsam, weil die Bevölkerung erst erzo-
gen werden musste. Aber sobald die Bevölkerung erzogen war und von der Notwendigkeit
und von den Vorteilen des Telefons überzeugt war, dann begann die Wachstumsrate in der
Tat sich zu beschleunigen (Fischer 1992, 62f).

Die Erziehungsarbeit der Industrie sollte den Basisservice für die ganze Zeit verkaufen,
Ergänzungsangebote wie bessere Telefone und Ferngespräche für eine bestimmte Zeit
schmackhaft machen und nicht zuletzt die Gutwilligkeit der Leute disziplinieren. Es galt
jedenfalls, Nutzer für diese Technik zu finden. Sie wiesen immer wieder darauf hin, dass das
Telefon als Ersatz für den Telegrafen Geschäftsnotizen versenden konnte und zwar viel
leichter als beim Telegrafen und ohne Operator. In den frühesten Jahren schenkte die Indu-
strie dem Marktservice in den einzelnen Wohnungen nur wenig Aufmerksamkeit. Erst in spä-
terer Zeit, etwa ab 1920, wurden häusliche Dienste propagiert und zwar in diesem Sinne, dass
das Telefon den Haushalt managen helfen könne. Auch auf das Marketing durch das Telefon
wies die Firma AT&T ab 1910 hin. Eine Sonderaktion 1910, das Telefon zu Weihnachten, in
dem die Organisation des Festes als vom Telefon unterstützt vorgestellt wurde, zeigt, dass erst
langsam über neue Anwendungen nachgedacht wurde. Es wurde also immer deutlicher, dass
den Verbrauchern die Nutzungsmöglichkeiten des Telefons erst beigebracht werden mussten
(Fischer 1992, 65-69).

Die Erziehungsmaßnahmen trafen auch die Höflichkeit und die Etikette am Telefon. Der
Kampf der Telefongesellschaften ihren Kunden Zivilisation beizubringen, ließ verschiedenen
Interpretationen zu. Allmählich kam es dazu, dass für die Telefonnutzung auch hin und
wieder eine nichtgeschäftliche Art und Weise vorgeschlagen wurde. Im Jahr 1920 entwickelte
die Telefonindustrie eine technische Atmosphäre, die weniger auf das Produkt und mehr auf
seine Konsequenzen für den Verbraucher abstellte. Die praktische Seite der Erfindung wurde
stärker hervorgehoben. Komfort und Bequemlichkeit wurden zum Gegenstand einer

163
Kampagne für die Verbraucher. Die soziale Konversation erscheint ebenfalls als Verkaufs-
argument, aber erst ab den 1920ern. In der Mitte der 20er konnte sich die Industrie dazu
durchringen, das Telefon nicht mehr nur als Mittel für die Abwicklung von Geschäftsverkehr
zu propagieren, sondern ebenfalls als einen Haushaltsgegenstand zu sehen, der zumindest
gelegentlich einen sozialen Gebrauch von kurzen Nachrichten erlaubte. Die Nutzung des
Telefons für Geschwätz, sozialen Austausch und Gerede war den Telefonmanagern ein
Gräuel. So musste es den Managern erst klargemacht werden, dass ihnen das eigentlich egal
sein konnte, Hauptsache sie verdienen dabei, wenn Menschen miteinander reden wollen,
gleichgültig aus welchen Gründen. Da die Telefonindustrie direkt von der Telegrafenindustrie
abstammte, ist es nicht verwunderlich, dass sie die Nutzer in denselben Kreisen suchte wie
beim Telegrafen. So kam es, dass AT&T noch 1928 versuchen musste den frivolen Gebrauch
des Telefons zu verteidigen, weil noch immer das Business-Modell im Vordergrund stand.
Die Industriellen unterdrückten den sozialen und vulgären Gebrauch des Telefons, weil sie
glaubten, dass soziale Konversation nicht das richtige Verständnis für ihre Technologie dar-
stellte. Nur ernsthafte Anwendungen sollten dem Telefon vorbehalten bleiben. Die Telegra-
fenerbschaft des Telefons führte dazu, dass das Telefon es in den ersten Jahrzehnten sehr
schwer hatte, entsprechende Nutzergruppen zu finden, die den spezifischen Gebrauch eines
Telefons zu würdigen wussten. Die allgemeine Verbreitung des Telefons war verbunden mit
dem Wechsel der Nutzervision. Vom Geschäftsinstrument zum Hilfsmittel beim alltäglichen
Austausch kleiner Probleme (Fischer 1992, 70-81).

Heute benutzen die Menschen das Telefon als Alltagsinstrument, um soziale Kontakte
aufrecht zu erhalten, Gespräche zu führen, auch über zwei oder drei Generationen hinweg.
Die Telefonindustrie unterstützt heute solche Unternehmen, indem sie die Leute darauf
hinweist, dass mit Hilfe des Telefons jedermann mit jedermann in Kontakt bleiben könnte.
Insofern hat sich das Leitbild der sozialen Nutzbarkeit des Telefons nach den ersten 20 bis 30
Jahren ihrer Nutzung radikal gewandelt. Die Automobilindustrie hatte am Anfang auch ein
völlig anderes Nutzerfeld ihrer Produkte, denn sie stammte von der Fahrradindustrie ab. Für
sie war das neue Fahrzeug ein Luxusgegenstand für Reisen, für Lustfahrten und Rennen. Die
Zeitungen verbreiteten diese Automobilleitbilder und berichteten bevorzugt über Autorennen.
Die ersten Hinweise auf ein Nutzermodell für das Telefon und für das Automobil kamen aber
nicht auf einem sozialen Nutzungsgrad, sondern hatten spezielle Nutzungen im Blick. Nicht
zuletzt das Ford Modell T, welches Nützlichkeit und Brauchbarkeit mit einem geringen Preis
verband, machte diese Technologie auch Kunden mit geringerem Einkommen zugänglich und
so wurde der soziale Gebrauch der neuen Technologie auf breiter Ebene möglich. Man kann
hier quasi von einer zweiten Erfindung dieser Technologie sprechen. So war das neue Leitbild
des Telefons dieses, Familien näher zusammenzubringen (Fischer 1992, 83f).

Eine der Schwierigkeiten und Gründe für Fehlschläge bei der Vorhersage des Erfolgs einer
Innovation und des Nutzungspotenzials liegt darin, dass neue Technologien möglicherweise
neue Nutzungsformen entwickeln können, jedenfalls in späterer Zeit, die am Anfang noch
nicht als möglich erschienen bzw. gegen die sozialen Gewohnheiten und Erfahrungen im
Umgang mit früherer Technologie gestanden haben. Manche benutzen auch heute noch das
Telefon aus beruflichen Gründen. Am Anfang waren dies insbesondere die Ärzte. Diese
brauchten Telefone, um nicht zuletzt auf dem Land ihre Arbeit zu koordinieren. Insofern
waren hier soziale und wirtschaftliche Gründe korreliert. Diese Gruppe enthielt eine ganze
Reihe von ländlichen und vorstädtischen Nutzern, junge Leute und speziell auch Frauen, die
gerade den sozialen Nutzen des Telefons für ihre persönlichen Angelegenheiten erkannten.
Außerdem wiesen sie darauf hin, wie wichtig ein häusliches Telefon gerade bei Notfällen war
(Fischer 1992, 260 f).

164
Auf die Art und Weise ließen sich Spaziergänge ersetzen durch ein Telefonat. Es war leichter
möglich, in Kontakt zu bleiben, vor allen Dingen, wenn Verwandte oder Freunde durch
berufliche Gründe über weite Distanzen verteilt waren. Diese direkte Nutzung des Telefons
hatte psychologische Konsequenzen für die Bewältigung des Alltags. So untergruben die
Kommunikationsmöglichkeiten durch das Telefon die Art und Weise der Kontakthaltung zwi-
schen den Haushalten. In der Tat veränderte diese Technik die Kommunikationsmöglich-
keiten nicht unbedingt stark, aber strukturierte sie ganz anders. Das häusliche Telefon erlaubte
nun eine neue Form der Privatheit, die mit ihrem Haus verbunden war, und auf andere Art
und Weise schwer in Einklang mit öffentlichen Aktivitäten zu bringen gewesen wären, so
zum Beispiel, einen Doktor zu rufen, Wein zu bestellen oder ein Date mit einem Liebhaber
auszumachen (Fischer 1992, 263-265). So haben wir hier einen instruktiven Fall, wie im
Zeitalter der Produktionsdomminanz die Kundenmitwirkung zur Abklärung des Nutzungs-
potentials einer Technik in erheblichem Maße beitrug.

165
4. Computer Aided Design und autonom-intelligente Technik:
Transformation der technischen Konstruktion zum
transklassisch-hypermodernen Techno-Design
Der Grundstein für die digitale Produktion wurde in den 60er Jahren mit den ersten
Programmen zur Abwicklung administrativer Prozesse, z. B. der Lohn- und Gehalts-
abrechnung gelegt. Später kamen Programme für technisch-organisatorische Prozesse, wie die
Material- und Fertigungswirtschaft hinzu. Alle diese Programme waren Insellösungen ohne
eine Verbindung miteinander. Entsprechend wurden die benötigten Daten mehrfach vorgehal-
ten und gepflegt. Die in den 70er Jahren entstandene Produktionsplanung und Steuerungs-
systeme (PPS-Systeme) lösten dieses Problem, in dem sie auf eine integrierte Datenbank
zurückgriffen. So konnten komplette Aufträge im gleichen System abgewickelt werden.
Parallel setzte sich in den 70er Jahren eine neue Produktionstechnologie durch: Numerisch
gesteuerte Maschinen (NCE-Maschinen) bearbeiteten weitgehend selbstständig Produktteile
nach einem auf einem Lochstreifen oder einem Magnetband in digitaler Form gespeicherten
Computerprogramm. NC oder CNC-Maschinen (Computerized Numerical Control) fanden
eine rasche Verbreitung. Der nächste Meilenstein bestand in der Entwicklung von technischen
Informationssystemen, den sogenannten CAX-Systemen (Computer Aided Systems: das X
steht für die unterschiedlichen Anwendungen). Entwurf und Konstruktion konnten gleich im
Computer durchgeführt werden. CAM-Programme (Computer Aided Manufacturing) greifen
auf die gleichen Geometriedaten zurück. Daten aus der PPS und der CAX-Welt waren bis in
die 80er Jahre nicht kompatibel. Daraus entstand die Vision der Computer Integrated
Manufactury (CIM). Dieses Konzept hatte das Ziel, sämtliche Aufgaben der Produktentwick-
lung, der Auftragsabwicklung, der Produktion und des Absatzes in einem integrierten System
zusammenzufassen, der sogenannten digitalen Produktion (Bullinger 2007, 434).

Ein Handy ist ein schnelllebiges Konsumgut. Alle 9-12 Monate bringen die Hersteller neue
Modelle in den Handel. Mit dieser Frequenz müssen in den Fabriken die notwendigen
Anpassungen vorgenommen werden. Insgesamt wird hier die Problematik deutlich, dass
Fabrikeinrichtungen weit länger leben, als die mit ihnen hergestellten Produkte. Insofern
bedarf es verschiedener Bausteine der digitalen Produktion. Die digitale Produktion zielt
darauf ab, die Planung und Umsetzung von Produktneuabläufen sowie die im laufenden Be-
trieb erforderlichen Adaptionen, wie Maschinenbelegung, Zuordnung der Mitarbeiter zu den
Arbeitsprozessen, Produktionsmengen oder die Dimensionierung von Bereitstellungsflächen
schneller, besser und preiswerter als bisher zu realisieren. Die digitale Produktion bedeutet
das Abbilden ganzer Produktionsbereiche in digitaler Form. Dabei werden drei wesentliche
Bausteine unterschieden: Die digitale Fabrik, die virtuelle Fabrik und das entsprechende Da-
tenmanagement (Bullinger 2007, 434 f.).

Der Begriff „digitale Fabrik“ charakterisiert die modellhafte, statische Abbildung einer realen,
heute existierenden Fabrik in einem Rechner. Die virtuelle Fabrik entsteht, wenn die digitale
Fabrik in die Zukunft projiziert und das Systemverhalten über den Zeitablauf simuliert wird.
Dabei wird durch die Einbeziehung des Parameters Zeit die statische Abbildung der digitalen
Fabrik durch die dynamische Betrachtung ergänzt. Die virtuelle Fabrik ist eine im Rechner
vorhandene Fabrik, die sich wie eine reale verhält und an der zukünftige Veränderungen
erprobt werden können. Zum Beispiel das Verhalten der Durchlaufzeit oder der Auslastung.
Ein wichtiges Werkzeug der virtuellen Fabrik ist die Simulationstechnik. Das zentrale

166
Anwendungsgebiet der digitalen Produktion liegt im Bereich der Planung der Produktion –
also im Bereich zwischen der Produktentwicklung und der physischen Herstellung von
Produkten. In der digitalen Fabrik wird die komplexe Produktion ausgehend von dem digi-
talen Produkt geplant. Die Planung führen viele Spezialisten aus unterschiedlichen Diszipli-
nen durch. Beteiligt sind Ingenieure aus den Bereichen Fabrikplanung, Konstruktion und Ar-
beitsvorbereitung, aber auch Betriebswirtschaftler. Für diese Form ist eine zentrale aktuelle
und konsistente Datenhaltung von großer Bedeutung. So gelingt die Planung des Produktions-
prozesses. Echtzeitfähigkeit und mehrskalige Simulation sind die Zukunftstrends dieser Art
der Produktion (Bullinger 2007, 436f.).

Damit hat sich auch die technische Konstruktion fundamental verändert. Als englisches Wort
ist „Design“ ein modernes Derivat des lateinischen Wortes „designare“, was soviel bedeutet
wie markieren, ausführen, zeichnen und zuordnen und dem französischen „designer“,
bezeichnen, entspricht. Es ist jedoch bemerkenswert, dass weder das Griechische noch das
Lateinische irgendein exaktes korrespondierendes Wort zu dem modernen Wort Design bzw.
Entwerfen oder Konstruieren kennen (Mitcham 1995, 173). Design ist also eine grundlegende
Aktivität und manifestiert originär die Kunst des Zeichnens in Form von Grundrissen bzw.
Entwürfen für Bilder. Die nichtvollendeten Räume ägyptischer Gräber zum Beispiel enthalten
solche Zeichnungen, die manchmal nicht zu Gemälden verarbeitet worden sind (Mitcham
1995, 176). Die historische Entdeckung des Design als systematische antizipatorische Ana-
lyse und Modellierung als einer einzigartigen Form menschlicher Handlung entstand ziemlich
gleichzeitig mit der Entstehung der modernen Wissenschaft und Technologie und entbirgt auf
diese Art und Weise eine neue Art, in der Welt zu sein (Mitcham 1995, 179). Design wird im-
mer mehr zu einer modernen Form technischen Konstruierens, nach meinem Dafürhalten
geeignet für die Beschreibung des Prozesses technologischer Konstruktion im Zeitalter hyper-
moderner Technologie (Irrgang 2008).

Design bedeutet entwerfen, (auf)zeichnen, skizzieren, gestalten, ausführen, anlegen, planen,


beabsichtigen, bestimmen, ausersehen, Zeichner, Konstrukteur sowie Entwurf, Zeichnung,
Plan. Design und Konstruktion decken sich in ihrem Bedeutungsgehalt in vielfacher Hinsicht,
doch scheint es mir in Bezug zur technischen Konstruktion doch interessante Bedeutungs-
unterschiede zu geben. Konstruieren beschreibt eher das mathematische Konstruieren (z.B.
mit dem Zirkel) streng rational vorgehend, Design als Entwurf trägt eher Projektcharakter und
ist Ausdruck der Kunstkultur der Technik und menschlicher Kreativität. Die Wiederkehr des
Experten scheint mir ein Indikator für die Wiederkehr der Kunstkultur zu sein, dies wird noch
herauszuarbeiten sein. Diese Schwerpunktverlagerung führt nun auch zu gewissen Verände-
rungen im Ingenieurswesen, da die Idee der Ingenieurs-Konstruktion eng mit der Mathematik
verknüpft war, wie bereits aufgezeigt werden konnte. Dazu sind noch einige Rahmenüberle-
gungen erforderlich.

Der Diskurs über Modernität beruht auf Voraussicht und Kontrolle. Drei Eigenschaften
unterscheiden das Mittelalter von der Moderne: lokale Begrenztheit, kosmische Zentrums-
losigkeit und göttliche Konstitution. Technologie und Ökonomie sind die Disziplinen, durch
die das moderne Projekt ausgearbeitet und in eine soziale Ordnung überführt wurde, die durch
aggressiven Realismus, durch methodischen Universalismus und umfassenden Individualis-
mus charakterisiert ist (Borgmann 1992, 5). Der technologische Hypermodernismus ist eine
mögliche Nachfolgeinstitution für die technische Moderne. Diese wäre gekennzeichnet durch
Hyperrealität, durch Hyperaktivität und durch Hyperintelligenz. Nicht zu bestreiten ist die
Krise des Modernismus. Dabei ist Ausdruck der Moderne der amerikanische Weg, Schulden
zu machen, um konsumieren zu können. Selbstdisziplin und Selbstregulierung sind nicht mehr
die Charakteristika der Zeit. An diese Stelle ist Drogenkonsum und Kinderlosigkeit getreten.

167
Aber Kompensation bewirkt keine Heilung. Als Beispiel für Hyperaktivität ist hyperaktives
Arbeiten zu sehen. Damit ist eine gewisse Aufhebung der Bürgerlichkeit gegeben. Die
Menschen sind mit Schwierigkeiten unvertraut und können sie nicht bewältigen. Sie meinen,
Hyperaktivität bewirkt ökonomischen Fortschritt.

Vielfach angekündigte Postmodernismen haben dazu geführt, dass heute der Modernismus
global geworden ist. Die Moderne entstand als eine Verknüpfung von Bacons, Descartes und
Lockes Projekten. Die Natur wird bestimmt im Rahmen eines aggressiven Realismus, wobei
dieser auf Herrschaft über die Natur abzielt. Es kam zu einer Fusion von Humanität und
Technologie, die zu einem ambivalenten Individualismus führte. Dies mündete in eine Art
von Ideologie der Privatheit. Aber 80 % der Freizeit wird mit passivem Konsum verbracht.
Reichtum ist der Frucht individueller Aneignung und Vermehrung. Die postmoderne Kritik
am Realismus, Universalismus und Individualismus manifestierte sich zunächst in der neuen
Architektur. Die postmoderne Ökonomie läuft auf einen Postindustrialismus hinaus. Im Um-
gang mit Ressourcen und Materialien hat sich eine Dematerialisierung und der Rückgriff auf
andere Materialien durchgesetzt. Das Industriesystem ist an seine ökologischen Grenzen
geraten. So ergibt sich eine gewisse Ambivalenz der Moderne. Das Anwachsen der Kommu-
nikation hat die Grenzen in der menschlichen Kompetenz der Informationsverarbeitung offen-
kundig gemacht. Die Antwort ist eine flexible Spezialisierung und eine informierte Koopera-
tion. Es geht nun um kleine Unternehmen mit gut ausgebildeten Mitarbeitern (Borgmann
1992).

Der zentrale Fehler im modernen Projekt ist an der Stelle zu suchen, wo Produktion und
Konsum aufeinander treffen. Der instrumentelle Hyperrealismus führt in eine virtuelle Welt.
Die technologische Versprechung einer Befreiung der Realitätsverhaftetheit der Dinge führt
in Virtualität. Eine Hyperrealität macht sich in Flugsimulatoren und Workstationen bemerk-
bar. Videospiele zeigen eine elektronische Hyperrealität, eine instrumentelle Hyperrealität.
Die Freizeitgesellschaft besteht aus hyperaktiven Spielern. Die Intelligenz der Experten-
systeme führt zu einer Hyperintelligenz. Die telefonischen Netzwerke sind frühe Versionen
hyperintelligenter Netzwerke. Letztlich ist es Musik und Unterhaltung, die wir wünschen und
die uns eine solche Hyperintelligenz bietet. Moralisch fundamentale Entscheidungen haben
Auswirkungen auf die materiale Kultur. Die Hypermoderne öffnet für rhetorisch eloquente
Realität. Technologie ist Teil des postmodernen Geschicks. So entsteht eine hypermoderne
Technologie (Borgmann 1992). Daran anschließend habe ich eine Konzeption hypermoderner
Technologie entworfen, die durch permanente Innovation gekennzeichnet ist (Irrgang 2008).

Kehren wir zum Ingenieurwesen zurück. Die technische Konstruktion von Produkten des
Maschinenbaus wird in jüngster Zeit von der Konstruktionswissenschaft zunehmend als
Vorgang begriffen, bei dem das menschliche Denken mit seinen Möglichkeiten auf der einen
und seinen Grenzen auf der anderen Seite eine wesentliche Rolle spielt. Damit wird eine
Phase eingeleitet, in der das technische System und dessen abstrakte Beschreibung als
Hauptgrundlage für die Entwicklung von Methoden und Vorgehensplänen zurücktreten.
Dieser Wandel hat vor allem zwei Gründe: Die vorgeschlagenen Methoden und Vorgehens-
pläne finden in der betrieblichen Praxis nicht immer die Anerkennung, die sich ihre Autoren
erhofft haben. Die zunehmende Einbeziehung des Computers in den Prozess der Produktent-
wicklung bedingt die intensive Auseinandersetzung mit der Arbeit und der Denkweise des
Konstrukteurs. Die derzeit notwendige Umorientierung vom technischen Objekt zum gedank-
lichen Prozess führt auf das Gebiet der Denkpsychologie. Das Lösen komplexerer Probleme,
ohne klar definiertes Endergebnis wurde bisher mit wenigen Ausnahmen kaum erforscht.
Dylla stellt sich die Aufgabe, eine deskriptive Theorie des Konstruktionsprozesses zu schaf-
fen. Eine empirisch gesicherte, allgemein gültige Theorie lässt sich nicht im Rahmen eines

168
Projektes erarbeiten. Hier können nur die ersten Schritte in diese Richtung gemacht werden
(Dylla 1991, 2f).

Reichen die in der empistemischen Struktur gespeicherten Handlungsprogramme (Operato-


ren) zur Bewältigung einer Situation nicht mehr aus, so nimmt diese Problemcharakter an. Für
diese muss eine heuristische Struktur erarbeitet werden. Ein Grundschema für Heurismen
sieht Dörner in der Konzeption „Test-Operate-Test-Exit“, einem zyklischen Wechsel von
Prüf- und Handlungsphasen. Wenn kein Problem, sondern eine Aufgabe vorliegt, kann der
Bearbeiter den Zustand durch den Abruf von bereits fertigen Lösungselementen und
festgelegten Handlungsprogrammen (Algorithmen) aus der epistemischen Struktur erreichen.
Dies ist jedoch bei Neukonstruktionen nicht möglich. Zu Beginn der Bearbeitung liegt kein
vollständiger und widerspruchsfreier Katalog von Forderungen vor und muss daher erst noch
entwickelt werden (Dylla 1991, 10-13). Konstruktionswissenschaft hat ihre Wurzeln im
Bestreben, die konstruktive Tätigkeit nicht mehr als Kunst, sondern als Tätigkeit wie jede
andere im technischen Bereich zu begreifen, sie dadurch planbar, optimierbar und lehrbar zu
machen. Im Vordergrund steht dabei nicht die empirische Analyse und die begriffliche
Rekonstruktion des Konstruktionsprozesses, sondern das Aufstellen von Regeln und Normen,
von Phasenschemata, Algorithmen und Konstruktionsprogrammen. Gegenstand des Konstru-
ierens ist ein Produkt. Produkte lassen sich durch Produktmerkmale beschreiben. Nach DIN
2330 können diese in Beschaffenheitsmerkmale, Funktionsmerkmale und Relationsmerkmale
unterteilt werden. Beschaffenheitsmerkmale gehen Eigenschaften an, die am Produkt selbst
festgestellt werden können, Funktionsmerkmale beschreiben den gewollten Zweck eines Pro-
duktes. Relationsmerkmale kennzeichnen die Eigenschaften des Produktes, die erst in Rela-
tion zu anderen Subjekten oder Objekten relevant werden (Dylla 1991, 16f).

Bei Produktmerkmalen wird insbesondere Vollständigkeit und Korrektheit angestrebt. Beim


Konstruieren sind folgende Arbeitsschritte zu berücksichtigen:

(1) Klären und Präzisieren der Aufgabenstellung;


(2) Formulierung einer Anforderungsliste,
(3) Ermitteln von Funktionen und deren Strukturen, Formulierung einer Funktions-
struktur,
(4) Suchen nach Lösungsprinzipien und deren Strukturen,
(5) Formulierung der prinzipiellen Lösung,
(6) Gliedern in realisierbare Module,
(7) Formulierung der modularen Struktur, Gestalten der maßgebenden Module,
(8) Formulierung von Vorentwürfen, Gestalten des gesamten Produktes,
(9) Formulierung eines Gesamtentwurfes,
(10) Ausarbeiten der Ausführung und Nutzungsangaben,
(11) Formulierung der Produktdokumentation und
(12) weiterer Realisierungsschritte.

Einflussgrößen beim Konstruktionsprozess sind individuelles Faktenwissen des


Konstrukteurs, sein Operationswissen, seine individuellen Fähigkeiten wie Kreativität, seine
Denk- und Handlungsstile, sein individuelles Wertesystem, seine Emotionen im Laufe des
Prozesses, seine aktuelle Leistungsbereitschaft, seine aktuelle Leistungsfähigkeit, die Auf-

169
gabenstellung, die verfügbare Information, die verfügbaren Arbeitsmittel, die Arbeitsum-
gebung, die zur Verfügung stehende Zeit, die soziale und organisatorische Einbindung in die
betriebliche Umgebung (Zusammenarbeit im Team, Stellung im Betrieb, Verhältnis zu Mitar-
beitern und Vorgesetzten) sowie Entscheidungen von Außen, z.B. von Mitarbeitern und Vor-
gesetzten bei der Auswahl von Lösungsalternativen (Dylla 1991, 21-28).

Ein Modell der technischen Konstruktion sollte möglichst realitätsnahe Konstruktions-


situationen (praxisnahe Aufgabenstellung, gebräuchliche Arbeitsunterlagen, Arbeitsmittel und
Arbeitsumgebung sowie geringe Störung des Prozesses durch die Versuchssituation) umfas-
sen, die Möglichkeit zur detaillierten Erfassung der wesentlichen Merkmale des Konstruierens
als Denk- und Handlungsprozess bieten, Möglichkeiten zur Erfassung der auf dem Konstruk-
tionsprozess fortwirkenden individuellen Einflüsse aufzeigen, Konstanthaltung der auf den
Konstruktionsprozess wirkenden äußeren Einflüssee und Vergleichbarkeit der Konstruktions-
ergebnisse garantieren. Die Anforderungen verdeutlichen die Zielkonflikte, mit denen diese
Art der Forschung zu kämpfen hat: um gültige Aussagen machen zu können, sollte der
untersuchte Konstruktionsprozess so realitätsnah wie möglich sein. Dem widerspricht die
Forderung nach einer genauen Beobachtung des Konstruierens (insbesondere der Denkprozes-
se), welche zwangsläufig den Ablauf stört. Dieser Widerspruch ist prinzipiell nicht zu lösen.

Technisches Konstruieren heißt, einen Plan zu machen, ein späteres Resultat zu antizipieren,
ein Ziel technischen Handelns in nichtsprachlicher Weise festzulegen und zu modellieren
(technische Zeichnung, Konstruktionspläne). Auch wenn sich Technikwissenschaft auf das
technische Konstruieren spezialisiert, so erfasst sie nur einen kleinen Teil von Technik,
nämlich die epistemischen Strukturen, die zu technischen Gebilden führen und die episte-
mischen Strukturen, die technische Gebilde abbilden, aber letztlich nicht die Realtechnik und
deren Anwendung. Eine Epistemologie im engeren und weiteren Sinn lässt sich unterscheiden
genau so wie die Konstruktion von der Handhabung und deren jeweilige Epistemologie. So
lassen sich im Rahmen einer Epistemologie der Handhabung Grundzüge eines technisch-
sachgemäßen Gebrauchs herausarbeiten. Die Konstruktionswissenschaft im Sinne der
Technikwissenschaft beschreibt zu nicht unerheblichen Teilen ein von ihr entworfenes Mo-
dell, das mit dem tatsächlichen technischen Konstruieren wenig zu tun hat. Das Problem hier-
bei ist der Einbezug der technischen Praxis. Realitätsnahes Konstruieren ist nach dem
technikwissenschaftlichen Modell (mögliche wissenschaftliche formale Form des Konstruk-
tionsverfahrens) ein Widerspruch; eine andere Epistemologie des technischen Konstruierens
ist also erforderlich.

Zwischen 1963 und 1984 wurde EDV in die Konstruktionswissenschaften und in die
Konstruktionsmethodik eingebaut. Nun stellt sich die Frage, ob diese als Retter in der Krise
der Konstruktionswissenschaften auftreten kann. So kam es in den jeweiligen Phasen zu einer
Dominanz entweder der Konstruktion, der Fertigung oder der Gemeinschaftsarbeit (Nie-
mitz/Paulsen 1992, 4-7). Das Konstruktionsbüro umfasst den Ingenieur, Techniker, Zeichner,
jüngere Zeichner, Lehrlinge und Pauser, wobei eine weitgehende Organisation und Arbeits-
teilung im Konstruktionsbüro zu verzeichnen ist. Betriebliche Normierung und die Nor-
mungsbewegung wurden im Zeitalter der Massenproduktion immer deutlicher. Die Massen-
produktion führte auch zu einer Dominanz der Fertigung und dem Leitbild der Verein-
heitlichung. Werkstattgerechtes Konstruieren war gefragt, wobei die Zeichnungsorganisation
die Arbeitskarten und die Zusammenstellzeichnung aufeinander abgestimmt werden mussten.
Ab 1920 gab es Zeichenmaschinen, eine Kombination von Steilbrett und Zeichenmaschine
(Niemitz/Paulsen 1992, 15), die sich allerdings nicht durchsetzte wegen der verhältnismäßig
hohen Kosten. Vor 1925 hatte der konstruktive Unterricht keine große Bedeutung. 1928
wurde Konstruktion als systematisches Lehrgebiet angeboten. Es kam zur Ausbildung von

170
Betriebsingenieuren. Ein technisches Team initiiert Konstruktion und organisiert die Ausbil-
dung der Konstrukteure. Leitbild ist die werkstattgerechte Konstruktion.

Arbeitsvorbereitung wird im Konstruktionsbüro geleistet. Verbesserte Organisation und


Arbeitsteilung wird angestrebt. Dabei sind Bearbeitungsfolgen, Materialanweisungen, Kon-
struktionsunterlagen und Arbeitsabläufe zu sichten. Im Dritten Reich wurde der Versuch
unternommen, von Rohstoffimporten unabhängig zu werden. Der Mangel und knappe Res-
sourcen führten zu diesem Ansatz. Er wollte die anstehenden Probleme durch Erfahrungs-
austausch-Gruppen bewältigen. In vielfacher Form wurde nach Austauschstoffen gefragt,
wobei Sicherheitsfragen und Stoffeinsparungsfragen bisweilen in einen Gegensatz gerieten.
Für die Typenprägung im Rahmen von Konstruktionshandlungen war das Baukastensystem
für Werkzeugmaschinen besonders geeignet. 1939 wurde der technische Zeichner als Lehr-
beruf anerkannt. Im Krieg kamen auch Frauen zum Einsatz. Sie wurden als Hilfszeichner
eingesetzt. Durch die Frauen geschah eine Umorganisation der Konstruktionsarbeit. Auch
wurden spezielle Zeichenbretter für Kriegsversehrte entwickelt. Die Bedeutung der Fotografie
für die technische Konstruktion ist nicht zu unterschätzen. Nun konnten technische Pläne
platzsparend gelagert werden (Niemitz/Paulsen 1992, 26).

Ingenieurstätigkeiten umfassen Konstruieren, Entwerfen, Gestalten. Dabei sind der Pro-


zesscharakter und die Nähe zur Handlung hervorzuheben. Wichtig sind Organisation und
Konfiguration bzw. Selbstorganisation des Konstruktionsprozesses. Es geht um intelligentere
Produkte, ohne dass die Fertigungsfreundlichkeit aufgehoben würde. Die im Konstruieren
intuitiv vollzogene Praxis soll rational rekonstruiert werden. Die Praktikerbewegung hob die
Bedeutung der Konstruktionswissenschaften für die Ingenieursausbildung hervor. Dazu soll-
ten Konstruktionssystematiken entwickelt werden. Die Konstruktionsforschung war in der
DDR eine eigenständige Entwicklung. Regeln des Konstruierens wurden herausgearbeitet und
Konstruieren als eigener technischer Schöpfungsakt begriffen. Dabei fehlt es an Konstruk-
tionswissen. Es wird nicht gelehrt, wie Konstruieren, Entwerfen und Gestalten vor sich geht.
Vorgehens- und Planungsmethoden sind zu unterscheiden. Die Konstruktionsmethodiken im
Maschinenbau sind am weitesten vorangeschritten. Heute geht es darum, ein strukturiertes
Entwerfen im Sinne einer Designmethodologie zu entwickeln.

Dabei wird Entwerfen als Prozess des permanenten Entscheidens modelliert. Eine Struktu-
rierung ist von oben nach unten und umgekehrt möglich. Das Finden einer lösbaren Problem-
stellung wird von diesem Modell jedoch nicht erfasst. Designprozesse sind als soziale
Prozesse zu rekonstruieren. Konstruktionsprozesse verlaufen in der Praxis vorwiegend nach
Erfahrungen mit ähnlichen Problemen, intuitiv, sehr spezifisch und produktnah. Die Kon-
struktionsmethoden sind präskriptiv und können daher empirisch nicht widerlegt werden
(Glock 1998, 20). Kybernetische Maschinen und KI werden als Problemlöser angesehen.
„Konstruieren = Problemlösen = Denken = Informationsverarbeitung“; so lautet das zugrunde
gelegte Schema. Zu unterscheiden sind dabei Aufgaben (einfache Varianten- und
Anpassungskonstruktion), Mittelprobleme (Konstruktionen mit sich widersprechenden Zie-
len), Zielproblematik (Produkt-Anforderungen sind nicht zu ermitteln) und Ziel- und
Mittelprobleme (Anforderungen und Lösungen sind unklar). Dadurch wird ein Problemraum
umschrieben. In einem Plan werden Instruktionen hierarchisiert. Dabei ist ein Festhalten am
Bekannten, an Vorbildern bei Konstruieren zu konstatieren. Das Vorgehen aufgrund von Er-
fahrungen ist kaum verbalisierbar. Verbalisierungen können dabei vom beobachtbaren Ver-
halten abweichen. Und oft sind opportunistische Abweichungen von hierarchischen Planungs-
strategien zu beobachten (Glock 1998, 34).

171
Konstruktionshandeln ist Zweckhandeln. Dabei stellen Pläne eine Art Problemlösen für
vorgefasste Zwecke dar. Der Plan geht der Zweckhandlung voraus, wenn man sich selbst als
rational Handelnden versteht. Verstehen von Handlungen hat Einsicht in die Pläne zur Vor-
aussetzung. Dabei ist ein gewisser Dualismus von Geist und Körper, von Zielen und Mitteln,
von Wissen und Handeln im kognitiven Ansatz festzustellen. Technik gilt dann als ange-
wandte Naturwissenschaft. Doch lassen sich in diesem Rationalitätsmodell nicht alle
Handlungen erfassen. Die Beschreibungen solcher Handlungen in Organisationsgefügen und
Handlungsfigurationen setzen das Zweck-Mittel-Schema als Variante der kausalanalytischen
Auffassung vom Handeln voraus. Ziele werden durch die Mittel beeinflusst. So ist eine
Reziprozität von Zielen und Mitteln zu konstatieren. Die Problemformulierung geht Hand in
Hand mit der Entwicklung eines Lösungsvorschlages: es gibt keine Trennung von Projekt-
phase und Designarbeit (Glock 1998, 36-39).

Handlungsfähigkeiten und –fertigkeiten können Ausgangspunkte für die Handlungserklärung


sein. Die Situation tritt an die Stelle des Zweck-Mittel-Schemas. Situationen sind durch
Interaktion konstituiert. So ist Design als Dialog zu konzipieren. Der grundsätzliche situative
Bezug von Handlungen kann nicht aufgehoben werden. Eine Situation wird aus der Erfahrung
heraus strukturiert. Ein Konstrukteur richtet seine Aufmerksamkeit auf die zu konstruierenden
Produkte, nicht auf den Konstruktionsprozess selbst. Ausgebildete, aber unerfahrene Kon-
strukteure produzieren die umfangreichsten Zielanalysen. Situative Ursachen sind Erfahrung
und Intuition, Fertigkeiten, Gewohnheiten sowie Routinen als Grundelemente des Wissens-
vorrates gehören zunächst in die natürliche Einstellung. Davon ist ein Gebrauchs-, Rezept-
und Gewohnheitswissen zu unterscheiden. Der Wissensvorrat setzt sich aus beiden Elementen
zusammen. Gewohnheitswissen hat eine paradoxale Relevanzstruktur. Es ist einerseits von
größter Relevanz, insofern es die Voraussetzung ist, andererseits jedoch von untergeordneter
Relevanz, weil ihm keine Aufmerksamkeit mehr zukommt (Glock 1998, 46-49). Routinen
können auch zu einem Nachteil werden. Fertigkeiten, Gewohnheiten und ihre Struktur sind
als „tacit knowledge“ zu verstehen. Charakterisiert sind sie durch Verbindungen zu einem
Muster und zu ihrer Ganzheit. Beschrieben wird dieser Wissensvorrat durch Konzepte wie
„tacit knowledge“ (Polanyi), „knowing how“ (Ryle), das Wiedererkennen von Gestalten
(Merleau-Ponty). Sie haben die Struktur von Intuitionen und sind einem rationalen Diskurs
nicht zugänglich.

Konstruktionsprozesse hängen wesentlich von der Erfahrung ab, von den zunehmenden
Fertigkeiten erworbenen impliziten Wissens. Der Kontext, d.h. der Situationsbezug von
Handeln, ist konstitutiv. Lernen erfolgt auf unterschiedlichen Ebenen. Es kann als Zuordnung
zu bestimmten Kontexten verstanden werden. Lernen heißt auch, Gewohnheiten zu
entwickeln, aber auch Veränderung oder Kultur. Wichtig ist aber die Frage welches Niveau
des Lernens Maschinen erreichen können. Beim individuellen Konstruktionsprozess handelt
es sich nicht so sehr um persönliche Eigenschaften, sondern eher um Transaktionsmuster.
Routinisiertes Konstruktionshandeln erreicht nur selten die Schwelle bewusst geplanter
Tätigkeiten. Die persönlichen Vorgehensweisen von Konstrukteuren zu begreifen heißt die
Vorgehensweise in einer Situation zu interpunktieren, typisieren, interpretieren und eine
entsprechende Handlung einzuleiten. Die Voraussetzung dafür ist eine unthematisierte
Routine. In einer Situation ist in diesem Sinne nach Versuch und Irrtum vorzugehen. Das
implizite Wissen ist gegenüber Veränderungen relativ resistent, wenn nicht der Irrtum Anlass
für die Veränderung einer Handlung wird. Versuch und Irrtum sind in diesem Sinne als Inter-
punktion zu begreifen. Sie sind Teil einer instrumentalen Lebensanschauung. Verallge-
meinerungen und das Sehen von Kontexten (Muster) sind konstitutiv für das implizite Wis-
sen. Die Ebenen des Lernens müssen in der Ingenieursausbildung mit berücksichtigt werden.
Die Vorgehensweise bei der Konstruktion des Mechanismus einer Maschine, des Entwurfs

172
eines Programms usw. liegt auf einer anderen Ebene. Sie ist selbst kein Mechanismus, sie ist
aber auch nicht durch einen Diskurs zu klären (Glock 1998, 56-59).

Konstruktionswissen ist kein physikalisches Wissen und lässt sich nicht als Zusammenwirken
von Teilen zu einem Ganzen verstehen. Vielmehr müssen die Organisationsprinzipien
verstanden werden. Die Theorie des impliziten Wissens lässt sich auch auf Maschinen
anwenden. Hier wird ein konventionalisierter Umgang mit Technik rekonstruiert. Wie beim
Werkzeuggebrauch wird die Maschine zum proximalen Term im Verwendungszusam-
menhang. Im Umgang mit einer Maschine kann man große Geschicklichkeit erreichen, ohne
genau zu wissen, wie die Maschine funktioniert. Der Konstrukteur der Maschine wird nicht
der beste Anwender sein, aber er wird die Anwendung mit berücksichtigen müssen. Das Kon-
struieren setzt Fertigkeiten im Umgang mit Technik voraus. Auch das CAD-Programm muss
man als Konstrukteur nicht genau verstehen, aber damit umgehen können. Die Ahnung, die
Intuition einer Lösung, das Erkennen eines Problems in einer Konzeption des impliziten
Wissens: damit stellt Polanyi die methodologische Trennung von Natur- und Geisteswis-
senschaften infrage. Das Zusammenfassen einzelner Merkmale zu einem Muster oder Kontext
geschieht im impliziten Wissen. Das implizite Wissen leistet den potentiellen Zusammenhang
bislang unzusammenhängender Dinge. Das Verstehen von problematischen Situationen ist
parallel dem Verstehen anderer Personen zuzuordnen (Glock 1998, 62f). Polanyis Begriff des
impliziten Wissens muss mit dem Kontextbegriff verbunden werden. Wichtig sind hier Typi-
sierungen und Kontextualisierungen einer Situation. Problematische Situationen können
mehrdeutig sein.

Designer-Prozesse beginnen nicht mit technischen Problemen, sondern mit dem Wunsch nach
Veränderung der Situation. Problematische Situationen sind durch Unsicherheit gekenn-
zeichnet. Das technische Problem entsteht aus einer unbefriedigenden Situation. Dieses Pro-
blem herauszufinden, ist ein wesentlicher Teil des Gestaltungsprozesses. Konstruktion reicht
aber über technisches Problemlösen hinaus. Es geht darum, eine geeignete Problemstellung zu
erfinden. Der Wunsch nach Veränderung einer Situation, die potentielle Wünsche des Auf-
traggebers oder Nutzers machen Konstrukteure zu Interpreten eigener wie fremder Handl-
ungen. Die Rahmen stellen dabei Interpretationsschemata zur Verfügung. Rahmen organi-
sieren die Erfahrung. Rahmen sind typisierbare Handlungszusammenhänge. Sie manifestieren
sich in der Kultur einer sozialen Gruppe, in Interaktion und Spiel oder im „technological
frame“. Handlungsmuster, -typen und -strategien konstituieren solche Rahmen. Dabei gibt es
Grenzen von Simulationen, Grenzen der KI-Forschung. Problemlöser sollen ein internes
symbolisches Modell bzw. eine Repräsentation von Welt haben (Glock 1998, 66-71).

Der Frame-Ansatz basierte auf den Versuch, ähnliche Situationen in einer Klasse zusammen-
zufassen. Es geht um typischerweise relevante Fakten. Alltagswelt wird in Form von typi-
schen Situationen klassifiziert. Der Rahmen aber ist ein Problem der Repräsentation. Das
Experiment ist ähnlich wie das Üben aufzufassen. Konstrukteure arbeiten nicht mit den wirk-
lichen Materialien. Entwerfen ist damit als Konstruieren in Modulationen zu verstehen.
Konstruiert wird im kulturellen Rahmen. Es handelt sich um eine Weise, Erfahrung zu
organisieren. Technische Zeichnungen hatten zunächst eine andere Funktion. Technik heißt
dann, Dinge aus einer ingenieurmäßigen Perspektive zu sehen. Es geht um eine Übersetzung
von Problemen in technische Rahmenbedingungen. Die Gegenstände haben Bedeutung,
insofern sie verwendet werden. Technische Artefakte sind als Rahmenbestandteile aufzu-
fassen. Technikgestalter sind auch Technikanwender. Der Modulcharakter der konstru-
ierenden, entwerfenden und planenden Tätigkeit von Ingenieuren ist hervorzuheben. Sie be-
nutzen technische Zeichnungen bzw. Konstruktionszeichnungen. Gearbeitet wird nicht mit

173
den wirklichen Materialien, sondern mit Zeichnungen als Repräsentation (Glock 1998, 97-
81).

In der Maschine wird die Struktur einer menschlichen technischen Fertigkeit verändert. Es
geht um die Fähigkeit, die Erfahrung eines technischen Gegenstandes umzuorganisieren.
Damit gibt es neue Arten des Teilnehmerstatus für den Umgang mit Maschinen. Die
Konventionen des Rahmens von Konstruktionszeichnungen sind zu überlegen und erweiterte
Möglichkeiten in der Modulation herauszuarbeiten. In der Modellierung können hypothe-
tische Handlungskontexte, verschiedene Gestaltungsprozesse, Pläne für ein Bauwerk, Skiz-
zen, Rahmen und Gestaltung durchgespielt werden (Glock 1998, 87). Designprozesse sind
Interpretationsprozesse. Es geht um die Transformation der Gestaltungsprozesse. Konstruk-
tionen protokollieren Handlungsschritte. Dazu sind Konstruktionsziele zu präzisieren. Die
Rolle der Auftraggeber besteht in der Festlegung eines Entwicklungspfades und der Auslö-
sung eines Entwurfsprozesses. Die Zielbestimmung ist am Anfang in der Regel ungenau. Die
Konstruktionsmethoden sind zwangsläufig normativ. Das Modell zweckrationalen Handelns
ist für das Konstruktionshandeln nicht geeignet. Konstruktion ist ein ein Ziel auslegender,
zielinterpretierender und zielgenerierender Prozess (Glock 1998, 95). Konstruktionshand-
lungen sind zudem nicht mit teleologischen Handlungsmodellen auszulegen. Wünsche und
Konstruktionsziele müssen verstanden, d.h. interpretiert werden. Jeder Konstruktionsprozess
enthält auch Elemente des Erfindens. Das Wählen also ist eine interpretative Entscheidung.
Eindeutige Zielbeschreibungen müssen einer formalen Sprache folgen. Die abbildende
Beschreibung ist aber nicht eindeutig. Zu fragen ist, wie Bedeutung in der Interaktion oder
Kooperation zustande kommt. Hierbei ist das Konzept der Rollenübernahme im Sinne des
symbolischen Interaktionismus zentral. Die Verständigungsbasis muss dem situativen Kontext
und die hervorgerufenen Kosten berücksichtigen. Design oder Konstruktion ist damit als
Interaktion zu rekonstruieren. Ein interaktionistischer Arbeitsbegriff berücksichtigt das
Anfertigen von Teilen und von Versuchen. Wichtig sind dafür Kontakterfahrungen des
Handelnden. Die Fertigkeiten entstehen durch den im Umgang erfahrenen Widerstand des
Dinges. Bedeutung wird erzeugt nicht zuletzt durch reflektierende Unterbrechung von
Handlungsverläufen. Konstruktionsziele haben eine antizipierte Bedeutung (Glock 1998,
110).

Konstruieren ist entscheidend für eine Technikphilosophie, die die Artefakte in den
Mittelpunkt stellt. Es geht um die Überführung technischer Funktionsanforderungen in einer
ideellen Vorwegnahme oder zeichnerischen Repräsentation. Dabei ist der Gedanke der
Konstruktionskulturen wichtig. Die Weltmärkte bedeuten eine Angleichung der Kulturen. Das
Konstruieren im Unternehmen wird von der Gesellschaft beeinflusst, wobei das Unternehmen
wiederum Einfluss auf die Gesellschaft ausübt. Im Hinblick auf die Gliederung des
Konstruktionsbüros kann man einen Technikstil und einen Kulturstil unterscheiden, eine
Technik- und eine Konstruktionskultur (Mackensen 1997, 9). Die Konstruktionskultur
erwächst aus dem Wissen und Können der Konstrukteure. Für diese ist insbesondere das
Ausbildungssystem von Bedeutung. Großbritannien und die USA basieren ihre technischen
Kulturen auf technische Empiriker, Deutschland und Frankreich bilden ihre Techniker durch
den Staat aus. In den Ländern der Praxiskultur mussten technische Ausbildungsstätten in der
zweiten Hälfte des 19. Jh. erst gegründet werden. Die Heterogenität der Berufgruppe der
Ingenieure macht Vereinheitlichungen schwierig. Dabei gibt es deutliche Unterschiede zwi-
schen Ländern mit Schul- und mit Praxiskultur.

Am weitesten war die europäische Konstruktionskultur im deutschen Maschinenbau ausge-


prägt. In Deutschland entstand um die Wende zum 20. Jh. die Kluft zwischen Konstruieren
und Fertigen. In den USA herrschte eine Produktionskultur, in Europa eher eine Kon-

174
struktionskultur (Mackensen 1997, 18). In den frühen 50er Jahren setzte ein Prozess der
systematischen Verwissenschaftlichung der Konstruktionsarbeit bei Dampfturbinen ein. Es
ging zunächst um die Standardisierung der Turbinen. Die Größe der Turbinen stand mit ihrem
Wirkungsgrad in einer Beziehung. Die computerunterstützte Berechnung sollte diese Wir-
kungsgrade optimieren. Einer der Fertigungsprinzipien war das Baukastenprinzip. In den
späten 70er Jahren gelang es, Experimente mit mathematischen Modellen und mit CAD
(Compu-ter Aided Design = computerunterstütztes Konstruieren) zu koppeln. Rationa-
lisierung und teilautomatisches Konstruieren griffen ineinander. Grafisch orientierte und ferti-
gungstechnisch orientierte CAD griffen ineinander. Die Computereinführung führte zu Aus-
bildungsproblemen. Es fehlte ein fundamentales wissenschaftliches Verständnis des
Konstruktionsprozesses (Mackensen 1997, 29-35). Im Konstruktionsbereich sind Computeri-
sierung und Standardisierungstendenzen zu beobachten. Diese Prozesse erfolgten primär aus
wirtschaftlichen Gründen. Zunehmend wurden APTs (Automaticaly Programmed Tools) ver-
wendet (Mackensen 1997, 43).

Die konstruktive Aufgabe (konstruktive Verwendung) wird als idealisierte Umsetzung kon-
kreter physikalischer Funktionen zur Erfüllung des gestellten Zweckes bestimmt. Die Eintei-
lung der Elemente führte zur Forderung nach werkstattgerechtem Konstruieren. In der
Modellierung eines umfassenden Systems aller Konstruktionselemente sahen diese
Theoretiker die Möglichkeit, durch Kombinatorik der Konstruktionselemente kausal determi-
niniert neue technische Objekte formalisiert zu synthetisieren. Der funktionslogische Ansatz
vergleicht die einzelnen physikalischen Grundoperationen (mechanischer, hydraulischer,
elektrischer usw. Art) der Elemente nach ihrer gleichen logischen Funktion (Leiten, Koppeln,
Wandeln usw.) und führte zur qualitativ neuen Stufe des theoretischen Konstruktionswissens
dem Wirk-Vergleich der Funktionselemente. Die Suche nach Konstruktionsgesetzen z. B. in
der theoretischen Maschinenlehre von Zeuner fragt nach dem inneren Prinzip des
Konstruktionsgegenstandes. Nachteilig wirkt sich aus, dass die Aufgabe des Konstrukteurs
reduziert wurde auf die Berechnung neu zu erbauender Dampfmaschinen (Mackensen 1997,
61-64).

Anfang des 20. Jh. wurde die Erfindungslehre als heuristische Heilslehre in die nicht
eindeutig beherrschbare Planung und Fertigung technischer Objekte aufgeteilt. Die
Formulierung von Konstruktionsregeln vor allem stimuliert durch das Arbeiten mit dem
Baukastensystem. Dies bedeutete eine Rationalisierung geistiger Arbeit im Konstruk-
tionsbüro. Sie begünstigte durch den methodischen Plan auch die Wirtschaftlichkeit der
Förderung. Die Konstruktionssystematik umfasst die logischen Wirkprinzipien, die aus dem
Kundenauftrag bestimmt werden (Anforderungsliste). Die logischen Wirkungszusam-men-
hänge werden als physikalische Energie-, Stoff- bzw. Informationsgrößen konkretisiert. Die
konstruktiven Mittel, die die physikalischen Wirkzusammenhänge erzwingen, werden
gesucht. Dieser Schritt endet mit der Festlegung der konstruktiven Wirkzusammenhänge. Das
Ergebnis der Analyse des methodischen Konstruierens (Schaffensmethodik) bildet den
Übergang zur rechnerunterstützten Konstruktion (Mackensen 1997, 65-69). Durch die
Rechnerunterstützung geschieht eine Vereinfachung des technischen Handelns. Gefordert ist
die Modifizierung bzw. der Neuentwurf einer Handlungstheorie, die rechnergestütztes
Konstruktionshandeln zu modellieren erlaubt. Dabei geht es um eine Analyse der normativen
Dimension, der Wissenstypen und um eine Infragestellung der Systemrationalität sowie um
eine Kritik der Metaphern der Mensch-Rechner-Interaktionen. Technische Geräte enthalten
bestimmte Handlungsaufforderungen. Verantwortlicher Umgang mit den Maschinen wird
auch für den Nutzer gefordert. Auch für diesen gibt es eine Wahl von Handlungs-
möglichkeiten (Mackensen 1997, 87-90).

175
Für das Bedienen komplexer Computersysteme ist eine Rückholung der technischen
Hilfestellung in eine eigene Handlungskompetenz nicht mehr sinnvoll zu leisten. Das in der
Maschine bereitgestellte fremde Können muss berücksichtigt werden. Dabei muss das fremde
Wissen im Hinblick auf die Zweckbestimmung des eigenen Handelns eingeholt werden. Die
Zuordnung von Computerwissen beruht auf regelgeleitetem Erfahrungswissen. Dieses ent-
zieht sich jeder strengen Formalisierung. Dennoch können Fehlleistungen vorkommen. Eine
Selektionsleistung ist bei der Anwendung erforderlich selbst bei einfachsten Algorithmen. Die
Programmierung ist davon abhängig, wie sich der Programmierer Einsatzsituationen vorstellt.
Dabei gibt es eine Modellierung im Sinne einer regelgeleiteten, starren Kriterien folgende
Anwendung auf implementierte Funktionen und Routinen, die auf konkrete Situationen
angewandt werden sollen. Die Werte aber lassen sich nicht definieren, sondern nur
explizieren. So ist eine Strukturierung erforderlich im Sinne eines intentionalen Teilens des
ungegliederten Kontinuums (Mackensen 1997, 91-94). Die Diskrepanz zwischen den Vorstel-
lungen des Programmierers und den Präferenzen des Anwenders sind als Einsatzbedingungen
zu berücksichtigen. Eine Möglichkeit, diese Diskrepanz zu überwinden, ist die Typisierung,
die Orientierung an einem idealisierten Standardfall. Die vollständige Konstruktions-
zeichnung und eine lückenlose Konstruktionsanleitung sind anzustreben.
Unternehmenskulturen legen Wert auf Heuristik und Kreativität. Eine Einigung auf
gemeinsame Wertvorstellungen ist erforderlich. Gemeinsame Wahrnehmungsmuster und
Handlungsabsichten sowie eine regelgeleitete Lenkung gehören zu Unternehmenskulturen.
Sie bedeuten eine intrinsische Motivation zur Arbeitsleistung (Mackensen 1997, 98).

Die normativen Handlungsspielräume des Konstrukteurs machen eine Handlungslegitimation


erforderlich. Dienstethos und Arbeitsethos unterscheiden sich von Jobmentalität. Dabei wird
häufig das Ideal der Erleichterung des menschlichen Lebens durch Technik angegeben. Die
konstruktiven Anforderungen werden in ihrer Normativität beurteilt. Hier kann auch eine
ethische Beurteilung greifen. Dazu müssen bewusst wahrgenommene Freiräume der
Konstruktionsaufforderungen berücksichtigt werden. In der arbeitsteiligen Planung und
Fertigung aber sind diese Freiräume kaum noch zu realisieren. Der Anspruchskatalog wird
kaum mehr moralisch reflektiert werden (Mackensen 1997, 105). Auf die situative Verwen-
dung kann noch Bezug genommen werden. Der CAD-Einsatz ist ethisch problematisch, weil
er die Beurteilungskompetenz der meisten Nutzer übersteigt. Dazu kommt es durch den
Zugriff auf das Wissen von anderen, für das das Hintergrundwissen fehlt. Oft gibt es zudem
undifferenzierte Vorstellungen von wünschenswerter Technik. Technikbewertung ist damit
als fortlaufender Lernprozess zu konstituieren.

Die benutzerbeteiligte Programmierung wäre eines der methodischen Desiderate. Routini-


siertes Handeln ist schemenhaft situativ geregelt. Dabei ist die professionelle Kultur des
Erfinders ganz verschieden von dem routinisierten Handeln. Häufig können Benutzer nicht
einbezogen werden. Dennoch enthält ein technisches Produkt einen modellierten Benutzer. So
kann der Computer auch als virtueller Kommunikationspartner betrachtet werden. Wichtig in
diesem Zusammenhang wäre Systemtransparenz. Die Bedeutung computerbasierten Kon-
struierens beruht auf Interpretationsprozessen sowohl des Entwicklers wie des Benutzers.
Dazu müsste die kommunikative Funktion des Systems offen gelegt werden. Das Konstru-
ieren ist in seinem methodischen Ablaufplan zu rekonstruieren. Konstruieren kann als Prozess
menschlicher Informationsverarbeitung interpretiert werden. Das wissensbasierte Konstruk-
tionssystem soll das Wissen, das programmiert wird, andern Konstrukteuren zugänglich ma-
chen. Handlungswissen beruht auf Kenntnissen, wie ein Konstruktionsziel unter Beachtung
der Randbedingungen am besten zu erreichen ist (Mackensen 1997, 282).

176
Der Konstruktionsraum ist der Problemlösungsraum des Konstruierens. Er systematisiert
Konstruktionswissen. Dazu werden Wissenseinheiten für Funktionen z.B. im Sinne von
Wissensbasen eingeführt und somit Konstruktionswissen klassifiziert.
Klassifizierungsmerkmale sind Funktionen, Effekte, Maschinenkomponenten, Produkte,
Attributselemente und Relationen (Mackensen 1997, 302). Die wissensbasierte
Arbeitsumgebung ist konstruktionsbegleitend. Es geht um das Erkennen der wesentlichen
Probleme. Die Wissensbasen werden dann als Grundlage für das Baukastenprinzip
herangezogen. Die Formalisierung von konkretem konstruktivem Handlungswissen ist
allerdings schwierig. Die Ähnlichkeitskriterien einer Konstruktion können nicht eindeutig und
vollständig angegeben werden (Mackensen 1997, 355). Die Arbeit am Computer isoliert den
konstruierenden Ingenieur nicht. Der gesteigerte Informations- und Kommunikationsbedarf
führt zu veränderten Organisationsformen im Unternehmen. Es kommt zu einer Aufwertung
der konstruierenden Ingenieure und von Kooperationsformen. Dies stellt Anforderungen an
die Organisation sozialer Prozesse. Strukturwandel und Kulturwandel gehen Hand in Hand.
Lebensweltlich geprägte Werte und Normvorstellungen werden in den Konstruktionsprozess
integriert. Die Strukturierung des Konstruktionshandelns ist damit eine Form der sozialen
Rationalisierung. Es geht um die Aufrechterhaltung und Weiterentwicklung funktionaler,
sozialer und technischer Kompetenz. Der als Strukturierung verstandene Prozess des
Konstruktionshandelns ist durch Wandel gekennzeichnet: soziale Akteure handeln im
Rahmen der für sie gültigen Bedingungen, die als organisationsspezifische
Interaktionsordnungen ausdifferenziert wurden. Dabei konfirmieren und festigen sich die
vorgefundenen Strukturen durch routinisiertes Handeln, die aber Kraft ihres reflexiven
Bewusstseins und diskursiver Momente der Aufmerksamkeit verändert werden. In
technikerzeugenden und –verwendenden Sozialsystemen sind die vorgefundenen Strukturen
durch Aufgabentypen, Prozesslogiken, technische und organisatorische Infrastrukturen sowie
durch changierende und sich neuformierende Konfigurationen von sozialen Akteuren ge-
geben. Nichtintentionale und intentionale Strukturierungsmuster müssen unterschieden wer-
den.

In Prozessen der technischen Entwicklung lässt sich dann festhalten, dass soziale Akteure
nach Regeln, Methoden, Interpretationsschemata und Orientierungsmustern handeln, die von
ihnen als selbstverständlich angesehen werden und als praktisches Bewusstsein ihr Handeln
affizieren. Die Regeln werden in außer- und innerbetrieblichen Sozialisations- und Arbeits-
kontexten erfahren, tradiert und mehr oder weniger unbewusst angewandt bzw. zu quasi insti-
tutionalisierten Erfahrungshintergründen verdichtet. Die rekursive Reproduktion dieser Re-
geln durch soziale Akteure bedeutet, dass nicht intendierte Handlungen als unerkannte Hand-
lungsbedingungen in den Prozess der Strukturierung z.B. von Aufgaben eintreten. Der
Prozess des Konstruktionshandelns enthält damit eine Form, die in Bewegung ist und auf-
grund von Strukturierungsmechanismen von sozialen Akteuren immer wieder neu inszeniert
wird. In der Konzeption von Giddens ist Kommunikation ein dem Handeln integraler Be-
standteil, ein Interaktionselement (Mackensen 1997, 361-365).

Die durch Technisierung hervorgerufene Mediatisierung der Tätigkeiten bzw. in diesem Falle
des Konstruktionshandelns, kann als Veränderung der Kommunikations-/oder Informations-
weise gesehen werden: jedes soziales System, also auch das technisch-innovative Subsystem,
verfügt über ein spezifisches Modell des symbolischen Austausches – der Kommunikation
und Interaktion -, das nicht nur entsprechend den spezialisierten Aufgaben, sondern auch nach
Maßgabe der zur Verfügung stehenden und sich ausbildenden Medien und Sprachformen
konturiert wird. Dabei kommt es zur Veränderung der Sprachform und der Kommuni-
kationsweise. Andererseits ist nicht von der Hand zu weisen, dass das Arbeiten in elektroni-
schen Netzen die Zunahme an unbeabsichtigten und damit auch unkontrollierbaren Hand-

177
lungsfolgen erheblich vergrößern kann (Mackensen 1997, 387-369). Die Frage nach der
Strukturierung der Organisation durch Technik lässt es erforderlich erscheinen, Vorgänge der
Standardisierung und Normierung konstruktiver technischer Handlungen vor allem bei
Arbeitsteilung anzunehmen. In der Modellierung eines umfassenden Systems aller
Konstruktionselemente manifestiert sich das Modell einer Kombinatorik der Konstruktions-
elemente auf der Basis physikalischer Grundelemente und ihrer Zuordnungen.

Fertigungstechnische Ingenieure oder Maschinenbauingenieure stehen in der Hierarchie ganz


weit unten. Gemeinsame Werte, Symbole, Denkformen und die Manifestationen daraus
resultierender unbewusster Dynamiken ebenso wie nationale Zukunftsvisionen sind Elemente,
die einer Kultur ihre spezifische Gestalt geben. Es geht um die Innovationsfähigkeit einer
Kultur. Die Modernisierung der Produktionsanlagen, die Innovation der Produkte sowie die
Qualifizierung der Arbeitskräfte sind unumgängliche Voraussetzungen für die sich fortent-
wickelnde, erfolgreiche Industrie. Im zweiten Weltkrieg wird Fabrikarbeit in den USA mit
einem negativen Image besetzt. Nach dem zweiten Weltkrieg ermöglichte die boomende
Wirtschaft vielen US-Amerikanern, ihre Kinder aufs College zu schicken. Ein starker
Individualismus war im Ausbildungssystem vertreten. Die amerikanische Idee vom unabhän-
gigen Erfinder verbreitete sich im Hinblick auf Technikgenese. Es gab ein verbreitetes Miss-
trauen gegenüber staatlichen Regulativen. Eine Orientierung am Jetzt ist in den USA durchaus
zu konstatieren. Die amerikanischen Gewerkschaften sind stark betriebgebunden. Es gibt
keine übergreifenden tariflichen Vereinbarungen. Das Image der amerikanischen Gewerk-
schaften ist bei den Betriebsleitern, aber auch bei den Arbeitern, eher negativ besetzt. In den
südlichen ländlichen Gebieten gibt es so gut wie keinen Einfluss der Gewerkschaften (Laske
1995, 28-31).

Mitte der 70er Jahre übernahm die CNC-Technologie den deutschen Werkzeugmaschinenbau.
In Deutschland sind die Gewerkschaften eine ernst zu nehmende politische Macht. Sie tragen
bei zu Aushandlungsprozessen zwischen den Interessen. Ein Einfluss auf den VDI und die
staatliche Förderpolitik von Technologie und Wissenschaft ist alltäglich (Laske 1995, 32—
36). 1990 waren der Höhepunkt des deutschen und der Tiefpunkt des US-amerikanischen
Maschinenbaus. Danach entstand eine aktuelle Krise des Welt-Werkzeugmaschinenbaus, die
insbesondere Deutschland und die USA betrafen. Die Einbrüche lassen Rückschlüsse auf eine
veränderte Produktpalette zu. Die USA konzentrierte ihre Exporte auf Asien, Nord- und
Mittelamerika. In dem von heimischen Herstellern vernachlässigten Markt preiswerter Stan-
dardmaschinen der USA drängten dann in den 70er Jahren japanische Firmen. Während
japanische Werkzeugmaschinenhersteller die vielfältigen kulturellen Differenzen und Unver-
träglichkeiten, die mit Firmengründung und Produktvermarktung in den USA verbunden sind,
antizipieren und mit möglichst geringen Reibungsverlusten zu managen suchten, haben
deutsche Werkzeugmaschinenhersteller auf die Reputation ihrer hervorragend konstruierten
Maschinen gesetzt. Sie verzichteten auf einen Distributor und hatten mit dieser Strategie Er-
folge in den 70er und in den 80er Jahren (Laske 1995, 41-53).

Japanische Maschinen sind einfach und flexibel. Der Verkaufsstil und die Verkaufsstrategie
deutscher Hersteller sind viel zu unflexibel insbesondere im Mentalitätsbereich. Umbrüche in
den Absatzmärkten führten zu einem Fiasko beim Verkauf. Europa ist der wichtigste Absatz-
markt für deutsche Werkzeugmaschinen. Aber die Sowjetunion brach aus politischen Grün-
den weg und die Verluste solcher Absatzmärkte sind in umsatzkritischen Zeiten problema-
tisch. So kam es zu einem dramatischen Absatzeinbruch der deutschen Werkzeugmaschi-
nenhersteller in den 90er Jahren. Die amerikanischen Firmen versuchten, einen Weg aus der
Krise nicht mit Hilfe des Rotstiftes, sondern durch die Suche nach neuen Wegen zu finden.
Intensive Marktanbindung und intensiver Kundenkontakt sollten aus der Krise führen (Laske

178
1995, 54-60). Das Beharren auf firmenspezifischen Steuerungslösungen in Deutschland und
die Fixierung auf Optimallösungen verbanden sich mit einem engen Kontakt mit dem
Kunden. In den USA gibt es große Steuerungshersteller, wobei einer Dominanz von Fanuc zu
konstatieren ist. Steuerungs- und Robottechnologie gehen ineinander über. Monopolstel-
lungen verführen zu Arroganz. Fanuc bietet weltweite Steuerungskonzepte an, während
Deutschland auf werkstattorientierte Programmierung setzt. Neue Ansätze beziehen sich auf
Systemintegration der offenen Steuerungsarchitektur. Nur wenige Hersteller haben den Be-
darf anwenderfreundlicher Programmierung aufgegriffen. Man muss verschiedene Benutzer-
oberflächen anbieten. Die amerikanische Industriekultur ist stark von der Entwicklung der
Elektronikindustrie geprägt. Werkstattorientierte Programmierverfahren sind zu fördern. Ein
von Erfahrung geleitetes oder ein informatikorientierten Paradigma des Programmierens sind
zu unterscheiden. Die Zielgruppe dieser Werkzeugmaschinen sind erfahrene, fähige Fach-
arbeiter zumindest in Deutschland (Laske 1995, 117-157).

In Deutschland gab es eher kollektive Ingenieurleistungen, in den USA standen Einzel-


leistungen im Vordergrund. Beispiele waren hier die Ingenieure Taylor und Ford. Dabei
wurde in Deutschland häufig die praktische Seite vernachlässigt. Lehre, Forschung und
Verbände nahmen Einfluss vor allem auf den deutschen Werkzeugmaschinenbau. In Deutsch-
land herrschte die Leitidee der Qualität. Kundenwünsche müssen mit technologisch hervor-
ragenden Konzepten befriedigt werden. Angesichts der konjunkturellen Krise ist dabei eine
neue Ingenieurphilosophie erforderlich. Deutsche wollen auch in Standardmodellen Serienele-
mente einbauen. In den USA gehört Werkzeugmaschinenbau nicht zur Hochtechnologie. For-
schung ist hier nicht gefragt. Der US-Markt für Werkzeugmaschinen hat an Spitzentechno-
logie kein Interessen (Laske 1995, 164-196). In der metallverarbeitenden Industrie in
Deutschland sind der Fahrzeug- und der Flugzeugbau höher automatisiert. Produktionsleitbild
ist der Taylorismus. Seine Folgen für Produktionsabläufe und Arbeitsorganisation sind enorm.
Dies führt zur Vernachlässigung qualifizierter Arbeit. Das Konzept der schlanken Produktion
ist gefragt. In Deutschland allerdings herrscht eher ein hohes Ausbildungsniveau. Erfahrungs-
wissen und Fertigkeiten werden aber nur in der lebendigen Arbeit und nicht in der Technik
verankert. In den USA wird nur in wenigen Ausnahmefällen Qualifikation an sich gefördert.
Der Automatisierungsgrad deutscher und amerikanischer Betriebe ist im Vergleich zu japa-
nischen Betrieben wesentlich niedriger. Ist dies nun ein Modernisierungsrückstand? Der
Programmieraufwand für CNC-Maschinen begrenzt ihre Einsatzmöglichkeiten. Die Frage
nach dem Modernisierungsgrad muss daher präziser gestellt werden: Welcher Grad der CNC-
Durchdringung ist sinnvoll? Kundenwünsche, kundenspezifische Bedürfnisse, kurz das An-
wendermilieu muss berücksichtigt werden. Welcher Kunde kann den gebotenen Komfort
überhaupt nutzen? Die CNC-Werkzeugmaschine ist ein Produktionsmittel. In der amerika-
nischen Industrie arbeitet ein Einwanderungsgemisch und herrscht hohe Fluktuation. Die
Vernachlässigung der Qualifikation hat entscheidend zum Verlust der Vormachtstellung der
USA in diesem Bereich beigetragen. Deutsche Meister- und Handwerkskultur ist zu tief in der
Tradition verhaftet, als dass hier Qualifikation ausgeschaltet werden könnte. Die neue Tech-
nologie veränderte die arbeitsteiligen Strukturen. Im Umgang mit Maschinen kann sich
Know-how entwickeln, und der Stolz auf das handwerkliche Können lebt weiter (Laske 1995,
203-262).

Trotz hervorragender technischer Spitzenleistungen gerieten die Hersteller von Uni-


versalwerkzeugmaschinen unter enormen Druck. In Deutschland liegt die Entwicklung und
Konstruktion von Produktionstechnik in der Hand von Ingenieuren, die eine Hochschul-
ausbildung hinter sich haben. Hier herrscht ein technikorientiertes Denken, in dem Aus- und
Weiterbildung von Ingenieuren einen hohen Stellenwert haben. Die deutschen Werkzeugma-
schinenhersteller haben sich fast ausschließlich auf das Marktsegment der hochentwickelten

179
Maschinen konzentriert. Die amerikanische Industrie hat vorgemacht, wie wichtig es ist, die
Bedürfnisse von vielen kleinen Kunden zu berücksichtigen. Die deutschen verkaufen ständig
Neuerungen, oft mit Kinderkrankheiten. Der Taylorismus hatte die Steuerungskonzepte
bestimmt, nun geht es stärker anwendungsorientiert und damit auch individueller zu. Die
Entwicklung einer Industrie- und Unternehmenskultur, in der die Facharbeit die gebührende
Wertschätzung erfährt, ist von zentraler Wichtigkeit. Genauso muss es darum gehen, neue
Konzepte von Arbeit zu entwickeln.

Die Theorie der Strukturierung des Konstruktionshandelns weist auf regionale Besonderheiten
der Technik und einen nationalen technologischen Stil hin. Technik als Fortschritt ist dabei
als Leitbild zu verstehen. Die Strukturierung sozialer Gebilde kann über die Organisation der
Handlungsstrukturen erfasst werden. Wichtig hierfür sind Strukturmuster und Schemata
technischer Prozesse. Unter Berücksichtigung des Verhältnisses von Technik und Arbeit sind
Einzel-, Kleinserien-, Massen- oder Fließtechnik und ihre jeweilige Organisationsformen zu
unterscheiden und der kulturelle Ansatz zu berücksichtigen. Die organisatorische Anpassung
lässt sich als permanenter organisatorischer Lernprozess nach gewissen Aufgabentypen
unterscheiden. Es geht um Arbeitszusammenhänge und technische Konfigurationen. Struk-
turierung wird als reflexive Selbststeuerung des Handelns begriffen. Sie basiert auf einem
handlungstheoretisch Machtbegriff, wobei Macht als Fähigkeit verstanden wird, Entschei-
dungen durchzusetzen. Strukturierungsmuster sind intentional zu begreifen. Soziale Akteure
handeln nach Regeln, Methoden, Interpretationsschemata und Orientierungsmustern, die von
ihnen als selbstverständlich angesehen werden und als praktisches Bewusstsein ihr Handeln
affizieren (Helten 1993, 52). Beschrieben werden Interaktionen in Arbeitsprozessen und das
kollektive Konstruktionsvermögen technisch-innovativer Subsysteme. Eine Strukturierung
sozialer Beziehungen entsteht auch durch elektronisch vermittelte Kommunikation (Helten
1993, 60). Die technische Zeichnung ist als Verstehensmedium auch als Verbreitungsmedium
zu sehen, ist insbesondere in der Arbeitsvorbereitung wichtig. Dabei ist nicht nur das
Verstehensmedium als solches zu berücksichtigen, sondern auch der soziale Raum, in dem
diese Methode Anwendung findet. Die Anwesenheit bzw. die Verfügbarkeit der einzelnen
Arbeitsgruppenmitglieder ist heute durch elektronische Medien erweitert (Helten 1993, 68).

Eine komplexe Umweltplanung ohne Computer ist heute nicht mehr möglich. Die Com-
puterisierung impliziert eine Steigerung des Rationalitätsmodells und verändert die Kon-
struktionszeichnungen. Der Zusammenhang von Hand und Auge hat sich dadurch verändert,
die Normierungsvorschriften der Zeichnungen jedoch sind geblieben (Helten 1993, 75). Für
die neuen Möglichkeiten besteht ein höherer Ausdeutungsbedarf. Dies gilt auch für neue
Formen der Kommunikation und Kooperation, die neue Formen der Strukturierung technisch
innovativer Systeme durch den Computer nach sich ziehen. Es kommt zu einer Erweiterung
und Neuzusammensetzung der Wahrnehmungsmöglichkeiten im Konstruktionsprozess. Aller-
dings sind auch neue Formen der Betäubung und der Selbstamputation durch diese tech-
nischen Möglichkeiten gegeben. Andere Weisen der Taktilität werden durch elektronisierte
Formen des Tastsinns gegeben. Spezielle Formen der Aufmerksamkeit werden durch
Computerprogramme vorinterpretiert. Das CAD-System arbeitet mit interpretations-
bedürftigen Symbolen. CAD ist eine Art Hypermedium und interessant ist die arbeitsorgani-
satorische Einbindung von CAD (Helten 1993, 89).

Es gab eine sozialwissenschaftliche Netzwerkforschung zunächst in der Sozialanthropologie


und der Ethnologie. Dort wurden als soziale Kräftefelder Umweltbedingungen und innerorga-
nisatorische Strukturierungen untersucht (Helten 1993, 93). Das mündliche, das schriftliche
und das elektronische Konstruktionshandeln lassen sich unterscheiden. Fehlhandlungen sind
funktional und dysfunktional für Konstruktionshandlungen. Wichtig ist hierbei das individuell

180
und interpersonell erworbene Konstruktionsvermögen und Beziehungskapital, technische und
soziale Kompetenz im Hinblick auf routinemäßig regelhafte Abläufe und die Arbeitsorgani-
sation (Helten 1993, 133). Dabei lässt sich Technik als Sache und Technik als Aushandlungs-
und Strukturierungsprozess (Projekt) begreifen. Letzterer bezieht sich auf innerbetriebliche
Arbeitsteilung und Kooperationsprozesse insbesondere in der Genese und Steuerung von
Konstruktionshandeln (Helten 1993, 138).

Die Strukturierung von Technik durch Interaktion und Kommunikation bezieht Konstruk-
tionshandeln auf Technikentwicklung und Technikumgang, auf das Technikfeld, auf Medien
bzw. Ressourcen und auf technisches Wissen. Für die funktionelle Differenzierung organisa-
torischer Entwicklungen sind institutionalisierte Modelle eines generalisierten Konstruktions-
handelns zu erarbeiten. Es geht um den Forschungsprozess und seine Strukturierung. Dabei
müssen für einzelne Unternehmen Aufgabenkoordinierung und technisch-innovative Subsys-
teme beschrieben werden. Im Rahmen einer Rekonstruktion des generalisierten Konstruk-
tionshandelns lässt sich ein allgemeines Ablaufmodell der Produktentwicklung erstellen.

Projektphase Aufgabe Teilnehmer Ergebnis


Checkpoint Abschätzung einer Geschäftsltg.. Auftrag an Abt., eine
1 Idee höheres und mittleres Investigation
Management durchzuführen.
Investigation-Studie Machbarkeit Ingenieure versch. Bericht an
Marktchancen Fachrichtungen Geschäftsleitung
2 Kosten aus F & E
Personal
Investigation-to-lab Diskussion, Geschäftsltg. höheres Entscheidung evtl.
meeting Beurteilung und mittleres Auftrag an Abteilung
des Berichts Management
Entwicklung, Umsetzung, evtl. Projektgruppe Prototyp
Konstruktion Korrektur der Vorgaben unterschiedlicher Bis zur Serienreife
des Invest.- Größe;
Berichts Projektleit.
3 - Reviews Projektmanag.
- Test Ingenieure
- Optimierg. Praktikanten
Release Übergabe an Produktion Produktionsingenieur Serienproduktion
Optimierung, Verbesserung des einzelne Mitarbeiter aus Geräte- und
Ergänzung, Produkts Projektgruppe produktionstechn.
Erweiterung Ergänzung

Tabelle 1: Phasen des generalisierten Konstruktionshandelns (Helten 1993)

Die Aufgabe des Konstruktionshandelns wird am Anfang nur grob strukturiert vorgegeben.
Das Sondieren des Feldes unter bestimmten Anforderungen gehört zu den ersten Schritten.
Zunächst werden grobe Vorstellungen entwickelt und diese präzisiert. Es gibt keine allgemein
verbindliche Konstruktionsmethode. Die meisten Ingenieure meinen, dass ihre eigene Me-
thode bzw. ihr praktisch-konstruktives Vorgehen richtig ist. Gegenüber allgemeinen Kon-
struktionsmethoden oder einer allgemeine Konstruktionssystematik herrscht eine eher skepti-
sche Einstellung. Das durch Erfahrung erworbene Wissen um das Machbare unterliegt einem
Selektions- und Spezialisierungsprozess (Helten 1993, 189). Hinzu kommt das jedem Kon-
strukteur als kollektive Leistung zur Verfügung stehende Konstruktionsvermögen der Firma.

181
Hinsichtlich verschiedener Firmen lassen sich individuelle Konstruktionsstile ausdiffe-
renzieren. Der praktische Arbeitsstil von Gruppen geht zurück auf bestimmte Dozenten an
den Technischen Hochschulen. Es gibt einen eng gekoppelten Austausch unter Konstruk-
teuren. Praktisches Schließen und Ausprobieren wird als wesentlich effektiver angesehen, da
allgemeine Konstruktionsmethoden als zu zeitaufwendig und zu umständlich gelten. Wichtig
sind die Begrenzung des Erkenntnisfeldes und die Gewinnung begründeter Vermutungen über
Fehler. So entwickelt sich allmählich ein Konstruktionsvermögen. Die Ausbildung an der
Hochschule bringt eine Kombination von Theorie und Praxis als Erfahrungshintergrund für
das konkrete Konstruktionshandeln. Wichtig hierbei ist die Kooperationspraxis des Unterneh-
mens. Das generalisierte Konstruktionshandeln ist als institutionalisiertes Problemlösen anzu-
sehen (Helten 1993, 197-200).

Konstruieren ist als ein allmähliches Verfertigen der konstruktiven Prinziplösung im


Skizzieren zu verstehen. Die Ideenerzeugung ist der oder erfolgt im verbalakustisch-motori-
schen bzw. visuell-motorischen Vorgang von variablem Verkürzungsgrad. Entwurfshandeln
ist eine Variable, gleichsam pendelhafte Position zwischen Denken oder Vorstellen als „Han-
deln im Kopf“ und Sprechen, Schreiben, Zeichnen oder Anklicken als äußerem Handeln. Der
Wechsel von Verinnerlichung und Entäußerung spielen für das Entwurfshandeln eine wesent-
liche Rolle. Die Lösungen dürften in wiederholt durchlaufenen Zyklen von internem und
externem Handeln allmählich entstehen (Hacker 1994, 3). Die Skizze ist nicht zu sehr die
Fixierung der Denkprodukte, sondern stellt in erster Linie ein Denkmittel für den Konstruk-
teur dar, mit dessen Hilfe er sich die konstruktive Lösung sukzessive erarbeitet. So ergibt sich
die Vermutung, dass beim Konstruieren das räumliche Vorstellen die in herkömmlicher Wie-
se zugeschriebene Bedeutung nicht hat. Bisher zeichnet sich sowohl für manipulative wie für
geistige Aufgaben ab, dass die besten Leistungen bei einer Kombination von textlich-begriff-
lichen plus schematisch-bildhaften Informationsangeboten entstehen (Hacker 1994, 7-10).
Technisches Konstruieren ist also eine hermeneutische Tätigkeit.

Konstruieren ist schöpferisches und lückenloses Vorausdenken eines technischen Gebildes,


das den Forderungen des historisch bedingten Standes der technischen Entwicklung ent-
spricht, und das Schaffen aller zweckmäßigen Unterlagen für seine stoffliche Verwirklichung.
Wirklich sichere Kostenbeurteilung wäre erst dann möglich, wenn es zu spät ist. Was also ist
eine Technikwissenschaft effizienten Konstruierens anderes als Denktätigkeit, genauer als
schöpferisch-entwerfendes Problemlösen, wobei Denktätigkeiten Gegenstand der kognitiven
Psychologie sind. Zunächst ist entscheidend, dass gute und schlechte Konstrukteure nicht
kurzer Hand die gebräuchliche Intelligenz im Sinne herkömmlicher Intelligenztests unter-
scheidet. Auch das räumliche Vorstellenkönnen trägt nur wenig bei zur Unterscheidung guter
und schlechter Konstrukteure. Selbst die Berufserfahrung, hier nicht verstanden als Dauer der
Berufsausübung, sondern als das beim Konstruieren selbst erarbeitete Wissen und Können,
erklärt noch nicht an sich, was den guten Konstrukteur auszeichnet. Wir sprechen von
geistiger oder Denktätigkeit, weil Denken ein Probehandeln im Kopfe ist. Denken als
Handeln im Kopfe darf nicht gleichgesetzt werden mit Logik- oder Regelanwendung.
Entscheidend beim Handeln sind die Vorgehensweisen. Vorgehensweisen guter Konstruk-
teure integrieren zutreffend gewählte Ziele mit effizient handlungsleitend eingesetztem Wis-
sen und Können (Hacker/Sachse 1995, 1-4).

Vorausgesetzt wird, dass der Konstrukteur einen lösungsdienlichen Suchraum im Kopfe hat.
Der Entwurfsprozess benötigt eine bewegungsmäßige und sinnliche (sensomotorische)
Stützung. Menschen denken mit der Hand und arbeiten mit dem Kopf. Die meisten Konstruk-
teure arbeiten vorwiegend skizzierend ihre Lösungsentwürfe, wobei die Skizze Gedanken

182
verdeutlicht sowie als Verständigungsmittel mit anderen dient. Modelle sind wesentliche
Hilfsmittel beim technischen Konstruieren. Zu unterscheiden sind

(1) anschaulich physikalische Modelle,


(2) gegenständliche Modelle, die entweder eigens erstellt oder vorgefertigt aus
Ausbaukästen hergestellt werden,
(3) abstrakt-funktionale Modelle, z.B. Berechnungsmodelle, und die
(4) zeichnerisch-symbolhaften Modelle.

Auch da gibt es eigens erstellte Modelle, z.B. Freihandskizzen oder Konstruktionszeich-


nungen oder vorgefertigte Modelle wie CAD. Schließlich ist Entwerfen wissensbasiertes Ent-
wickeln von Lösungen, nämlich das Aufgreifen schon gewusster Lösungen und das Ausden-
ken neuer, nicht gewusster, als ausschlaggebende Vorgehenskombinationen. Zentral für die
Konstruktionstätigkeit ist das Langzeit-Arbeitsgedächtnis. Für die Lösung von neuartigen
Problemen sind die in der epistemischen Struktur gespeicherten Handlungsprogramme (Ope-
ratoren) unzureichend (Sachse/Hacker 1998, 3-8). Insgesamt ist Konstruieren als kreativer
Problemlösungsprozess zu begreifen. Wichtig sind in diesem Zusammenhang Konstruktions-
strategien (Sachse/Hacker 1998, 12-18).

In allen Untersuchungen mit nichtkonstruktionsmethodisch als auch mit konstruktions-


methodisch ausgebildeten Versuchspersonen wurde festgestellt, dass es verschiedene Wege
gibt, um zu guten Lösungen zu gelangen. Das Forschungsteam konnte nicht einen einzigen,
den Königsweg finden, sondern stellte fest, dass Konstrukteure gleich welcher Ausbildung ein
individuell unterschiedliches und zugleich erfolgreiches Vorgehen praktizieren. Ungeachtet
dieser Aussage hat aber jedes individuell praktizierte Vorgehen seine speziellen Vor- und
Nachteile, die angesichts der ermittelten Lösungsgüte und im Vergleich zur bekannten Kon-
struktionstheorie bzw. –methodik gemäß den VDI-Richtlinien 2221 (1986) besser erkannt und
eingeordnet werden konnten. Alle Versuchspersonen befassten sich am Anfang mit der Auf-
gabenstellung, um sie zu verstehen. Während der Bearbeitung wird auf sie aus aktuellem
Anlass immer wieder zurückgegriffen. Umformulierungen der Aufgabenstellung wie Erweite-
rung, Präzisierung o. ä. wurden kaum beobachtet. Im Allgemeinen sind bei der Neuent-
wicklung eines Produkts mehrere Teilfunktionen (Teilprobleme) zu beachten, die entspre-
chenden Teillösungen nach sich ziehen und kombiniert werden müssen. Lösungen werden
meist nur mit wenigen Suchbegriffen (Merkmalen) gesucht. Eine verallgemeinernde
Abstraktion der Suchbegriffe wird relativ wenig genutzt und prinzipielle Lösungsideen wer-
den überwiegend im Gedächtnis gesucht. Praxiserfahrene Konstrukteure ohne jegliche Hoch-
schulausbildung kommen recht schnell zu Lösungen aus ihrem Erfahrungsschatz, unterliegen
dabei aber auch den Gefahren von nicht miteinander verträglichen oder nicht optimal abge-
stimmten Teillösungen. Dies führt zu korrigierenden Arbeitsschritten, die aufgrund der ange-
eigneten Konstruktionsroutine aber rasch vollzogen werden (Pahl 1998, 4-7).

Der Entwickler und Konstrukteur neigt aufgrund seiner individuellen Fähigkeit und Erfahrung
zu dieser oder jener Vorgehensweise, ohne sich aber häufig über die Vorteile oder Gefahren
des jeweiligen Wegs klar zu sein. Bei praxiserfahrenen Konstrukteuren besteht grundsätzlich
ein Bestreben den Arbeitsaufwand zu minimieren. Dieses Streben ist positiv zu werten, birgt
aber das Risiko einer nichtausgereiften Lösung. Erfolgreiche Methodiker konzentrieren sich
bei der Lösungssuche in erster Linie auf die Hauptfunktionen und greifen für Neben-
funktionen zeitsparend auf konventionelle Lösungen aus dem Erfahrungsschatz zurück.
Grundsätzlich haben Methodiker mit Hochschulausbildung und ohne mehrjährige Erfahrung

183
mehr Zeit zur Lösung benötigt als erfahrene Praktiker. Die Ergebnisse der Methodiker weisen
im Allgemeinen in den Lösungen für die einzelnen Teilfunktionen eine höhere Kompatibilität
für die Gesamtlösung auf. Dies ist auf den Effekt der Ablauforientierung an den Vorgehens-
plänen zurückzuführen (Pahl 1998, 8-10).

Die Untersuchungen haben gezeigt dass gute Lösungen dann entstehen, wenn die Kon-
strukteure, gleichgültig ob sie konventionell oder methodisch ausgebildet sind, sich durch die
nachfolgenden Strategien auszeichnen: gründliche Zielanalyse zu Beginn der Arbeit und auch
bei der Formulierung von Teilzielen während des Konstruktionsprozesses insbesondere bei
unscharfer Problemformulierung, Durchlaufen einer konzeptionellen Phase zwecks
Erarbeitens oder Erkennens des günstigsten Lösungsprinzips und nachfolgender konkreter
Gestaltung in einer Entwurfsphase, eine zuerst divergierende und dann rasch konvergierende
Lösungssuche mit nicht zu vielen Varianten auf der jeweils angemessenen Konkretisie-
rungsebene mit wechselnder Betrachtungsweise, z.B. abstrakt-konkret, Gesamtproblem-Teil-
problem, Wirkzusammenhang-Bauzusammenhang. Häufig sind diese Lösungsversuche nach
umfassenderen Kriterien einzuordnen ohne zu starke Betonung der persönlichen Präferenzen
und ständige Reflexion des eigenen Vorgehens und dessen Anpassung an die jeweilige
Problemlage (Pahl 1998, 11).

Der Begriff der heuristischen Kompetenz blieb insgesamt nicht recht fassbar. Es gibt
offensichtlich eine erkennbare Fähigkeit, Probleme lösen zu können, die von Ausbildung und
Erfahrung gefördert werden kann. Welche Kriterien mit Einflussgrößen genauer wirken, ist
ungewiss. Es lässt sich aber sagen, dass das einzelne Individuum meist eine mehr oder
weniger klare Vorstellung hat, über welche Kompetenzen es verfügt. Dementsprechend wird
es sein Vorgehen individuell planen bzw. den auftretenden Problemen anpassen. Das jewei-
lige Vorgehen unterscheidet sich damit von anderem individuellen Vorgehen, kann aber zu
gleich guten Ergebnissen führen. Das Wort Erfahrung ist im Kontext von technischer Kon-
struktion nicht leicht zu definieren. In diesem Zusammenhang soll Erfahrung als ein
Handlungswissen verstanden werden, welches sich bewusst oder unbewusst aus vergangener,
eigener Anwendung ergibt. Dieses nennt man aber insgesamt besser Umgangswissen. Es
zeigte sich, dass Erfahrungen in der Konstruktionspraxis zu einer deutlich schnelleren Bear-
beitung beitrugen. Auch war die Lösungsgüte bei den erfahrenen Konstrukteuren höher als bei
nichterfahrenen, gleichgültig ob sie methodisch ausgebildet waren oder nicht (Pahl 1998,
13f). Wegen grundsätzlicher Schwierigkeiten konnte kein Vergleich zwischen Nichtmetho-
dikern und Methodikern auf annähernd gleicher Erfahrungsstufe mit für die Versuchs-
personen jeweils neuartigen Problemstellungen durchgeführt werden. Aus Einzelbeob-
achtungen gab es jedoch Hinweise, dass erfahrene und auch weniger erfahrene Methodiker
bei jeweils neuen bzw. anders gearteten Aufgabenstellungen erfolgreicher sein werden als
erfahrene Nichtmethodiker (Pahl 1998, 21).

Wir müssen

(1) Typen technischer Praxis,


(2) Paradigmen technischer Praxis und
(3) epochale Paradigmen technischer Praxis

unterscheiden. Für Letztere charakteristisch ist die Höhe und der Stand des technischen
Könnens sowie die Höhe und der Stand des technischen Wissens. Der Handel bzw. der
Fernhandel spielt eine konstitutive Rolle bei der Entwicklung einer Technik als Basis der
politischen Ökonomie. Diese Technik als Basis einer politischen Ökonomie macht eine

184
Erweiterung des Untersuchungsgegenstandes der klassischen Technikwissenschaften
erforderlich. Zu unterscheiden sind

(1) Technikwissenschaften als Konstruktionswissenschaften (technisches Konstruk-


tionswissen),
(2) Technologie als Wissenschaft der Technik als Grundlage für die politische Ökon-
omie.

Epistemologische Grundlagenprobleme des Verhältnisses von Technik und Wirtschaft werden


in der Technologie abgehandelt werden. Gegenstand der epistemischen Rechtfertigung sind
die Technikwissenschaften. Gegenstand der Technologie sind die praxeologischen und
ökonomischen Absicherungen bzw. Rechtfertigungen im Rahmen einer Technologierefle-
xionskultur.

Technische Konstruktionskultur entsteht durch Interferenz der Werkzeuge bzw. Maschinen


mit der herstellenden zunächst überwiegend handwerklichen Praxis, in zweiter Linie aus der
Stadtarchitektur und in dritter Linie aus der Techno-Science (insbesondere ihrem
neuzeitlichen Produkt, der experimentellen Naturwissenschaft). Prämoderne Techno-Science
im Sinne einer naturkundlich-technischen Praxis umfasst Bergbau, Chemie und Alchemie,
Medizin und Pharmazie wie Astronomie und Astrologie. Die verschiedenen Technologien
beschreiben unterschiedliche Gestalten einer Technik, die sich nach einem Paradigmen-
wechsel in ihrer jeweiligen Potentialität und Macht unterschiedlich ausprägt. Kultur besteht
aus einem jeweiligen Sachsystem (Artefakte) und einem jeweiligen Deutungssystem. Arte-
fakte materialer Art sind künstlich geschaffene Gegenstände. Artefakte struktureller Art sind
Ordnungen, Institutionen. Artefakte sind auf einer dritten Ebene Vorgehensweisen im Sinne
von Prozeduren als Strategien und Methoden.

Jede neue Technik entwickelt sich gemäß der Analyse von Terry Winograd und Fernando
Flores aus dem Jahr 1986 vor dem Hintergrund eines unausgesprochenen Verständnisses der
Natur des Menschen und der menschlichen Arbeit. Der Umgang mit Technik wiederum führt
zu fundamentalen Änderungen unserer Verhaltensweisen. Mit der Erkenntnis, dass wir durch
das Herstellen von Werkzeugen Lebensformen gestalten, stoßen wir auf grundlegendere
Fragen der Gestaltung (Winograd/Flores 1989, 11). In diesem Sinne suchen wir nach
hilfreichen Bildern, die uns die Auswirkungen von Computern vorstellbar machen. Dabei
gehen wir von der Analogie zwischen Rechenoperationen und menschlichem Denken aus.
Eine gewisse Fixierung geschieht dabei durch das Bild vom Elektronengehirn. Beim Über-
prüfen dieser Denk- und Konstruktionstradition ist den beiden Autoren allmählich klar gewor-
den, dass diese zwar einen fruchtbaren Boden für die Entwicklung neuer Technologien abgibt,
aber keine angemessene Erklärung dafür liefert, was Computer als Maschinen im Zusammen-
spiel mit menschlichem Handeln wirklich tun. Das Zusammenspiel von Verstehen und Her-
stellen umschreibt die Frage der Gestaltung und macht den Gedanken der Hintergrund-
annahmen und des Pfades bedeutsam (Winograd/Flores 1989, 19-21).

Komplette und detaillierte Problemlösungen sind nicht für alle Vorgänge erforderlich. Ein
Standardzugang besteht in der Erforschung des gewärtigen Zustandes der Lösungen eines
Systems (Newell/Simon 1972, 12). Technikwissenschaft versucht, den Konstruktionsprozess
so zu rekonstruieren, als ob nicht ein Konstrukteur etwas erfinden oder konstruieren würde,
sondern als ob sich dieser Prozess automatisch von selbst vollzieht. Das technische Objekt
generiert sich also quasi selbst durch einen Konstrukteur hindurch. Die Zuhilfenahme der
Psychologie erscheint als überflüssig. Aus der Struktur des neu erfundenen technischen Arte-

185
fakts kann der Weg der Konstruktion rekonstruiert werden. Und letztlich kann dies ein Com-
puterprogramm, ein sogenanntes intelligentes, d.h. problemlösendes Expertensystem. Aber
die Struktur eines bisher nicht vorhandenen technischen Artefaktes gibt es noch nicht. Also
wird es auch bei innovativen Konstruktionen nicht möglich sein, den Konstruktionsprozess
ohne den konstruierenden Techniker und Ingenieur zu rekonstruieren.

Anfangs war CAD auf spezielle Bereiche, z.B. im Flugzeugbau, beschränkt. Mittlerweile ist
CAD aber aus vielen Bereichen nicht mehr wegzudenken. Beispielsweise ist der Entwurf
integrierter Schaltungen ohne CAD gar nicht mehr denkbar. Außer den bereits erwähnten
Anwendungsbereichen findet man die Anwendung von CAD typischerweise noch in den
Bereichen Maschinen- und Anlagenbau, Architektur und Bauwesen, sowie in der Karto-
grafie. CAD vereinfacht und beschleunigt die Zeichnungserstellung. Die mit Hilfe von CAD-
Systemen erzeugten Informationen können an andere Softwarebausteine zur Weiterverar-
beitung übergeben werden. Der CAD-Anwender hat die Möglichkeit, alternative Entwürfe zu
erproben (Bullinger u.a. 1989, 13f). Eine wesentliche Zeitersparnis kann beim Konstruieren
mit CAD erzielt werden, indem man auf vorhandene Elemente zurückgreift und diese mani-
puliert oder miteinander verknüpft (Bullinger u.a. 1989, 18). Ein wichtiger Bereich ist die
ergonomische Gestaltung von Bauteilen. Auch die rechnergestützte Arbeitsplanerstellung
gehört zum Aufgabenbereich von Expertensystemen. Vorteile dieser Methode sind: schnelle
und rationelle Erstellung von häufig wiederkehrenden Arbeitsplänen mit nur geringem
Änderungsaufwand, und eine kurze Einführungsphase. Nachteile dagegen: der Anpassungs-
aufwand ist bei größeren Änderungen sehr hoch und die Arbeitspläne sind nicht repro-
duzierbar (Bullinger u.a. 1989, 39). Bei der Einführung der rechnerunterstützten Arbeitsplan-
erstellung ist es notwendig, ein umfassendes Planungssystem unternehmensspezifisch aufzu-
bauen. Eine Entscheidungstabelle weist grundsätzlich zwei Bereiche auf: Im oberen Teil sind
die Einflussgrößen (Bedingungen) aufgelistet, von deren Ausprägungen die im unteren Teil
ausgeführten Maßnahmen (Aktionen) abhängen (Bullinger u.a. 1989, 48).

Die Konstruktion von Software stellt die Kreuzung aller Bedingungen dar, unter denen die
Computerdisziplinen auftreten: das Hardware- und Software Ingenieurswesen, die
Programmierung, Erforschung bestimmter Faktoren des Menschlichen und seiner Ökonomie.
Aufgrund eines Studiums der Interaktion zwischen Mensch und Maschine sollen verschie-
denste Interfaces (physikalische, sensorische, psychologische) verknüpft werden. Wenn je-
mals Objekte für den Gebrauch durch die Menschen erforderlich waren, so konnte das Design
„überzeugend“ bzw. „überredend“ konstruiert werden. Die Konstruktion selbst gerioet zur
Methode, wobei jeweils Entscheidungen gefällt werden müssen. Das Erziehungsmodell muss
daher für Computerprofessionelle auf andere Fälle hin erweitert werden. Konstruktionen sind
häufig methodisch, genau und gemäß klaren Gesichtspunkten durchzuführen. Manchmal
allerdings geschahen sie auch aus reiner Zufälligkeit. Nun enthalten die Maschinen die Inten-
tionen des Konstrukteurs. Es sind virtuelle Welten, die Konstrukteure schaffen. Konstruktion
ist bewusst und stellt den Menschen in das Zentrum der Bemühungen. Zudem ist sie eine
Konversation mit dem Material. Konstruktion ist kreativ, kommunikationsbehaftet und eine
soziale Aktivität (Winograd 1996, XV-XXIV).

Mangel an Brauchbarkeit von Software und die schlechte Konstruktion von Programmen sind
die heimliche Crux der Industrie. Architekten und Ingenieure gelten als Konstrukteure. Die
Selektion verschiedener Komponenten überall auftretender Bedingungen des Gebrauchs und
der Bedürfnisse, die von dem Benutzer entwickelt worden ist ihre Aufgabe. Programmierer
sind bis heute anonym. Ihnen fehlt damit ein wesentlicher Anreiz, die Programme zu ver-
bessern. Professionelle Anerkennung müsste gegeben werden. Das Programmieren müsste als
eigenständige Disziplin anerkannt werden. In vielfacher Form werden Gegenstände nicht

186
konstruiert, sondern nur verändert im Hinblick auf die Mensch-Maschinen-Beziehung. Es gibt
ein professionelles Training für Konstrukteure. Sie entwickeln verschiedene professionelle
Kompetenzen. Es geht um den professionellen Praktiker. Es gibt technologische Kurse für
den Ingenieursstudenten, die sich mit den Prinzipien und Methoden eines Computerpro-
gramms auseinandersetzen sollen. Die Wahrnehmungsgegenstände schließen Computer-
systemarchitekturen, Mikroprozessorarchitekturen, Handlungssysteme, Netzwerkkommunika-
tionen, Datenstrukturen und Algorithmen, Datenbasen und verteilte Computerprogramme und
ihre Umgebung ein, genauso wie Methodologien, die objektorientiert sind. Konstrukteure
müssen studieren, wie ihr integratives Softwaredesign überall auf der Welt in einen Software-
entwicklungsprozess eingebracht werden kann (Winograd 1996, 3-8).

Softwaredesign und Softwareingenieurskunst, interaktives Design, verschiedene Berufe und


Arbeitsteilung kommen im Bereich des Ingenieurswesens vor. Sie beziehen sich auf die
Tradition des Lehrens in der Architektur (Winograd 1996, 10-12). Künstlerisch orientierte
Konstrukteure und Ingenieurskonstrukteure ergänzen sich gegenseitig. Es geht um die
Funktion und um die Ästhetik. Im Zusammenhang mit der Konstruktion der Interaktion liegt
mehr Können als Wissenschaft vor (Winograd 1996, 39-56). Die Sprache eines Hauses oder
eines Fotokopierers als Beispiele für Konstruktionssprachen machen die Bedeutung von
Gegenständen deutlich. Es geht um die Interpretation von Konstruktionssprachen und um das
Transparentmachen von Konstruktionen. Henry Ford erfand eine Konstruktionssprache für
Automobile und eine Art und Weise, die es ihm erlaubte, eine Massenproduktion von Autos
durchzuführen und Kunden zu erreichen. Der durchschnittliche Konsument ist allerdings
begrenzt hinsichtlich Geld und Geduld (Winograd 1996, 93).

Die heutigen CAD-Systeme verfügen zumeist über einen Funktionsumfang, der für eine große
Zahl der Anwendungen zu umfangreich ist. Andererseits vermissen viele Anwender
Funktionen, die die individuellen Bedürfnisse abdecken. Der Anpassungsaufwand ist bei der
Komplexität heutiger CAD-Systeme zu aufwendig (Bullinger u.a. 1989, 73). Der Aufbau
objektorientierter Softwaresysteme erfolgt dadurch, dass Klassen definiert und diesen Klassen
bestimmte Attribute und Methoden zugeordnet werden. Ausgehend von bestehenden Klassen
werden nun Unterklassen entsprechend bestimmt, so dass sich durch die Wiederholung dieses
Zyklusses das fertige Gesamtsystem ergibt. Als Vorteil objektorientierter Systeme ist zu
werten, dass im Falle von Erweiterungen oder Anpassungen nur ein neues Objekt in eine
Klasse eingefügt werden bzw. eine Unterklasse neue definiert werden muss (Bullinger u.a.
1989, 77). Voraussetzung ist einerseits die Formalisierung des produktbezogenen Konstruk-
tions- und Erfahrungswissens sowie andererseits die Analyse von Handlungs-struk-turen des
Konstrukteurs (Bullinger u.a. 1989, 92).

Der CAD-Einsatz gilt menschlichem Konstruieren als überlegen. Er ist ein Beispiel für das
wissenschaftsorientierte Paradigma des Konstruierens. Schließlich basiert er auch auf
gesättigter Intuition und sedimentierter Erfahrung, denn auch Maschinenvorschläge müssen
umgesetzt werden, bedürfen also der Anwendung. Technische Konstruktion ist nicht in
technischen Regeln modellierbar. Die Bildhaftigkeit des entwerfenden Ingenieurs (Ferguson),
lasse sich im Computer simulieren. Dies ist eine zentrale These der modernen Position des
CAD. Das Gefühl für die Stimmigkeit eines Entwurfes lasse sich ebenfalls im Computer
abbilden. Das Operieren mit Expertensystemen setzt „tacit knowledge“ voraus, ersetzt dieses
also nicht. Das stillschweigende Expertenwissen ist für erfolgreiches Entwerfen konstitutiv –
mit und ohne Expertensysteme. Unerfahrene Ingenieure finden in den CAD-Systemen eine
trügerische Sicherheit. Das technische Konstruktionswissen ist nicht direkt aus naturwissen-
schaftlichem Wissen ableitbar, sondern bedarf einer eigenen ingenieursmäßigen Kreativität
und entsprechenden technischen Intuitionen, die sich nicht komplett ausschalten lassen. Es

187
entwickelt sich gerade bei jungen und unerfahrenen Ingenieuren ein blindes Vertrauen in den
Computer, weil man die eigene Konstruktionstätigkeit nicht in Worte zu fassen vermag.

„Tacit knowledge“ macht eine andere Art der Reflexion erforderlich, die sich nicht im Defi-
nierenkönnen bewährt, sondern im Gelingen des Konstruktionsentwurfs im fertigen Gerät.
Das Vorzeigenkönnen des Meisterstücks als Ersatz für die Definition und das Hinterlegen des
Beleges im Patentierungsverfahren sind Konsequenzen dieses unterschiedlichen Ansatzes des
Konstruierens in Technik und Wissenschaft. Eine technische bzw. eine technologische Kultur
interpretiert diesen Vorzeigeprozess, eröffnet Verständnishorizonte, interpretiert technische
Entwicklung, ist damit Teil der Öffentlichkeitsarbeit, die technisch wissenschaftliche
Information zur Akzeptanzerzielung vermitteln möchte. Die Eröffnung von Verständnis-
horizonten schließt die Eröffnung utopischer Horizonte im positiven wie im negativen Sinn
ein. Technologische Kultur erfordert eine neue Idee von philosophischer Reflexion des Prag-
matischen, eine neue Hermeneutik der technischen Konstruktion wie der technologisch
fixierten und transformierten Natur. Reflexion ist dabei nicht vollständig erklärbar, demon-
strierbar. Konstruktionen sind mit Realitätserfahrung kombinierbar. Es bedarf eines Vorwis-
sens der Ingenieure um Realität (Methoden, Material usw.).

Am Anfang standen zeichnerische Entwürfe und Visionen wie die von Leonardo da Vinci.
Heute gibt es genormte Darstellungsmittel in technischen Lehrbüchern. Konstruktive
Entwürfe von Vorgängern wurden traditionell berücksichtigt. Insofern stellt sich die Frage, ob
CAD als falsches oder als richtiges Hilfsmittel einzustufen sind. Die Zentralperspektive war
ein wichtiges darstellerisches Mittel für die technische Zeichnung. Das Lesen der Symbole
wurde zum Problem einer beim Nachvollzug der Konstruktionszeichnung auftretenden
hermeneutischen Fragestellungen. CAD als nicht lebensweltliches System sagt nichts über die
Nutzerfreundlichkeit der entsprechenden Entwürfe. Er enthält keine Aussagen über die
Brauchbarkeit für den Benutzer. CAD-Systeme sind insbesondere gut zur Verbesserung des
alten wobei auf virtuelle Modelle zurückgegriffen werden kann. Experimentelle Belastungs-
proben und Proben des Materialverschleißes wurden einbezogen. Legitimationsstrategien von
technischen Ideen waren die Mathematik und die Verwissenschaftlichung. Der Wissensbe-
weis verdrängte den Könnensbeweis. Der Könnensbeweis aber basierte auf sedimentierter
Erfahrung und ist damit keineswegs irrational. Er enthält keine übernatürlichen Inspirationen
wie bei Friedrich Dessauer. Rational begründete Intuition ist damit als Grundlage der Kon-
struktion anzusehen, auch in einer Position, die vom impliziten Umgangswissen ausgeht. Ziel
der Technologiekultur ist der Aufbau des Vertrauens der Nutzer in die neuen technischen
Artefakte. Dabei entwickelt das CAD-Verfahren ein Gefühl für die Notwendigkeiten des Ent-
werfens selbst. Der Bezug zur Realität ist konstitutiv für den Prozess des technischen Entwer-
fens. Es entstehen Fehler beim Programmschreiben, nicht nur bei den Nutzern von CAD-Pro-
grammen.

Die Entwicklung der Ingenieurswissenschaften führte zu einer Verwissenschaftlichung der


Konstruktionsarbeit, wobei zunehmende Unübersichtlichkeit zu konstatieren ist, die Kom-
munikationsarbeit abbauen soll. Arbeitskommunikation und Motivationskommunikation sind
zentral. Wichtig sind Arbeitsbesprechungen oder das gemeinsame Mittagessen von Konstruk-
tionsgruppen. Normierungsabteilungen haben fertigungstechnischen Einfluss und führen zu
einer Formalisierung der Arbeitsprozesse. Es handelt sich um mitlaufende Koordinationen.
CAD führt zur entformalisierten Strukturierung des Konstruktionshandelns, wobei Entwick-
lung und Programmieren wichtig sind. Konstruktives technisches Handeln ist der Ansatzpunkt
für die Theoretisierung und Mathematisierung im Horizont des überlegten, vorausschauenden
und planenden Umgangswissens. Dabei ist neben der sozialwissenschaftlichen Strukturierung
die erkenntnistheoretische Modellierung konstruktiven technischen Handelns vom Umgangs-

188
wissen her Ausgangspunkt technikphilosophischer Überlegungen zum Konstruktionshandeln.
Gemäß dem Paradigma der Automatisierung entwickelte sich unter Einbezug der CAD-unter-
stützten Konstruktion automatisierte Technologie, die Fließbandtechnologie, das papierlose
Büro und die Automatisierung vieler Produktionsvorgänge einschloss.

Jan Noyes schaut auf 40 Jahre Mensch-Maschinen-Interaktionsforschung zurück. Die Ergo-


nomik möchte die Sicherheit, die Effizienz und den Komfort durch Verbesserung der Kon-
struktion erhöhen und die technische Handlung an physikalische und psychologische Kompe-
tenzen wie soziale Bedürfnisse des Nutzers anpassen. Es geht um intuitive Konstruktion der
Interfaces zwischen Mensch und Maschine, wobei intuitiv für jeden etwas anderes meint. Es
gibt kontraintuitives Design, das hervorragend arbeitet (z.B. das Drücken des Gas- und
Bremspedals; Noyes 2001, Xf). Humanfaktoren sind ein nebulöser Begriff, der erstmals 1890
durch den Quäker Ingenieur Friedrich W. Taylor erwähnt wurde. Taylor studierte die
Handlungen der Arbeiter, ihren Gebrauch der Arbeitsmittel und ihre Erholungsperioden und
stellte eine Verbindung zu den verschiedenen Ebenen der Produktivität her. Es ging um die
Art und Weise, am besten seinen Job zu tun. Die systematische und empirische Beobachtung
von Arbeitern im Zeit- und Bewegungsablauf wurde fortgesetzt von Frank und Lillian
Gilbreth. Die Entwicklung neuer Methoden, bestimmte Ziegel anzuordnen und zu stapeln,
führte zu weiteren Ergebnissen. Das primäre Interesse der beiden war nicht die Wohlfahrt der
Arbeiter, sondern die Anhebung der Produktivität. Es ging in bevorzugter Weise um
Handarbeit. Dabei entsteht ein Anpassungsdruck insbesondere für neue Mitglieder im Produk-
tionsteam (Noyes 2001, 1-4).

Der Zweite Weltkrieg veränderte die technologische Struktur. Gemäß meiner Interpretation
konstituierte sich hypermoderne Technologie (Irrgang 2008). Es kam zu immer schnellerem
Konstruktionsverhalten. Die Geburt der Humanfaktoren kurz nach dem Zweiten Weltkrieg
und der Ergonomik, die sich mit den Gesetzen des Arbeitens beschäftigte, sollte die Effizienz
der Arbeit erhöhen. Menschliche Irrtumsmöglichkeiten und menschliche Verantwortung in
der technischen Praxis wurden herausgestellt. Sicherungssysteme wurden konstruiert, hinzu
kamen Automatisierung und das Training von Kompetenzen. Die Ingenieurspsychologie
führte zur kognitiven Ergonomik. Durch die Informationstechnologien haben die Human-
faktoren in der Technologie an Bedeutung gewonnen. Der Humanfaktor in der Mensch-
Maschine-Interaktion wird immer wichtiger. Humanfaktoren in der Ergonomik ist ein Körper
für Wissen um menschliche Fähigkeiten, um menschliche Grenzen und andere Charakteri-
sierungen des Menschen, die für den technischen Konstruktionsprozess relevant sind. Eine
Ingenieurskunst auf der Basis von Humanfaktoren im Sinne einer Praxis der Ergonomik ist
die Anwendung der Humanfaktoren auf die Konstruktion von Werkzeugen, Maschinen,
technischen Systemen, Aufgaben, Berufen und deren Umgebung, um sichere, komfortable
und effektive menschliche Gebrauchsformen zu ermöglichen. Ergonomik ist somit eine
Ingenieursdisziplin, aber auch angewandte Psychologie (Noyes 2001, 5-18).

Anthropometrie, physikalische Aspekte, Biomechanik und psychologische Aspekte greifen in


der Ergonomik ineinander. Aufmerksamkeit, selektive Aufmerksamkeit und die Wahrneh-
mung spielen eine zentrale Rolle. In der Ergonomik greifen normative, deskriptive und
präskriptive Modelle ineinander. Es geht um Pfade zur Entscheidungsfindung. Der naive
Nutzer, der Anfänger, der Geübte und der Experte müssen unterschieden werden (Noyes
2001, 20-34). Menschen haben Ziele. Bei der Durchführung der technischen Praxis bedarf es
Kontrollen und der Gebrauchsgerechtigkeit. Dabei gibt es Möglichkeiten einer Maschine,
menschliche Aktivitäten zu erkennen. Es gibt primäre und sekundäre Formen der Kontrolle.
Im Rahmen der technischen Sicherheit wurde in zunehmendem Maße auf Automation und
Systemdesign wert gelegt. Heute geht es um die Konstruktion irrtumstoleranter Systeme. Das

189
Ziel ist eine symbiotische Beziehung zwischen Mensch und Maschine, wobei Mensch und
Maschine in Verbindung zusammen arbeiten. Es geht um eine Mensch-Maschinen Koopera-
tion. Die Gebrauchsfähigkeit ist ein wesentlicher Gesichtspunkt bei der Konstruktion. Es geht
um die Leichtigkeit des Gebrauchs, Sicherheit, Tragbarkeit, Einpassung in die Umwelt, auto-
matische Funktion, Flexibilität, Kompatibilität, Größe, Aufrechterhaltung und Ästhetik eines
technischen Werkzeuges (Noyes 2001, 38-66).

Eine der wesentlichen Elemente der Nutzer zentrierten Konstruktionsmodells ist die
Umgebung. Der Arbeitsplatz und die Konstruktion des Arbeitsplatzes z. B. eines Computer-
arbeitsplatzes. Dabei spielen physikalische Parameter wie Licht, Farbe, Temperatur und Lärm
genauso eine Rolle wie ästhetische Parameter (Noyes 2001). Gemäß der Organisationstheorie
ist auch das Jobdesign und die Arbeitsorganisation von zentralem Interesse. Auch die Gesund-
heit am Arbeitsplatz insbesondere im Zusammenhang mit dem Gebrauch von Computern
stellt wesentliche Gesichtspunkte dar. Die Sicherheitsaspekte gegenüber Unfällen und Zufäl-
len sind sehr zentral. Abhängig davon sind die Risikowahrnehmung und das Verhalten der
Nutzer. Diese müssen auf zurückliegende Erfahrung zurückgreifen können. Es gibt aber auch
menschliche Irrtümer und Unfälle. Verkehrsunfälle, Schiffsunfälle, Flugunfälle. Sehr wichtig
ist der Umgang von technischen Artefakten mit menschlichen Irrtümern und Fehlern. Ein
Training zur Unfallbewältigung und Unfallprävention ist erforderlich. Auch gesetzliche Rege-
lungen können helfen, Sicherheit und Gesundheit zu erhalten. Zentral ist die Konstruktion von
gesunden und sicheren Arbeitssystemen. Ergonomik ist damit all das, was mit Konstruktion
und ihrer Bewertung zusammenhängt. Viele positive Faktoren im Hinblick auf Arbeitssicher-
heit lassen sich aber nicht quantifizieren.

Das dringendste Desiderat einer Technikphilosophie ist die Weiterentwicklung einer


Wissenschaftstheorie der Technik, der Technikwissenschaften und der Ingenieurswissen-
schaften. Die Mängel auf diesem Gebiet sind auf drei Ursachen zurückzuführen: (1.) Das fort-
während gepflegte Missverständnis, wonach die Technikwissenschaften lediglich angewandte
Naturwissenschaften seien. Damit meint man, verkürzt gesprochen, dass man Technik ver-
standen hätte, wenn man die Physik versteht. (2.) Obwohl schon Ludwig Bolzmann meinte,
dass es nichts Praktischeres gebe als eine gute Theorie, herrscht in den Technikdisziplinen
eine immer noch anhaltende Theoriefeindlichkeit vor. Auch falsch verstandener Pragmatis-
mus, Sparzwänge, Zeitdruck und ein gewisser Mangel an Neugier mögen eine Rolle spielen.
(3.) Die Wissenschaftstheoretiker im akademischen Bereich haben sich bei dem Ausbau der
Wissenschaftstheorie hauptsächlich auf Naturwissenschaften und Methodenfragen der
Sozialwissenschaften konzentriert, da diese mit analytischen Mitteln eher zu behandeln wa-
ren. Hinzu kamen institutionelle Vorlieben – Wissenschaftstheorie fand selten an technischen
Hochschulen oder Universitäten statt (Banse/Ropohl 2004, 8-10).

So sind die genuin wissenschaftstheoretischen Beiträge aus den letzten Jahrzehnten etwas
spärlich und zielen vornehmlich auf das Verhältnis von Technikwissenschaft und Handeln.
Die Ziele einer Beschäftigung mit einer Wissenschaftstheorie der Technikwissenschaften und
einer theoretischen Beschäftigung mit den Charakteristika technischen Wissens sind unter
anderem:

(1) besseres Verstehen der Technik und der Technikwissenschaften und dadurch ein
besseres Verstehen der Grenzen ihrer Methodik und ihrer Wissensdynamik,
(2) besseres Verstehen von Experiment, Text, Theorie, Wissensstrukturen und Be-
gründungszusammenhängen (Erklärung),
(3) Aufspüren des normativen Gehalts technologischer Theorien,

190
(4) besseres Verständnis der Wechselwirkung zwischen den Artefakten und ihrer
organisatorischen Einbettung,
(5) Die Analyse der wechselseitigen Abgrenzung von technischem, naturwissen-
schaftlichem und organisatorischem Wissen,
(6) Präzisierung und Untersuchung der jeweiligen Inhalte und Methoden und eine
Klärung der Frage, inwieweit eine Formalisierung des Wissens als möglich, als
wünschenswert oder effizient erscheint (Banse/Ropohl 2004, 10).

Es geht um eine pragmatische und technologische Fundierung der Wissenschaftstheorie von


Technik und Technologie. Während wissenschaftliche Theorien in der zeitgenossischen
Wissenschaftstheorie als Subsystem aufgefasst werden, die bestimmte Bedingungen erfüllen
oder die bestimmten Bedingungen gehorchen müssen, wie Widerspruchsfreiheit und
Anschlussfähigkeit an empirische Gesetze, wobei die historische Entwicklung solcher
Subsysteme nicht außer Acht gelassen werden darf (Theoriendynamik), wird eine
technologische Theorie strukturalistisch gedeutet, also als ein Prädikat für mögliche
Anwendungsmodelle. In der Technologie führte Bunge die Unterscheidung von substanzieller
und operativer Theorie ein. Es ist nicht die Praxis, die als Validierung nicht naturhafter
Gesetzmäßigkeiten oder Muster (z.B. in der Organisation) mit ontologischen Unterstellungen
arbeiten muss, sondern es sind die im Test durch Häufigkeit festgestellten Regelmäßigkeiten,
die sich als Regeln des technischen Handelns formulieren lassen. Dies ist die Basis einer
technologischen Theorie. Diese besteht aber eben, wie die Praxis in unterschiedlichen Fällen
zeigt, aus impliziten Wissen, das nicht als formalisierbare Aussage in einer Theorie erscheint,
sondern sich erst im Handlungsvollzug bei der Exekution einer Regel bemerkbar macht.
Dieses anders strukturierte Verhältnis von Tun und Wissen in der Technik macht die An-
schlussfähigkeit an die Wissenschaftstheorie herkömmlicher Art, die gerne methodisch wie
ontologisch reduktionistisch vorgeht, schwierig – Analogien alleine helfen da nicht weiter
(Banse/Ropohl 2004, 18-20).

Wissenschaftstheorie war der Versuch, aus einer Beobachterperspektive zu beschreiben und


zu erklären, was die Forscher bei ihren Erkenntnisbemühungen tun oder doch tun sollten: Wie
sie Begriffe einführen, wie sie Hypothesen und Gesetzeserklärungen gewinnen und wie sie
kritisch prüfen, ob ihre Theorie der Erfahrung standhalten oder anderweitig sich bewähren.
Die technischen Wissenschaften haben nicht in erster Linie den Ingenieur, sondern dessen
Tätigkeitsfeld zum Gegenstand: Die Technik. Auch der Einwand, diese Unterschiede würden
in neueren Arbeitsfeldern, besonders in Molekularbiologie und Biotechnik, verschwimmen,
ist nicht stichhaltig. Richtig ist lediglich, dass auf diesen Gebieten zahlreiche Naturwissen-
schaften, aus welchen Gründen auch immer, in die Rolle von Ingenieuren geschlüpft sind
(Banse/Ropohl 2004, 27-29). Der technischen Praxis geht es, noch ausgeprägter als den Tech-
nikwissenschaften, nicht um die Wahrheit, sondern um den Erfolg. Lässt sich ein technisches
Projekt erfolgreich realisieren, fragt man selten danach, ob die zugrunde gelegten Annahmen
auch wahr sind; durch den Erfolg gelten sie als bewährt. Wenn wir also die Wissensformen
im technischen Handeln untersuchen wollen, brauchen wir nicht so sehr eine Wissenschafts-
theorie der Technikwissenschaften, sondern eine Wissenstheorie der technischen Praxis, die
allerdings auch den Wissenschaftsaustausch zwischen den Technikwissenschaften und der
technischen Praxis, ein bislang völlig ungeklärtes Verhältnis, endlich aufhellt (Banse/Ropohl
2004, 31-33).

Das technische Können ist zwar kein explizites Wissen, doch will ich es als Teil des tech-
nischen Wissens betrachten, weil die pragmatischen und kognitiven Anteile dieser Hand-
lungskompetenz in der Praxis häufig eng miteinander verflochten sind. Technisches Können

191
bedeutet die besondere Fertigkeit und Geschicklichkeit im Umgang mit Sachsystemen. Bei
der Sachverwendung ist technisches Können gleichbedeutend mit Bedienungskompetenz,
wobei freilich Bedienung in einem sehr weiten Sinn zu verstehen ist. Im Herstellungszusam-
menhang besteht technisches Können auch in intuitivem Problemlösungsverhalten, das, auch
ohne Methodik, beträchtliche Erfolgsraten aufweist (Banse/Ropohl 2004, 39). Nach Günter
Ropohl umfasst technisches Wissen folgende Elemente:

(1) naturwissenschaftliches Wissen,


(2) technologisches Gesetzeswissen,
(3) strukturales Regelwissen,
(4) funktionales Regelwissen,
(5) technisches Können,
(6) ökosozial-technologisches Systemwissen und
(7) sozioökonomisches Wissen.

Naturwissenschaftliches Wissen ist lediglich in zwei Handlungsphasen relevant.


Technologisches Gesetzeswissen wird zwar ein wenig öfter benötigt, aber auch nur in einer
Minderzahl von Handlungsphasen. Strukturales und funktionales Regelwissen sowie techni-
sches Können einschließlich des impliziten Wissens, sind für viele Handlungsphasen relevant.
Häufiger wären öko-sozio-technologisches Systemwissen und sozioökonomisches Wissen
erforderlich. Der größte Teil des technischen Wissens besitzt keineswegs denjenigen Status,
den die traditionelle Wissenschaftstheorie zum Kriterium der Wissenschaftlichkeit gemacht
hatte. Freilich sollte man daraus nicht den voreiligen Schluss ziehen, technisches Wissen wäre
unwissenschaftlich. Vielmehr wird man für eine Theorie des technischen Wissens den
Wissenschaftsbegriff liberalisieren und ausweiten müssen (Banse/Ropohl 2004, 42f).

Eine Begriffsbildung wie Wissenschaftstheorie der Technik beruht auf einem Kategorien-
fehler, der es von Anfang an verhindert, dass die Bemühungen der Technikwissenschaften um
theoretische und praktische Stützung der technischen Praxis mit wissenschaftlichen Mitteln
begrifflich überhaupt noch eingeholt werden können (Banse/Ropohl 2004, 48). Die Aufgaben
einer Wissenschaftstheorie der Technikwissenschaften müssten an den Zielen der Tech-
nikwissenschaften orientiert werden (Banse/Ropohl 2004, 59). Die Technikwissenschaften
dienen vor allem als Stütze der technisch-konstruktiven Praxis, während die Naturwissen-
schaften auch darüber hinausgehende methodologische Zwecke der Verallgemeinerung und
Vereinheitlichung verfolgen. Sie entfernen sich weiter von der technischen Praxis und können
diese nur noch vermittelt über die Technikwissenschaften stützen (Banse/Ropohl 2004, 62).
Entwurfs- oder Konstruktionshandeln umfasst den gesamten Prozess des Findens technischer
Lösungen von der Aufgabenstellung über ihre Präzisierung, die Konzeptfindung und die
Gestaltfestlegung im Rahmen eines Entwurfs bis hin zur Erarbeitung der endgültigen
Fertigungs- und Montageunterlagen mit Gebrauchs- und Entsorgungsanleitungen für ein
Produkt – womit also die den Entwurfsprozess abschließende bzw. vollendende gesell-
schaftliche Durchsetzung, die Bewährung des Neuen am Markt, keinesfalls ausgeschlossen,
sondern immanenter Bezugspunkt diese Handelns ist. Dass dies unter großindustriellen und
stark arbeitsteiligen Bedingungen häufig ein räumlich, zeitlich, wie personell getrennt
ablaufender Prozess sein kann (aber nicht muss, darf nicht dazu führen, den inneren Zusam-
menhang aller Phasen des Geneseprozesses technischer Neuerungen aus dem Blick zu
verlieren (Banse/Ropohl 2004, 119f).

192
Derek DeSolla Price kommt hinsichtlich der Unterscheidung von Wissenschaft und Techno-
logie zu folgendem Ergebnis:

(1) Wissenschaft hat eine kumulierende, enggestrickte Struktur, das bedeutet, dass
neues Wissen von eng verknüpften und ziemlich neuen Stücken alten Wissens
verändert wird.
(2) Diese Eigenschaft unterscheidet Wissenschaft von Technologie und von human-
istischer Gelehrsamkeit.
(3) Diese Eigenschaft ist charakteristisch für viele soziale Phänomene in der Wissen-
schaft.
(4) Technologie teilt mit Wissenschaft dieselbe hohe Wachstumsrate, aber sie zeigt
sehr viele komplementäre soziale Phänomene mehr insbesondere im Hinblick auf
die Literatur.
(5) Technologie mag darüber hinaus eine ähnliche kumulierende eng geschnittene
Struktur wie die der Wissenschaft haben, aber der Technikstand ist entscheidender
als die wissenschaftliche oder technische Literatur.
(6) Wissenschaft und Technologie haben ihre eigenen und getrennten Kumulie-
rungsstrukturen.
(7) Da diese Strukturen getrennt sind, erfolgen sie nur in speziellen und traumatisch
wirkenden Fällen wie der Veränderung von Paradigmen Direkteinflüsse von der
Wissenschaft auf die Technologie oder umgekehrt.
(8) Es ist wahrscheinlich, dass die Technologie an der Forschungsfront eng mit der
Wissenschaft und nur in diesen Teilen des wissenschaftlichen Wissens verbunden
ist, die beschrieben werden können als Teil des Lern- und Erziehungssystem und
nicht die Forschungsfront betreffen.
(9) Ähnlich ist Forschungsfrontwissenschaft nur mit dem äußeren technologischen
Wissen verknüpft, indem vorangegangene Generationen von Studenten nicht mehr
an der Forschungsfront des technischen Standes und seinen Innovationen be-
schäftigt sind.
(10) Die reziproke Beziehung zwischen Wissenschaft und Technologie involviert, dass
die Forschungsfront des einen mit den etablierten Phasen des anderen verbunden
ist. Die ist allerdings nicht desto weniger ausreichend diese beiden in den Phasen
ihrer separaten Wachstumsraten miteinander oder anders als mit unabhängiger
Kumulation zu beschreiben.
(11) Es ist daher naiv, Technologie als angewandte Wissenschaft zu betrachten oder
aber klinische Praxis als angewandte medizinische Wissenschaft.
(12) Daher sollten wir uns bewusst sein, dass die Ziele einzelwissenschaftlicher
Forschung möglicherweise gebraucht werden für einzelne technologische
Problemlösungspotentiale und umgekehrt. Aber beide Kumulationseffekte können
nur unterstützt werden für ihre jeweils unterschiedlichen Ziele (Price 1965, 568).

Der Produktzyklus Konstruktion, Nutzung und Instandhaltung – Entsorgung gilt zwar


zunächst für technische Artefakte und technische Mittel, sie gilt aber auch letztendlich für die
Infrastruktur. Daher muss heute technisch Konstruktion mehr umfassen als nur die Her-
stellung einews techischen Artefaktes. Eine pragmatische Wissenschaftstheorie der Technik-
wissenschaften ist eine des sowohl als auch. Sie geht aus von Determinanten der technischen

193
Entwicklungsstränge wie technisches Know-how, Naturgesetze, unter denen die technischen
Artefakte stehen usw., eine soziale Konstruktion von Technologien insbesondere durch Leit-
vorstellungen, aber auch durch den Gebrauch der Nutzer. Beide Komponenten in
Wechselwirkung gelten für alle drei Phasen des Produktzyklus. Damit erhalten wir einen
extrem dynamischen Prozess, dessen Dynamik in der Theoriekonstruktion häufig unterschätzt
wurde.

Hughes möchte der Technologie ein neues gemeinsames Charakteristikum geben und
definiert Technologie als Mittel der Kontrolle einer vom Menschen gemachten Welt.
Technologie bietet kreative Mittel für eine Vielzahl von Zielen und Zwecken an. Bereits in
dem Schöpfungsmythos des Buches Genesis geht es um das Konzept einer vom Menschen
gemachten Welt. Hier ist das Ziel die Transformation der natürlichen Erde durch den
Menschen. Es gibt keine besseren Definitionsbeispiele für diese vom Menschen gemachte
Welt als industrielle Metropolen. Das Leben in einer vom Menschen gemachten Welt hat
Amerika zum ersten Mal hervorgebracht. Diese Welt schließt eine vom Menschen gemachte
Umwelt mit ein. Betrachtet man die vom Menschen gemachte Welt und Umwelt, so glauben
Ingenieure, Naturwissenschaftler und Manager, dass sie die kreative technologische Macht
haben, eine eigene Welt gemäß ihren Bauplänen zu konstruieren. Sie betrachteten die natür-
liche Welt als abschaffbar und ausbeutbar oder einfach nur als eine Rahmenszenerie. Straßen,
Eisenbahn, Telegraphen und Telefonlinien erlauben den Transport und die Kommuni-
kationssysteme, um jedes noch so entfernte Hinterland zu erreichen. Elektrische Energie treibt
Fabriken weit entfernt von Eisenbahninfrastruktur und einer Industrie, die von Kohle abhän-
gig ist. Künstliche Fruchtbarkeitshormone und die Agrikulturindustrie erhöhen den landwirt-
schaftlichen Ertrag des Bodens, der früher ausgelaugt wurde. Chemiker transformieren Mate-
rie und liefern Überfluss, während in früherer Zeit die Natur Ressourcen verweigert hat auch
mit Nebeneffekten, die teilweise für Jahrzehnte verborgen blieben. Der kreative Geist, eine
vom Menschen gemachte Welt zu erzeugen, erschien in erreichbarer Nähe (Hughes 2004, 5-
10).

Die digitale Fabrik ist ein ganzheitliches System. Sie postuliert und nutzt die Fabrik noch vor
der Benutzung und Inbetriebnahme. Eine solche Optimierung muss auch Produktions- und
Betriebsleitsysteme mit einbeziehen. Der Mensch bleibt hierbei in der Rolle des Entscheiders
und Problemlösers. Die Komplexität einer modernen Fertigung kann er allerdings nicht ohne
Helfer bewältigen: Softwareagenten, die komplexe, intelligente Aufgaben erfüllen und Infor-
mation bereitstellen (Bullinger 2004, 170). Einerseits ermöglichen der technischen Fortschritt
und das Aufkommen der virtuellen Welten neue Formen der Arbeit – räumlich verteilt
arbeitende Teams entstehen überall auf der Welt und Telearbeit ist eine weitverbreitete Form
der Beschäftigung. Andererseits hat diese Entwicklung Einfluss auf unsere Mobilität und
häuslichen und städtischen Umgebungen (Bullinger 2004, 190). Visionen bilden eher den
Hintergrund von Projekten der Technikentwicklung. Es sind die Konzepte der Konstruktion,
in denen die anvisierte Gestalt der Technik ausbuchstabiert wird. Für diese Auswahl der
optimalen Konstruktionsweise gibt es Anfangs noch keine allgemein akzeptierten technischen
Parameter und vor allem noch keine Erfahrungswerte; die Auswahl hängt vom kulturellen
Modell ab, das man sich vom Nutzer, seinen Fähigkeiten und Vorlieben macht. Es handelt
sich also um eine kulturelle Konstruktion, die der Maschine oder dem technischen System
eingeschrieben wird (Rammert 1998, 56). Letztendlich wird mit einer technischen Kon-
struktion – dazu zähle ich nicht nur die Geräte, sondern auch die Programme und die weitere
technische Infrastruktur – ein Rahmen für soziale Beziehungen gestaltet. Dies manifestiert
sich als struktureller Konservativismus der Ingenieurkultur. Stärker als Naturwissenschaftler
neigen Ingenieure aus guten Gründen dazu, sich gegenüber Neuerungen, sofern sie über den
anerkannten Stand der Technik hinausgehen, skeptisch und zögerlich zu verhalten. Soweit wie

194
möglich greifen sie auf gesicherte Verfahren zurück und entwerfen häufig neue Techniken
nach dem Schema der vorherrschenden Technik, um das Risiko des Scheiterns in der
praktischen Bewährung gering zu halten. Statt neue Visionen der Techniknutzung zu ersinnen
und alternative Entwürfe von Techniken zu erproben, werden neue Ideen allzu schnell in die
alten Bahnen der Entwicklung gezwängt (Rammert 1998, 56f).

Viele Probleme mit neuen Informationstechniken z. B. entstehen durch die Tatsache, dass sie
immer noch nach dem gewohnten Muster klassischer Maschinentechnik entworfen und nach
dem Vorbild industrieller Produktionstechnik eingesetzt werden. Geistige Arbeit lässt sich
nicht ebenso problemlos wie körperliche Arbeit durch Maschinen substituieren. In jeder
technischen Konstruktion wird schon ein Bild des späteren Nutzers entworfen. Dieses
kulturelle Modell entspricht dem American Way of Engineering. Das zeigt sich z. B. an der
Tatsache, dass fast alle amerikanischen Autos mit Automatikschaltung ausgestattet sind. Geht
der Entwickler jedoch vom rational kalkulierenden und lerneifrigen Nutzer aus, wird er viele
Wahlmöglichkeiten, Erklärungen und Unterstützungen in die technischen Systeme einbauen.
Zu diesem die Nutzer häufig überfordernden Modell scheint eher die deutsche Ingenieurkultur
zu neigen (Rammert 1998, 56-58).

Die kulturelle Orientierung neuer Techniken erfolgt über Visionen und Konzepte der Nutzung
und über Bilder vom individuellen Nutzer, die in die technische Gestaltung eingeschrieben
werden. Als prägende Orientierungen können nationale Konstruktionsstile (American Way of
Engineering), universitäre Ingenieurschulen (Aachener Maschinenbaukultur) und betriebliche
Konstruktionstraditionen (Audi-Motorenbautradition) ausgemacht werden. Die Rahmenbedin-
gungen für eine reflexive und diskursive Techniksteuerung waren bisher eher ungünstig. Es
scheint z.B. auch bei der Entwicklung neuer Informationstechniken der Fall zu sein, dass die
Ingenieure eher die Steigerung der technischen Leistungsparameter als den zukünftigen
Nutzungskontext im Blick haben (Rammert 1998, 58-61). Ein Schlüsselproblem für den
gesellschaftlichen Erfolg einer neuen Technik besteht schlicht darin, die Nutzermodelle in den
Technikentwürfen besser mit den Nutzerpraktiken im Alltag abzustimmen. Ingenieure
konstruieren mit simplifizierenden Nutzermodellen. Diese folgen in der Regel einem univer-
salistischen und kognitiv-rationalem Menschenbild (Rammert 1998, 64).

In diesem Sinn soll nun ein Fallbeispiel analysiert werden, der amerikanische Traum von
einer Elektrifizierung der Küche. Ab dem Jahr 1920 wurde eine große Anzahl von US-
amerikanischen Haushalten modernisiert. Gemäß dem Leitbild der elektrischen Moderni-
sierung erschienen häusliche elektrische Anwendungen erschienen als durch die Wahl der
Konsumenten hervorgerufen. Eine eingehende Untersuchung zeigt hingegen, dass es eine
größere oder gar allgemeine Akzeptanz häuslicher elektrischer Anwendungen im Jahr 1920
nicht zu konstatieren ist. Bemerkenswerte Folgen der kommerziellen Visionen einer häus-
lichen elektrischen Technologie, einer Welt, in der Maschinen und nicht Personen arbeiten,
kann in einer überwältigenden Majorität amerikanischer Haushalte einfach nicht wahr gewe-
sen sein. In den 20er Jahren waren etwa 30 % der amerikanischen Haushalte elektrifiziert. Es
waren insbesondere die Haushalte mit hohem Einkommen, die allerdings sozial eher kon-
servativ eingestellt waren. Um die Möglichkeit einer Technologisierung des Haushalts in
Erwägung ziehen zu können, ist es erforderlich, die Arbeitsrolle und das Arbeitsverständnis
von Frauen im Haus daraufhin zu analysieren, ob eine Einführung elektrischer Technologien
in gewisser Weise auch konservative Werte verstärkte. Eingeführt wurden vor allen Dingen
elektrische arbeitssparende Anwendungen. Im Jahre 1920 legte eine anwachsende Prosperität
die Grundlagen für eine umfangreiche Elektrifizierung und Modernisierung, die aber erst nach
1945 stattfand (Tobey 1996, 1-6).

195
In den 20er Jahren wurde der Strompreis herabgesetzt, um den Verkauf elektrischer Geräte zu
fördern. Sicherheit wurde zu einer zentralen Forderung. Ein gestaffeltes Preissystem, das
Mehrverbrauch belohnte, wirkte ebenfalls unterstützend. Rauschenbush und Laidler hatten
eine progressive Vision sozial modernisierter amerikanischer Haushalte mit Elektrifizierung
und Anhebung des Lebensstandards selbst kleiner Städte und Farmhäuser. Die konservative
Vision setzte mehr auf Industrialisierung und hatte andere Ideen von der Verwendung der
Elektrizität. Die Modernisierung vergrößerte die Schulden der Haushalte. Neue Wasserkraft-
werke mussten gebaut werden. Es entstand die Bewegung zur Rationalisierung des Haus-
haltes. Es ging darum, die Familie im Namen der Freiheit zu reorganisieren. Leitbilder waren
die effiziente Küche. Die Bewegung für die Rationalisierung des Haushaltes brachte eine
ganze Reihe von Lehrbüchern hervor, die Haushaltsführung, Haushaltsbudget, Konsum und
die Aneignung von Haushaltstechnologien beschrieben und wie sie stattzufinden haben
innerhalb der neuen Welt der Massenmärkte. John Dewey wurde zum Philosophen der Nation
und ihrer Fortschrittsvorstellungen. Er klärte über die Bedeutung von Elektrizität auf (Tobey
1996, 41-55).

Die kalifornische Bewegung für öffentliche Macht und Modernisierung sprach sich für die
Entwicklung von Hydroelektrik aus. Elektrizität sollte für die Industrialisierung und die
Elektrifizierung der Haushalte angeboten werden können (Tobey 1996, 62-81). 1930 propa-
gierte Franklin Roosevelt das neue Abkommen (New Deal) und deklarierte ein nationales
politisches Rahmenwerk, welches den meisten amerikanischen Familien erlaubte, ihre Häuser
mit Elektrizität zu modernisieren. Eine vollständige Ausnutzung der Elektrizität sollte eine
höhere Lebensqualität bringen. 1934 hält Roosevelt viele Reden für die Modernisierung.
Davor aber bestand eine Finanzierungskrise für Häuser. 1934 entstand auch ein Banken-
verbund für ein neues Abkommen zugunsten des Hausbaus. Erlassen wurde ein nationaler
Hausbauakt. Das neue Abkommen zur elektrischen Modernisierung wurde zwischen 1933
und 1935 ins Leben gerufen. Es kam zu einer Expansion privater Konsumentenkredite (Tobey
1996, 92-119). So haben wir hier ein Beispiel staatlich inszenierter Nachfragemacht einer
neuen Technologie, genauer gesagt eines ganzen Technologiefeldes vor uns.

Nicht in allen Fällen hilft der Staat und so kommt es häufiger vor, dass eine aussichtsreiche
Ingenieurerfindung nicht zu einer erfolgreichen Innovation wird. So entsteht der Eindruck, die
technische Entwicklung sei einem geraden, rationalen Pfad aus der Vergangenheit in die
Gegenwart gefolgt. Die Untersuchung gescheiterter Innovationsversuche bringt allerdings ans
Tageslicht, dass etwa 85% aller Entwicklungen in Firmen nie zur Marktreife gelangen.
Insofern wird hier eine falsche Erfolgsgeschichte angegeben. Die fehlgeschlagenen
Innovationen sind zum Beispiel das Riesenwindrad „Growian“, der „Schnelle Brüter“ und der
Frachtzeppelin „Cargolifter“. Innovation meint dabei die erstmalige wirtschaftliche
Verwertung einer neuen Problemlösung. Meist ist dies verbunden mit der Neueinführung
eines Produktes. Erfolgreich ist eine Innovation dann, wenn sie die Wettbewerbssituation des
Innovators verbessert. Dazu bedarf es eines kommerziellen Erfolges. Der Begriff des
Akzeptablen meint eine umfassende Objektivierung von Erfolg und Scheitern, gelingt aber
nicht. Manchmal muss die Einführung einer neuen Technologie an einem anderen Ort und
später mit mehr Erfolg durchgeführt werden. Dabei gibt es unterschiedliche Kriterien für das
Scheitern und für den Erfolg (Bauer 2006, 9-15).

Technikgeschichtliche und techniksoziologische Ansätze sind dabei zu unterscheiden. Im


Hinblick auf die Erfassung von Innovationen gibt es sehr unterschiedliche Ansätze, Methoden
der Datenerhebung und der Heterogenität der Ergebnisse. Dabei gab es Failure Studies bereits
in früheren Zeiten. Allerdings bestanden sie ausschließlich aus Einzelfallstudien. Gründe für
das Scheitern von Innovationen sind: 1. spezifische Konkurrenzsituationen des innovativen

196
Produktes, 2. technische Probleme, 3. Fehleinschätzung der potenziellen Nutzer, 4. zu hohe
Anpassungserfordernisse, 5. instabiler Entwicklungsraum. Wichtig ist auch der Innovations-
zeitpunkt. Das Forschungsfeld ist noch nicht genau umrissen. Bereits in der Technik-
geneseforschung gibt es Erklärungsansätze. Gesucht wird nach Ursachen des innovatorischen
Scheiterns (Bauer 2006, 20-38).

Untersuchen wir ein Fallbeispiel. Ein gescheitertes Innovationsprojekt ist der Stirlingmotor.
Dieser ist eine Verbrennungskraftmaschine, bei der das Arbeitsmedium periodisch erhitzt und
wieder abgekühlt wird. Das recht komplexe Verhältnis, bzw. die Relativbewegung zwischen
Verdrängungs- und Arbeitskolben führte dazu, dass der eigentlich ideale Stirlingprozess
praktisch nicht zu verwirklichen war. Der theoretisch unschlagbar gute thermische Wirkungs-
grad aufgrund kontinuierlicher äußerer Verbrennung konnte in der Praxis nicht erreicht
werden. Die Verbrennungsquelle für diesen Motortyp ist gleichgültig. Der Verbrennungs-
prozess ist sehr gut einstellbar. Das erste Patent auf diesen Motor wurde 1817 erteilt. Ein
Kompressor erhöht den Wirkungsgrad. Er spielte eine prominente Rolle in der Entwicklung
der jungen Thermodynamik. 1843 formulierte das Prinzip James Stirling. Die Modelle schei-
terten im 19. Jh. alle an Materialproblemen. Es kam zu einer Wiederentdeckung des Stirling-
motors in den 1930er Jahren. 1953 wurde ein gewisser Durchbruch durch die Firma Philips in
Holland mit dem Rhombengetriebe erreicht. Dichtungsprobleme zwischen heißem Expan-
sions- und kaltem Kompressionsraum stellten sich unweigerlich ein. 1960 kommt es zu einer
weiteren Entwicklung des Stirlingmotors hauptsächlich in den USA. 1970 begann das
schreckliche Jahrzehnt für die US-Automobilindustrie. Grund dafür war ein verändertes
Käuferverhalten, welches sich nach der ersten Ölkrise auf Kleinstwagen und alternative Pkws
ausrichtete. Der neue Wert ab dieser Zeit lautete: Senkung des Kraftstoffverbrauchs. Mitte der
80er Jahre nach einer weiteren schweren Ölpreiskrise erfolgte eine gewisse Beruhigung und
ein Nachlassender Innovationsdruck in der Automobilindustrie (Bauer 2006, 194-227).

Was war der Grund für das Scheitern? Wechselnde Akteure und abgebrochene Projekte waren
der eine Bereich. Zum Einen handelte es sich bei dem niederländischen Unternehmen Philips
um ein marktfremdes Unternehmen, das nichts mit dem Automobilmarkt zu tun hatte und in
den USA mit Generalmotors ein Entwicklungspartner hatte, der allein offenbar zu schwach
war, marktfähige Produkte in diesem Bereich herzustellen. Stirlingmotoren waren eher für
schwere Pkws geeignet, oder für Lkws, bzw. Busse. 1975 wurde der erste Ford Torino mit
Stirlingmotor ausgeliefert. Er hatte eine Minute Vorheizzeit, gute Emissionswerte, aber der
Verbrauch war überraschend hoch, vor allem bei kleineren Motorversionen. Die United
Stirling of Sweden und Ford entwickelten unter Berücksichtigung von staatlichen
Entwicklungsprogrammen Motortypen, wobei die Umweltauflagen der 80er und 90er Jahre
dem Stirlingmotor eine neue Nische verschafften. Philips sah sich immer nur als Lizenzgeber,
nicht als künftiger Motorenhersteller. Der Konzern suchte die Zusammenarbeit mit einem
PKW-Hersteller. Die Ölpreiskrise steigerte kurzfristig das Interesse an diesem Motor. Aber
letztendlich führte die mangelnde Zusammenarbeit mit den großen Automobilkonzernen zu
einem entscheidenden Schwachpunkt. Daher gelang wohl die Kommerzialisierung auch nicht.
Die Erprobung von Stirlingmotoren an Kleintransportern erbrachte bei weitem nicht den
erhofften Erfolg. Denn diese stoppten häufig und fuhren meist im niedrigen Geschwindig-
keitsbereich, wofür diese Motoren nicht gebaut wurden. Das Ziel der Verbrauchssenkung
konnte nicht erreicht werden. Wobei der Betrieb der Motoren im Van-Bereich sicherlich für
den Stirlingmotor nicht optimal war. Der industriefern entwickelte Stirlingmotor bot letzt-
endlich keine so großen Vorteile gegenüber dem Ottomotor oder dem Diesel, dass er die ho-
hen Kosten für eine massenhafte Einführung gerechtfertigt hätte. Warum wurde er trotzdem
so lange weiterentwickelt und war damit kein völliger Fehlschlag? Es gab Ende der 80er
keinen hinreichenden Grund für die Serieneinführung. In Nischen bietet sich sein Einsatz

197
weiter an. Zum Beispiel ist die Tieftemperaturkühlung eine enorme Hilfe für U-Bootantriebe,
die deren Aufenthalt unter Wasser auf mehr als zwei Monate verlängern kann. Gefahr droht
allerdings dem U-Bootantrieb von der Brennstoffzelle, die noch längere Tauchfahrten bei
noch geringeren Geräuschemissionen erlaubt. Neue Chancen entstehen für dieses Maschi-
nenkonzept durch die Vielstofffähigkeiten der Maschinen im Rahmen der Szenarien erneuer-
barer Energien. Dieser Motorenkonzept lässt sich auch sehr gut für dezentrale Energie-
erzeugung aufrechterhalten (Bauer 2006, 278-287).

Was lässt sich aus dem Scheitern dieser Innovationen herauslesen? Die besondere Bedeutung
der jeweiligen Konkurrenzsituation ist herauszuarbeiten. Misserfolg beruhte auf grund-
sätzlichen, systembedingten Eigenschaften der Inventionen. Außerdem kam es zur Fehlein-
schätzung von Nutzerbedürfnissen. Die ungenügende Abstimmung zwischen Entwicklern und
Nutzern und zu hohe Anpassungserfordernisse führen zu diesem Problem. Insofern gab es
Schwierigkeiten im Entwicklungsraum, im Timing und in der Zielerschließung, bzw. Ziel-
verschiebung während der Entwicklungsphase. Eine Theorie des Scheiterns muss auf die
Relativität des Scheiterns hinweisen. Dabei erwies sich die Innovationsdauer als von entschei-
dender Bedeutung (Bauer 2006, 289-318).

Kehren wir zur technischen Konstruktion zurück. Das eigentliche Problem der Automation ist
gemäß Donald Norman nicht die Anwesenheit von Automatisierung, sondern ihr ziemlich
unangemessenes Design. Es geht darum, Irrtümer durch angemessene und geeignete Kon-
struktion zu vermeiden. Design bzw. Konstruktion ist wesentlich, um das ganze System zu
prüfen. Die zu bewältigende Aufgabe hängt ab vin h: die soziale Struktur, Lernen und Trai-
ning, kooperative Aktivitäten, die gemeinsamen Ziele der Aufgabe von automatisiertem tech-
nischem Handeln in Kooperation mit Menschen. Die Automatisierung tendiert z.B. dazu, die
Mannschaft abzutrennen von den eigentlichen Vorgängen in einem Flugzeug. Entscheidend
sind z. B. die Systemprobleme automatisierter Systeme, wie z. B. Autopiloten in Flugzeugen,
die möglicherweise zu Abstürzen führen, wenn die Crew nicht für den Umgang mit
automatisierten Systemen in ausreichendem Maße geschult ist und nicht in angemessener Art
und Weise über die Vorgehensweise automatisierter Systeme informiert wird. Durch die
Ankunft automatisierter Kontrollen hat sich die Aufgabe des Menschen gewandelt. Die
Automatisierung hat immer mehr die niedrigeren Handlungen des Ingenieurs übernommen
und dem menschlichen Akteur bzw. Ingenieur im Wesentlichen Überwachungsaufgaben für
das System überlassen, insbesondere dann einzugreifen, wenn es Normabweichungen, Pro-
bleme und Unfälle bzw. Havarien gegeben hat.

Nun sind Menschen Operatoren, Manager und Supervisoren viel eher als Kontrolleure. Sie
sind nun außerhalb der automatisierten Rückkopplungsschleife der Informationsverarbeitung
von Maschinen. Wenn automatische Programme bestimmte Probleme still und effizient
kompensieren, ist die Mannschaft eines Flugzeugs oder Fahrzeugs außerhalb der Rückkopp-
lungsschleife, so dass sie nicht in der Lage ist bei Fehlern die geforderten kompensatorischen
Schritte tatsächlich einzuleiten. Sie sind nicht in der Lage sofort und schnell und geeignet auf
den Störfall zu reagieren. Dies ist im speziellen eine tatsächliche Novität im Rahmen der
Konstruktion technischer Artefakte: Feedback oder Rückmeldungen sind ein zentraler Aspekt
der Kontrolltheorie. Aber ein adäquates Feedback zu dem menschlichen Arbeiter ist häufig
entfernt davon ihm rechtzeitig präsentiert zu werden, sei es das das System durch ein
Computersystem überwacht wird, sei es ein Autopilot oder handelt es sich um ein Telefon-
system. Um einen geeigneten Grad an Feedback im Rahmen automatisierter Technik zu erhal-
ten, ist ein höherer Grad von ausdifferenzierter Technik im Hinblick auf Automatisierung
erforderlich, als der der gegenwärtig tatsächlich existiert. Technische Lösungen für das Auto-
matisierungsproblem erfordern wohl höhere Grade und Ebenen der Automatisierung. Der

198
gegenwärtige Level von Wissen ist nicht ausreichend um tatsächlich eine geeignete
Automatisierung durchzuführen. Zu viel Automatisierung führt dazu, dass Menschen außer-
halb der Kontrollschleife bleiben, diese in ihren Fähigkeiten mindern und selbstverständlich
auch ihre Moral herabsetzen. Der Grund für die Fehler im Zusammenhang mit Automati-
sierung ist der Mangel an Sensitivität für Nutzer auf der Seite der Konstrukteure. In jedem
komplexen System hat die Aufgabe oder Umgebung einen Platz, der jeweils gut ist für die
Erwartung unerwarteter Ereignisse. Diese muss in einer Automatisierungstheorie berück-
sichtigt werden (Norman 1990).

Bereits in seinem 1988 zum ersten Mal veröffentlichtem Buch über das Design der alltäg-
lichen Dinge weist Donald A. Norman auf den Mangel im Verständnis der Konstrukteure hin,
die gewöhnlich von Seiten der Konstrukteure den Nutzern oder Konsumenten gegenüber an
den Tag gelegt wird. Das Problem klingt trivial, aber die Auswirkungen können gravierend
sein und machen den Unterschied zwischen Gefallen und Frustration bei Nutzern aus. Dieses
Prinzip hält aber den Alltag am Laufen. Wenn Technik schlecht ausgearbeitet ist, wird sie in
der Alltagswelt kaum adäquate Anwendung finden. Sie schafft Beschwerlichkeiten, die dem
Leben in einer modernen Gesellschaft zusätzlich bereitet werden. Zum Beispiel ist der Unfall
in der Nuklearanlage von Three Miles Island einer dieser Konstruktionsfehler, bei denen
Nutzergewohnheiten nicht berücksichtigt wurden. Norman untersuchte das Vorfeld dieses
Unfalls und musste zu seiner Überraschung erfahren, dass die Bedienungsmannschaft letzt-
endlich für ihre Fehler nicht verantwortlich war, sondern, dass der Fehler tatsächlich in der
Konstruktion der Anlage des Kernkraftwerkes und ihrer Steuerungselemente lag. So vertritt
Norman einen am Menschen orientierten Zugang der Konstruktion von Mensch-Maschinen-
Schnittstellen und formuliert neue Aufgaben für Konstrukteure, die letztendlich den Nutzer
berücksichtigen sollen (Norman 2002, VII-VIII).

Die technische Konstruktion ist nicht nur ein einsamer Akt des Zeichnens von Bauplänen,
sondern ein realer Akt kommunikativer Art, der ein tiefes Verständnis für die Person voraus-
setzt, mit der der Designer kommuniziert. Dies ist letztlich der Nutzer oder der Gebrauchende
bzw. der Konsument einer technischen Vorrichtung. Um verstehen zu lernen, wie wir Dinge
nutzen, brauchen wir begriffliche Modelle davon, wie sie denn arbeiten. Selbst Air Condition
zuhause bedarf beim ersten Mal einer kleinen Reflexion auf ihre Handhabung und auf die
unterschiedlichen Ebenen, auf denen ein Gerät bedient werden kann. Konstruktion in ein
komplexes Unternehmen, welches eine ganze Reihe von Disziplinen umfasst. Design ist ein
komplexes Unternehmen, in dem verschiedene Disziplinen integriert werden müssen. Dabei
muss man berücksichtigen, dass sich der Grad der Technologisierung schnell verändert,
Menschen allerdings nur langsam (Norman 2002, XI-XIV).

Menschen irren sich zwar nicht ständig, aber sie tun es genau dann, wenn sie Umgang haben
mit schlecht konstruierten und schlecht begriffenen Dingen (Norman 2002, XVII). Die Lücke
zwischen dem Nutzer und dem Konstrukteur von normalen technischen Dingen setzt einen
Prozess der Interpretation und des Verständnisses voraus. Auf diese Art und Weise führt
schlechtes Design, sofern es vorherrschend ist, zu einer Welt, die angefüllt ist mit Frustration
und mit Objekten, die weder verstanden sind, noch dass die Fähigkeit entwickelt werden
kann, mit ihnen umzugehen. Eine Tür zum Beispiel stellt nur zwei essentielle Fragen, nämlich
in welche Richtung bewegt sie sich und auf welcher Seite sollte ich mich dann bewegen? Die
Antwort auf diese Fragen sollte schon durch das Design oder Aussehen der Tür gegeben
werden ohne weiter erforderliche Worte oder Symbole, auch nicht verbunden mit Versuch
und Irrtum (Norman 2002, 2f). Es gibt eine erstaunlich hohe Anzahl von Alltagsdingen,
vielleicht 20.000 und mehr. Alle bedürfen einer bestimmten Art und Weise der Konstruktion
und müssen dann auch zur gegeben Situation funktionieren. Gut konstruierte Modelle von

199
technischen Apparaten erlauben uns, die Effekte unserer Handlungen mit ihnen vorher zu
sehen. Ohne ein gutes Modell handeln wir blindlings und müssen erst durch Versuch und
Irrtum herausfinden, in welcher Art und Weise es sinnvoll sein kann, mit Umgang Erfolg zu
haben oder nicht (Norman 2002, 13).

Der Konstrukteur erwartet, dass der Nutzer letztendlich dasselbe Modell an die Realität anlegt
wie der Konstrukteur (Norman 2002, 16). So entwickelte sich das Telefonsystem immer mehr
zu einem System mit einem erheblichen Anteil von Knöpfen und Schaltungsmöglichkeiten,
die allerdings niemand mehr durchschauen konnte (Norman 2002, 19). Kartografie ist ein
technischer Terminus und meint die Beziehung zwischen zwei Dingen für den Fall, dass die
eine den andere kontrolliert. Der Nutzer muss die beiden Topografien zusammen bringen,
nämlich die Kontrollinstrumente auf der einen Seite und die angestrebten Effekte auf der
anderen Seite. Das Steuerrad muss in zwei verschiedene Richtungen gedreht werden, je nach
dem, in welche Richtung man fahren möchte. Dabei gibt es eine natürliche Art und Weise der
Topografie oder der Kartenerstellung (Norman 2002, 23). Das Senden von Feedbacks ist ein
wichtiges Element, um erfolgreiches technisches Handeln konstituieren zu können. Dabei
braucht der Nutzer Informationen über das, was er im Rahmen einer Maschinenaktivität
durchführen kann und welche Ergebnisse dabei erreicht werden. Ein wohl bekanntes Prinzip
in der Wissenschaft wird hier von der Informationstheorie geliefert (Norman 2002, 27).

Ein endgültiges Design muss Muster mit dem Nutzer austauschen können. Das Paradox der
Technologie besteht in der Komplexität und den Schwierigkeiten, die nicht vermeidbar sind,
wenn zusätzliche Funktionen hinzugefügt werden, aber der Umgang mit ihnen nicht ver-
ständlich ist. Solche Schwierigkeiten können durch ein kluges Design minimiert werden.
Wenn eine Aufgabe einfach und trivial erscheint, dann können sich Menschen bei sich selbst
beschweren. Ist aber eine schwierige Aufgabe zu bewältigen, dann beschweren sie sich in der
Regel bei dem, der das Werkzeug falsch konstruiert oder bereitgestellt hat. Wenn ein Irrtum
möglich ist, wird er passieren. Der Konstrukteur muss daher unterstellen, dass alle möglichen
Irrtümer im Umgang mit seinem technischen Konstrukt auftreten werden. Er hat daher die
Aufgabe zu erwarten, dass die auftretenden Irrtümer durch den Umgang des Anwenders mit
seinem Produkt auch auftreten werden, wenn sie nicht von vornherein vermieden worden sind
(Norman 2002, 35f). Die fehlerhafte Handhabung von Alltagsdingen basiert in der Regel auf
kontraintuitiven Vorgaben (Norman 2002, 41). Präzise Verhaltensweisen können auch auf
dem Boden von ungenauen Kenntnissen durchgeführt werden. Dabei gibt es „wissen, dass“
und „wissen wie“. Das Know how kann nicht leicht beschrieben werden, während Fakten-
wissen leicht beschreibbar ist. Es ist aber das Kompetenzwissen, welches den erfolgreichen
Umgang mit technologischen Produkten ermöglicht (Norman 2002, 56-58). Im Hinblick auf
die Nutzung von Kreditkarten sind Identifizierungsnummern erforderlich. Das Problem bei
ihnen besteht darin, dass man sich so viele Identifizierungsnummern merken können muss.
Wie kann man das bewältigen? Indem man in der Regel die Nummern auf die Nutzungs-
gegenstände schreibt und damit für Betrug öffnet (Norman 2002, 65).

Die Erinnerung an zufällige Dinge ist nicht einfach. Sie muss in mehrfacher Form gelernt
werden. Am wichtigsten aber ist, dass man sich etwas auf Grund einer Erklärung besser
merken kann, als wenn man eine Sache nicht verstanden hat (Norman 2002, 70). Dabei ist die
Klassifikation der Bestandteile der alltäglichen Dinge eine wesentliche Hilfe (Norman 2002,
82). So steht auf einigen Türgriffen, ob man sie drücken oder ziehen soll, weil man dies dem
Türgriff selber nicht ansieht (Norman 2002, 88). Ein Gerät mit hunderten von Knöpfen, die
nicht beschriftet sind, oder von dementsprechend vielen Reglern ist letztendlich unbedienbar.
Außerdem sollten Kontrollfunktionen einsichtig und durch sich selbst verständlich sein
(Norman 2002, 92). Relevante Teile einer Maschine sollten gut sichtbar gemacht werden.

200
Außerdem sollte jede Handlung, die im Umgang mit einer Maschine durchgeführt werden
soll, einen offensichtlichen und bemerkbaren Effekt haben (Norman 2002, 99). Künstliche
Aufgaben haben nicht immer dieselben Toleranzgrenzen. Wenn man den falschen Knopf
drückt, kann das chaotische und katastrophale Folgen haben. Dabei gibt es Irrtümer im
Hinblick auf die Steuerung, auf die Beschreibung, auf die Daten, auf die damit verbundenen
Aktivitäten, Verluste und natürliche auch zentrale Irrtümer im Hinblick auf die Handha-
bungsarten. Viel menschliches Verhalten läuft automatisch oder automatisiert ab. Dies sollte
ebenfalls berücksichtigt werden (Norman 2002, 109). Fehler resultieren auch aus der Wahl
von unangemessenen Zielen. Menschliches Umgangswissen, Problemlösungsmethoden oder
Planungsaktivitäten scheinen ihren Ursprung mehr in vergangener Erfahrung zu haben als in
logischer Ableitung (Norman 2002, 115).

Die meisten unserer täglichen Aufgaben und Handlungen sind Routine und bedürfen nicht
einer ausgefeilten Planung (Norman 2002, 123f). Dann müssen die dabei herangezogenen
Gegenstände selbstverständlich sein. Insofern kann von einer Konstruktionsherausforderung
nur gelegentlich gesprochen werden (Norman 2002, 141). Da Konstrukteure atypische Nutzer
sind, können sie sich in der Regel auch nicht vorstellen, welche Probleme Nutzer mit ihren
Produkten haben (Norman 2002, 155). Außerdem könnten die Kunden des Konstrukteurs
nicht mit den Nutzern und Konsumenten identisch sein (Norman 2002, 157). Welche Ver-
pflichtungen hat denn ein Konstrukteur überhaupt zu berücksichtigen, wenn er konstruiert, da
es so etwas wie eine Durchschnittsperson und gar einen durchschnittlichen Nutzer nicht gibt.
Insofern entsteht ein beträchtliches Problem für den Designer, woran er sich bei seiner
Konstruktion des potenziellen Gebrauchs seines Nutzers orientieren soll. Er muss nämlich in
der Regel mit einem Design für möglichst viele Nutzer erfolgreich sein (Norman 2002, 161).

Aber Linkshänder haben mit einer ganzen Reihe von Geräten Schwierigkeiten, die für
Rechtshänder konstruiert worden sind. So haben wir spezielle Probleme auch mit denen, die
betagt und schwach sind, die Handicaps aufweisen, die sehr klein sind oder auch nur einem
fremden Kulturkreis entstammen. Insofern gibt es auch das Problem der selektiven Aufmerk-
samkeit, nämlich dass Nutzer nicht immer den richtigen Fokus auf ein Gerät einnehmen oder
auch einnehmen können (Norman 2002, 162-164). Der Gebrauch von technischen Artefakten
ist so auch ein typisches Problem von Erziehung. Konstruktion erfordert ein Programm, in
dem verschiedene Arten von Expertise kombiniert werden, in denen auch technische Fähig-
keiten abgefragt werden, Kenntnisse und Wissen um sie Aufgabe und Wissen über die
Notwendigkeiten und Fähigkeiten des Nutzers (Norman 2002, 178). Es ist nicht einfach,
effektive und brauchbare Computersysteme zu designen. Offenen Systeme laden zum
Experimentieren ein (Norman 2002, 181-183).

Design sollte es erstens einfach machen zu entscheiden, welche Handlungen möglich sind und
zwar zu einem bestimmten Zeitpunkt. Zweitens sollen Dinge sichtbar gemacht werden,
einschließlich der konzeptuellen Modelle des Systems, den alternativ möglichen Handlungen
und den Resultaten der Handlungen. Drittens soll eine Beurteilung leicht ermöglicht werden
über den gegenwärtigen Zustand des Systems. Viertens geht es darum, natürlichen
topographischen Modellen zu folgen und die entsprechenden Intentionen, die erforderlich
sind, herauszufinden. Außerdem sollten die Verbindungen zwischen Handlungen und den
daraus resultierenden Effekten deutlich werden, sowie zwischen der Information, die sichtbar
ist und der Interpretation des Systemstatus, der nicht immer offenkundig ist. Wichtig sind
auch die Fähigkeiten und Kompetenzen der potentiellen Nutzer. Mit anderen Worten, es ist
sicher zu stellen, dass der Nutzer während der Mensch-Maschinen-Interaktion jederzeit den
Status der Maschine erkennen kann und dass der Nutzer in der Lage ist, verbal zu fixieren,
was passiert (Norman 2002, 188).

201
Ein Konstrukteur sollte sowohl Weltwissen wie Wissen benutzen, zweitens die
Aufgabenstruktur vereinfachen, drittens Dinge sichtbar machen und Brücken aufzeigen
zwischen Effekten und Bewertungen von Mensch-Maschinen-Interaktionen, viertens richtige
Rahmen schaffen, fünftens die Kräfte sowohl natürliche wie auch künstliche erfahrbar
machen, sechstens fehlerfreundlich konstruieren und siebentens wenn alles andere fehlschlägt
zumindest standardisieren. Es gibt drei unterschiedliche mentale Aspekte, die unterschieden
werden müssen: das Konstruktionsmodell, das Nutzermodell und das Modell der System-
zustände des technischen Mittels. Die Systemzustände schließen Benutzerhandbücher und
Dokumentationen ein (Norman 2002, 188-190). Wichtig ist auch die Aufgabenstellung in
geeigneter Weise zu verändern. Auch Standardisierung ist eine geeignete kulturelle Umgangs-
form mit Technik (Norman 2002, 202). Ist also das intelligente Haus der Zukunft ein neuer
Platz für Komfort und ein angenehmes Leben oder nichts weiter als eine neue Quelle der
Frustration (Norman 2002, 213)? Die Antwort auf diese Frage wird in entscheidender Art und
Weise von der Konstruktion dieser Technologie abhängen. Moderne Technik erfordert hin-
sichtlich ihres Gebrauchs immer mehr vom technischen Laien, so dass der Unterschied
zwischen Professionellen und Laien sich zumindest verringert.

Die Frage nach einer Wissenschaftstheorie vom Machen verweist schon durch die im Kontext
der Technikkritiken der letzten Jahrzehnte zunehmend verschlechterte Bedeutung des Wortes
Machen darauf, dass es nach wie vor ein Spannungsverhältnis zwischen den Naturwissen-
schaften, den Ingenieurwissenschaften und den Sozial- und Geisteswissenschaften gibt, die
über die Konstatierung der Existenz zweier Kulturen hinausgeht. Man kann allerdings eine
etwas modifizierte Sichtweise einnehmen, indem man versucht, den Zusammenhang von
Theorie, Experiment und Herstellen aufzuklären. Dazu gehört, dass man mindestens zwei
Ebenen unterscheiden muss: (1.) Man untersucht wissenschaftstheoretische, welche Methoden
und Vorgehensweisen jeweils in den theoretischen, in den experimentell bzw. empirisch
sowie in den konstruktions-, produktions-, und instrumentell orientierten Disziplinen bevor-
zugt werden, wie ihr Wissensgebäude strukturiert ist und wie dieses Wissen in den verschie-
denen Disziplinen aufeinander bezogen werden kann. (2.) Man untersucht näher den Vorgang
der Transformation von naturwissenschaftlichen (auch sozialwissenschaftlichen) Wissen in
handlungsorientiertes, letztlich in technologisch umsetzbares Wissen (Kornwachs 1996, 13f).

Man kann sicher mit Recht fragen, wozu eine Theorie der Technik dienen solle. Die meisten
Problemlösungen in der Technik und den Ingenieurwissenschaften lassen sich in der Regel
nach herkömmlichem Verständnis ohne eine Theorie der Technik, freilich aber nicht ohne
technologische Theorien lösen. Ingenieure forschten nicht nach dem Wesen der Maschine,
sondern sie bauten sie, und die Maschine funktioniert gemäß einem vorher festgelegten
Pflichtenheft oder sie funktioniert nicht, d.h. die Aussagen über die Handlungsanleitungen,
Regeln genannt, sind effektiv oder nicht. Der Effizienzgrad der Maschine selbst bemisst sich
nach dem Aufwand im Verhältnis zur gewonnenen Funktionalität, dies drückt man als die
Effizienz aus. Eine weitere Frage, die weder Naturwissenschaften noch Ingenieurwissenschaft
stellen, ist die Frage nach der Begründung des naturwissenschaftlichen bzw. ingenieur-
wissenschaftlichen Wissens (Kornwachs 1996, 14f).

Naturwissenschaft liefert bekanntlich keine Begründung für Forschungsrichtungen, ebenso


liefert die Ingenieurwissenschaft weder methodisch noch inhaltlich eine Begründung dafür,
warum eine bestimmte technologische Entwicklung in diese und nicht in eine andere
Richtung entwickelt worden ist oder entwickelt werden soll. Somit stellt sich die Frage nach
dem Wesen der menschlichen Tätigkeit, die auf das Engste mit der Technik verbunden ist.
Fragt man, wozu man eine Theorie benutzen kann, dann liegt eine pragmatische Sichtweise
vor. Aus pragmatischer Sicht stellen die Erklärung, die Vorhersage und die Systemsteuerung

202
wesentliche Elemente neben der Substitution von Theorien der Technik in pragmatischer
Hinsicht dar. Neben der pragmatischen gibt es eine metatheoretische Sicht, in der Konse-
quenzmengen betrachtet werden. Technische Theorie als Handlungsanleitung ist genauso
interessant wie die Struktur einer Theorie. Damit erhält die Frage, wozu eine Theorie dient,
neben dem pragmatischen und den metatheoretischen ebenfalls einen programmatischen
Aspekt. Insofern kann man nach der Theorie einer angewandten Wissenschaft fragen (Korn-
wachs 1996, 15-20).

Die erkenntnistheoretischen Grundlagen der Technik sind in den Begriffen Modell, Entwurf,
Zielkatalog, Norm und System angelegt – dies sind Begriffe, die auch die Funktion der
Abbildung von Gegebenen und Vorgestelltem in das Machbare und Gemachte zielen. Daher
ist die Verwendung von Instrumenten nicht kasuistisch, sondern systematisch und übertragbar
(Kornwachs 1996, 29). Die angewandte Forschung erzeugt als einfachste Elemente sogenann-
te Regeln, die nicht durch eine logische Ableitung, sondern durch eine pragmatische Inter-
pretation des relevanten Gesetzes gebildet werden können. Innerhalb der Aussagen der
angewandten Forschung bestehen daher Zusammenhänge zwischen Erkenntnis und Handeln,
zwischen Knowledge und Know-how. Die substanzielle Theorie hat als Objekte des Handelns
z.B. Maschinen, wohingegen die operative Theorie die Organisation des Gebrauchs dieser
Mittel (Auslastung, Layout, Fertigungssteuerung etc.) behandelt. Zu berücksichtigen ist, dass
Praxis keine validierende Potenz im Hinblick auf die Wahrheitsfrage haben kann (Kornwachs
1996, 31-37). Man muss also eine Theorie der Technik von den technologischen Theorien
unterscheiden (Kornwachs 1996, 50).

Konstruieren bedeutet die Zusammensetzung von operierenden Einheiten mit bekannter


Funktion unter den Bedingungen der Minimierung und Maximierung bestimmter Größen zu
einer operierenden Gesamtheit mit Funktionen, die sich im Idealfall systemtheoretisch
berechnen lassen, oder die approximativ im Test (im Gegensatz zum Experiment) bestimmt
werden müssen, zumindest gemäß dem systemtheoretischen Modell. Erst eine gebaute Kon-
struktion kann man testen. Der Prototyp ist der Einzelfall, auf den sich die Regeln letztendlich
beziehen. Die Simulation kann die Vorarbeiten für einen Test jedoch erheblich abkürzen. Die
Verknüpfung der Regel für die Realisierung einer technologischen Funktion läuft über die
Struktur, d.h. den Zusammenhang der Einzel- oder Teilfunktionen, wobei es eine Entspre-
chung zwischen der Zusammensetzung der Funktionen, der logischen Zusammensetzung, der
zugehörigen Aussagen und damit dem zeitlichen Ablauf der Durchführung von Regeln geben
muss. Meist versteht man unter dem Kohärenzbegriff Erklärungskohärenz (Kornwachs 2002b,
245-248).

Da für die Technikwissenschaften neben der epistemischen Absicherung zur Sicherstellung


ihres Wissenschaftscharakters auch Anwendungskontexte unverzichtbar sind, stellen sich
anders als bei einer reinen Naturwissenschaft Fragen nach einer zusätzlichen Absicherung im
Hinblick auf die Handhabbarkeit und Praktikabilität. Technik wird auch nach seinem Output
und dem Verwendungskontext des jeweiligen Outputs zu beurteilen sein. Mit der Verwissen-
schaftlichung der technischen Wissenschaften entstand das Bedürfnis nach epistemischer
Absicherung, wobei für die Technikwissenschaft der innovativen technischen Konstruktion
anders als in den Naturwissenschaften zusätzlich eine ökonomische und eine praktische
Absicherung erfolgen mussten. Bei der epistemischen Absicherung kam es zu einem
Herauskürzen des „tacit knowledge“ zumindest in der Selbstbeschreibung der Ingenieure.
Dabei kann die Fremdbeschreibung der technischen Konstruktion im ingenieurswissen-
schaftlichen Paradigma von außen her durch die Technikphilosophie oder durch die
Technikgeschichte und Techniksoziologie durchaus anderer Meinung sein (Kornwachs
2002b).

203
Die Selbstbeschreibung der Techniker und die Fremdbeschreibung durch eine gesellschaft-
liche Außensicht sind deutlich zu unterscheiden. Wegen des Praxisbezugs der technischen
Wissenschaften sind beide Perspektiven legitim und dürfen nicht gegeneinander ausgespielt
werden. Die epistemische Absicherung geschieht auch heute noch nach dem traditionellen
naturwissenschaftlichen Modell, aber Technikwissenschaft ist keine Naturwissenschaft, son-
dern eine Handlungswissenschaft und enthält damit neben deskriptiven auch präskriptive
Aussagen. Die Verwissenschaftlichung der Technikwissenschaften führte zur Disziplinen-
bildung und zur Ausdifferenzierung von technischen Disziplinen, geht aber zunehmend an der
tatsächlichen Entwicklung des technischen Konstruierens vorbei, wie sie hier beschrieben
wird. Objektorientierte, methodenorientierte und berufsfeldorientierte technische Disziplinen
sind zu unterscheiden, wobei eine Metatheorie der Technikwissenschaften den Zusammen-
hang dieser einzelnen Disziplinen erörtern und die Frage nach der Einheit der Technik-
wissenschaft stellen muss.

Wiederholbarkeit eines Experimentes beruht auf einer Replizierbarkeit, so dass man ein
Experiment mit genau denselben präparierten Anfangs- und Randbedingungen wiederholen
kann. Diesem würde die wiederholte Baubarkeit eines Gerätes in der Technik entsprechen.
Der Reproduzierbarkeit des Ergebnisses entspricht auf der technischen Seite die Erfüllung
gleicher Funktionalität bei demselben Arrangement. Einer empirischen Bestätigung oder
besser einem Aufweis der Richtigkeit einer theoretischen Überlegung würde die positive Ge-
brauchserfahrung und die Bewährung in der Praxis auf der technologischen Seite entsprechen.
Man könnte auch salopp zusammenfassen: Der Wissenschaftler ruft „Heureka“ aus, der Tech-
niker: „es funktioniert!“ (Kornwachs 2002a, 2006).

Bei der Verwissenschaftlichung sind wie bei der Disziplinbildung in den Technikwissen-
schaften kognitiv-epistemologische Absicherung und sozial-institutionelle Absicherung zu
berücksichtigen. Disziplinäres wissenschaftliches Wissen schließt nichtwissenschaftliche
Elemente mit ein. So stellt sich die Frage nach der interdisziplinären Kooperation unter-
schiedlicher technikwissenschaftlicher Disziplinen sowie nach der transdisziplinären
Absicherung nach Außen im Hinblick auf Anwendungsfragen zu ökonomischen und sozial-
wissenschaftlich orientierten Disziplinen. Zu der epistemischen Absicherung muss bei den
Technikwissenschaften eine ökonomisch praktische Absicherung hinzutreten, in der der
Nutzen und der Gebrauchswert eines technischen Mediums erörtert werden. Nutzen und
Gebrauchswert aber sind kulturell weltanschaulich codiert. Insofern müssen insbesondere für
Rechtfertigungsfragen sowohl epistemischer wie praktisch sozialer Art die Kulturwissen-
schaften herangezogen werden. Die Finalität der technischen Wissenschaften als Handlungs-
wissenschaften manifestiert sich insbesondere darin, dass für die Technikwissenschaften auch
Fragen des Nutzens der Umwelt, der sozialen Verträglichkeit und der Akzeptabilität gestellt
werden müssen.

Eine wesentliche weitere Frage technikwissenschaftlicher und metatechnikwissenschaftlicher


Untersuchungsprojekte ist die Theoriendynamik innerhalb der Technikwissenschaften selbst
sowie das Verhältnis von disziplinärem, interdisziplinärem und transdiziplinärem
technikwissenschaftlichen Wissen. Dabei ist zu berücksichtigen, dass Technikwissenschaften
sich um explizite Handlungsanleitungen bemühen. Für die Beschreibung der Theorien-
dynamik technikwissenschaftlicher Art ist die Selbst- und die Fremdbeschreibung in einer
metatheoretischen Perspektive deutlich zu unterscheiden ebenso wie die kognitiv-wissen-
schaftliche, die sozial-institutionelle und die kulturell-ideelle Komponente. Insbesondere die
letztere Komponente ist für die Rechtfertigungsfrage nicht zu vernachlässigen, obwohl
traditionell die kognitiv-wissenschaftliche Dimension im Sinne von Methodologiefragen im
Vordergrund gestanden hat. Für die Untersuchung des Problems technischer Konstruktion und

204
zur Erarbeitung eines Interpretationsrahmens für ein angemessenes Verständnis aus ver-
schiedenen Interpretationsperspektiven ist die epistemologische Rechtfertigung im Sinne der
Mathematisierung und Professionalisierung wie der Verwissenschaftlichung zu berücksich-
tigen, die praxeologische Rechtfertigung im Sinne einer Inkulturation in andere Systeme
gesellschaftlicher oder kultureller Art unter der Überprüfung der Handhabbarkeit, Nützlich-
keit und Akzeptabilität zu untersuchen, wobei Werte und Weltanschauungen eine zentrale
Rolle spielen sowie eine ökonomische Rechtfertigung und Bewertung im Sinne einer Akzep-
tabilität durch den Markt berücksichtigt wird. Dabei greifen epistemische Rechtfertigung im
Sinne der Verwissenschaftlichung und der Professionalisierung und praxeologische Absiche-
rung sowie drittens praxisbezogene Rechtfertigung im Sinne von Professionalisierung und
Institutionalisierung ineinander.

Technikphilosophie knüpft an das metatechnologische Programm epistemischer Recht-


fertigung für Technikentwicklung an, stellt aber Fragen nach der Konstitution, nach den
Bedingungen der Möglichkeit von technischer Entwicklung und thematisiert die Einbettungs-
faktoren, die konstitutive Bedeutung für technische Konstruktion und ihre Weiterentwicklung
hat. Und hier ist von ganz zentraler Bedeutung der Nutzungsaspekt, die Frage nach der
Brauchbarkeit, und zwar nicht nur abstrakt, sondern hinsichtlich aller für Brauchbarkeit rele-
vanten Einbettungsfaktoren. Bei der Reflexion der technischen Konstruktion im Rahmen der
Technikwissenschaften gibt es folgende leitende Paradigmen: (1) technische Mittel, (2) tech-
nische Profession und Professionalisierung, (3) Geometrisierung und Mathematisierung, (4)
Einbettung und (5) Vernetzung. Wenn auch das dritte Paradigma im Vordergrund steht, wobei
hier die Einbettungsfaktoren in eine voranschreitende Professionalisierung betont werden soll,
so geht es der hier zu entwerfenden Epistemologie insgesamt um eine Ausweitung, die den
Blick dafür öffnen soll, dass eine Erweiterung der heranzuziehenden Paradigmen bei der
Interpretation von technischer Konstruktion letztlich unumgänglich ist. Gegenstand der
Technikwissenschaften ist:

(1) Pfadabhängiges Wachstum technischen Wissens und Könnens;


(2) technischer Fortschritt und technisches Niveau;
(3) Machbarkeit (strukturelle Beschreibung);
(4) Rekonstruktion technikwissenschaftlicher Theorien in ihrer Abfolge/Gefüge;
(5) Disziplinenzusammenhang.

Gegenstand der Technikphilosophie ist: Technikentwicklung in ihren Einbettungskontexten.

Technikwissenschaften sind ein heterogenes Themenfeld mit unterschiedlichen Methodiken.


Dabei sind die technischen Sachsysteme vom technischen Handeln zu unterscheiden.
Technische Sachsysteme können entworfen werden, sie sind Gegenstand der technischen
Konstruktion, sie bedürfen aber auch der Gebrauchsanleitung insbesondere für nicht professi-
onalisierte Nutzer. Um solche technischen Konstruktionen durchführen zu können, bedarf es
des Gesetzeswissens im Hinblick auf technische Konstruktionen und technisches Handeln,
Regelwissen im Hinblick auf technische Sachsysteme wie auf technisches Handeln und
operationales Wissen sowohl im Hinblick auf Sachsysteme wie technisches Handeln. Im Hin-
blick auf das technische Wissen sind drei Ebenen zu unterscheiden: explizites Wissen, „tacit
knowledge“ und Kunst (sich verstehen auf etwas). Die Gestaltungsebene der Technikwis-
senschaften ist wohl neu zu diskutieren und zu reflektieren. In dieser Ebene soll Einfluss und
Macht ausgeübt werden auf technische Sachsysteme wie auf technisches Handeln. Elemente
gelehrter technischer Kunstkultur sollten einbezogen werden.

205
Technikwissenschaften beschäftigen sich als Handlungswissenschaften mit Handlungsanwei-
sungen, Konstruktionsanweisungen genauso wie mit Gebrauchsanleitungen, vor allem aber
mit der Struktur und den Funktionen technischer Artefakte. Es geht um die methodische und
verfahrensmäßige Erfassung technischer Artefakte, Objekte, technischer Mittel und tech-
nischer Systeme. Dieses reduktionistische Konzept der Technik- und Ingenieurwissenschaften
überwindet ein integrales Technikwissenschaftskonzept. Technikwissenschaft ist Handlungs-
anleitung für die Konstruktion, für die Produktion und für den technischen Gebrauch und
rekonstruiert damit verschiedene Dimensionen technischer Praxis. Anleitungen für den reflek-
tierten Gebrauch technischer Mittel und technischer Produkte umfasst Handlungsanleitungen
für die sichere Handhabung und den Funktionserhalt technischer Artefakte (also nicht für das
Wohnen, die Seefahrt oder die Schlacht, sondern die Führung des technischen Mittels und
seine Sicherung). Im Unterschied zur Technikwissenschaft reflektiert Technikwissenschaft
technische und technologische Praxis. Technikwissenschaft teilt sich auf in das Kunstkonzept
als Beschreiben, Zeichnen und Vormachen und in das Wissenschaftskonzept, in dem Kausa-
lität und Funktionalität erarbeitet werden sollen. Zentral für die Formulierung von Technik-
wissenschaft im Hinblick auf ihre kulturelle Einbettung sind Leitbilder bzw. epochal aufge-
fasste Paradigmen für die Grundausrichtung dieser Handlungsanleitungen. Zur Formulierung
dieser bedarf es eines Philosophierens über Technik, einer Technologie-Reflexions-Kultur.

Das Modell von Normann geht von einer strengen Intentionalität aus. Gemäß diesem Modell
sind Konstrukteure mächtig. Die Intentionen des Konstrukteurs drücken sich in der
Konstruktion selbst aus. Dieser Zugang einer strengen Intentionalität schreibt dem Designer
die Schlüsselpositioin im Konstruktionsprozess zu. Das andere Modell basiert auf einer
Vorstellung schwacher Intentionalität, gemäß der z. B. Noble davon ausgeht, dass zwar
Konstrukteure ihre Intentionalität einem technischen Artefakt mitgeben können, dass aber der
Nutzer ebenfalls an der Art und Weise des Gebrauchs eines Artefaktes mitwirkt (Feng,
Feenberg 2008, 106f). Die kritische Theorie der Technologie entscheidet sich für die
schwache Intentionalität und eine Aufwertung des Nutzers. Für das starke Modell, welches im
Rahmen einer Instrumentalisierungstheorie formuliert worden ist, determiniert die technische
Konstruktion den Gebrauch eines technischen Artefaktes. In diesem Zusammenhang gibt es
Konstruktionsräume und technische Codes, die Konstruktionsstile letztendlich begründen
(Feng, Feenberg 2008, 111-115).

Tatsächlich aber sollte man eher von einer Realisierung von Konstruktionsmöglichkeiten
sprechen (Feng, Feenberg 2008, 117). Bei der Realisierung von Potenzialitäten können
sowohl Konstrukteure wie Nutzer eine erhebliche Rolle bei der Ausstattung von technischen
Artefakten spielen, so dass sogar eine Kooperation von Mensch und Maschine in Erwägung
gezogen werden kann. Dies ist eine Art personalistischer Interpretation der Mensch-Ma-
schine-Schnittstelle. Gibt es eine echte Kooperation von Menschen und Maschinen? Nach
meinem Dafürhalten gibt es das nicht, sondern ein Umgehen Können mit Maschinen, aber
keine Interaktion oder Kommunikation. Maschinen können reagieren, aber selbst nicht agie-
ren. Selbstverständlich gibt es Grenzfälle, in denen das Reagieren den Charakter eines als ob
Agierens annehmen kann. Technische Artefakte sind tatsächlich keine Mithandelnden in ei-
nem strengen Sinn der moralischen Verantwortbarkeitszuschreibung. Allerdings erkennt ein
gradualisierter Handlungsbegriff an, dass von einem „mehr oder weniger“ im Sinne des „Mit-
handelns“ von technischen Artefakten die Rede sein kann (Irrgang 2008; 2009a).

Maschinen können zwar situationsgebunden und sogar situationsgerecht reagieren, aber sie
handeln nur in dem Sinne, dass ihnen die Handlungsziele vorgegeben werden. Insofern kann
man nicht von einer Handlungsträgerschaft im engeren oder starken Sinn sprechen, wohl aber
in einem mitlaufenden und schwachen Sinn. Insofern gibt es heterogene Akteur-Netzwerke,

206
also meinetwegen Cyborgs und hybride Systeme wie sogenannte intelligente Prothesen. Auch
Softwareagenten und Roboter können ein als ob Handeln aufweisen, wobei die eigentlichen
Handlungsziele ihnen vorgegeben bzw. einprogrammiert werden müssen. Ein stellvertreten-
des „Handeln“ kann auf Technik übertragen werden, so dass eine Delegation technischen
Handelns zumindest in einer Außenperspektive und restringiert auf Handlungsschemata
stattfinden kann. Roboterverhalten und ihnen zugeschriebenes Handeln kann möglicherweise
sogar zu Formen institutionalisierter Verantwortung im Sinne einer juristischen Person als
Institution werden. Insofern denke ich können wir die Frage relativ eindeutig beantworten,
dass wir von planenden Robotern nicht sprechen können, jedenfalls im Augenblick nicht.
Deshalb müssen wir von Verteilungsmodellen von Verantwortung ausgehen (Irrgang 2007a;
2008). Auch wenn technische Artefakte noch keine Mithandelnden im strengen Sinn des
Wortes sind, die technischen Artefakte, mit denen wir den Umgang lernen sollen, werden
immer autonomer und intelligenter (Gershenfield 2000, 15-20).

Technische Konstruktion, das Ingenieurswesen und die Technikwissenschaften waren seit


Menschengedenken mit Mechanik und der Maschine verbunden. Der Technologiebegriff
weist diese Engführung nicht auf und kann den Agrarbereich, Biotechnologie und Biomedizin
mit einbeziehen (Irrgang 2008). Nun tauchen neue „Maschinen“ auf, die so gar nicht in das
Bild der traditionellen Maschine und zum Ingenieurswesen passen. Am ehesten gelingt dies
noch bei humanoiden Robotern oder künstlicher Intelligenz. Aber auch andere Bereiche
reklamieren die Maschinenmetapher: die Nanomaschinen, die Konstruktion synthethischer
Lebewesen, Bioingenieurskunst überhaupt, Life-Sciences implzieren eine Erweiterung des
Verständnisses von Technik und Maschine, die in der Philosophie nicht gar nicht so neu ist,
sondern sich bereits bei Aristoteles findet. Der Übergang von semiautonomer intelligenter
Technik (maschineller Produktion) zu autonomer intelligenter Technik (Expertensysteme,
Robotiks, Bioingenieurskunst, Nanotechnologie) bedeutet nicht das Ende des klassischen
Ingenieurs, aber die Entstehung neuer technischer Berufe jenseits der klassischen Trennung
von Naturwissenschaft und Technik und jenseits des klassischen Ingenieurs.

Ende des 19. Jh. hatte ein Prozess begonnen, der am Beginn des 21. Jh. sowohl die Konzepte
von Technik, als auch von Technologie und die des technischen Konstruierens noch einmal
radikal verändert. Konstruktionsbüro und Laboratorium wachsen immer mehr zusammen oder
rücken in räumliche Nähe. Technisches Konstruieren wird zum technologischen Design. Die
Anforderungen der Praxis in Pharmakologie, Medizin, Züchtungspraxis, Nahrungsmittel-
produktion, dem Anbau nachwachsender Rohstoffe und in der angewandten Bioingenieur-
kunst (Nanotechnologie usw.) gehen über das Leistungsniveau traditioneller nichttechnolo-
gisierter Forschung und Wissenschaft (Experimentalwissenschaft) hinaus, so dass sich tech-
nologisierte Laborwissenschaft auch in der Grundlagenforschung an technologisierter
Forschungspraxis orientiert. Es kommt zur Aufwertung des Kunstcharakters in Technik und
Technologie in der Forschungspraxis, zu einer Neubewertung des Umgangswissens bzw.
impliziten technischen Wissens und zu einer Veränderung der Komponenten der Wissen-
schaft in der technologisierten Forschungspraxis durch technologische Praktiken. Außerdem
wird die Nutzerorientierung zurückgewonnen, die im Produktionsparadigma der (drei) indu-
striellen Revolutionen aus dem Auge verloren wurde. Technisches bzw. technologisches Um-
gangswissen und seine wissenschaftliche Reflexion bzw. Systematisierung konstituieren eine
technologische Praxis, eine technologisierte Laboratoriumspraxis. Wissensgewinn ist ein
pragmatisches Kriterium, welches bei der Umsetzung in Produkte und Theorien auch ethische
Relevanz erhalten kann. Warum der Wissenserwerb nur um des Wissenserwerbes willen –
reine Theorie oder Grundlagenwissenschaft – ethisch besonders hochstehend sein soll, ist aus
pragmatischer Perspektive keineswegs einsichtig.

207
Die Scientific Community, die wissenschaftliche Ergebnisse hervorbringt, quasi produziert,
greift dazu auf eine technologische Struktur zurück, die keinesfalls identisch mit einer indu-
striellen Produktionsstätte ist. Methodologie, technische Verfahren und experimentelle
Praktiken sind für den Problemlösungsprozess wissenschaftlicher und technologischer Pro-
bleme in einen Gesamtzusammenhang offener Art zu bringen, der Laboratoriumswissenschaft
genannt werden kann. Die Beteiligung großer firmeneigener industrieller Forschungslabors
sowie privater Forschungslabors von Universitätsangehörigen und Existenzgründern sind
ebenfalls Ausdruck der Technologisierung. Dabei wurde die Vermischung von Wissenschaft
und Technologie vor allem soziologisch untersucht. Besonders interessant aber ist die
methodologisch-epistemologische Ebene. Der Rahmen aber differenziert sich aus. Fakten
werden innerhalb dieses Horizontes technisch gemacht wie neue Lebewesen. Dieses
„Machen“ ist aber keinesfalls bloß ein allgemein sozialer Tatbestand, sondern vor allem
Ausdruck einer technischen Praxis. Wissenschaft wurde auch früher schon sozial konstruiert,
neu aber ist die technische Signatur dieser sozialen Konstruktion von Wissenschaft, die eine
eigene Art reflexiver Strukturierung erforderlich macht und zu einer eigenen Epistemologie
technologisierter Forschung führt (Irrgang 2003b). Moderne Technologie, wie sie sich
insbesondere in der Informationstechnologie, der Biotechnologie, der Biomedizin und
Nanotechnologie findet, gehört nicht zum Gegenstandsbereich der klassischen Ingenieur- und
Technikwissenschaften, ist aber ein Teilbereich von Technik und Technologie und sollte in
die wissenschaftlich-methodologische Reflexion über Technologie einbezogen werden. Tech-
nische Konstruktion, wennauch in vom klassischen Ingenieursideal abweichenden Formen,
gibt es allemal.

Ziel der Erweiterung der Machbarkeiten von Technik und Technologie, d.h. der Verallgemei-
nerung des Könnens, ist es, Potenzen bereitzustellen für freibleibende Zwecke. So gibt es eine
genuin technische Intentionalität, wobei die Technik nicht mehr die Magd der Natur ist. Eine
zentrale Intentionalität ist die Effizienzsteigerung (Erlach 2000, 18f). Technisches Handeln ist
Umgang mit der Gefahr, die zwar nicht im Technischen, aber im Verkennen seines Wesens
liegt. Das Prinzip der Hege und Pflege kann also lediglich eine zeitliche Streckung, d. h. ein
langsameres Ausbeuten bedeuten. Daran dürfte auch eine ideale Recyclinggesellschaft
prinzipiell nichts ändern. Umgekehrt bedeutet Hege und Pflege natürlich eine extreme
Steigerung der Effizienz der Naturnutzung, die die steigende Bevölkerungszahl notwendig
gemacht hat und kaum wegen einer Schonung der Natur entwickelt worden sein dürfte
(Erlach 2000, 24f). Davon unberührt bleibt natürlich, dass es Unterschiede zwischen Benut-
zen, Vernutzen, Verbrauchen, Verprassen, Verschwenden, Zerstören usw. gibt. Es gibt Gren-
zen der Technik z.B. des Bauwachstums. Ist das Bauwerk erst groß genug, dann wird die
gesammte menschliche Arbeitskraft durch Instandsetzungsarbeiten absorbiert. Technisches
Handeln kann nur dann erfolgversprechend sein, wenn es sein Vermögen und seine Grenzen
richtig einschätzt.

Technologie wird von den meisten Technikphilosophen als Handlung betrachtet, ist aber
richtig gesehen ein Wissen. Es handelt sich um ein Wissen, das menschliche Handlungen
betrifft, die man am besten mit Technik umschreibt. Die Verknüpfung zwischen Technologie
und Wissen hat eine lange Geschichte. Sie basiert auf Kompetenzen, Fähigkeiten, unf auf der
Befähigung, Wissen effektiv anwenden zu können. Der Wissenschaftler ist in gewisser Weise
ein Hybrid, der den Handwerker und seinen Empirizismus mit dem systematischen Denk-
vermögen des Wissenschaftlers verbindet. Die wissenschaftliche Revolution fand statt, als die
soziale Barriere zwischen den beiden Komponenten der wissenschaftlichen Methode
zusammenbrach, und die Methoden der Überlegenheit des Handwerkers durch die akade-
misch trainierten Wissenschaftler übernommen wurde. Das war das Zeitalter, in dem

208
tatsächliche Wissenschaft geboren wurde. Technologische Ideen müssen in Konstruk-
tionsanleitungen übersetzt werden (Layton 1974, 33-37).

Wissenschaftlicher Fortschritt verdankt sich wesentlich den Fähigkeiten forschender


Menschen. Bezogen auf wissenschaftliche Tatbestände gehören die unterstellten personalen
Momente in den Forschungskontext. Dementsprechend sind die fraglichen Vorzüge als
Forschertugenden aufzufassen. Wer nie ein Buch in der Art von Poppers „Logik der For-
schung“ oder Carnaps „Einführung in die Philosophie der Naturwissenschaften“ gelesen hat,
wird vielleicht Mühe haben, in der Verknüpfung von wissenschaftlichem Wissen mit
menschlichen Fähigkeiten etwas besonders Betonenswertes zu entdecken. Zutiefst irritieren
muss in einer regelorientierten Betrachtungsweise, wenn eingestanden werden muss, dass
bedeutende Forscher methodologische oder auch moralische Regeln verletzt haben. Man kann
darin übereinkommen, dass Forscher auch Regeln folgen sollten, anders ausgedrückt, Pflich-
ten haben, bzw. aufgefordert sind, die Folgen ihres Tuns zu bedenken. Aber diese Feststellung
verdeckt einen sehr wichtigen Punkt: ein guter Forscher muss seine Sache mit Enthusiasmus
betreiben, ist jemand, der sich aus eigenem Antrieb fleißig, ausdauernd, wissbegierig oder
auch redlich verhält. Individuelle Forscherfähigkeiten manifestieren sich in epistemischen
Vorzügen und moralischen Qualitäten. So kann die Frage des Zusammenhangs von fakti-
schem, wissenschaftlichem Handeln und wissenschaftlichem Fortschritt thematisiert werden
(Charpa 2001,1-6).

Die Wissenschaft fragt nach den Gründen von Handlungen schlechthin. Der Wert von
fähigkeitsbezogenen Erklärungen liegt aber an anderer Stelle. Sie liefern Antworten auf die
Frage nach den Gründen für anerkennenswertes Handeln. Der Fähigkeitsaspekt wohlbegrün-
deten Forscherhandelns gibt Gründe für den wissenschaftlichen Fortschritt an. Eine thema-
tische Wahl hat den Charakter einer Handlung, bzw. einer Kette von Handlungen. Dass auch
die thematischen Präferenzen scharfsinniger Autoren nicht nach dem Modell des rationalen
Entscheidens interpretierbar sind, zeigt eine einflussreiche und für die Einstellung zur
Tugendidee besonders wichtige Themenein- bzw. -ausgrenzung: die Abscheidung des Ent-
deckungszusammenhangs vom Begründungszusammenhang. Hier geht es um die Frage nach
den Bedingungen für erfolgreiches Handeln. In der Wissenschaftstheorie wie andernorts
kommt es darauf an, etwas zu lernen. Eine vernünftige Strategie bestände darin, zwar anfäng-
lich Präferenzen festzulegen, das Verfahren aber über einen gehörigen Zeitraum offen zu
halten, um sich die Chance der Neubestimmung von Präferenzen offen zu halten (Charpa
2001, 8-14).

Drei Einstellungen lassen sich in grober Annäherung als objektivistisch, subjektivistisch und
kollektivistisch unterscheiden. Polanyi arrangiert aus solchen Komponenten ein vorgebliches
Reich des Impliziten, wiewohl es sich offenkundig um Begleitumstände handelt, die nur in
der momentanen Situation des Forschungsteilnehmers unthematisch sind. Die Leistung
wissenschaftlicher Auffassungen erweist sich nicht selbstverständlich als Interpretation der
Welt, sondern in stabilen Bezügen zu engen Ausschnitten (Charpa 2001, 15-17). Die Aus-
richtung der Tugendbetrachtung geht dahin, die personale Relativität zu zähmen. Wissen-
schaftliche Arbeit ist eine Sache von Individuen, die sich – und dies anzuerkennen ist erst der
zweite Schritt – mit anderen Individuen in Beziehung setzen, beispielsweise bestimmte
Formen der Empirie zu ermöglichen, um voneinander zu lernen, Meinungen auszutauschen
oder um irgendeines anderen Zweckes willen. Dies kann man methodologischen Indivi-
dualismus nennen (Charpa 2001, 22f). Wissenschaft produziert prüfbare Effizienzbehaup-
tungen über Handeln und Wissen (Charpa 2001, 33). Es geht um eine personalistische
Forschungslehre (Charpa 2001, 37).

209
Wichtig sind in diesem Zusammenhang Szenarien der Forschungspraxis. Alles spricht dafür,
dass der Forscherbegriff nicht sehr eng zu fassen ist, und bunt agierende Individuen integriert,
darunter auch solche mit spezifischen Talenten. Die Forschergemeinschaft besteht aus
Forschern im Plural. Dabei konstituieren sich Forschergruppen durch: erstens Zugangs-
vorbehalte, wobei sich Kompetenz und Sozialkriterien in vielen geschichtlichen Exempeln
vermischt haben, zweitens eine programmatische Festlegung von Motiven, bzw. Zwecken,
drittens einen informativen Austausch, etwa in Symposien, Tagungsakten und ähnlichem,
viertens einen materialen Fixpunkt, etwa eine Bibliothek oder ein Labor, bzw. deren Vor-
formen. Forscher stehen in einem professionellen Zusammenhang, der (1) Kompetenz fordert,
(2) Kompetenz zubilligt, (3) eine dementsprechend lange Ausbildung voraussetzt, (4) ein-
schlägige Ausbildung anbietet, (5) berufliche Karrieren ermöglicht und (6) in einem Ver-
hältnis wechselseitiger Verpflichtung zur Öffentlichkeit steht (Charpa 2001, 61-64).

Dabei wird die Forschungstätigkeit ausgerichtet an epistemischen Nahzielen, wie langfristige


Fruchtbarkeit, Überprüfbarkeit, Geschwindigkeit und Effizienz (Charpa 2001, 67). Wis-
senschaftliche Darstellungen sind zwar ungeachtet der üblichen Einschätzungen als neutral
und apersonal auf ihre Urheber verwiesen, aber ohne dass sich daraus eine Entwertung ihrer
Sachlichkeit ableitet. Soweit eine Publikation stattfand, werden zu Recht oder zu Unrecht
angegebene Personennamen umgehend in die bekannten Vorgänge des Zitierens und Igno-
rierens eingespeist. Die von der so genannten Laborforschung einseitig herausgestellte
Gebundenheit an die soziale Einbettung hebt diese personale Komponente keineswegs auf.
Letztere beruht auf Ich-Auskünften (Charpa 2001, 71-73). Insgesamt gibt es so etwas, wie
diverse Untersuchungspfade, Forscherhierarchien und auch kollegiales Lob. Es gibt einfluss-
reiche Versuche, wissenschaftliches Handeln zu erklären. Hierzu gehören Rollenerwartungen
in der Forschergemeinschaft (Charpa 2001, 77-81). Forschergemeinschaften sind charak-
terisiert durch die gemeinsame Handlungsabsicht der Akteure. Forschergründe sind beste
Erklärungsgründe dafür, dass es möglich ist, in ihrer Durchführung an bestimmte individuelle
Voraussetzungen geknüpfte Forscherhandlungen zu vollziehen. Dabei ist Forschungshandeln
nicht auf die Möglichkeit rationalen Entscheidens zu reduzieren. Forschertugenden sind die
besten Erklärungsgründe für die Möglichkeit, einen rationalen und optimierten Handlungs-
vorsatz zu entwickeln (Charpa 2001, 84-86).

Tugenden bieten gute Erklärungsgründe für anerkennenswertes Handeln (Charpa 2001, 89).
Allerdings werden wir sehen, dass diese Neutralität gegenüber methodologischen Vor-
schriften nicht ohne weiteres gegenüber den damit bevorzugt verbundenen Forschungs-
interpretationen gilt. Insofern ist die Rolle des Wissens im Prozess des wissenschaftlichen
Fortschrittes hervorzuheben. Dabei sind im Hinblick auf Forschung Probleme der Wissens-
bildung zu thematisieren (Charpa 2001, 93-96). Wissen als mentaler Zustand führt dazu, dass
mentale Tatbestände einen vergleichsweise bescheidenen Umfang haben, und es liegt allein
schon deshalb auf der Hand, dass unter dem Aspekt der Irrtumsfreiheit zuletzt an irgendein
Überzeugtsein von großformatigen Theoriekomplexen mit unübersehbaren empirischen
Reichweiten zu denken ist. Wenn alle Überzeugungen irrtümlich wären, verlöre der Begriff
des Irrtums jeden Sinn. Anders und noch simpler ausgedrückt: nur wenn wir einigermaßen
häufig richtig liegen, können wir auch etwas Falsches glauben. Dabei gibt es eine Reihe von
menschlichen Überprüfungsmöglichkeiten. Damit wird der Prozess der Wissensgewinnung
wichtig, z.B. der Beitrag des Laboratoriums (Charpa 2001, 105-110).

Angeleitet durch Ideen entstehen zwar perspektivische, aber empirisch offene Forschungs-
unternehmungen (Charpa 2001, 113). Helmholtz entwickelt in seinen Darlegungen „Über die
Erhaltung der Kraft“ vom Winter 1862/63 ebenfalls Vertrautheitsvorstellungen. Helmholtz´
Bewegung vom Vertrauten zum Unvertrauten ist ein wichtiger Hinweis auf Forschungs-

210
prozesse. Ob Heisenbergs Feststellungen zum Anlass für Resignation genommen werden, ob
der Begriff der Anschaulichkeit in der theoretischen Physik aufzugeben oder neu zu
interpretieren ist, ist ein Problem geblieben (Charpa 2001, 117-122). Verständnis ist ein
Erfolgsbegriff. Vertrautheit zeigt die Verlässlichkeit von Forscherwissen (Charpa 2001, 124-
127). In den Zusammenhang von Vertrautheit und Verlässlichkeit gehört auch der wissen-
schaftstheoretische Begriff des Stils. Die Scheuklappenannahme greift nicht. Jeder
Vertrautheitsraum kann auf die verschiedenste Weise möbliert sein. Fehlgriffe erinnern eher
daran, dass Vertrautsein ein personaler Wissenszustand ist. Wissenschaftsstil beruft sich
häufig auch auf tatsächliche oder imaginäre, nationale Besonderheiten (Charpa 2001, 131-
134).

Es gibt drei Typen erfolgreichen Forscherhandelns, (1) Irrtumsvermeidung, (2) Einführung


des Neuen und (3) wohlbegründetes Entscheiden über Theorien. Der wissenschaftliche Fort-
schritt ist nicht schlichtweg mit der Gewinnung von Wissen gleichzusetzen. Es gibt
unterschiedliche, Wissen schaffende Praktiken. In forschungsrelevanten Konzeptionen geht es
um (1) wissenschaftliche Praktiken, (2) die Entstehung von Konzeptionen relevant für den
wissenschaftlichen Fortschritt und (3) den wohlbegründeten Umgang mit diesem (Charpa
2001, 139f). Irrtumsvermeidung ist ein zentrales Interesse Wissen schaffender Praktiken. Die
bekannteste Thematisierung der Verknüpfung von Irrtumsrisiko und Forschungshandlungen
enthalten Überlegungen in Ernst Machs klassischem Buch „Erkenntnis und Irrtum“. Machs
Anstoß hat keine Fortsetzung gefunden, bzw. der schon früher sich abzeichnenden Vernach-
lässigung des Irrtumsbegriffs nicht entgegenwirken können. Mit der Ablehnung von Psycho-
logismen, bzw. der Ausblendung von Entstehungsbedingungen wissenschaftlichen Wissens
hat sich auch das Projekt einer Irrtumslehre für Jahrzehnte erübrigt. Die Eliminierung von
Irrtum ist nicht mit der behavioristischen Lerntheorie des ‚trial and error’ zu verwechseln. Die
Ubiquität von Irrtumsmöglichkeiten muss in Rechnung gezogen werden. Schlampiges Vor-
gehen erfüllt zwar nicht den Tatbestand des Betrugs, aber als Inkaufnahme von Täuschungen
ebenfalls amoralisches Verhalten. Kompetenten Forschern wird eine Art Vermeidungswissen
in Bezug auf Irrtümer unterstellt, über das Neulinge oder unfähige Fachvertreter nicht
verfügen. Also ist das forschungspraktische Ungleichgewicht von Wissen und Irrtum zu
betonen. Die Auszeichnung von wissenschaftlichem Wissen beruht wesentlich auf der Aus-
schaltung banaler Irrtumsmöglichkeiten durch Forschungshandeln (Charpa 2001, 141-147).

Die Ubiquität des Bezeugten in der Forschung, bzw. eines unverzichtbaren, testimonialen
Anteils allen Forscherwissens ist offenkundig. Diese These verweist auf die Unabdingbarkeit
von Vertrauensverhältnissen, das heißt von vorgängigen, positiven Entscheidungen über die
Verlässlichkeit der Angaben anderer und legt es im nächsten Schritt nahe, über die
persönlichen Qualitäten von Forschern nachzudenken. Im Rahmen der „Kritik der reinen
Vernunft“ von Immanuel Kant gibt es keinen Ansatz für bezeugtes Wissen. Die Bereitschaft
zum Zeugnisglauben ist für Kants Zeitgenossen Thomas Reid eine Bedingung jedweder
Erkenntnis. Dabei ist nicht Leichtgläubigkeit gemeint, sondern eine begründete Glaub-
würdigkeit. Die Erfahrung eines Menschen hängt mit der Vertrauenswürdigkeit seiner selbst
zusammen. Es gibt einen testimonialen Anteil am Wissen, zumindest gemäß Hume. Das
Fußnotenwesen drückt sowohl die Zielvorstellung, wie auch die Unabdingbarkeit historischer
Arbeit aus. Die Zeugnisgeladenheit des Wissens ist nicht zu übersehen. Die Abhängigkeit der
Beurteilung von Zeugenschaft von anderen bezeugten Quellen ist offenkundig. Wichtig ist die
Rekonstruktion der Glaubwürdigkeit von Zeugnissen. Nicht empfiehlt sich die Orientierung
am bloßen Überzeugtsein, wie ihn die auf Humes Position ausgerichtete Beschreibung vor-
sieht. Bloßer Glaube ist weiterer Kontrolle eher hinderlich. Häufig ist an entsprechender
Stelle von Vertrauen die Rede und davon, dass dieses nicht selten enttäuscht werde. Der

211
wissenschaftliche Betrug ist eines der großen Themen aktueller Forschungsbetrachtung (Char-
pa 2001, 149-155).

Technoresearch und technologisierte Forschung bildet die Realität dabei nicht länger ab,
sondern gestaltet sie in zunehmendem Maße. Als ein wichtiges Desiderat technikphiloso-
phischer Forschung darf die Frage nach der technischen Gestaltung im Sinne der
Gestaltbarkeit, Gestaltungsmacht sowie Gestaltungsautonomie gelten. Aufgaben und Ziele,
Grenzen und Möglichkeiten der Gestaltung werden nicht ausgeleuchtet. Dabei ist das
technisch-gestalterische Vermögen des Menschen zentral und lässt sich anthropologisch
begründen. Der Mensch soll nicht als das ohnmächtige Medium technischen Sich-Ereignens
begriffen werden, sondern als Quelle des Technischen, allerdings nicht einseitig als ein
souveräner Akteur technokratischen Verbesserns. So lässt sich ein Konzept technologischer
Welterschließung begründen. Wenn der technischen oder poietischen Vernunft eine eigen-
ständige Sphäre in der menschlichen Vernunft eröffnet werden kann, dann sind auch Inge-
nieurswissenschaften nicht als defiziente Formen der Naturwissenschaften zu begreifen,
sondern bedürfen einer eigenen methodischen Metareflexion. Diese hätte sich als Wissen-
schaftstheorie der Techniken nicht mit Naturgesetzen, sondern mit technologischen Regeln
sowie technischen Gestalten auseinanderzusetzen. Diese kann bei der manuellen Geschick-
lichkeit ansetzen, aber auch beim Wissen davon, wie diese Geschicklichkeit einzusetzen ist,
um sachgemäß zu arbeiten. Bereits hier zeigt sich die enge Verbindung des Technischen mit
dem Wissen. Schließlich ist als Ergebnis des technischen Agierens des Menschen die techno-
logische Konstruktion der Wirklichkeit zu berücksichtigen. Die Wissenschaft von der Technik
gibt Auskunft über die Machbarkeit, über das technische Können. Technisches Handeln ist
geplantes Handeln und lässt sich in das gestaltende, das vorbereitende sowie das anwendende
Handeln untergliedern (Erlach 2000, 28-34).

Eine Wissenschaftstheorie des technischen Gestaltens ist zu entwickeln, weil es dem


Technologen nicht genügt, bloß zu wissen, dass eine Konstruktion hält oder halten wird,
sondern er sucht nach Prinzipien und Regelhaftigkeiten, die angeben, weshalb eine
Konstruktion hält und wie sie gegebenenfalls ihre Stabilität oder Materialausnutzung zu
verbessern wäre (Erlach 2000, 42f). Bei der Beschreibung technischer Regelhaftigkeit geht es
dabei gewöhnlich nicht um Naturgesetze, sondern um operationale Definitionen von physi-
kalischen, chemischen oder biologischen Eigenschaften von Materialien. Technologie und
Technikwissenschaft sind Handlungswissenschaften. Diese Normen repräsentieren den soge-
nannten herrschenden Stand der Technik. Sie ergeben sich aus technisch-funktionalen An-
forderungen – insbesondere Verständigungsnormen für Benennungen, Kompatibilität durch
Vereinheitlichung von Abmessungen und Maßtoleranzen (Normteile), Qualitätssicherung
durch Prüf- und Gütenormen (Betriebssicherheit). Die Verwertbarkeit naturgesetzlicher
Effekte setzt nicht unbedingt die Kenntnis aller Kausalzusammenhänge voraus, erfordert
dafür um so mehr Wissen über Einflüsse durch Randbedingungen (Erlach 2000, 48f).

Zwei Schritte sind auch für die Epistemologie der neuen Technologie fruchtbar zu machen,
die Ulrich Wengenroth ganz allgemein für die Technikentwicklung der jüngsten Zeit
formuliert hat, zunächst einmal mit der These von der Rückkehr der Technik als Kunst. Er
beschreibt den Übergang von der modernen zur hypermodernen Technologie als den Über-
gang des Projektes der richtigen, allein naturwissenschaftlich fundierten Technik zu Gunsten
des Projektes der lebbaren und leistbaren Technik, indem sie die Grenzen mathematisch-
naturwissenschaftlicher Beschreibungen der materiellen Welt nicht mehr als nur vorläufige
Unvollkommenheit leugnet, sondern zu einem Kriterium bei der Methodenwahl macht. Im
Unterschied zur klassischen technologischen Moderne, die noch das voraufklärerische Erbe
der Eindeutigkeit und Absolutheit von Wahrheit mit sich trug, wendet die hypermoderne

212
Technologie die gleichen kritischen Erkenntnismethoden wie auf ihre materiellen Gegen-
stände auch auf sich selbst an. Das Ergebnis ist ein reflektierter Methodenpluralismus, der
seine Bewährung in der gesellschaftlichen Praxis erfährt (Wengenroth 1998, 129). Moderne
Technik zeichnet sich durch ihre naturwissenschaftlichen Grundlagen aus, moderne Industrie
ist science-based.

Dieser Unterschied im Verständnis technischen Schaffens hat im Verschwinden des Kunst-


Begriffes seinen spezifischen Niederschlag gefunden. Der Maschinenbau des 16. bis 18. Jh.
hieß noch Mühlenkunst. Mit dem Manhattan Project erlebte die Physikalisierung der Technik
ihren Höhepunkt. Von den zweihunderttausend Menschen, die an den ersten Atombomben
mitgewirkt haben, blieben nur die Physiker im öffentlichen Bewusstsein. Wie wir heute
wissen, scheiterte dieses Szenario politisch, ökonomisch und technisch. Die große Katastro-
phe wurde in Harrisburgh nicht mit naturwissenschaftlicher Forschung, sondern mit empirisch
gesättigtem „Gespür“ für mögliche Schadensszenarien vermieden. Hierbei setzte sich in den
späten 70er Jahren die Überzeugung durch, dass die beste Strategie nicht das technisch aus-
gereifte und vollkommenste, sondern das zum richtigen Zeitpunkt brauchbare Produkt ist. Es
entstand das Modell „rapid prototyping“. Die dabei entstehende reflexiv-moderne Epistemo-
logie der Technik kreiste nicht mehr um den Begriff der absoluten Wahrheit, sondern um den
des Gelingens (Wengenroth 1998, 130-135).

Zweitens kann von einer neuen kulturell signierten Alltäglichkeit technologischer Produkte
gesprochen werden. Das Kompositum Innovationssystem legt schon sprachlich nahe, dass es
bei der Innovationstätigkeit das Vorhandensein eines Regelmechanismus unterstellt, auf das
steuernd eingewirkt werden kann. Insofern ist das Konzept des nationalen Innovationssystems
noch ein Erbe des technokratischen Optimismus der 60er und 70er Jahre. Darüber hinaus hat
das Konzept des nationalen Innovationssystems aus den 70er Jahren sein implizites Vertrauen
auf das Funktionieren des linearen Modells des Innovationsprozesses mitgebracht. Doch die
Hoffnungen auf eine planvolle Steuerung oder auch nur prognostizierbare Beeinflussung der
Innovationsfähigkeit einer bestimmten Volkswirtschaft haben sich nicht erfüllt. Auch die
junge Geschichte der bundesrepublikanischen Politik der Forschungsförderung liefert ange-
sichts des mageren Ertrages der massiven Förderung der zivilen Kerntechnik, der Computer-
technologie oder der militärischen Flugtechnik keinen überzeugenden Nachweis für eine
erfolgreiche Wirtschaftsförderung durch Investitionen im Rahmen einer staatlich geplanten
Innovationspolitik. Für neue Technologien gilt offenbar das Saysche Theorem, wonach jedes
Angebot seine Nachfrage erzeugt, nicht mehr. Entsprechend sind neue Technologien kein
Garant für neue Produkte (Wengenroth 2001, 23-26).

Für die Ingenieur- und Naturwissenschaften sowie alle auf ihr Methodenideal verpflichteten
Akteure stellt dies freilich eine gewaltige Herausforderung dar. Konnten deutsche Ingenieure
in den 50er und 60er Jahren noch überwiegend für ihresgleichen konstruieren und dabei auf
eine große kulturelle Nähe zu ihren Konsumenten vertrauen, so stehen sie heute einem von
fremden Werthaltungen dominierten Markt gegenüber, der ihre spontanen, kaum reflektierten
Wertentscheidungen nicht mehr fraglos teilt. Die Technologieintensität deutscher Produkte,
einst ihre Stärke, wird immer häufiger zur Last, da sie an den Erwartungen einer wachsenden
Zahl von Verbrauchern vorbeizielt. Entsprechend diagnostiziert das Fraunhofer-Institut für
Systemtechnik und Innovationsforschung die Stärken des deutschen Innovationssystems im
Bereich der Investitionsgüter, nicht aber bei den Konsumgütern. Das deutsche Innova-
tionssystem ist in den Nachkriegsjahrzehnten pfadabhängig geworden und hat den kulturellen
Wandel verpasst. Mit der Ausdifferenzierung, Widersprüchlichkeit und Inkompatibilität von
Konsum- und damit Lebenszielen entbehrt das technisch-naturwissenschaftliche Paradigma in

213
seiner im 19. und 20. Jh. überwiegenden Orientierung an der Leitwissenschaft Physik heute
der Überzeugungskraft und auch der Funktionalität.

Der Einbau von technologischem Handeln in umfassendere Dienstleistungsangebote besteht


z. B. im Gesundheitsbereich, aber auch im Bereich der Züchtungsforschung. Die Umwand-
lung in eine Dienstleistungsgesellschaft verändert das Konzept des technischen Handelns
umfassend. Daher muss die Gebrauchs- und Umgangsthese von Technik im Alltag neu formu-
liert werden. Lebensstilfragen und die Integration von bestimmten Technologien in den
sozialen und kulturellen Kontext sind weitere wichtige Aufgaben der Innovationsforschung.
Damit aber werden Öffentlichkeitsarbeit und Akzeptanzprobleme zu Grundsatzfragen auch
der Methodologie, da sie für moderne Wissenschaft und Technologie existentielle Bedeutung
erhalten. Technisches Können realisiert die Macht des Menschen in der Natur, wovon wir ein
Wissen haben können. Die stark auf die Mechanik und ihre Nachfolge beschränkten Theorien
der Technikwissenschaften und ihre Wissenschaftstheorie bieten nur geringe Hilfestellungen
für eine Wissenschaftstheorie technologisierter Forschung. Da Laboratoriumswissenschaft
institutionell als Praxis abgesichert und intern kontrolliert wird, aber sowohl bei der Aus-
dehnung des Laboratoriums im Freiland wie bei der Anwendung nicht mehr auf wissen-
schaftsinterne Konsequenzen beschränkt bleibt, bedarf es einer Außendarstellung der
Laboratoriums-forschung, einer Reflexion ihrer Methoden und Anwendungsmöglichkeiten
und des Einbezuges von Rechtfertigungsargumenten, kurz, wir benötigen eine „Reflexions-
kultur Technologie“ unter Einbezug von Informationen über Wissenschaft und Technologie.
Erforderlich sind neue Dimensionen des Rechtfertigungsgedankens in der modernen Tech-
nologie. Von diesem Gedanken der Technologiekultur her ist die Thematik des Wissen-
schaftsjournalismus und der PR für alle Formen neuer Technologien zu durchdenken und neu
zu begründen (Irrgang 2003b).

Technologie bzw. technische Verfahrensweisen ersetzen Methodologie nicht ganz, sie werden
aber zu einem wesentlichen Faktor der Methodologie im Bereich der Biotechnologie. Das
Neue an der Gentechnologie ist die Hybridbildung von wissenschaftlicher Methodologie,
strategischen Vorgangsweisen und Verfahrensweisen im Sinne einer Technologie und
technologischen Regeln, die sich nicht auf experimentelle Verfahren zurückführen lassen.
Ähnliches gilt für die Informationstechnologien und die darauf aufbauende neue Art der
nachindustriellen Produktion (Irrgang 2003b; Irrgang 2008). Je autonomer die Technik im
Netz wird, umso genauer muss die Stelle des Menschen im Netz bzw. an der Schnittstelle
zwischen Mensch und Maschine bzw. Mensch und technischem System bestimmt sein, um
größeres Unheil zu verhindern. Technikwissenschaften sind ein heterogenes Themenfeld mit
unterschiedlichen Methodiken. Dabei sind die technischen Sachsysteme vom technischen
Handeln zu unterscheiden. Technische Sachsysteme können entworfen werden, sie sind
Gegenstand der technischen Konstruktion, sie bedürfen aber auch der Gebrauchsanleitung
insbesondere für nichtprofessionelle Nutzer. Um solche technischen Konstruktionen durch-
führen zu können, bedarf es des Gesetzeswissens im Hinblick auf technische Konstruktionen
und technisches Handeln, Regelwissen im Hinblick auf technische Sachsysteme wie auf
technisches Handeln und operationales Wissen sowohl im Hinblick auf Sachsysteme wie
technisches Handeln. Im Hinblick auf das technische Wissen sind drei Ebenen zu
unterscheiden (1) implizites Wissen, „tacit knowledge“, (2) explizites Wissen, und (3) Kunst
(Sich Verstehen auf etwas). Die Gestaltungsebene der Technikwissenschaften ist wohl neu zu
diskutieren und zu reflektieren. In dieser Ebene soll Einfluss und Macht ausgeübt werden auf
technische Sachsysteme wie auf technisches Handeln (Irrgang 2007d).

Einer der verhängnisvollsten Fehler in der Wissenschaftsphilosophie der letzten Jahrzehnte ist
die wachsende Anzahl von Wissenschaftsstudien, die eine Trennung von Wissenschaft und

214
Technologie vorgeschlagen haben. Wissenschaft und Technik wurde vermischt. Moderne
Technologie involviert Wissenschaftler, die technologisch arbeiten und Technologien, die als
Wissenschaften funktionieren. Die traditionelle Meinung, dass die Grundlagen-Forschung das
als Wissen hervorbringt, was Technologen dann anwenden, bringt uns nicht weiter im
Verständnis gegenwärtiger Technologie. Wissenschaft und Technologie sind beide sozial
konstruierte Kulturen (Bijker u.a. 1987, 19-21). Die Personen, die das elektrische Licht und
die Elektrizitätskraftwerke aufgebaut und erfunden haben, entwickelten nicht nur Generatoren
und Transmissionen, sondern auch Organisationsformen und Institutionen und die entsprech-
enden geschäftlichen Unternehmen. Weil diese Komponenten eines technologischen Systems
interagieren, charakterisieren sie zentrale Elemente dieses Systems, z.B. strukturierte das
Management eine bestimmte Nützlichkeit von elektrischem Licht und für elektrische Energie
allein durch ihre unternehmerische Organisation und Nutzungsmöglichkeiten vorschlägt, die
abhängig ist von dem technischen Potential, das vorhanden ist (Bijker u.a. 1987, 52).

Technologische Systeme lösen Probleme, indem ein verfügbares Mittel anwendbar gemacht
wird, gleichgültig, ob die meisten Menschen es anwenden wollen oder nicht. Auf diese Weise
schafft man ein soziales Feld. Dieses kann sich zu einem technologischen System auswach-
sen. Erfinder, industrielle Wissenschaftler, Ingenieure, Manager und Bauarchitekten genauso
wie die Geldgeber arbeiten als Komponenten in diesem System. Lehrbücher für Ingenieur-
studenten begrenzen oftmals technologische Systeme auf ihre technischen Komponenten. Auf
der anderen Seite beschäftigen sich neoklassische Ökonomen mit Produktionssystemen nur
unter der Rücksicht, dass technische Faktoren als exogen betrachtet werden. Die Geschichte
der Entwicklung bzw. der Expansion dieser Systeme kann in den Sätzen begründet werden, in
denen die Aktivität im Vordergrund steht: Invention, Entwicklung, Innovation, Transfer,
Wachstum, Wettbewerb und Konsolidierung. Radikale Erfindungen entwaffnen und depoten-
zieren oft Arbeiter, Ingenieure und Manager. Sie zerstören finanzielle Investitionen und
verbreiten generell Ängstlichkeit in großen Organisationen. Große Organisationen reagieren
daher teilweise mit der Ablehnung auf solche innovative und inventive Vorschläge, die im
radikalen Sinne technologische Veränderungen herbeiführen und damit ökonomische Risiken
erhöhen. In dem sie dies aber tun, erkennen sie den Charakter des Neuen und Radikalen
eigentlich an (Bijker u.a. 1987, 55-59). Das Konzept des technologischen Stiles ist ein
Konzept das anwendbar ist auf die Technologien unabhängig vom elektrischen Licht und
elektrischer Kraft.

Technologischer Stil ist ein Konzept, das anwendbar ist auf Technologien, die anders sind als
elektrisches Licht oder elektrische Energie und nützlich für Professionelle (Bijker u.a. 1987,
70). Die großartigen und machtvollen Industriesysteme in den Jahren zwischen den beiden
Weltkriegen suggerierte eine Art von autonomer Technologie. Aufgrund einer inneren Dyna-
mik schienen diese Industriesysteme ihren eigenen Entwicklungskurs voranzutreiben, sie
bestärkten Manager in ihrem Glauben, die Unsicherheit reduzieren wollten und Ingenieure,
die einen Plan und Konstruktionsfähigkeiten für anwachsende Systemkapazitäten brauchten.
Aber diese Erscheinungsweisen der Autonomie haben sich als irreführend erwiesen. Dafür
brauchen wir ein nützlicheres Konzept als das der Autonomie (Bijker u.a. 1987, 79f). Die
Neuinterpretation der Wissenschaft als Institution betont die praxisorientierte sinnliche Wahr-
nehmung und die darauf beruhenden Überlegungen als zentral für die Wissenschaft. Die
eigentümliche Struktur der Technologien ist multistabil mit Rücksicht auf die Nutzer, auf die
kulturelle Eingebundenheit und auf die Politik. So gibt es in der Technikentwicklung zwei-
deutige multistabile Möglichkeiten. Diese Komplexität der Multistabilität macht es für Prog-
nostik schwierig (Ihde 2002, 101-107). So stellt sich die Frage, warum bildlich gesprochen,
Technologie zurückschlägt, d.h. warum es nichtintendierte Konsequenzen von technischen
Entwicklungen gibt. So hat die papierlose Elektronik den Papierverbrauch extrem erhöht.

215
Außerdem bedarf es der Sicherungssysteme für technische Anlagen. Es gibt Antinomien einer
normativen prognostischen Rolle, es gibt aber auch pragmatische Prognosen. Prognostische
Vorhersagen über positive und negative Nebeneffekte sind schwierig zu machen (Ihde 2002,
109-111). Davon zu unterscheiden ist die Rhetorik der Alarmierung. Es gibt hier das
Utopie/Dystopie-Dilemma. Häufig werden im Hinblick auf technische Entwicklung
kleinräumige Lösungen für großräumige Probleme angeboten. Dies lässt sich besonders gut
am Problem Abfall und Recycling ablesen.

Virtualität, Simulation und Computermodellierung sind Kennzeichen für die Technologi-


sierung der Laboratoriumsforschung. Es gibt eine reduzierte Anzahl körperlicher Tätigkeiten
in der modernen Technologie. Damit verändert das Konzept der Technologie auch das
Konzept der technischen Kompetenz. Computermodelle ersetzen jetzt häufig das Experiment.
Der Computer ist als eine epistemologische Maschine zu begreifen. Die Ironie der gegen-
wärtigen Hochtechnologie und ihre Instrumentalisierung ist diese: Wissenschaftliche Instru-
mente können viel klarer, viel präziser und viel tief greifendere Daten und Bilder liefern als
jede andere vorhergehende Ära der menschlichen Wissenschaftsgeschichte. Aber sie tun dies
mit Mitteln von höheren Graden aktiver Konstruktion, Intervention und Transformation der
Natur als zu jeder anderen Zeit in der menschlichen Wissenschaftsgeschichte. Diese Überzeu-
gung im Hinblick auf die Konstruktion hat auch unser Verständnis der Technologie verändert.
Die Mensch-Maschinen-Relation bleibt aber verleiblichte Wahrnehmung (Ihde 2002, 127-
138).

Naturwissenschaft beruht auf einer Ausdehnung der Beobachtung, Technologie auf einer
Ausweitung des Verstehens. Insofern hat die Mathematik in beiden Bereichen jeweils
unterschiedliche Funktionen. Mathematik kann genau so gut angewendet werden in der
Naturwissenschaft wie in der Technik (Polanyi 1998, 184). Dabei entsteht im Hinblick auf die
Axiomatisierung der Mathematik ein Problem. Das Element des Impliziten am Wissen beruht
auf einem Akt des Vertrauens und jedes Vertrauen kann missbraucht werden (Polanyi 1998,
250). Das Gegenbild zum impliziten Wissen ist das Ideal einer vollständig formalisierten
Intelligenz, das jede Form und jede Manifestation wie jede Spur personalen Wissens
eliminiert hat (Polanyi 1998, 301). Personales Wissen besteht zwar auf einer subjektiven
Basis, reklamiert jedoch universelle Geltung für ihre Inhalte. Falls wir jedoch nur über die
Kompetenzseite nachdenken, so reduzieren wir personales Wissen auf Subjektivität (Polanyi
1998, 303).

Polanyi war 1962 einer der ersten, der die Idee einer Wissenschaft als Praxis einer
Gemeinschaft von Wissenschaftlern propagierte. Damit wurde der Begriff der „Scientific
Community“ (wissenschaftliche Gemeinschaft) geprägt. Diese Position relativierte die Ideen
von Wahrheit und Falschheit in den Wissenschaften. Polanyis Konzept des gemeinsam
geteilten impliziten Wissens und personaler Verantwortlichkeit basiert auf der Idee der
Konvivialität eines gemeinschaftlichen Lebens (Harré 1986, 18). Dabei geht es um die
Entwicklung von Regeln hinsichtlich von Methoden für erfolgreiche und nicht erfolgreiche
Praktiken. Damit wird die Idee der wissenschaftlichen Rationalität verändert. Es geht um
spezielle Expertisen. Der Standardempirismus jedenfalls darf als gescheitert gelten. Statt
„wahr“ und „falsch“ sind andere kognitive Kriterien wie „akkurat“ und „glaubwürdig“
einzuführen. Wahrheitsansprüche wurden fälschlicherweise für empirische Aussagen rekla-
miert, dabei gehören sie eigentlich in den logischen Bereich. Die neue Erkenntnistheorie der
Wissenschaft basiert auf gut begründeten Intuitionen und berücksichtigt die begrenzte
menschliche Erfahrung (Harré 1986, 80). Es geht um die Interpretation wissenschaftlicher
Resultate und ihre Glaubwürdigkeit. Auch die Glaubwürdigkeit der Standards wissenschaft-
licher Forschung muss gesichert werden.

216
Eine technische Problemlösung orientiert sich an der Oberflächenstruktur des Gebildes, das
technisch erzeugt werden soll, es kann zeichnerisch dargestellt oder zeigend (deiktisch)
vorgeführt werden. Das Wissen des Konstrukteurs beruht auf fortgesetzter Erfahrung, die wie
jede Form von Erfahrung „theoriegeleitet“ ist, auf experimentellen Erkenntnissen, auf
Beobachtungen von Materialien und Systemen und auf Modellbildung. Es gibt die mathe-
matische Analyse und mathematische Modelle eines technischen Systems. Aber mathema-
tische Modelle sind immer weniger komplex als wirkliche Strukturen, als die Vorgänge oder
die Maschine. Der Entwurf ist schließlich eine Erfindung und Erfindung lässt Gedanken
wirklich werden. Naturwissenschaftliches Denken aber bildet – zumindest für Ferguson - die
Realität ab, obwohl in den letzten Jahren auch im Bereich der Naturwissenschaften die kon-
struktiven Elemente in der Theoriebildung immer stärker erkannt wurden. Daher ist klar, dass
Erfindung nicht angewandte Naturwissenschaft ist. Im Entwurf werden die Elemente in einer
endgültigen Form zusammengefügt. Dabei sind die Grenzen eines Entwurfs kulturgebunden.
Alle erfolgreichen Entwürfe haben Vorläufer (Ferguson 1993, 29).

Entwürfe sind angewiesen auf anschauliches Denken, auf Denken in Modellen, auf visuelle
oder taktile Bilder. Trotz der Aufwertung der Kreativität in einer breiten Richtung des
Brainstormings kann das geringe Ansehen des visuellen Denkens nicht geleugnet werden.
Auch das durch Tast- und Muskelbewegung erworbene Wissen nichtsprachlicher und
nichtvisueller Art ist wichtig für den technischen Entwurf. In den Entwurf geht auch das
stillschweigende Wissen und die Geschicklichkeit der Arbeiter ein. Die Stärke der Technik
liegt in der Verwurzelung ihrer Grundlagen. Hunderte von Generationen gewissenhafter und
sorgfältiger Handwerker schufen diese Grundlagen, bewahrten das von ihren Vorvätern
erworbene technische Wissen auf, um es zu verbessern, zu erweitern und dann an ihre
Nachfahren weitergeben zu können. Hier liegen die Wurzeln des technischen Konserva-
tivismus. Angesichts der Innovation wird die Kontinuität der Tradition in der Weitergabe
technischen Wissens leicht übersehen (Ferguson 1993, 65).

Neuzeitliche Wissenschaft war immer technologisch eingebettet. Technologie ist heute näher
an der Wissenschaft und sehr verschieden von frühen Formen von Technik. Heute geht es
insbesondere um die Suche nach neuen künstlichen Materialien. High-Tech-Medizin und
Landwirtschaft zeigen den Technisierungsgrad an. Die globalen Probleme der technischen
Praxis technokultureller Gesellschaften werden immer deutlicher. Eine autonome Technik hat
in der Industriegesellschaft zu einer technologischen Totalisation geführt und die kulturelle
Einbettung der Technik in Frage gestellt, indem der Kulturfaktor Technik zu dominant für
andere Kulturfaktoren geworden ist. Daher muss erneut die Frage nach den Beziehungen
zwischen Mensch und Technik gestellt werden (Ihde 1993a, 113). Heute neigt man dazu,
Wissenschaft und Technologie zu identifizieren. Diese instrumentelle Sichtweise der Wissen-
schaft übersieht, dass es auch heute noch um Wissen geht, unabhängig von jeder technolo-
gischen Anwendung (Grove 1989, 25). Bei vielen technologischen Innovationen sei keine
wissenschaftliche Komponente enthalten. Der Anreiz war hier ökonomischer, nicht wissen-
schaftlicher Art. Für Grove erfüllt das naive Bild der Technologie als angewandter Natur-
wissenschaft nicht das Kriterium exakten Wissens (Grove 1989, 30). Die Produkte der
Wissenschaft, nämlich Ideen, Theorien und Probleme bestünden als solche und unabhängig
von ihren praktischen technologischen Anwendungen. Sie haben gleichsam einen Eigenwert
unabhängig davon, ob viele Kenntnisse ihren Weg in die technologische Anwendung finden.

Praktische Verwertbarkeit ist weder eine notwendige noch eine hinreichende Bedingung für
wissenschaftliches Wissen, unabhängig von den mannigfaltigen instrumentell-technolo-
gischen Elementen moderner Wissenschaft und den komplexen Interaktionsmöglichkeiten
von Wissenschaft und Technologie. Trotz umfangreicher Verwertungschancen und einer

217
gegenseitigen Durchdringung und Verschränkung der beiden Bereiche lasse sich der Unter-
schied zwischen wissenschaftlichem Wissen und technologischem Know how nicht voll-
ständig eliminieren. Dabei ist Groves zentrales Argument für die analytische Unterscheidung
von Wissenschaft und Technologie: In der Technologie schaffen wir eine Realität nach
unserem Design, nach unseren Vorstellungen, in der Wissenschaft finden und erforschen wir
Realität (Grove 1989, 44-46). Doch gerade diese Unterscheidung wird in der synthetischen
Biologie problematisch. Zumindest verstehen sich Vertreter der modernen Life Sciences als
Wissenschaftler und als Ingenieure. Dies ist ein Charakteristikum gelehrter Kunst-Kultur. Das
Realitätspostulat der klassischen Biologie ist kritisch zu überprüfen. Was bereits in der Physik
der Elementarteilchen deutlich geworden ist, muss nun auch in der Molekulargenetik zur
Kenntnis genommen werden. Der methodische Charakter von Materialismus und Reduk-
tionismus in der Biotechnologie ist hervorzuheben und richtig zu bewerten: Molekular-
biologie betrachtet Leben als eine Form komplex strukturierter Materie, zumindest in der Art
ihres methodischen Zuganges, denn über das Leben selbst macht sie keine Aussagen. Und so
konstruiert sie auch ihre Modelle. Dies stößt in alltagsweltlicher Perspektive zunehmend auf
Ablehnung, weil der methodische Umgang mit der Auffassung vom Leben identifiziert wird,
zugegebenermaßen nicht nur von Kritikern der neuen Biotechnologie, sondern vor allem auch
von ihren Befürwortern. Der von Biologen gerne unterstellte Realismus ist zu kritisieren,
denn er verhindert eine adäquate Analyse gentechnischer Verfahren und Mittel.

Naturwissenschaften haben eine apodeiktisch-beweisende, Technik eine deiktisch-zeigende


Grundorientierung. Die deiktische Erklärung geht auf die Einzigartigkeit eines technisch zu
bearbeitenden Phänomens, nur naturwissenschaftliche Erklärung bezieht sich auf universell
geltende Gesetze (Borgmann 1984, 72). So steht Technologie im Aufgaben-Paradigma (Borg-
mann 1984, 76). Dieser Aufgabencharakter technischer Entwicklungen wirft Fragen und
Probleme des guten Lebens und der Gerechtigkeit auf (Borgmann 1984, 95). Technologie ist
der heute dominierende Faktor der Kultur. Dabei gibt es eine beträchtliche Ambivalenz in der
Akzeptanz von Technologien. Für viele Menschen sind wir zu abhängig von Maschinen.
Insgesamt betrachtet glauben die Menschen nicht, dass sich durch Technologie ihre Lebens-
qualität verbessert hat (Borgmann 1984, 106). Charakteristisch für das Verhältnis von
Naturwissenschaft und Technologie im Zeitalter von Technoscience sind synthetische Bio-
logie und moderne Biotechnologie. Sie verändern auch das Verständnis technischer Konstruk-
tionspraxis. Vorbild für das Forschungsprogramm der experimentellen Biologie ist der Ma-
schineningenieur und sein Konstruktionsideal. Dieser Hintergrund markiert den Übergang
von der Mendel-Genetik zur Molekulargenetik und der synthetischen Biologie (Irrgang
2003b). Die Molekulargenetik hat sich durchgesetzt als die technisch überlegene Mikro-
theorie, die größere Eingriffstiefe besitzt und mit der man präziser bestimmte Effekte herstel-
len kann. Die synthetische Biologie darf als höchstes Niveau des biologischen Determinismus
gelten. Sie orientiert sich ausschließlich an Laborphänomenen. Dies ist auch nicht weiter ver-
wunderlich, da Gene unterhalb der Sichtbarkeitsgrenze liegen und auf jeden Fall mithilfe
unterschiedlicher Methoden "sichtbar", d.h. zum Gegenstand gemacht werden müssen. Damit
ist aber auch klar, dass molekulargenetische Methoden nicht das Gesamtgebiet der Biologie
umfassen können. Es geht ihr um Re-Design, um Rekonstruktion (Hohlfeld 1991, 44-46).

Hohlfelds Identifikation von Bioingenieurkunst und synthetischer Biologie ist historisch


gesehen nicht korrekt, denn man muss mindestens drei Modelle und Leitbilder von Bio-
ingenieurkunst unterscheiden: (1) das klassische Modell der Bioingenieurkunst mit geneti-
schem Determinismus, wie er der Mendelgenetik, der Evolutionstheorie Darwins, und dem
Sozialdarwinismus zugrunde lag, und der Vorstellung des Ingenieurs, wie sie den
Ingenieurwissenschaften zugrunde liegt; (2) das Modell molekularer Bioingenieurkunst, wie
es sich seit Garrod in der Genetik auszubilden begann und im DNA-Modell von Watson und

218
Crick gipfelt, mit ebenfalls einem genetischen Determinismus und einer klassischen Vorstel-
lung vom Ingenieur, und (3) das neue Leitbild einer molekularen Bioingenieurkunst, in der
synthetische Biologie, Bioinformatik und die neue Synthese von Biotechnologie und
Ingenieurwissenschaften, nun aber als hypermoderne Technologie verstanden wie z.B. in der
Bio-Nanotechnologie zusammenwirken. Dahinter steht die Transformation der Biotechno-
logie von einer Bioingenieurkunst im Paradigma der Experimentalwissenschaft zur Biotech-
nologie als technologisierte Forschungspraxis (Technoresearch), die sich die Konstruktion
künstlicher Lebensformen zum Ziel gesetzt hat (Irrgang 2003b, 2008).

Tatsächlich vollzieht sich mit dem Übergang von der Isolierung eines Codons zur
Rekombination von genetischem Material in bislang unbekannter Form auch über Artgrenzen
hinweg die erste Transformation im Leitbild der Bioingenieurkunst hin zur synthetischen
Biologie. An die Stelle der klassisch-ingenieursmäßig beschreibbaren technischen Konstruk-
tion tritt das biotechnologische Design. Mit dem Einsatz sogenannter „künstlicher Gene“
vollzieht sich der Übergang vom Leitbild der Experimentalwissenschaft zur Laboratoriums-
praxis Gentechnologie als Ort hypermodernen biotechnologischen Designs. Mit der Gen-
technik ist die Biologie in ihre synthetische Phase eingetreten, so wie mit Friedrich Wöhlers
Synthese des Harnstoffs im Jahre 1828 die synthetische Chemie entstand (Winnacker 1993,
121f). Synthetische Biologie ermöglicht für Ernst Ludwig Winnacker eine Beschreibung der
Natur mit effektiveren Methoden und eröffnet eine neue Dimension der Mutationsanalyse
(Winnacker 1985b, 19). Sie versteht sich aber auch als neues technologisches Design, nämlich
als Neukonzeption und Optimierung und schafft sich ihren Gegenstand, nicht mehr nur mit
Theorien und Hypothesen, sondern auch mit technischen Mitteln. Damit ist moderne Bio-
technologie Naturwissenschaft, die Gene und ihre Expression in Organismen erforscht, und
Konstruktionstechnologie, die sich auch auf belebtes Material richtet. Bioingenieurskunst als
Titel für synthetische Biologie verschleiert damit im Hinblick auf technische Konstruktion
den eigentlichen Sachverhalt, denn sie erzeugt „Baupläne“, die sich bei geeigneten Rahmen-
bedingungen selbst realisieren, selbst aufbauen können. So wird auch eine völlig andere Art
von Technologie geschaffen als das klassische Werkzeug oder sogar die klassische Maschine.
An die Stelle ingenieursmäßiger technischer Konstruktion tritt das Ideal transklassischen
hypermodernen technologischen Designs.

Moderne Biotechnologie entwickelt eine neue molekulargenetisch und technologisch


ausgerichtete Hermeneutik des Lebendigen. Sie ist in diesem ersten Schritt eine neue Metho-
dologie und Verfahrenskunde und führt zur Neusynthese von Enzymen auf dem Reißbrett
(Winnacker 1985a, 20). Simulation, (Re-) Konstruktion und Modellierung sind Kennzeichen
der synthetischen Biologie als neuer Denkweise und Art zu handeln. Gentechnologie erweist
sich damit als Hybrid von naturwissenschaftlicher und technischer Forschung, als neuer
Wissens- und Handlungstyp, der sich erst im 21. Jh. als neue Forschungspraxis (Techno-
research) voll entfalten wird. Mit diesem neuen Ansatz eines Designs vom synthetischen Gen
zum synthetischen Organismus oder Organ geschieht eine Transformation der wissenschaft-
lichen und technischen Hermeneutik des Lebendigen von der molekularen Ebene bis hin zur
Struktur bzw. Architektur einer Zelle, von Organen oder eines Organismus. Dabei legt die
synthetische Biologie ein Verständnis von Technologie zugrunde, das man mit einer „Wieder-
kehr des Kunstbegriffes“ bezeichnen könnte und das die technische Kompetenz der Techniker
und Forscher hervorhebt (Irrgang 2003b. 2008).

Die Neuartigkeit der Gentechnologie liegt nicht in einem neuen Erklärenstyp. Sie liegt
vielmehr in einer spezifischen Ausprägung der Kunst des Experimentierens, die unter dem
Schlagwort Technologisierung der Biotechnologie bereits beschrieben wurde. Dadurch ver-
ändert sich der Wissenstyp im Sinne einer Verlagerung des "Wissens von etwas" zum "Wis-

219
sen, wie damit umzugehen ist", nicht aber das Paradigma experimentellen Forschens selbst.
Das Experimentieren wird zur neuen Wissensform (Zimmerli/Hohlfeld 1991). Die Vollen-
dung des neuzeitlichen Wissenschafts-Paradigmas ist zugleich seine Transformation. Diese
artikuliert sich in einer Technologisierung der empirischen Wissenschaften, wobei tendenziell
die Computersimulation die Rolle des Experimentes übernimmt. Dabei ist nach Zimmerli
unter Technologisierung zu verstehen, dass sich erstens wissenschaftliche Grundlagen-
forschung, technische Anwendung und wirtschaftliche Nutzung nicht mehr scharf trennen
lassen, sondern zu einem Typus wissenschaftlichen Handelns verschmelzen. Zweitens wird
Wissenschaft immer technischer und Technik immer wissenschaftlicher (Zimmerli 1993,
299).

Die Tatsache, dass Biowissenschaften und die Wissenschaft im Allgemeinen abhängig von
Technologie sind, scheint nicht kontrovers zu sein. Jedoch ist die Bedeutsamkeit dieses
Faktums von einem philosophischen oder historischen Standpunkt aus eine offene Frage. Für
die meisten Philosophen und Historiker der Wissenschaftsgeschichte ist die Notwendigkeit
einer Berücksichtigung der Technologie epistemologisch irrelevant. Diese wird betrachtet als
eine Komponente des Entdeckungszusammenhangs unseres Wissens über die lebendige
Natur, ohne jede Bedeutsamkeit für den Rechtfertigungszusammenhang dieses Wissens.
Weitaus bedeutsamer aber als diese Kontroverse ist von einem philosophischen sowohl wie
von einem wissenschaftshistorischen Standpunkt aus die Tatsache, dass einige der Haupt-
strukturen der Wissenschaften Handlungsstrukturen sind, die bestimmt werden durch die ver-
wendete Struktur der Forschungstechnologie. Verschiedene Typen von Forschungstechno-
logie bewirkten oder führen zu verschiedenen Typen von Biowissenschaften (Bayertz/Nevers
1998, 109f). Bayertz und Nevers unterscheiden daher drei Arten von biowissenschaftlicher
Forschung: (1) deskriptive Biologie, (2) experimentelle Biologie und (3) industrialisierte Bio-
wissenschaften.

Für die neue Biowissenschaft als Lebenswissenschaft und Gentechnologie ist die Model-
lierung zentral, und zwar in ihren beiden Aspekten: abbildend und entwerfend. Artificial-Life
zielt darauf ab, Werkzeuge zu modellieren, die in der Lage sind, die Schlüsselkonzepte von
lebenden Systemen auf den Ebenen anwachsender Komplexität zu modellieren. John von
Neumanns Begriff eines zellulären Automaten gab die ersten Hinweise auf mathematische
Modelle für lebende Organismen, wobei sich letztere als selbstreproduzierendes Netzwerk
von Zellen darstellten. In der Biologie sind künstliche Lebenssysteme angewandt als Soft-
ware-, Hardware- und Wetwaresysteme. Wetware meint die Techniken des biologischen
Laboratoriums, welche z.B. benutzt werden können, um die molekularen Ursprünge der
präbiotischen Evolution in einem evolutionären Modell zu modellieren. Es handelt sich um
empirische Experimente, welche die biochemische Evolution des Lebens reproduzieren oder
neue Formen von biologischem Leben im Modell hervorbringen. Sie werden nur deswegen
künstlich genannt, weil die Bedingungen für ihre Selbstorganisation auf der Basis bio-
logischen Lebens durch einen menschlichen Experimentator arrangiert worden sind. Soft-
waresysteme sind Computerprogramme oder Netzwerke, die Schlüsselfaktoren des Lebens
und der Evolution modellieren. Selbst ein künstliches Bewusstsein kann nicht völlig ausge-
schlossen werden. Wenn wir einmal die komplexen neuronalen Dynamiken hinter den Be-
wusstseinszuständen kennen, dann könnte die Wetware und die Hardware des menschlichen
Gehirns nur als ein spezifisches Modell für Bewusstsein aufgefasst werden. Lebenswissen-
schaften und Computerwissenschaften sind nicht nur die Highlights einer zukünftigen
technologischen Entwicklung, sondern sie wachsen zusammen mit gemeinsamen Forschungs-
objekten im Rahmen der Artificial-Life- und einer Artificial-Evolution-Forschung
(Lenk/Maring 2001, 375-378). Dabei gilt für die gentechnologische Laborforschung dasselbe
wie für die bioinformationelle Simulation: Die Ergebnisse gentechnologischer Verfahren

220
werden weniger in Gleichungssystemen, sondern vielmehr bildhaft dargestellt (z.B. im Gene-
Mapping).

Die Molekularbiologie ist eingebettet in ihr eigenes Netzwerk von Antizipation, Simulation
und Berechnung. Der genetische Code als Datenmenge hat Zeichencharakter. Die Mutation
gilt als Bindevariation, an der die natürlich Selektion ansetzen kann, sie hat aber entgegen
allen konstruktivistischen Interpretationsversuchen vor allem eine materiale Struktur. Moleku-
larbiologie soll charakterisiert werden als Werkbankwissenschaft, die in kleinen Laboratorien
durchgeführt wird. Selbst das Humangenom-Projekt war weit davon entfernt, zentralisiert zu
sein. Das Projekt ist zwar Big Science vielleicht im Hinblick auf seine Finanzierung, nicht
aber im Hinblick auf die Durchführung. Die Kriterien einer Laboratoriumspraxis hängen von
der Art der Laboratoriumspraxis ab. Dabei wird der Wissenschaftler als eine Art Blackbox
betrachtet, die entleiblicht und abstrakt ist. Der menschliche Leib ist aber mit Sinnesorganen
ausgestattet und hat einen Bezug auf die technischen Sinnesorgane als Instrumente. Im Labor
steht ein Mensch, ein aktiv und handelnder Leib. Experten müssen häufig auf Tacit-know-
ledge zurückgreifen. Dieses beruht auf verleiblichter Erfahrung (Knorr-Cetina 1999, 79-99).

Laboratorien werden in der molekularen Biologie in zunehmendem Maße zur Fabrikations-


stätte von transgenen Organismen. Organismen werden in diesem Zusammenhang zu
Maschinen. Diese Vorstellung wurde von mir bereits kritisiert. Konstruiert wird nicht eine
„lebende Maschine“, wie man so oft hört, sondern in einem Akt hypermodernen transklassi-
schen technologischen Designs entsteht ein nichtnatürlicher Organismus, ein Artefakt-
Organismus, das die Grundstruktur natürlichen Lebens teilt und nicht zum physikalischen
Apparat wird. Der Bauplan einer Maschine und der „Bauplan“ eines Lebewesens unterschei-
den sich fundamental. Während der Bauplan einer Maschine oder eines Hauses zumindest
eindeutig sein soll, was seine Umsetzung betrifft, und dies auch sein kann, wenn man sich an
die Regeln der Kunst hält, ist das bei einem Genom eines Organismus erheblich anders. Ein
Genom enthält in redundander Weise erheblich mehr Information, als zur Selbstorganisation
eines neuen Organismus erforderlich ist, zumindest gemäß neoepigenetischer Vorstellung
(Irrgang 2003b, 2005c), und erzeugt nicht den Organismus, sondern die Proteinstruktur der
Zellen, aus denen sich der Organismus später bildet.

Das Laboratorium arbeitet in der Molekularbiologie mit technisch rekonstruiertem Leben, mit
Artefakt-Organismen. Der methodische Ansatz der Naturgeschichte vergleicht Organismen
miteinander. Die ganze Komplexität des Lebens beruht auf der Variabilität des genetischen
Codes. Das Laboratorium erzeugt Zelllinien und Labormäuse insbesondere durch DNA-
Kloning. Designermoleküle und die Zerlegung biologischer Organismen in Teile betrachtet
Organismen als zelluläre Apparate, die in Modellsystemen abgebildet werden können. So
kommt es zu einem Verschwinden natürlicher Tiere aus den Laboratorien. Die Schwierigkeit,
mit lebenden Tieren eine Korrespondenz zwischen technischer Intervention und sichtbaren
Effekten zu erzielen, führt dazu, dass das Laboratorium einen Umweg gehen muss. Biolo-
gische Untersuchungsobjekte bedürfen der Reinigung. Im Laboratorium kommt es also zur
Nutzung von Organismen als Produktionssystemen. Leben wird als sich selbst reprodu-
zierende Maschine betrachtet. Und transgene Organismen werden als Massenprodukte herge-
stellt (Knorr-Cetina 1999, 138-156). Allerdings greifen deratige Vorstellungen, wie sie von
Frau Knorr-Cetina geäußert werden, nicht, obwohl sie gerade unter Wissenschaftlern und
Technologen weit verbreitet sind.

Große wissenschaftliche Programme erfordern ein industrieähnliches Arbeiten. Dies ist eine
wahrhaft kollektive Form des Arbeitens, in dem Experimentatoren um Detektoren angeordnet
werden. Es kommt zur Erodierung des Individuellen als eines epistemischen Subjektes.

221
Gemeinschaftsarbeiten und Gemeinschaftspublikationen als Formen der Zusammenarbeit und
neue Formen der Autorschaft werden allgemein. Forschungsmanagement ist die neue Auf-
gabe. Insofern ist der Sprecher einer Forschungsgruppe nun ein besonderes Subjekt. Meetings
und der Statusreport werden zur neuen Form der Kommunikation über Laboratoriums-
ergebnisse. Forschergruppen, ihre Aufgliederung und Unterteilung sind nun Untersuchungs-
gegenstände epistemischer Überlegungen. Nun gibt es nicht- oder posttraditionelle Formen
der gemeinschaftlichen wissenschaftlichen Arbeit (Knorr-Cetina 1999, 159-184).

Anhand von Pasteur und seinem Milchsäureferment zeigt Bruno Latour auf, wie neue
wissenschaftliche Begriffe von Konstruktion und Fabrikation zu verstehen sind. Die
neuzeitliche Vorstellung einer Welt „dort draußen“, zu der ein Geist-im-Gefäß eine sichere
Entsprechung zwischen Worten und Sachverhalt suchen muss, ist eine sehr unrealistische
Sichtweise (Latour 2000, 137-139). Die Versuchsanordnung im Labor ist fabriziert und
künstlich, doch Pasteur muss nachweisen, dass die Kompetenz des Ferments dessen
Kompetenz ist und keinesfalls nur seiner eigenen Geschicklichkeit als Experimentator
geschuldet ist. Er muss einen Versuch für das Auftreten des Ferments erfinden (Latour 2000,
149). Das beschriebene Element wird durch das Experiment nicht erzeugt, sondern näher
bestimmt, wie es sich bei der Bestimmung des Milchsäurefermentes und der Mikroben durch
Pasteur zeigt. Für Latour haben sich die Mikroben durch ihr Zusammentreffen mit Pasteur
verändert. Er geht von einer Geschichtlichkeit des Ferments aus (Latour 2000, 176). Also
muss man die Forschungssituation rekonstruieren. Hier steht die Entdeckung des Ferments in
der Konkurrenz zur Theorie der spontanen Urzeugung. Die Kontrahenten waren hier Pasteur
und Pouchet (Latour 2000, 198). Mit der Entdeckung der Mikroben sieht man auch andere
Phänomene in einem neuen Licht. Damit rüstet Pasteur die Vergangenheit mit seiner
Mikrobenbiologie nach.

Der Bauplan für eine Maschine ist die Handlungsanleitung für ihre Realisierung, der
genetische Code das Steuerungsprogramm für die Selbstorganisation eines Organismus.
Konstruktion ist nicht Organisation. Experimentalmodelle in der Biologie, insbesondere in der
Genetik sind Modellorganismen (Lange 1999, 167). Für die Biowissenschaften jedenfalls sind
strikt generelle Gesetze schon deshalb nicht zu begründen, weil ihr Gegenstandsbereich
zumindest bisher immer unter Bezug auf Individuen definiert ist. Eine solche
Experimentalpraxis stellt auch das Züchtungskollektiv dar (Lange 1999, 181-184). Das
rekonstruktivistische Wissenschaftsverständnis betrachtet Organismusmodelle im Sinne einer
Analogie zu technischen Konstruktionen. Als Alternative stellt sich dabei Organisation versus
Konstruktion heraus (Lange 1999, 219). Folgende Formen eines biologischen Reduk-
tionismus lassen sich unterscheiden: (1) ontologischer Reduktionismus im Sinne des Aufein-
ander-Verwiesenseins von Teil und Ganzem; (2) Reduktion von Wissenschaften durch die
Reduktion ihrer Theorien, z.B. die Reduktion von Biologie auf die Physik und (3) die
Reduktion der Biologie auf Biochemie als ihrer Ursprungsdimension. Die Genetik hat sich im
Laufe dieses Jahrhunderts tiefgreifend verändert und damit eine genauere Fokussierung der
Reduktionismusdebatte erforderlich gemacht (Lange 1999, 226). Dabei muss das Verhältnis
der klassischen Genetik zur Molekulargenetik eigens bestimmt werden. Hier sind Fragen des
Reduktionismus und des genetischen Determinismus von Bedeutung. Angesichts des Schei-
terns des Reduktionismus sind funktionale Analysen von Bedeutung. Insofern werden Orga-
nismen mit Maschinen verglichen zumindest im konstruktivistischen Ansatz. Maschinen sind
kryptoteleologisch, wobei der Begriff der autopoietischen Maschine noch deutlicher die ent-
sprechenden Intentionen aufzeigt (Lange 1999, 253; Irrgang 2003b). Daher scheint mir die
Analogie von Organismus und Maschine nicht haltbar, wie sie sowohl von konstruk-
tivistischen wie reduktionistischen Ansätzen vorgeschlagen wird, denn selbst bei von

222
Technologen designten synthetischen Lebewesen, die in der Tat wie Maschinen einen Schöp-
fer haben, bleibt die Art des „Bauplanes“ grundverschieden.

Zwei Typen biologischer Experimente sind die In-Vivo und die In-Vitro, wobei im Rahmen
einer Experimentalpraxis die wechselseitige Abhängigkeit von Experimenten In-Vivo und In-
Vitro deutlich wird (Lange 1999, 274). Im Experiment wird eine Erfahrung gemacht, genauer
gesagt hergestellt. Insofern handelt es sich in der Tat um kein deskriptives Wissen. Das
„Know how“ aber dient zur Erzeugung wirksamer Substanzen, nicht zur Erzeugung eines
Gesetzeswissens, jedenfalls nicht primär. Die technologisierte Wissenschaft ist keine Abart
oder Unterart der experimentellen Naturwissenschaften, sondern ein eigenständiger Typ von
technischem Handeln innerhalb von Forschung. Für einen solchen Ansatz sind die jeweils
eigenen Geltungskriterien für diese Praxis technologisierter Forschung zu erarbeiten. Das
klassische Modell der experimentellen Naturwissenschaften jedenfalls trifft für weite Berei-
che der modernen Gentechnologie nicht zu. Wichtig in diesem Zusammenhang wäre es, die
Forschungsstrategien der Gentechnik zu charakterisieren. Eine zentrale Rolle dürfte hier die
Frage des methodischen Reduktionismus auf den genetischen Code in seiner strukturell-
funktionalen und informationskonzeptionellen Komponente spielen. Die Isolation und die
Synthetisierung eines Gens stellen keine Experimente im klassischen Sinne dar, wohl aber
technische Handlungen im Rahmen eines wissenschaftlichen Konzeptes. Vor diesem Hinter-
grund ist in der Tat das Verhältnis von klassischer Genetik und Molekulargenetik neu zu
bestimmen und zwar auf eine verfahrenstheoretische und methodologische Weise.

Wissenschaftliche Objekte sind auf dem Weg zu technologischen Objekten. Technik beruht
dabei auf der Identität der Ausführung (Rheinberger 1992, 70f). Die technischen Bedingungen
für einen neuen Repräsentationsmodus des Wissenschaftsobjektes sind auszuloten. Dabei sind
technische Prozeduren und ihre Aufgliederungen zu unterscheiden. Es gibt keine klare
Trennung zwischen Natur und Modell. Die Art und Weise, wie Organismen im Labor zugäng-
lich gemacht werden, ist von besonderer Wichtigkeit. Mit der Gentechnologie wird der
Organismus selbst zum technologischen Objekt und zur Produktionsstätte für neue episte-
mische Dinge (Rheinberger 1992, 85f). Letztlich ist der Übergang von einem Experimen-
talsystem zur technologisierten Forschung als Transformation von Experimentalsystemen zu
technologisierten Forschungsstrukturen bzw. Laboratoriumsstrukturen zu umschreiben. Es
geht um die konsequente Weiterentwicklung der Isolierung natürlicher Phänomenen bis hin
zur technischen Konstruktion artifizieller Gegenstände (Techno-Design).

Die Technologisierung der Biotechnologie beruht auf der Entwicklung von Verfahren,
insbesondere von Testverfahren für den Gebrauch im professionellen wie nichtprofessionellen
Alltag. Testverfahren sind aber keine Experimentalanordnungen mehr, sondern technische
Anleitungen. In der Wissenschaftstheorie der Biotechnologie geht es nicht nur um eine neue
Wissenschaftssoziologie, sondern um eine neue Methodologie nach einer pragmatistischen
Wende in der Wissenschaftstheorie, die umfassender ausgefallen ist als von vielen ursprüng-
lich intendiert. Trotz allem Pragmatismus und aller Soziologisierung, es bleibt eine methodo-
logisch orientierte Wende. In der Technologisierung der Biotechnologie kommt es zu einer
Ausweitung der instrumentellen Dimension und zur Konstitution der Forschung als Praxis.
Produziert werden nicht mehr technologische Artefakte, sondern Dienstleistungen, Testver-
fahren, Modellorganismen, Knowhow, gentechnisch veränderte Organismen bis hin zu syn-
thetischem Leben. Sind es wirklich Experimentalsysteme, also strukturierte Aggregationen
von Experimenten? Die Antwort muss wohl auf ein Nein hinauslaufen. Testverfahren und die
Neukonstruktion von Lebewesen sind keine experimentellen Tätigkeiten, auch wenn sie in
gewisser Weise nach Versuch und Irrtum ablaufen. Es kommt insgesamt zu einer Ausweitung
des instrumentellen Teils der Forschungspraxis, denn das Gelingen einer technischen

223
Konstruktion hängt von ganz anderen Regelhaftigkeiten ab, als das Gelingen eines experi-
mentellen Testverfahrens. Experimente wollen Gegebenes erfassen, Konstruktion zielt auf
Neukombination von instrumentell Erfasstem. Die Mendelgenetik war eine experimentelle
Genetik, allerdings noch keine Laborgenetik. Dass es unterschiedliche Typen von Experimen-
ten gibt, von der Feldforschung bis zum Elementarteilchenbeschleuniger der Teilchen erzeugt,
die es sonst auf der Erde nicht gibt, ist offensichtlich. Es muss daher auch unterschiedliche
Typen von Verursachung geben, die zumindest eine Ausdifferenzierung des genetischen
Determinismus als erforderlich erscheinen lässt. Letztlich müssen Präformismus und epigene-
tische Erklärung keine Gegensätze sein, sondern können sich als komplementäre Kausalitäts-
konzepte irgendwann einmal darstellen (Irrgang 2003b).

„Design“ meint im Englischen „technische Konstruktion“. Die technische Konstruktion von


Teilen des Menschen oder sogar ganzen Menschen wird nicht nur denkbar, sondern mit
Abstufungen in absehbarer Zeit technisch realisierbar. Die technologische Konstruktion
artifizieller Lebensformen setzt in hohem Masse wissenschaftliches und technisches Know
that und Know how voraus. Allerdings ist anzunehmen, dass artifizielle Lebensformen zumin-
dest für eine gewisse Anfangszeit den Charakter von black boxes nicht ganz ablegen werden
können. Man wird probieren müssen beim Entwerfen artifiziellen Lebens und dabei auch
Risiken eingehen. Aber es wird ein hohes Maß an Wissen erforderlich sein für das technische
Konstruieren von Lebewesen, wahrscheinlich mehr als bei einer genetischen Manipulation
eines Organismus. Der Gebrauchswert technisch konstruierter Lebewesen entsteht durch die
auf den Gebrauch hin entworfene Lebens- und Organisationsform eines Organismus.
Allerdings werden sich nicht alle möglichen Gebrauchsformen im Voraus für alle Formen
synthetischen Lebens bestimmen lassen. Ein künstlicher Organismus wird als Instrument
entworfen und nicht erst nachträglich instrumentalisiert. Allerdings bleibt die Frage, ob sich
dies in unterschiedlichen Formen und Grade von Instrumentalisierungen auf die ethische
Bewertung auswirkt. Für einen neu synthetisierten Organismus gibt es kein artgemäßes
Leben, das vom Menschen unabhängig wäre. Kriterien für die Haltungsbedingungen dieses
Organismus könnten – wenn überhaupt - nur aus seiner Organisationsform „abgeleitet“
werden. Zunächst muss aber expliziert werden, welche Bedingungen für die technische Kon-
struktion artifizieller Lebensformen erfüllt sein müssen, um von einer gänzlich artifiziell her-
gestellten Zelle sprechen zu können. Dazu muss ein Vergleich erstellt werden zwischen der
Neukonstruktion eines artifiziellen Organismus und einer technischen Neukonstruktion eines
technischen Mittels (Erfindung). Hierzu bedarf es einer Analyse gentechnischen Konstruk-
tionshandelns. Voraussetzung dafür sind Fortschritte in der postgenomischen Ära der Gen-
technologie. Funktionen von Genen und intrazelluläre Netzwerke müssen besser bekannt sein.

Es ist fraglich, inwiefern Synthetisches Leben gegenüber normal mutiertem Leben spezielle
Eigenschaften und spezielle Lebensbedingungen aufweist außer der, dass sie ihren artifizi-
ellen Charakter behält. Zudem haben Transgene oftmals Eigenschaften negativer Art, die bis-
weilen erst im Alter auftreten und Kompensationen erforderlich machen. Diese Formen des
Lebens behalten Elemente des Künstlichen. Daher ist auch der Unterschied zwischen Züch-
tung als technischem Handeln und der Konstruktion bzw. dem Design von Organismen als
einem anderen Typus technischen Handelns herauszuarbeiten. Zur Konstruktion sind techni-
sche Mittel und Verfahren erforderlich, für den Gentransfer Vektoren, technisch veränderte
Lebewesen. Begründet aber lebendes Material einen anderen Gebrauchswert als totes? Sind
Organismen technische Mittel von anderer Art als mechanische, physikalische und chemi-
sche? Im Umgang mit höher und komplexer strukturierten Organismen machen wir
Unterschiede zu unbelebten mechanisch-physikalischen Mitteln, auch wenn beide letztlich
technische Artefakte sind. Hier entstehen Probleme ethischer Art (Irrgang 1997, 1998).

224
Wer meint, heutzutage könnten Gentechniker synthetische Wunschorganismen leicht kon-
struieren, der irrt. Seit nunmehr 30 Jahren verpflanzen Wissenschaftler fremde Gene in
Organismen. Dennoch gleicht die Gentechnologie immer noch eher einem Kunsthandwerk als
einer ausgereiften technischen Disziplin. Wer auf dem Feld der synthetischen Biologie
arbeitet, entwirft und konstruiert lebende Systeme. Die neuen Schöpfungen sollen sich vor-
hersagbar verhalten. Zu diesem Zweck verpassen die Forscher ihnen definierte genetische
Eigenschaften, die sich nach Bedarf austauschen lassen. Manche dieser Laborwesen könnten
sogar mit einem erweiterten genetischen Code arbeiten, dank dessen sie Verhaltensweisen
zeigen könnten, die in der Natur nie da gewesen waren. Die synthetische Biologie verfolgt
insbesondere drei Ziele: (1) möchten die beteiligen Wissenschaftler Grundzüge des Lebens
erkennen, indem sie es aus kleinen Bauelementen synthetisieren – und nicht indem sie nach
eher üblicher Art, vorhandenes Leben in seine Bestandteile zerlegen. (2) soll die Gen-
technologie zu einer echten Ingenieurwissenschaft werden – also zu einer technischen
Disziplin, in der Geningenieure standardisierte Komponenten verwenden, aus denen sie im-
mer wieder neue, komplexere Systeme entwickeln. (3) möchte diese Wissenschaft die Gren-
zen von lebenden und technischen Systemen einander annähern, bis sich ihre Eigenschaften
überschneiden. Das ergäbe programmierbare Organismen, quasi lebende Maschinen (Gibbs
2004, 68), deren Baupläne und Art der Konstruktion aber deutlich unterschieden bleiben.

An einem bestimmten Punkt endet die Analogie zwischen Technik und Biologie allerdings.
Elektrische und mechanische Maschinen sind im Prinzip abgeschlossene Einheiten. Gleiches
gilt jedoch nur für wenige genetische Systeme. Die Hälfte der 60 Module aus den letzten
Jahren konnten erst nicht verwendet werden. Die Zellen starben, wenn sie sich teilen wollten.
Es überforderte sie, das zusätzliche genetische Material mitzuschleppen und zu verviel-
fältigen. Erträglicher wird die Bürde, wenn man sie nicht dem zelleigenen Genom auflastet,
sondern das Kunstprodukt auf einem eigenen DNA-Ring, einem sogenannten Plasmid,
deponiert. Besonders haben die Forscher aber stets damit zu kämpfen, dass die artifizielle
DNA über viele Zellgenerationen hinweg nicht unverändert bleibt, weil das Erbgut der Wirts-
zelle immerfort mutiert. Es gibt auch schon ein konkretes Projekt: Das Aufspüren von
Landminen: Hellinga und Ron Weiss würden gern ihre beiden Konstruktionen – Synthetische
Mikroorganismen als Sensorsysteme für TNT (einen Sprengstoff) und als Leuchtanzeige –
kombinieren. Sie möchten damit Bakterien schaffen, die Sprengstoff aufspüren und das
gleichzeitig anzeigen können. Solche Organismen könnten helfen, Landminen zu orten (Gibbs
2004, 71-74).

Bionik (auch: Bio-Mimikry, Bio-Mimetik, Bio-Mimese) beschäftigt sich mit der Entschlüs-
selung von Erfindungen der belebten Natur und ihrer innovativen Umsetzung in der Technik.
Die Bionik ist ein interdisziplinärer Bereich, in dem Naturwissenschaftler und Ingenieure,
sowie bei Bedarf auch Vertreter anderer Disziplinen wie etwa Architekten, Philosophen und
Designer zusammenarbeiten. Der englische Begriff „Bionics“ wurde vom amerikanischen
Luftwaffenmajor Jack E. Steele 1960 auf einer Konferenz in der Wright-Patterson Air-Force
Base in Dayton, Ohio geprägt. Das deutsche Wort Bionik setzt sich aus Biologie und Technik
zusammen und bringt damit zum Ausdruck, wie für technische Anwendungen Prinzipien
verwendet werden können, die aus der Biologie abgeleitet werden. Im englischen Sprachraum
beschränkt sich die Bedeutung von Bionik häufig auf eine Kombination von Biologie und
Elektronik. Die deutschen Ansätze entsprechen eher den Begriffen „Biomimetik“ und
„Biomimikry“. In der Bionik werden für technische Probleme gezielt Lösungen in der
Biologie gesucht (Bionik als Top-down- Prozess, Analogie-Bionik). Im Laufe der Evolution
wurden viele biologische Lösungen optimiert. So wurde 1920 der Klettverschluss nach dem
Vorbild der Kletten entwickelt. Bionik als Bottom-up-Prozess (Abstraktions-Bionik) umfasst
(1) Biomechanik und Funktionsmorphologie von biologischen Systemen, (2) Erkennen des

225
zugrunde liegenden Prinzips, (3) Abstraktion dieses Prinzips (Loslösung vom biologischen
Vorbild und Übersetzung in Technik), (4) Suche nach möglichen technischen Anwendungen
und (5) Entwicklung technischer Anwendungen in Kooperation mit Ingenieuren, Technikern
und Designern. Während man die Bionik der 70er Jahre noch unter dem Leitbild „Nachah-
mung der Natur“ verstehen konnte, so hat sich dieses Leitbild in den letzten Jahren doch radi-
kal verändert. Aufgrund des wachsenden Einflusses der biotechnologischen Verfahren in der
Technologie insgesamt kommt es nun zunehmend zum Ko-Design von Naturwissenschaft und
Technik im Bereich von hypermoderner Technologie und Technoresearch (Irrgang 2008).

Biologie und Technik haben gemein, dass sie ausgehend von einem Basismodell (z. B. einem
Ur-Insekt oder Ur-Vogel, respektive Funktionsmuster oder Prototyp) weitere Verbesserungen
anstreben. Die Qualitätskriterien können bestimmte Einzelparameter (z. B. Gewicht, Festig-
keit, Herstellungszeit oder Kosten) oder bei der multikriteriellen Optimierung auch diverse
Kriterien beinhalten. Mit zellulärem Wachstum und Mechanismen der individuellen
Formadaption begegnen Bäume und Knochen unterschiedlichen Belastungssituationen (Ban-
nasch 2007, 206f). Der Arbeitsbereich Biomechatronik und Robotik befasst sich mit intelli-
genten Mikro- und Nanomaschinen und Mikroaktuatoren, Miniaturfluggeräten, einer großen
Vielfalt von Lauf- und Schwimmrobotern, bionischen Greifersystemen und Manipulatoren bis
hin zu künstlichen Gliedmaßen, Organprothesen und Spezialgerätschaften, insbesondere für
die Biomedizintechnik (Bannasch 2007, 208). Die Bionik ist eine dynamische Wissen-
schaftsdisziplin, die in der jüngsten Zeit viele neue Facetten ausgebildet hat. Der aktuelle
Aufschwung basiert darauf, dass man sich von der Vorstellung, die Natur 1:1 kopieren zu
wollen, vollständig gelöst hat. Biologen und Ingenieure arbeiten zusammen, um die tiefer lie-
genden Funktionsprinzipien herauszukristallisieren und schöpferisch in neue technische
Anwendungen zu übertragen. Schwerpunkte der bionischen Forschung liegen momentan im
Bereich der Mikro- und Nanostrukturen, der Selbstorganisation, der intelligenten Materialien,
der Biomedizintechnik, Sensorik und Akustik

Ein weiterer Bereich ist die Weiterentwicklung von Künstlicher Intelligenz und Infor-
mationstechnologie. Multimediale Suchtechnologien werden angesichts der zunehmenden
Bilderflut im Internet immer wichtiger und zum Glück auch besser. Heutige Suchmaschinen
basieren auf den Erkenntnissen aus dem Bereich des „Information Retrieval“ (Wiederfinden
von Informationen), mit denen sich die Computerwissenschaften schon seit über 50 Jahren
befassen. Bereits 1966 schrieb Ben Ami Lipetz im „Scientific American“ einen Artikel über
das Speichern und Wiederfinden von Informationen. Damalige Systeme konnten freilich nur
einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass
größere Durchbrüche im „Information Retrieval“ erst dann erreichbar sind, wenn Forscher die
Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese
Erkenntnisse auf Computer übertragen. Es würde wesentlich länger dauern, wenn dabei die
Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen
werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer
Kernoperationen bereits vor dem Zeitpunkt der Nutzeranfrage aus (Mostafa 2006, 83). Ein
Beispiel für diese Technologie bietet „anonymizer-com“, die ein Inkognitowebsurfen
ermöglicht. Ein weiteres Beispiel ist die Software „freedomwebsecure“, die mehrere
Proxyserfer und viele Verschlüsselungsebenen anbietet. Diese Tools erhöhen die Sicherheit
um Einiges. Es gibt zurzeit allerdings noch keine Suchmaschine, die dem Anwender
Personalisierungen ermöglichen und gleichzeitig ein hohes Maß an Privatsphäre bieten.
Datenschutz mit persönlichem Profil zu kombinieren bleibt eine Herausforderung. Software-
entwickler werden die Wünsche der Anwender möglichst schnell und bequem erfüllen, ob-
wohl sie tatsächlich mit riesigen Informationsmengen umgehen (Mostafa 2006, 88).

226
Die neuen Konstruktionsmaschinen sind Maschinen für Produkte mit begrenzten Märkten. Es
gibt die so genannten „Personal Fabricators“ (PFs). Eine PF macht Maschinen oder technische
Produkte wie ein Drucker Bilder produziert. So ist das neue Ziel real arbeitende personale
Fabrikation zu entwickeln. Mit Hilfe dieser neuen Hard- und Software kann praktisch alles
zum ersten Mal gemacht werden. Es wurden erste Kurse zu diesem Thema und zu dieser
Technik am MIT 1998 angeboten. Neue handwerkliche Fertigkeiten sind gefragt, jenseits des
Könnens erfahrener Ingenieure. Ein typischer erfahrener Ingenieur hat vermutlich nicht die
verschiedenen Konstruktions- und Arbeits- bzw. Manufakturkenntnisse, um persönlich auch
nur eines dieser Projekte hervorzubringen. Damit aber ist mit dieser Methode ein Lernen
neuer Fähigkeiten verbunden. Eine Rückkehr zu einer individualisierten Kunstform der Tech-
nik scheint unumgänglich. Dort gibt es eine Parallele zwischen der Personalisierung des Com-
puters und der Fabrikation. Die möglich gemachte Entwicklung des Computers auf der Basis
von Mikrochips kann nun zur digitalen Fabrikation, zu Fablabs, führen. Dies ermöglicht die
Bedienung neuer Formen spezialisierter Konsumenten. Das Eigentum an den Produktions-
mitteln ist nun anders zu definieren, weil die Produktionsmittel relativ klein sind und es so
keiner außerordentlicher Kapitalanstrengungen mehr bedarf wie in früheren Zeiten, wo Fabri-
ken hunderte von Millionen Euro verschlungen haben. Nun ist eine enge Zusammenarbeit
zwischen den Hervorbringern (Produzenten), Konstrukteuren und den Konsumenten möglich.
Dabei gibt es eine ganze Reihe von Geschichten des Pionierpersonals von persönlicher Fabri-
kation (Gershenfield 2005, 3-17).

Die Anfänge waren computerkontrollierte Schneidewerkzeuge wie insbesondere Laserschnei-


der (Gershenfield 2005, 67-69). So wurde eine Produktionsfahrt gemäß Nachfrage möglich
(producing on demand; S. 77). Die Grenzen zwischen Modellbildung und Fabrikationszielen
wird immer schwieriger zu ziehen (Gershenfield 2005, 103). Modelle in der Architektur und
Innenarchitektur erhalten eine größere Bedeutung und werden erfolgreich. Ein Haus zu
konstruieren und es ingenieursmässig zu berechnen wird mit Hilfe von CAD-Tools immer
einfacher (Gershenfield 2005, 113-114) und billiger, genauso wie die Software für Spiele.
Wenn die Praxis persönlicher Fabrikation einen tief im Menschlichen verwurzelten Wunsch,
etwas zu schaffen, ausdrückt, ist dies eine in der Tat ständig vorantreibende Inspiration für
diese Kreation. Kommunikation wird auch hier immer wichtiger. Eins dieser Beispiele, nicht
nur in den Industrieländern sind die selbst gebastelten Satellitenanlagen in Indien. Eine neue
Dimension wird erreicht durch Kommunikation zwischen Maschinen. Die Kunden werden
dabei immer mehr als Gemeinschaft angesehen. Die digitale Fabrikation und die Persona-
lisierung der Produktion gehen Hand in Hand. Auf diese Art und Weise wird eine neue Form
des Ingenieurswesens und der Praxis der Konstruktion geschaffen. Diese geht über konven-
tionelle CAD-Ansätze hinaus. In der Zukunft wird es eine Fabrikation geben, die keiner
Menschen mehr bedarf, weder der Ingenieure, noch der Arbeiter. Auch die molekulare Fabri-
kation wird weitgehend automatisiert sein, genauso wie Rapid Prototyping und der Aufbau
von Konstruktionsmodellen (Gershenfield 2005, 122-261).

Betrachten wir intelligente Technik noch ein wenig näher, denn sie ersetzt in Zukunft das
stählerne Gehäuse der Technik durch einen technischen Kokon. Im vernetzten Haus wächst
zusammen, was bisher nicht recht zusammen passte: Computer, Unterhaltungselektronik und
Haustechnik. Einheitliche Standards machen die Komponenten kompatibel und bezahlbar. So
steigt auch die Nachfrage. Überraschend wichtige Antreiber der zunehmenden Technisierung
sind Senioren. Intelligente Haustechnik gilt noch immer als Inbegriff weltfremder Technik-
verliebtheit. Aber bei Nutzimmobilien wie Büros und Hotels gehören Feature wie eine zen-
trale Lüftungs- und Heizungssteuerung längst zum Standard, bei hochwertigen Häusern
zählen sie zur gehobenen Ausstattung und in schlichten Mietwohnungen beginnen sie gerade
heimisch zu werden. Die drei zentralen Gründe für vernetzte Haustechnik seien – neben ei-

227
nem gewissen Angeberpotenzial – Sicherheit, Energiesparen und Lebenserleichterung für kör-
perlich oder geistig beeinträchtigte Menschen. Komfort ergibt sich daraus eher als Neben-
effekt. Die Wohnungsbauwirtschaft hat Probleme: die Mieter werden älter, die Fluktuation
steigt, die Ansprüche werden individueller, der Leerstand nimmt zu. Durch intelligente Haus-
technik könnte man einen Wettbewerbsvorteil erzielen (Technology Review 03/2007, 62f.).

Das Projekt des „smarter Wohnens“ verknüpft vernetzte Raummelder, die per Telefon Alarm
schlagen, mit Fenstersensoren, die Einbruchsversuche melden, Bewegungsmelder, die
automatisch das Licht im Flur an und ausschalten mit den Heizkörpern, die jeweils zentral
gesteuert werden. Für sich genommen klingt das unspektakulär, vernetzt jedoch lassen sich
aus diesen Anwendungen eine ganze Reihe von Dienstleistung wie Pflegedienst, Sicher-
heitsdienst oder Lieferservice schneidern. Durch Automatisierungstechnik lässt sich allein
dadurch, dass Heizung und Lüftung separat und gezielt für jeden einzelnen Raum gesteuert
werden, bis zu 30% der Heizkosten sparen. Das entspricht ungefähr dem Einspareffekt, den
eine zusätzliche Wärmedämmung bringen würde. Noch mehr Einsparung verspricht eine
selbst lernende Heizungssteuerungsoftware. Tiefkühltruhen, die für eine gewisse Zeit vom
Netz genommen werden, ohne dass dadurch der Inhalt Schaden nimmt, könnten Energie-
spareffekte bringen und zu Verbilligungen führen, wenn man dadurch Nachtstrompreise usw.
in Anspruch nehmen könnte. Die intelligente Haustechnik könnte mehr Energieeinspar-
potenzial als die Photovoltaik haben. Ältere Menschen akzeptieren autonome Technik viel
eher als jüngere. Technikaffine Menschen möchten aus berechtigtem Misstrauen heraus alles
kontrollieren können. Die Technik sollte tatsächlich ambient sein, also im Hintergrund laufen,
und keine expliziten Benutzeraktionen erfordern. Außerdem sollte intelligente Haustechnik
bezahlbar sein. Die Kunden haben ein großes Bedürfnis nach einem einzigen Unternehmen,
dass eine gesamte Lösung liefert und unterstützt dies gilt auch für Küchenlieferservice usw.
(Technology Review 03/2007, 63-67).

Der autonome Rasenmäher ist in der Zwischenzeit realisiert und es gibt ihn in Prototypen.
Autonom bedeutet hier: der Roboter bewegt sich ohne permanente Steuerung durch einen
Herren, nachdem dieser das Arbeitsfeld abgesteckt und Datum und Uhrzeit des Mähers
programmiert hat. Roboterrasenmäher werden elektrisch betrieben, ihre Stromversorgung ist
der limitierende Faktor. Blei- oder Nickelmetallhybridbatterien bieten die nötige hohe Lei-
stung für die Scheerköpfe und sind zu dem vergleichsweise billig. Anfangs hatten sich die
Ingenieure an der Art und Weise orientiert, in der die meisten Gärtner einen Rasen mähen und
ließen ihre Prototypen parallele Bahnen abfahren. Der Kurs folgt heute eher einem
Zickzackmuster, bei dem alle Stellen mehrfach erfasst werden. Außerdem gibt es kleinere
Roboter, die Böden und Velourteppiche staubsaugen, die selbstständig zurückkehren, um sich
wieder aufzuladen. Außerdem gibt es autonome Poolreiniger und Roboter, die nach dem
Sichelprinzip arbeiten (Fischetti 2008, 94f). Sicher werden solche Maschinen für einige Leute
ein Statussymbol sein, aber größte Gruppe, die Roboter bevorzugen wird, könnten Menschen
sein, die es aus welchen Gründen auch immer schwierig finden, Beziehungen zu anderen
Menschen aufzubauen. Für diese Menschen werden Roboter die Lösung für eines der wichtig-
sten Probleme in ihrem Leben. Dabei handelt es sich um Roboter in der Zukunft, die sich
nicht nur physisch mit Menschen messen können, sondern auch über emotionale künstliche
Intelligenz verfügen. Tamagotschis, Furbys oder Ibos seien für diese Menschen bereits
irgendwie lebendig (Bowing, Stieler 2008, 26-30). Nicht so weit in die Zukunft greifen
Vorläufer dieser emotionalen Intelligenz im technischen Design heute. Bisher sind Möbel
immer statisch gewesen. Heute können wir sie mit Intelligenz ausstatten. Der sich ausbalan-
cierende Tisch ist nur eine Möglichkeit. Körperliches Erleben wird von fast allen Forschungs-
richtungen als untrennbarer Bestandteil von Emotio-nen angesehen, der wiederum wichtig für
das Lernen ist. Dies gilt nicht zuletzt im Umgang mit Technik und mit Maschinen. Um aber

228
emotional besetzt zu sein, braucht das technische Artefakt ein Modell seiner Situation, denn
nach wie vor gelten Emotionen vielen als die Eigenschaft des Menschseins schlechthin
(Bowing, Stieler 2008, 32).

Ein Bereich von „Ambient Intelligence“ ist „persuasive ubiquitous computing“. Computer
sind in diesem Zusammenhang die hilfreichen Heinzelmännchen im Alltag. Eine eindeutige
Identifizierung vermutlich biometrischer Art wird hinzukommen, ein funktionales Handy
(Smartphone) ist schon heute möglich und in der Einführung. Das Problemfeld ist die mobile
Energieversorgung für diese Geräte. Außerdem braucht es immer mehr standardisierte
Schnittstellen, die von großen Herstellern de facto gesetzt werden. Damit entsteht als zweites
Problem die Bedienbarkeit all dieser Systeme. Nutzung beruht auf Redundanz. Eine leistungs-
fähige Erkennung in der Umgangssprache ist der Ausgangspunkt für eine akzeptierbare
Robotertechnologie. Das Problemfeld Datenschutz und Datensicherheit ist ebenfalls in viel-
facher Form im Hinblick mit moderner Techniknutzung verbunden. Außerdem entstehen
Rechtsfragen und das Problemfeld der Vermarktung im Sinne des Verkaufs von Technik an
Kunden, die schon fast alles haben. Wie sind die ersten beiden Nutzer-Gruppen zu gewinnen?
Intelligente Haushaltsgeräte und Homenetzwerk sind gefragt. Wir werden vieles Online be-
stellen und dort schauen, was es sonst noch gibt. Dadurch können dann auch Innenstädte
wieder veröden, wenn hier keine neuen Angebote entstehen. Neue Werbestrategien sind
erforderlich. Systemabstürze bei vernetzten Homecomputern bedeutet dann aber: Nichts geht
mehr, man kann noch nicht einmal mehr telefonisch Hilfe bestellen. Werden wir also in einem
Technologiedesaster enden und an unseren eigenen Technologien ersticken? Wahrscheinlich
nicht. Der Kunde muss lernen zu fragen, was er wirklich braucht, und die Hersteller müssen
daraus lernen und Technik für den Menschen entwickeln. Technik, die unauffällig funk-
tioniert und den Menschen wirklich unterstützt (Zühlke 2005, 145-160).

Ambient Intelligence ist ein neues Paradigma in der Informationstechnologie, das Visionen
von einer zukünftigen Gesellschaft entwirft, in der Menschen leben und arbeiten in künst-
lichen Umgebungen, die den Handelnden erkennen bzw. wieder erkennen und auf diesen in
intelligenten Arten und Weisen reagieren. Menschen sind dann umgeben von möglicherweise
hunderten von intelligenten untereinander verbundenen Computern, die persönlichen Bedürf-
nissen und Wünschen des Nutzers wahrnehmen und daher Aktionen durchführen, die wahr-
genommenen Bedürfnisse zu befriedigen. Ambient Intelligence (AmI) verbindet zwei
Haupttechnologien miteinander: „Ubiquitous Computing“ und „Intelligent User Interfaces“.
„Intelligent User Interfaces“ (IUI’s) haben zwei unterschiedliche Eigenschaften: sie „wissen“
um bestimmte Zielbildungen und haben ein „Bewusstsein“ von Situationen und Kontexten,
zumindest aber die Fertigkeiten der Modellbildung solcher Situationen. Ambient Intelligence
Systeme können sowohl in der häuslichen Umgebung wie in beruflichen Organisationen zu
finden sein (Brey 2005, 91-93).

Menschen haben oft gewisse Schwierigkeiten herauszufinden, was sie denn genau wollen
oder brauchen. So scheint es eine echte Hilfe zu sein, wenn Computer für sie die Ent-
scheidung übernehmen, vor allem, weil sie ein größeres Wissen über die Bedürfnisse der
Benutzer haben als die Nutzer selbst. Einige der Proponenten von AmI haben daraufhin
gewiesen, dass Computer in der Tat ein besseres Verständnis von Menschen haben könnten
als Menschen von sich selbst. Computer sammeln ständig Daten über eine Person in einer
lang anhaltenden zeitlichen Periode, so dass sie „Schlussfolgerungen“ ziehen können über die
Wünsche, Präferenzen und Bedürfnisse, die Menschen gar nicht über sich selber herausfinden
können. Diese könnten dann verwendet werden für eine bessere Vermarktung der Produkte,
also für silent commerce. Intelligente Kühlschränke, Szenarios für den Gebrauch und den Ein-
kauf per Internet, gezahlt wird und drahtlose elektronische Überweisung. Aufgabenerledigung

229
von der Küche und dem Wohnzimmer unserer Häuser aus bis hin zu Wochenendreisen und
Automobilen könnte so alles per intelligenter Technik bestellt und organisiert werden. Smart
Commerce könnte eine große Rolle spielen bei der Auftragsvergabe, die über die
traditionellen Formen von Informationstechnologien hinausgehen. Sie können Handlungen,
Ereignisse, Wohnungen, Objekte, soziale Interaktionen sowohl Sprache wie Schreiben, Emo-
tionen und körperliche Zustände erkennen und diese sofern sie gemessen werden können,
lassen sich die gewonnenen Daten an übergeordnete Zentren übertragen, so dass diese über
ihre Bedürfnisse, Präferenzen und Intentionen sowohl wie über Körperdaten bescheid geben
könnten. Es könnte sich um ein vollkommenes System der Überwachung handeln möglicher-
weise sinnvoll, wenn es sich um schwerkranke Patienten handelt, sonst auf einer Kranken-
station behandelt werden müssten, aber auf der anderen Seite natürlich auch bedeutet dies
eine Möglichkeit der Überwachung bis in die tiefsten Privatsphären hinein. AmI hat das
Potenzial sehr tief in die persönlichen Lebensräume von Menschen einzudringen Daten über
sie zu sammeln und diese auf ungeheure Art und Weise zu verbreiten wobei sie den Charakter
von persönlichen Daten die individuelle Verhaltensweise mentale Zustände und soziale
Interaktionen im privaten Raum übermitteln können und diese können übertragen werden an
zentrale Sammelstellen mit einem unglaublichen Grad von Präzision (Brey 2005, 96-99).

Autonome Intelligenz ist die Fähigkeit eines Agenten (Mensch, Tier oder Gerät, z. B. ein
Roboter), in einer wahrgenommen Umgebung die richtigen Entscheidungen (des Handelns)
zu treffen. Richtig heißt dabei, dass die eintretenden Effekte der Handlung einem gegebenen
Ziel des Agenten förderlich sind. So hat z. B. ein mobiler Serviceroboter einerseits einen
aktuellen Auftrag als Ziel (z. B. „Hole ein Getränk aus der Küche“) und andererseits das
permanente Nebenziel, Hindernisse zu umgehen. Wenn auf seinem Weg eine Tür geschlossen
ist, erwartet man als folgerichtige Handlung des Roboters, dass er diese öffnet und dadurch
fährt. Wesentlich sind hier im Sinne der Intelligenz das Erkennen und Einordnen der Umwelt,
sowie die daraus zu ziehenden Schlussfolgerungen. Dieser Befehl des Türöffnens ist nicht fest
durch den Entwickler einprogrammiert, sondern ein Resultat des Roboterdenkprogramms.
Vor diesem Hintergrund verfügt ein einfacher Industrieroboter in einer Produktionsanlage der
z. B. programmiert ist 10 Schweißpunkte an genau vorgegebenen Stellen zu setzten, über
keine autonome Intelligenz (Bullinger 2007, 162). Dennoch muss die dort vorhandene
„intelligente Technik“ erst einmal designt werden, vom Softwareingenieur oder Program-
mierer aus herkömmlicher Perspektive, vom Technologie-Designer in meiner Terminologie.

Im Unterschied zur klassischen Künstlichen Intelligenz (KI) ist die Koppelung des Agenten
mit der Umgebung durch Sensoren und Aktoren (z. B. Räder zum Antrieb eines Roboters,
Greifer) ein zentraler Aspekt der autonomen Intelligenz. Intelligenz ist nicht auf Lebewesen
beschränkt. Sie ist auch technisch nachahmbar. So war das Fliegen früher auch eine Fähigkeit,
die nur natürlichen Arten vorbehalten war. Intelligenz bei Spielen mit festen Regeln ist eine
der Möglichkeiten,, autonome Intelligenz in Maschinen zu implementieren. Schachcomputer
als intelligente Partner basieren auch auf dem Prinzip des Suchbaums, allerdings nicht
ausschließlich, weil die Anzahl der möglichen Züge zu hoch wäre. Zu Beginn des Spiels
können zwar nur die acht Bauern und die zwei Springer ziehen, aber sobald die Figuren auf
dem Spielfeld verteilt sind, ist die Anzahl der möglichen Züge enorm groß. Angesichts dieser
Dimensionen setzten aktuelle Schachcomputer Techniken ein, die eine Berechnung des
kompletten Suchbaums vermeiden (Bullinger 2007, 162f.).

Support-Vektor-Maschine (SVM): Dieses Verfahren – aus den neuronalen Netzen


hervorgegangen- ist ein trainierbarer Klassifikator. Eingangsdaten, die als eine Liste von
Zahlen vorliegen, werden nach einem „Lernprozess“ in verschiedenen Kategorien eingeteilt.
Aber es treten auch immer wieder neue Fehlerarten auf. In diesen Dimensionsraum berechnet

230
die SVM eine Trennebene. Diese Ebene wird möglichst so gelegt, dass sie die Lernbeispiele
mit den beiden Kategorien „gutes Werkstück“ und „schlechtes Werkstück“ mit maximalen
geometrischen Abständen voneinander trennt. So können ungesehene Muster bereits nach
Sichtung weniger Lernbeispiele kategorisiert werden. Ein weiterer Anwendungsbereich von
SVM ist die Erkennung von handgeschriebenen Zeichen. Hier liegt die Intelligenz in der
Fähigkeit, handgeschriebene Buchstaben einer fremden Handschrift zu erkennen. Die Trends
liegen in diesem Bereich der autonomen Intelligenz in Formen der Intelligenz durch inter-
aktives Lernen. Eine faszinierende Eigenschaft natürlich-intelligenter Agenten, wie einiger
Tierarten des Menschen, ist die Lernfähigkeit durch Interaktion mit der Umwelt, was auch das
Lernen durch einen Lehrer mit einschließt. Moderne Roboter sollen vollständige
Bewegungsabläufe und Aufgaben durch die Demonstration des Benutzers (Lehrers) lernen,
wobei zwei Formen des Lernens durch Demonstration unterschieden werden: Kontaktbe-
haftetes Lernen durch Berührung und berührungsloses Lernen eines Bewegungsablaufes. Ro-
boter können heute schon das Einhämmern eines Nagels durch Interaktion mit dem Menschen
lernen. Damit in Zukunft auch berührungsloses Lernen möglich ist, müssen Erkennungs-
algorithmen verfügbar sein, die die nötigen Daten über die Körperhaltung des menschlichen
Lehrers liefern (Bullinger 2007, 163-165).

Ambient Intelligence (AmI) handelt von sensitiven, adaptiven elektronischen Umgebungen,


die auf das Handeln von Personen und Objekten und deren Bedürfnissen reagieren. Diese
Vision zieht die gesamte Umgebung in die Betrachtung ein – einschließlich jedes einzelnen
physischen Objekts – und führt diese mit der Interaktion der Menschen zusammen. In einer
von AmI unterstützten Welt arbeiten verschiedene in der Umgebung eingearbeitete Geräte
kollektiv zusammen, während sie die verteilten Informationen und Intelligenz dieses
Verbindungsnetzwerks nutzen. Unterschiedliche Informationen von Sensoren, z. B. Beleuch-
tungszustände, Temperatur – oder Lokalisationsinformationen – werden in verteilten Geräten
der Umgebung erfasst. So wird in der Kooperation von natürlichen Benutzungsschnittstellen,
sensorischen Schnittstellen die Umgebung (Ambient) vollständig abgebildet und intelligentes
Verhalten der Geräteumgebung abgeleitet – daraus entstand der Begriff Ambient Intelligence.
Damit ist es der Umgebung möglich, die Personen, die sich ihr befinden zu erkennen, die
individuellen Bedürfnisse der Personen zu identifizieren, von ihrem Verhalten zu lernen und
in deren Interesse zu agieren und zu reagieren (Bullinger 2007, 264).

Zur Umsetzung von „Kontext-Awareness“ oder Wahrnehmung der Situation wird zunächst
ein drahtloses Netzwerk aus Sensorknoten benötigt. Positionsbestimmungen eines Anwenders
spielen eine immer größere Rolle, weil zur Integration der ihn umgebenden Geräte natürlich
erkannt werden muss, wo sich ein Anwender befindet und sogar auch, in welche Richtung er
schaut. Um einen allgegenwärtigen Zugriff zu erreichen, muss die Verfügbarkeit digitaler
Medien, wie Audio, Video, Bilder und Textinformation zu jeder Zeit und an jedem Ort und
auf jedem Gerät möglich sein. Natürliche Interaktionsformen werden den Alltag des Anwen-
ders wesentlich beeinflussen. Die Interaktionskonzepte zur Kontrolle der Objekte von AmI-
Umgebungen werden nicht mehr zentral umgesetzt, wie dies heutzutage vom PC bekannt ist.
Sie werden vielmehr durch Netze von Rechenknoten implementiert werden, die die An-
weisung des Anwenders interpretieren und dann mittels vorhandener Kommunikationsinfra-
strukturen die Anweisungen an diejenigen Geräte verteilen, die die Aufgabe am besten
umsetzen können. Ansätze multi-modaler Interaktionskonzepte wie Sprach- und Gestiker-
kennung, oder Computervision, beanspruchen rechenintensive Algorithmen, die nur durch
stationäre Computer umgesetzt werden können (Bullinger 2007, 264f).

Dabei bedarf es einer intelligenten Bedienassistenz. Ein digitales Assistenzsystem zielt darauf
ab, Nutzern einen persönlichen Bedienungsassistenten zur Verfügung zu stellen, mit dem er

231
unterschiedliche Geräte und Systeme auf unkomplizierte Weise nutzen kann. So erhält der
Geschäftsreisende, gleich an welchem Ort, direkten Zugang zur technischen Infrastruktur in
seiner unmittelbaren Umgebung, etwa im Konferenzsaal. So entsteht auch das intelligente
Wohnzimmer. Hier gibt es vor allen Dingen unterschiedliche Komponenten, die sowohl die
Versorgung, wie als auch die Unterhaltungsgeräte betreffen. Neben der technischen Vernet-
zung der Geräte steht aber immer im Vordergrund, dass der Benutzer nicht mit technischen
Fragestellungen und Entscheidungen belastet werden soll und dass die Geräte vernünftig im
Sinne der Benutzer kooperieren. So wird z. B. der Sprachbefehl eines Anwenders „Fernseh-
abend mit Krimis“ zunächst über den Ereigniskanal verteilt. Danach gibt es eine Meldung an
den Zielkanal, worauf eine Reihe von technischen Befehlen die betreffenden Geräte zum
Anschalten an der bestimmten Stelle veranlasst. Zur Realisierung dieser Szenarien sind
Infrastrukturen notwendig, die auch Konflikte von Geräten vermeiden bzw. lösen können.
Diese Konflikte können während der Laufzeit eines Geräteensembles durch konkurrierende
Geräte bzw. Komponenten auftreten. Technische Infrastrukturen berücksichtigen die An-
wesenheit von Personen, stellen personalisierte Interaktion bereit und passen sich an das
Verhalten von Personen an. Kooperation von Gerät und Funktionsausführungen finden im
Sinne des Benutzers unter Berücksichtigung seiner Wünsche und Präferenzen statt. Techno-
logische Vorteile wie fortschreitende Miniaturisierung, neue Beleuchtungs- und Display-
technologien und fortgeschrittene Interaktionskonzepte ermöglichen die Integration von
unsichtbaren elektronischen Geräten in die Umgebung des Benutzers und in die Dinge des
täglichen Gebrauchs (Bullinger 2007, 267f).

Aufgabe der Informationssicherheit im engeren Sinne ist der Schutz von elektronischen
Informationen vor Bedrohungen wie Verlust, Manipulation und Spionage. Dieser wird durch
folgende Merkmale erreicht:

(1) Authentizität: Feststellung der Identität von Personen, sowie den zweifelsfreien
Nachweis der Urheberschaft von Informationen
(2) Vertraulichkeit: Vermeidung der unautorisierten Gewinnung von Informationen
(3) Integrität: Unterbindung von unautorisierter und unbemerkter Modifikation von
Information
(4) Verfügbarkeit: Die Ressourcen und Dienste sollen jederzeit zur Verfügung stehen,
wenn dies von befugten Parteien gewünscht wird.

Mit „Malware“ bezeichnet man Computerprogramme, die mit dem Ziel entwickelt werden
Schaden anzurichten. Man unterscheidet dabei Viren, Würmer und Trojanische Pferde.
„Phishing“ und „Pharming“ sind neue Angriffstechniken und zählen zu den größten
Bedrohungen im Internet. Phishing hat zum Ziel, das Opfer mittels einer E-mail auf eine
Nachbildung einer existierenden Website zu locken, z. B. die Seite einer Onlinebank, um dort
an Zugangsdaten zu kommen. Beim Pharming wird dagegen mittels eines Trojaners die
Zuordnung zwischen Domänennamen und Rechneradresse (IP-Adresse) der Onlinebank
manipuliert, so dass das Opfer nach Eingabe der korrekten Webadresse immer auf dem
Rechner des Angreifers landet (Bullinger 2007, 462). Helfen können hier Verschlüsselungs-
verfahren und Verfahren zur Authentifizierung. Die digitale Signatur dient einem sicheren
und rechtsverbindlichen Datenaustausch z. B. bei Verträgen und Bankdaten oder bei der
Kommunikation zwischen Bürgern und Behörden (E-Government). Trusted Computing ist
also das Ziel. Neben den softwarebasierten Maßnahmen zur E-Sicherheit gibt es auch den
Ansatz der vertrauenswürdigen IT-Plattformen. Hauptbestandteil ist ein als TPM (Trusted
Plattform Module) bezeichneter Hardwarebaustein, der auf die Hauptplatine gelötet wird. Das

232
TPM stellt dem Anbieter von Software oder Daten z.B. manipulationssichere Register bereit.
Außerdem gibt es Absenderauthentifizierung bei E-mails und Quantenkryptografiekontrolle
(Bullinger 2007, 463-466).

Auf dem Weg zur Technologie von morgen gibt es grundlegend neue Trends. Zum Beispiel:
Disziplinen greifen ineinander. Auffällig ist, dass die naturwissenschaftlichen Grunddiszi-
plinen Physik, Chemie und Biologie immer stärker auf wechselseitige Hilfe und Einsichten
angewiesen sind. Das gilt für die Fragestellungen ebenso wie für die Methoden. Insbesondere
die Umsetzung der Erkenntnisse in Produkte und technische Anwendungen, macht das
Verschwimmen traditioneller Grenzen offensichtlich. Von der klassischen Biologie über die
Zell- und Molekularbiologie ist Bioingenieurkunst nun mit dem funktionellen Moleküldesign
bei denselben kleinen Strukturen angekommen wie die Physik. Zugleich eröffnen sich damit
neue Wege zur Funktionalisierung. Andere Beispiele sind das Zusammenfügen disziplinärer
Konzepte in Richtung Biologie, wie wir unschwer anhand von Nanotechnologie und
Neurotechnologie oder einzelnen Produkten wie Biochips oder Drug-Delivery-Systemen
erkennen können. Nicht zu verwechseln ist diese Entwicklung mit der Diskussion um die
Bionik in den 70er Jahren. Hier muss klar unterschieden werden: Trachtete man zu jener Zeit
in Ermangelung genauerer Kenntnisse über die molekularen Ursachen biologischer Diszi-
plinen und Prozesse nach eher mechanistischen Übertragungen von Erkenntnissen aus der
Natur auf die Technik, geht es heute um ein Zusammenwachsen der gestalterischen Möglich-
keiten belebter und unbelebter Natur auf Basis solider molekularbiologischer bis quanten-
effektbezogener Erkenntnisse (Bullinger 2007, 3f.).

Verständlicherweise erlebt damit auch der Begriff „Interdisziplinarität“ einen Bedeutungs-


wandel. War er in der Vergangenheit eher durch die Notwendigkeit des Zusammenwirkens
verschiedener Disziplinen zwecks Erkenntnisgewinns geprägt, wird er heute zum elementaren
Erfordernis bei der Umsetzung der Erkenntnisse aus der Grundlagen- und angewandten
Forschung zur Gestaltung neuer Produkte. So erfolgt eine ständige Optimierung und Weiter-
entwicklung. Ein weiterer Trend ist Nachhaltigkeit durch Technologie. Die technologische
Entwicklung zeigt entscheidende Steigerungen der Effizienz und leistet damit Beiträge zur
Nachhaltigkeit. Und der letzte Trend: Unsichtbare Technologien. Der Einsatz neuer Techno-
logien ermöglicht uns, zukünftig Begleiteffekte von Technologien wie Energieverbrauch oder
Raumbedarf zu verringern. Die Diskussion um das Pervasive oder Ubiquitous Computing, oft
sprechen wir auch vom „invisible“ oder „hidden“ Computing, verdeutlicht, dass gerade jene
Technologien einen großen Einfluss auf unsere Zukunft haben werden, die zumindest
augenscheinlich verschwinden (Bullinger 2007, 5-7).

Fassen wir die technologischen Tendenzen der technischen Konstruktion zusammen, die sich
seit etwa der Mitte des 20. Jh. ergeben haben und die ich technologische Hypermoderne
nenne (Irrgang 2008). Klassische Ingenieurstechnik ist verstärkt seit den industriellen
Revolutionen Maschinen- und Anlagenbau. Diese wird transformiert durch die Verwendung
von CAD und den Einbau von Ambient Intelligence (autonom arbeitenden informations-
technischen Systemen wie zum Beispiel ABS im Automobil) zur klassisch hypermodernen
Ingenieurstechnik mit technologischem Design als technischer Konstruktion. Transklassische
hypermoderne Ingenieurskunst auf der Basis von hypertechnologischem Design erzeugt
verstärkt ab ca. 2.000 autonom-intelligente Technik mit Selbststeuerung und Selbstorgani-
sation wie Ambient Intelligence, Robotics und synthetische Lebewesen. „Konstruiert“ oder
besser „designt“ werden „Baupläne“, die sich mit Hilfestellungen selbst realisieren, wie eben
Roboter, die technische Produkte (automatische Produktion) oder weitere Roboter herstellen
oder synthetische Lebewesen, die z.B pharmazeutische Produkte herstellen oder die sich
reproduzieren. Es sind jedenfalls keine Baupläne mehr, die hier gezeichnet werden. Im

233
Computer werden Modelle designt, welche Maschinen steuern, die für uns technische
Strukturen hervorbringen werden (belebt oder unbelebt), in deren Herstellung Menschen
überwiegend in der Modellierungsphase und bei der Kontrolle tätig werden. Dies ist ansatz-
weise Realität. Mein Zahnarzt macht Inlays selbst. Kein lästiger Abdruck mehr, sondern ein
Photo mit der Digitalkamera, einige steuernde Befehle an die Maschine, der ein kleiner
Quader mit dem entsprechenden Keramik-Material (Gold ist ja auch teuer geworden) einge-
legt wurde, das Inlay ist nach ein paar Minuten fertig (nicht nach einer Woche Provisorium
wie früher) und kann eingebaut werden. Die hypertechnologische Wende, deren Anfänge wir
gerade mitbekommen, wirft nicht nur für die technische Konstruktion und das Ingenieurs-
wesen technikphilosophisch interessante und gesellschaftlich höchst brisante Fragestellungen
auf, die zu reflektieren und zu diskutieren sind. Ihnen müssen weitere Untersuchungen folgen.

234
5. Schluss: Neue Nutzerorientierung: Vom Technikvertrauen
zum „Joy of Use“
Nutzerorientierte technische Konstruktion war bis ins späte Mittelalter dominant. Technische
Konstruktion war meist von der Herstellung technischer Artefakte nicht getrennt und wurde
als technische Konstruktion auch nicht nennenswert thematisiert. Die Auftraggeber für die
technischen Artefakte, für die technische Konstruktion im Sinne einer geplanten Tätigkeit
erforderlich war, waren meist Herrscher oder Führer religiöser Art, eine ausgeprägte Theorie
findet sich höchstens ansatzweise. Die Mathematisierung der Technik und die Theoriebildung
erfolgt mit dem Aufschwung eines neuen technischen Berufsstandes, dem Ingenieur, der sich
unter dem absolutistischen Staat mit dem Aufbau einer Verkehrsinfrastruktur, des Militär-
apparates und der Manufakturen beschäftigt und institutionalisiert. In den drei industriellen
Revolutionen wird der Ingenieur zum Motor der technischen Entwicklung. In den industriel-
len Revolutionen dominiert die Ökonomie die technologische Entwicklung und verliert die
Nutzerorientierung aus dem Blick. Das Produktionsparadigma dominiert vor allem in der
Massenanfertigung und in der Fließbandproduktion. Die naturwissenschaftliche Modellierung
wird zum Paradiegma auch technikwissenschaftlicher Theoriebildung.

Nach dem zweiten Weltkrieg und unter den Auspizien des Kalten Krieges folgen auf die
industriellen drei technologische Revolutionen (Irrgang 2008). Sie verändern die Konzeption
der technischen Konstruktion zum technologischen Design. Szientifisches und technologi-
sches Wissen verschmelzen zur Technoresearch zur technologisiert-szientifischen Forschung,
die immer mehr Formen technologisch-wissenschaftlicher Konstruktion bzw. des technolo-
gischen Designs annimmt. Modellierung als Entwicklung von Prototypen (nicht mehr nur auf
dem Papier oder im Computer) wird zum zentralen Interesse des Forschens und Designens.
Meine These: Wir erleben die Geburt eines dritten Grundtyps des Homo Faber neben dem
Handwerker und dem Ingenieur, den technologischen Designer. Die technische Konstruktion
wird – nun auf anderem, nämlich technologischen Niveau – wieder an das Herstellen gebun-
den. Es kommt zu einer Wiederkehr der technischen Kunst-kultur und neuen Nutzerorien-
tierung. Damit verändert sich auch die Theoriebildung in den Technikwissenschaften, die wie-
der mehr zu einer Epistemologie der neuen technologischen Praxis des Designens werden
muss. Sie ist im Augenblick noch eher Zukunftsmusik. Einen kleinen Beitrag dazu möchte
diese Arbeit leisten,

Kontrollierbarkeit und Berechenbarkeit galten lange als Signaturen einer Technik, die wissen-
schaftlich geworden ist. Die Überdeterminiertheit technischer Entwicklungen, die Unbe-
rechenbarkeit komplexer Systeme, die Evolution von Risiken fernab der Möglichkeiten
sicherer Prognosen, der Widerstand betroffener Akteure, Technologien zu akzeptieren, die
Unabsichtlichkeit von Nebenfolgen, sowie die hybriden Konstellationen soziotechnischer
Systeme, die von menschlichen Akteuren und (halb-) automatischen Maschinen bevölkert
werden, haben das Reflexiv- und Unbestimmtwerden der Technologie begleitet. Die immer
enger werdende wechselseitige Vernetzung von Gesellschaft und Technik haben zur Erfah-
rung einer Zunahme an Unbestimmtheit der Technologie geführt. Die rationale Bestimm-
barkeit und Berechenbarkeit von Technologie scheint verloren gegangen zu sein (Gamm,
Hetzel 2005, 9-13). Die fast ungebremste Ausbreitung technischer Artefakte und Verfahren
auf allen Gebieten des öffentlichen und privaten Lebens und die Durchdringungspotentiale
und Eingriffstiefen münden in eine planetarisch ausgelegte Technologie. Die entfesselte und

235
generalisierte Technologie führt zu einer Form von Technik als Medium, wobei sie auch als
materielles Dispositiv, als Infrastruktur oder soziotechnisches System zu begreifen ist. Ethi-
sche Fragen tauchen auf, wenn eine neue Unendlichkeit von kleineren oder größeren Hand-
lungsspielräumen, von Erwartungs-, Entscheidungs- und Bewertungslücken entsteht. Es gibt
eine erstaunliche Bandbreite der Phänomenologie des Normativen. Insofern bedarf es einer
Rehabilitation von Verantwortung. Diese muss Macht- und Eingriffskompetenzen berücksich-
tigen. Ein Problem dabei ist die Zurechnungsexpansion. Die Wandlungsgeschwindigkeit des
Menschen ist ungleich langsamer als die seiner Werkzeuge. Vom Ende des Menschen und
von der Einsicht in seine Bedeutungslosigkeit und Nichtigkeit ist die Rede (Gamm, Hetzel
2005, 17-32).

Die Delegation der Verkettung von Mittel und Zwecken führt dazu, dass Mittel selbst an die
Apparate delegiert werden, zentriert auf eine Medialität, was zu einer Informationierung des
Handlungsraumes führt. Die Koordinationsmechanismen des Mitteleinsatzes selbst werden
problematisch. Daher hat sich ein neuer Pragmatismus angesichts von Effizienzerfahrungen
entwickelt. Monitoring heißt begleitende Überwachung technologischer Praxis. Die Möglich-
keit des Auffälligwerdens von Ereignissen ist zu erhalten. Wir müssen überraschende Effekte
erwarten. Dies scheint paradox zu sein (Gamm, Hetzel 2005, 39-60). Die Nichtfeststellbarkeit
von Technik wird z. B. durch das Ubiquitous Computing demonstriert. Die verschwindenden
Vermittler führen ebenfalls zu einer Nichtverortbarkeit und Unbestimmbarkeit der neuen
virtuellen Technologie. Wir sind gewohnt, technisches und gesellschaftliches Handeln zu
unterscheiden. Der Unterschied verschwindet aber. Die Technik gehört immer mehr zu den
Selbstverständigungsstrukturen unserer Gesellschaft. So entsteht eine phantasmatische Über-
determiniertheit der Technik. Zu entwickeln ist eine neue Form der Subjektivität, die für diese
Art von Technik offen ist. Das bedeutet eine Öffnung der Subjektivität für den Markt (Gamm,
Hetzel 2005, 63-69).

Der Stand der Technik und der der Wissenschaft bieten keinen ausreichenden Schutz
gegenüber dem Fehlverhalten von Systemen. Ethische Urteile über Handlungen können nur
retrospektiv erfolgen. Katastrophen werden, wenn sie einsetzen, zur Normalität (Gamm,
Hetzel 2005, 82-101). Nach welcher Vision sollen wir zukünftige Technologien gestalten?
Eine wahre Sicht von ihnen gibt es noch nicht, denn sie selbst gibt es ja noch nicht. Ergibt
sich die Abschätzung des Katastrophenpotentials einer zukünftigen Technik allein aus ihrer
zukünftigen Unbestimmtheit? Die zukünftige Unbestimmtheit von Innovationen ist besonders
groß (Gamm, Hetzel 2005, 107-122)? Die modernen Maschinen heben die Einsamkeit der
Maschine nicht auf. Sie sind Junggesellenmaschinen. Die Wiederholbarkeit bei einer Maschi-
ne beruht auf dem Treibriemen. Sie stellt aber in dieser Art und Weise auch eine gewisse
Zwanghaftigkeit dar. Sie imitiert den Körper. Allerdings kann menschliches Fleisch technisch
nicht nachgebaut werden. Was bleibt ist die Simulation (Gamm, Hetzel 2005, 152-154). Die
Sicherheitstechnik ist es, welche das Friedlichkeitsgefühl betont. Das Vertrauen aufgrund von
Nichtwissen gehört zur selbstaufgeklärten Moderne. Wir leben im Zeitalter der Nebenfolgen.
Und wir wollen sie kennen. Es entsteht die Gefahr der schrankenlosen, der ziellosen Wissens-
begierde. Die Metapher der Grenze und des Horizontes sind in diesem Zusammenhang wich-
tig. Allerdings muss die ständige Verschiebung des Horizontes mitbedacht werden. Letzt-
endlich glückt Vertrautmachung und führt in diesem Sinne zur Akzeptanz (Gamm, Hetzel
2005, 185-196).

Es gibt verkörperte Roboter, die als Simulation von Menschen gelten können und
evoluierbare Hardware, die die Fähigkeit zur Selbstreparatur, zur Selbstreproduktion oder
auch der Anpassung des Körpers an jeweils veränderte Umweltsituationen ermöglichen soll.
Offenheit, Unsicherheit und Unbestimmtheit gehören zunehmend zur Conditio Humana. Das

236
Unbestimmte wird damit interessant. Eine neue Flexibilität wird von menschlicher Intelligenz
verlangt. Insofern sind auch individuelle Konzepte der Lebensführung wieder aktuell (Irrgang
2007a, Gamm, Hetzel 2005, 224-231). Unsicherheit als Kennzeichen von Technologie ist aber
nur eine späte Wiedererinnerung an ein Phänomen, welches als Grundzug von Technologie
überhaupt aufgefasst werden kann. Abgesehen von der Zeit, in der Technik als angewandte
Naturwissenschaft verstanden wurde, erwuchs Technik aus einer Praxis, die sich als Techno-
logie beschreiben und theoretisch erfassen lässt – und zwar überwiegend als Kunst, nicht als
Wissenschaft. Selbst routinierte Kunst ist aber anfällig für Misslingen, innovative umso mehr.
Insofern ist Unsicherheit ein Kennzeichen von Technologie überhaupt und nicht auf moderne
oder supermoderne Technologie beschränkt. Allerdings führt Rückvernetzung und Struktur-
bildung zu einer Erhöhung der Komplexität und damit zu einer erhöhten Wahrscheinlichkeit
des Misslingens und Scheiterns. Die in Leitständen nicht automatisierten Prozesse erfordern
vom Bedienpersonal kognitive Operationen. Da durch die Installation eines Leitstandes die zu
verarbeitende Datenmenge stark ansteigt, entsteht bei Funktionen, die nicht vom System
übernommen werden, häufig ein Engpass, der die kognitiven Anforderungen an den Bediener
erhöht. Die Einführung von Leitständen erfolgt häufig stufenweise. Die bislang manuell
durchgeführten Steuerungs- und Planungsfunktionen werden sukzessive in Leitständen imple-
mentiert. Dies führt zu Defiziten im Funktionsumfang des Leitstandes, der von den Bedienern
kompensiert werden muss. Prospektive Maßnahmen der Arbeitsgestaltung werden nur in sehr
seltenen Fällen eingeleitet. Die Anforderungen des Leitstandspersonals werden polarisiert, im
Normalbetrieb wird die Informationsverarbeitung vom System übernommen. Die Anforde-
rung an die Bediener beschränkt sich auf Überwachungsaufgaben, es tritt eher eine kognitive
Unterforderung auf. Bei nichtrealisierten Funktionen, bzw. Störungen muss das Bedienper-
sonal dagegen die Engpässe kompensieren. Hier treten eher kognitive Überforderungen ein
(Lindackers 1994, 44f).

Der Einsatz von Industrierobotern als Pressen verursacht, gemessen an der Zahl der installier-
ten Einheiten, jährlich mehr Unfälle im Vergleich mit den herkömmlichen Pressen
(Lindackers 1994, 63). Im Bereich der EDV ist eine verlässliche Kommunikationstechnik zu
schaffen. Auch Fragen der Gewährleistung von Funktionstreue sind zu klären. Man unter-
scheidet in der EDV klassischerweise die drei Sicherheitsprobleme der Integrität von Daten,
der Vertraulichkeit von Kommunikation und der Verfügbarkeit der Systeme (Lindackers
1994, 78). Sicherheit in offenen Kommunikationsnetzen ist ein zukunftsweisendes Thema,
das weit über eine einzelne Disziplin der Softwaretechnik hinausgeht (Lindackers 1994, 82).
Die hier vorgestellte Problematik des Technikeinsatzes verlangt nach einer sozialverträglichen
Weiterentwicklung von Techniksystemen. Die Komplexität der durch den Rechnereinsatz
entstehenden Folgen entzieht sich der umfassenden Analyse durch die einzelnen Wissen-
schaftsdisziplinen (Lindackers 1994, 86f). Folgende Gestaltungsbereiche sind zu berücksich-
tigen: (1.) Strategie und Management, (2.) Organisation, (3.) Personal, (4.) Technik, (5.)
Recht, (6.) Versicherungen und (7.) bauliche Aspekte (Lindackers 1994, 109). Mangelndes
Sicherheitsbewusstsein kann die Wirkungen von technischen und organisatorischen
Sicherungsmaßnahmen stark reduzieren (Lindackers 1994, 116). Dabei muss beim Program-
mieren insbesondere die Funktionssicherheit von Software garantiert werden können.

Technisches Handeln auf der Basis des Umgangswissens ist ein Wagnis. Dabei ist totale
technische Routine mit geringeren Risiken verbunden als innovative Technik, die ein größeres
Wagnis darstellt. Ein Nullrisiko ist bei technischem Handeln unmöglich. Insofern Technik ein
Wagnis darstellt, ist totaler Technikoptimismus genauso unbegründet und übertrieben, wie
eine umfassende Technikphobie oder ein Technikpessimismus. Die Ambivalenz der Technik
ist bei der Legitimitätsfrage angemessen zu berücksichtigen. Dabei kann die Legitimitätsfrage
nicht durch das technische Handeln selbst beantwortet werden, sondern bedarf der reflexiven

237
Bewertung aufgrund einer Strukturierung. Technisches Handeln in einer komplexen Situation
ist fast immer nur mit eingeschränkter Kenntnis der Folgen verbunden. Technisches Handeln
trägt Wagnischarakter. Die Legitimität technischen Handelns an eine vollständige Kenntnis
der Folgen knüpfen zu wollen, heißt dieses in weiten Bereichen unmöglich zu machen. Die
Legitimitätsbeurteilung muss den begrenzten Möglichkeiten der Technikprognostik Rechnung
tragen. Bei hohem technischen Standard und ökonomischer Potenz (für die versicherungs-
technische Vorsorge getroffen werden muss) können Techniken abgeschafft werden, selbst
die Kerntechnik, auch wenn nicht alle Folgen mit dem Entschluss zum Ausstieg beseitigt sind.
In diesem Zusammenhang ist wichtig daran zu erinnern, dass jede erteilte Legitimation für
Technik eine Legitimität auf Zeit, auf Widerruf darstellt.

Technische Praxis sträubt sich gegen glasklare Eindeutigkeit der Bewertung. Höhere Effizienz
und Rationalität technischer Mittel kann generell kaum in Zweifel gezogen werden. Für
technisches Handeln allgemein sieht diese Bilanzierung noch unsicherer aus, auch wenn der
Normalfall technischen Handelns die Routine und damit das Gelingen ist. Das eigentliche
Problem ist der Umgang und die Bewertung des Neuen in der technischen Entwicklung, denn
dafür haben wir keine Patentrezepte. Das Fazit ist vielleicht ernüchternd, gibt aber keinesfalls
Anlass für Defätismus. Innovative Technik besteht aus Überschreitungen des gängigen
technischen Handelns und Könnens. In der antiken Philosophie galt Maschinen-Technik als
Hybris, als Grenzüberschreitung, und wurde, wie bei Prometheus oder bei Ikarus, bestraft. Die
mechanischen Künste wurden bei den Griechen als Überlistung der Natur und als Bereich des
Widernatürlichen interpretiert. Aber Technik ist ein Ausloten des eigenen Könnens wie Noch-
nicht-Könnens, zumindest von scheinbaren Grenzen, ein Überschreiten des jeweils gegen-
wärtigen technischen Könnens und damit eine Grenzüberschreitung im Sinne des „über sich
hinaus“, wobei technische Entwicklung nicht zum Quasisubjekt erhoben werden sollte. Sie ist
wie technisches Handeln selbst Interpretationskonstrukt (Irrgang 2002c). Technische Ent-
wicklung lässt sich publikumswirksam als Gesamtgeschick dramatisieren, man wird ihr damit
aber nicht gerecht. Der Ausgangspunkt der Legitimitätsfrage für Technik ist ein nüchterner
Blick auf Technik unter den Gesichtspunkten eines begrenzten Wissens, begrenzter Kom-
petenz, beschränkter Prognosemöglichkeiten und drohendem Misslingen.

Technik, bzw. Technologie ist der heute gängige Umgang mit der Welt. Francis Bacon und
René Descartes formulierten das Versprechen der Technologie einer Herrschaft (Kontrolle)
über die Natur und einer Befreiung von Mühe. Die Staatsutopien der frühen Neuzeit, z.B.
Bacons „Neu-Atlantis“ oder Campanellas „Sonnenstaat“ orientierten die gesellschaftliche
Entwicklung am Modell von Wissenschaft und Medizin und versprachen eine Verbesserung
der Lebensbedingungen und eine größere Befriedigung, mehr Freiheit und Reichtum. Der
technisch-technologische Hintergrund unseres Lebens ist nicht zu leugnen. Technik ist
dadurch ausgezeichnet, dass sie im Gegensatz zum Objekt wissenschaftlicher Betrachtung
technische Mittel nicht im Detail kennen muss, um mit ihnen umgehen oder sogar, um sie
hervorbringen zu können. Technik beschäftigt sich nicht mit der Mikrostruktur der
technischen Mittel (Irrgang 2001). Die Ozeanliner „Titanic“ oder die „Queen Mary“ waren
erste Kennzeichen einer modernen Technik, die immer größer wurde. Die Rhetorik der
modernen Wunder der Ingenieurskunst wurde nicht gerade aus Enthusiasmus für Technologie
hervorgerufen, verhinderte allerdings nicht das Heraufkommen eines tiefen Sinnes für die
Ambivalenz gerade jener Technologien, die als Flaggschiffe für technologische Innovationen
galten. Wenn ihre ambivalente Natur erkannt war, ist die Technikfolgenabschätzung als
modernes Wunder von einem impliziten Potenzial, dass zugleich öffentliche Euphorie und
Technikphobie hervorrufen kann (Rieger 2005, 2-4). Modernität im technischen Sinne muss
eindeutig von der modernen Kunst unterschieden werden. Technologische Innovation wird
dem bestehenden Umfeld neue Artefakte zuordnen und einführen, die in gewisser Weise

238
Innovationen vorangegangener Zeitalter beenden. Technologischer Wandel scheint im
literarischen Sinn einen substantiellen Wandel zu implizieren und führt zu physischen
Ausdrücken und Benennungen als Fortschritt oder als Niedergang. Öffentlich Debatten über
die technische Innovation entstanden in einem größeren Umfang in der ersten Hälfte des 20.
Jh. (Rieger 2005, 11-13). Technische Innovationen wurden einerseits als Wunder verherrlicht,
andererseits als Monster mit Angst angesehen (Rieger 2005, 22). Schiffe, Flugzeuge und
Zeppeline signalisierten die menschliche Herrschaft über die Natur in spektakulären Arten
und Weisen. Allein ihre ungeheure Größe führte oft zu Ungewissheiten. Die Beschreibung
dieser Transporttechnologien als Giganten spiegeln eine Kombination von Erstaunen, Bewun-
derung, Referenz und Angst wieder (Rieger 2005, 25). Dabei gab es eine kulturelle
Verwurzelung des öffentlichen Enthusiasmus für die modernen technologischen Wunder
(Rieger 2005, 35).

Auf der anderen Seite führten Unfälle mit diesen Großtechnologien auch zu anwachsender
Furcht vor diesen Technologien. Hier sind insbesondere der Untergang der Titanic und der
Blitzeinschlag in den Zeppelin Hindenburg zu nennen (Rieger 2005, 51). Die Folgen solcher
Großunfälle waren unbeschreiblich, der damit verbundene Schrecken wurde immer
deutlicher. Überlebende von Unfällen genauso wie Reporter, die solche Szenen beobachteten,
wenn Maschinen plötzlich versagten, erzählten oft genug, wie schockiert sie waren angesichts
dessen, was sie gesehen hatten. Die Plötzlichkeit vieler dieser Unfälle führte dazu, dass sich in
der Mehrheit der Fälle nur wenige Lebensrettungsmaßnahmen durchführen ließen. Dies
erhöhte die Destruktivität dieser Unfälle, dass in den meisten Fällen Hilfsmaßnahmen kaum
oder nur in geringem Umfang möglich waren. Während Schiffswracks nach ihrer Havarie
meistens nur sehr wenige Spuren hinterließen, waren die Desaster im Luftfahrtbereich im
vollen Blick der Öffentlichkeit, die auch schreckliche Todesarten und -fälle, meistens Ver-
brennen bei lebendigem Leibe, dokumentierten (Rieger 2005, 54-58). Die Verfechter der
neuen Technologien suchten sich auf Kinderkrankheiten dieser neuen Technologien heraus-
zureden, wobei viele vermuteten, dass hier die Grenzen von technischer Sicherheit offen-
kundig wurden. Die Industrie versuchte neue Strategien einzuführen und Sicherheit innovati-
ver Technologien zu demonstrieren. Die Kompanien und ihre Konstrukteure lenkten die Auf-
merksamkeit auf verschiedene Konstruktionseigenschaften, die lebensgefährliche Situationen
von Fronttechnologien abwenden sollten. Auch Lebensrettung sollte immanent in die Techno-
logien eingebaut werden (Rieger 2005, 71-73).

In vielen technologischen Bereichen wird die Bewertungsmethode des technologischen


Fortschritts eine Kombination von wissenschaftlicher Theorie, Ingenieursprinzipien, techni-
schen Faustregeln, Gesetzmäßigkeiten, Gerichtsentscheidungen, allgemein akzeptierter mora-
lischer Vorschriften und Verwaltungsvorschriften, genauso wie von professionellen Inge-
nieur-Standards und die akzeptierten Techniken verschiedener Disziplinen umfassen, um ei-
nen adäquaten Beschreibungsrahmen für technische Entwicklung abzugeben (Bugliarel-
lo/Doner 1983, 240). Im Hinblick auf die Beschreibung technologischer Revolutionen wer-
den einige der Faktoren von größerer oder geringerer Bedeutung sein. Die Kategorie der
Nebeneffekte wird wohl unter dem Aspekt technischer Problemlösungspotentiale erneuert
werden müssen. In diesem Zusammenhang wird sich das erfindende Team auf normale tech-
nologische Problemlösungsverfahren zurückbeziehen, bis ein neuer Korpus von Anomalien
sich aufbaut und ein neuer Innovationszirkel angeregt wird (Bugliarello/Doner 1983, 249).

Berechenbarkeit gilt als Signum der Moderne, Kalkulierbarkeit scheint ein wesentliches Ele-
ment neuzeitlicher Rationalität zu sein. Risikomanagement ist eine Form der Beschränkung
des Risikohandelns (Banse 2002, 212f). Risikomanagement bezieht also das Moment der
Überraschung, des Anders-als-erwartet-Seins in die Überlegungen mit ein. Man kann davon

239
ausgehen, dass das Streben nach Sicherheit – verstanden als Abwesenheit von Gefahren, von
Gewissheit, von Kontingenz usw. – ein menschliches Grundbedürfnis ist, eine Wertidee hoch-
differenzierter Gesellschaften. Risikowissen, Risikohandeln und Risikomanagement – Risiko-
überlegungen generell – lassen sich der Erreichung dieses Ziels, dem Gewinnen bzw. Her-
stellen von Sicherheit, mithin der Überwindung von Unsicherheit, zuordnen. Das Herstellen
von Sicherheit ist in diesem Verständnis Überwindung nicht-handhabbarer Zusammenhänge
(z.B. in Form von Kontingenz und Ambiguität), deren Überführung in handhabbare,
strukturierte, systemische Formen angestrebt wird. In diesem Sinne der produktiven
Handhabung (Beherrschung) von Unbestimmtheit soll Mehrdeutigkeit auf diese Weise in
erster Linie nicht in Eindeutigkeit überführt werden, und Zufälligkeit nicht auf Notwendigkeit
zurückgeführt werden, sondern es geht um einen Umgang mit unvollständigem Wissen.
Risiko ist zunächst ein spezifischer Ausdruck von Unbestimmtheiten hinsichtlich zukünftiger
Ergebnisse technischen Handelns. Dem Programm der technischen Risikoanalyse liegt die
Annahme der Wiederholbarkeit der Phänomene zugrunde: gleiche Schadensursachen führen –
bei gleichen Bedingungen – zu gleichen Schadensfällen (Banse 2002, 217-220). Anzustreben
ist also eine fehlerfreundliche Technik.

Berechenbarkeit und Kontrollierbarkeit versagen in dem Maße, wie Einflüsse und Rahmen-
bedingungen vielfältiger und komplexer werden. Dies führt zu einer Degradierung des
Menschen auf Restfunktionen. Erfahrungswissen und Technikentwicklung zeigen, dass ein
linearer technischer Fortschritt nicht möglich ist. Eine gewisse Kritik der Praxisferne von
Ingenieuren ist daher berechtigt. In besonderem Maße müssten die technischen Praktiken in
der Forschung berücksichtigt werden. Die Anforderungen der Praxis gehen über das Lei-
stungsvermögen der Wissenschaft deutlich hinaus. Deshalb kam es zu einer Technolo-
gisierung der Forschung. Das implizite und leibliche Wissen muss durch eine reflexive Ver-
wissenschaftlichung von Technik und Bildung ergänzt werden. Beide Bereiche aber sind auf
Kontextwissen angewiesen. Auf dieser Basis müssen dann Strategien reflexiver Techni-
sierung erarbeitet werden.

Seit 1945 oder seit 1950 ist ein tiefgreifender Umbruch der modernen industriellen Gesell-
schaft beobachtbar, der häufig und in vielfältiger Form die Rede von einer technologischen
Revolution hervorgerufen hat. Es wurden Dutzende von Namen für die Vorgänge formuliert,
die wesentliche Aspekte dieser gesellschaftlichen Transformation durch Technologie be-
schreiben sollten. Aber es handelt sich um einen vielfältigen Prozess mit vielerlei Facetten, so
dass auch zu Recht die unterschiedlichsten Benennungen für diese Transformation heran-
gezogen wurden. Aber eine umfassende Bezeichnung, die in mehrfacher Form hätte befriedi-
gen können, scheint nicht gefunden worden zu sein. Zu vielfältig waren die Prozesse, die
abgelaufen sind, und auf zu vielen Ebenen haben sie sich abgespielt. Zentral waren als Vor-
läufer die Revolutionen in den fundamentalen Kommunikationstechnologien in der zweiten
Hälfte des 19. Jh. speziell in den USA (Siehe Kap. 3). Es kam zu einer rapiden Veränderung
und Wandelsprozessen in den Massenmedien. Zugleich allerdings setzte der Beginn
politischer Restauration ein. So gab es unterschiedliche Formen von Revolutionen. Techno-
logie ist definiert durch die Grenzen, die in einer Gesellschaft beachtet werden müssen. Jede
Technologie erweitert die Handlungsmöglichkeiten und die Kontrollerfordernisse. So kann
von einer Kontrollkrise im Rahmen der Entwicklung moderner Technologien gesprochen
werden, zumindest ansatzweise. Dies hat natürlich Konsequenzen für Betroffenengruppen, die
z.B. ihre Privatheit schützen wollen. Im 20. Jh. wurde die Rationalisierung und Bürokratisie-
rung zur Lösung der Krise der Kontrolle eingeführt. Die Urbanisierung und die industrielle
Revolution verstärkten die Bürokratie und warfen immer mehr Regulationserfordernisse auf.
Anwachsende Infrastrukturen im Hinblick auf Transportkapazitäten einschließlich Eisenbahn,
Dampfschifffahrtslinien und urbanen Verkehrssystemen waren abhängig von Kontrolle und

240
einer Konditionierung dieser Arbeitsvorgänge, damit die korrespondierende Infrastruktur un-
ter Kontrolle blieb. Die Produktion von Massengütern stellte neue Sicherheitsfragen und die
Massenanwendung der Kommunikationstechnologien ebenfalls im gleichen Maße. Massen-
konsum erfordert eine Kotrollrevolution, nicht zuletzt die Massenanwendung der Kommuni-
kationstechnologisierung. Die Digitalisierung verspricht, die Informationsgesellschaft zu ver-
ändern (Beniger 1986, 7-25).

Die Organisation der Kontrolle von Technik hat eine Kontrolllawine ausgelöst. Die Kontrolle
der Reproduktion in der Evolution, die Überbetonung von Kontrollverhalten und verschiedene
Kontrollebenen werden zu gesellschaftlichen Leitbildern. Die genetische Kontrolle und
Designerbabys sind in diesem Kontext fast so etwas wie notwendige Konsequenz (Beniger
1986, 65-115). Kontrolle und die Rationalisierung des Common Sense führen zur Tradition
der Rationalität. Es geht darum, die Kontrolle zu verteilen. Die Kontrolle der Verteilung führt
zu einer Rationalisierung des Jobsystems als Verantwortungssystem (Beniger 1986, 121-158).
Die automatische Kontrolle und Kontrolle durch Automatisierung sind ebenfalls Bausteine
einer neuen Kontrollsystemarchitektur. Supermärkte und Shoppingcenter in Verbindung mit
Kreditkarten machen den Kunden immer gläserner (Beniger 1986, 341). Die bürokratische
Überwachung von Innovationen und ihre Abzählung hängen ebenfalls nicht mit eigentlicher
und echter Innovation zusammen. Massenmedien und Telekommunikation führen zu neuer,
kontrollierter Information und zur Informationsgesellschaft (Beniger 1986, 433).

Die zunehmende Komplexität der Technik hat den Wunsch nach einfacher und benutzer-
freundlicher Technik immer lauter werden lassen. Überall kann man die Grenzen des
Menschen angesichts der Technik bemerken, wie dies die Katastrophen zeigen. Computer und
„Smart Devices“ sind auch im privaten Haushalt immer mehr anzutreffen. Einen ökonomi-
schen Erfolg gibt es nur bei der Benutzbarkeit für alle. Nachdem Funktionalität und geringer
Preis ausgereizt waren, verlegte man sich auf das Design den „Joy of Use“. Die einfache
Benutzbarkeit eines Gerätes wird immer wichtiger. Von der Hardware- ging es zur Software-
entwicklung. In diesem Zusammenhang wird oft von der Softwarekrise und der Standar-
disierung als Antwort gesprochen. Es geht um die Gestaltung der Bedieneroberfläche. Die
Konsequenz war die Höherbewertung der Useware- Entwicklung. Zentral ist in diesem
Zusammenhang die Mensch-Maschinen-Interaktion. Der Nutzer mit seinen Fähigkeiten,
Grenzen und Wünschen sollte bekannt sein. Es wird höchste Zeit, dass sich der Mensch als
Maß der Dinge in der Technikgestaltung begreift (Zühlke 2005, 7-12).

Das Programmieren eines Welttaschenweckers erwies sich als ein Unternehmen, das mehrere
Stunden in Anspruch nahm. Das scheinbar einfache Umprogrammieren der Zeit bei einer
Schaltuhr, die das Heizungs- und Lüftungssystem eines Hauses reguliert, einen neuen Fern-
seher in eine bestehende Anlage zu integrieren, all dies kann sich als höchst unerquickliche
Aufgabe herausstellen. Aus all dem kann man nur herauslesen, dass die Industrie offenbar in
jedem Kunden einen absoluten High-Tech-Freek vermutet. Häufig wird eine Innovation ange-
boten, die zwar viele Vorteile verspricht, aber zunächst für die breite Masse der Kunden
schlecht nutzbar und meist auch zu teuer ist. Aus den Erfahrungen, die wenige Spezialisten
damit machen, kristallisieren sich dann die Bedürfnisse der breiten Masse heraus. Benutz-
barkeitsuntersuchungen zur besseren Kundenzufriedenheit spielen eine immer größere Rolle.
Ein zentral gesteuertes Hausmanagement wird in zunehmendem Maße angeboten. Auch der
Nutzer muss in den Entwicklungsprozess mit einbezogen werden, wobei es „den“ Nutzer
nicht gibt. Oft ist auch die Bedienungsanleitung mangelhaft. Offenbar haben auch alle Alters-
klassen Probleme mit schlecht gestalteten Geräten. Meist wird im Trial- and Error-Verfahren
das Nutzen gelernt, wobei die Bedienung der Knöpfe insbesondere zum Einschalten von
Timern erforderlich ist (Zühlke 2005, 15-28).

241
Ähnliche Probleme entstehen bei der Benutzung von High-Tech-Autos mit Bordcomputern,
Computern zur Streckenwahl und zukünftig auch mit Internetautos. Es gibt viele neue
Funktionalitäten, die die große Masse zwar nicht braucht, die uns allen aber als Fortschritt
verkauft werden. BMW entwickelte einen Bordcomputer mit 700 Funktionen, zuviel für einen
Fahrer während der Fahrt. Der Schwachpunkt des modernen Autos ist die Bordelektronik.
Dabei werden unterschiedliche Fahrervorstellungen zugrundegelegt. Außerdem kann man
sich vorstellen, dass der Fahrer durch E-Mails im Auto abgelenkt wird. Heute werden mehr
und mehr Versuche bei der Fahrzeugentwicklung durch Simulationen ersetzt. Ein Mensch-
Modell für den Autobau ist z.B. RAMSIS. Eigentlich wäre auch ein kognitives Menschmodell
für den Autobau zu fordern, ein kognitiver Dummy. Es geht darum, die Abläufe im Gehirn
detailliert zu verstehen. Die immer knapper werdenden Ressourcen müssen immer besser
genutzt werden. Der Staat muss diese Ressourcen möglichst kostenoptimal bereitstellen. Es
werden immer mehr Nutzungsgebühren erhoben, um die Infrastruktur aufrecht zu erhalten.
Das gilt auch für die Transportlogistik. Der Fahrersitz eines LKW wird sich immer mehr zu
einem Arbeitsplatz verwandeln, der dem Fahrer immer mehr abverlangt. Er wird zum Organi-
sationsbüro. Es wird dem Kunden angeboten, was sein Leben und Arbeiten erleichtert, und
diese Funktionalitäten gilt es soweit zu automatisieren, dass sie möglichst wie das ABS Helfer
im Verborgenen sind (Zühlke 2005, 30-41).

Der Austausch von Computern in Netzwerken ist ebenfalls höchst problematisch. Die Offen-
heit des Internet führte zu immer mehr Inkompatibilitäten. Das Problem der Vielfalt und der
Anforderungsbandbreite entstand mit dem Problem der Kompatibilität und der Vermarktung.
1985 wurde mit dem Apple-Macintosh die Wendung zum normalen PC vollzogen. Dies ge-
schah durch die Wendung des Nutzer-Leitbildes vom Technik-Freak zum Nutzer, der mit dem
Gerät möglichst einfach seine Aufgaben erledigen möchte. Häufig aber wurde ihm eine Tech-
nologiekeule angeboten, die er gar nicht verwenden konnte (Zühlke 2005, 44-50). Ein
ähnliches Problem ist das des Fahrscheinautomaten. Die Gestaltung solcher Automaten ist
schwierig. Ein Fahrkartenautomat in einer japanischen U-Bahn ist für einen Europäer nicht
benutzbar. Auch die Paketabholstation der Deutschen Bundespost war nicht für alle Nutzer
geeignet. Kinder konnten z. B. Pakete im oberen Fach nicht erreichen. Vor der Industria-
lisierung war der Mensch mit seinen Sinnen und technischen Möglichkeiten das Maß der Din-
ge auch im Bereich der Technik. Mit der Industrialisierung und Automatisierung von Fähig-
keiten wurde dies anders. Nun wurde der Mensch den Maschinen angepasst. Computer und
die Steuerung von Anlagen gehören ebenfalls in diesen Bereich (Zühlke 2005, 52-58).
Umfragen suggerieren, dass nur die Deutschen die Betriebsanleitung lesen. Die meisten Kun-
den in anderen Ländern befragen Freunde und Bekannte. Dies nennt man Lernen durch
Nachahmung. Am besten wäre es, wenn man gar keine Anleitung benötigte. Auch dies läuft
auf die Anpassung der Technik an den Menschen hinaus (Zühlke 2005, 73-75).

Viele Grenzwerte basieren auf der menschlichen Informationsaufnahmekapazität. Festlie-


gende Fähigkeiten des Menschen und die damit verbundenen Grenzen sind anzuerkennen.
Das menschliche Hirn ist bestens dafür angelegt, neue Gegenstände zu erfassen. Die Ent-
wickler neigen nicht selten dazu, die Fähigkeiten des Menschen zu überschätzen. Eine Kon-
sequenz dieses Ansatzes in der Technik ist der vermessene Mensch. Es werden Leistungs-
parameter des menschlichen Gehirns, z. B. was die Informationsaufnahme betrifft, einbezo-
gen. Kennwörter sind häufig nicht merkbar, egal ob es sich um die Eingabe bei Computern
oder dem Einlass in Gebäuden oder zu sonstigen Dienstleistungen handelt. Es geht um erlern-
te Handlungsschemata und die Bedeutung mentaler Modelle. Der Mensch erwartet ein
Feedback (Zühlke 2005, 79-103). Menschliches Versagen ist häufig ein Versagen der
Mensch-Maschine-Kommunikation. Die Automatisierung umfasst viele Routinefunktionen.
Der Zugewinn an Flugsicherheit trotz reduziertem Cockpitpersonal ist ein Aspekt. Heute

242
nimmt ein Pilot nicht mehr alle Rohdaten seiner Maschine wahr, da nun viele Routine-
rechnungen vom Computer übernommen werden. Die neuen Systeme sind zumindest in ihrer
Einführungsphase so fehlerbelastet, dass sie Hunderte von Falschmeldungen produzieren. Das
verleitet Piloten wiederum dazu, unsinnige Werte eher auf einen Computerfehler zu schieben,
als auf ein reales Problem. Die Automatisierungseuphorie der 80er Jahre ist ein wenig abge-
klungen, nicht zuletzt wegen spektakulärer Flugzeugabstürze. Nach einigen größeren techni-
schen Desastern in den 80er und 90er Jahren musste man erkennen, dass die Menschen nicht
einfach wegzuautomatisieren sind. Fehler müssen von Maschinen in gewissem Rahmen tole-
riert werden. Die Intransparenz ist ein typisches Phänomen moderner technischer Systeme.
Soviel Transparenz wie möglich und Reduktion von Komplexität erhöhen die Benutzer-
freundlichkeit von technischen Systemen (Zühlke 2005, 104-111).

Einfache Bedienbarkeit und nutzergerechte Geräte sind das Ziel von Software-Ergonomie.
Die Bedienebenen müssen klar unterschieden werden können. Dabei ist zu unterscheiden zwi-
schen (1.) Einfachnutzer, (2.) erfahrenen Nutzer, (3.) Fachmann oder Monteur. In den 50er bis
in die 70er Jahre hinein herrschte das Hardwareingeneering vor, in den 80er Jahren erfolgte
eine Softwarekrise und der Wechsel zur Softwareproblematik. Es gibt keine nachvollziehbare
Strukturierung, keine bewährte Entwicklungsmethodik und keine Qualitätssicherungs-
verfahren in diesem Bereich. Heute kann von einer Bedienkrise gesprochen werden. Die Ent-
wickler haben Benutzerfreundlichkeit nie gekannt. Nutzeruntersuchungen in großem Maße
fehlen ebenfalls. Entwicklungsprozesse verursachen Kosten, und so werden viele Dinge nicht
untersucht. Im Hinblick auf die Useware geht es um Bediensystemgestaltung (Zühlke 2005,
161-173). Die Innovation und die Nutzbarkeit von Geräten orientieren sich immer noch an
den ersten Nutzer- und Käufergruppen. Man versucht mittlerweile auch durch aggressive
Werbung eine Art Hypnose zu erzeugen, die dem Kunden suggerieren soll, dass er sofort auf
den Zug aufspringen muss, wenn er nicht zu den bedauernswerten ewig Gestrigen gehören
möchte. Die Innovatoren und die ersten Anwender lieben den Hype. Der Joy of Use ist ver-
bunden mit einem einfachen Gebrauch und letztendlich auch mit menschengerechter Technik
(Zühlke 2005, 174-177).

Unsere Maschinen führen uns an riskante Orte, vielleicht im oberen Atmosphärenraum, auf
einen zweitausend Fuß hohen Turm, auf eine künstliche Insel oder sonst wohin und machen
dadurch unser gesamtes menschliches Leben abhängig von risikoanfälligen technischen
Systemen. Alle technischen Systeme, die wert sind, dass sich Menschen für sie interessieren,
sind so komplex und so weitläufig, dass man sie eigentlich nur als Sicherheitsexperte Hand-
haben kann. Menschliche Irrtümer und technische Fehlfunktionen greifen ineinander. Dies ist
nicht ein Misslingen an sich selbst, weil viele in redundanter Weise Sicherheitssysteme einge-
baut haben. Es ist aber höchst schwierig und bedarf ausgefeilter Erfahrung, die Kette von
Ereignissen zu unterbrechen, die gerade dabei ist, eine potentielle Fehlfunktion auszulösen
(Chiles 2001, 7). So ist die Checkliste der Aufgaben vor dem Start einer Maschine für deren
Sicherheit zentral (Chiles 2001, 153). Ein Unglück an der technologischen Grenze ist bei-
spielsweise der Untergang der Meeresölplattform Ocean Rangers im Februar 1982. Sowohl
im Flugzeugbau wie in der Raumfahrt wurden Frontingenieure in vielen Fällen Opfer ihrer
eigenen Versprechungen. In vielen solchen Bereichen scheint das allzu große Vertrauen in
Technologie in tragischer Form auszugehen (Chiles 2001, 92). Man kann dieses ein fatales
Vertrauen in die Technik nennen (Chiles 2001, 100). Wichtig für die Bewertung einer neuen
Technik ist daher die Sicherheitsphilosophie und der Sicherheitstest einer technischen Anlage
(Chiles 2001, 112). Die Bediener von industriellen Komplexen oder Maschinen sind häufig
auf ihren Zugang so versteift, dass sie Verbesserungsvorschläge oder auch nur Vorschläge,
von dem gewohnten Weg abzuweichen, nicht erkennen (Chiles 2001, 140). Wir brauchen
Technik mit inhärent sicherer Konstruktion (Chiles 2001, 281).

243
Selbst in besten Technik-Mensch-Interaktionssystemen gibt es einige Effekte von Störungen
und Aus-dem-Ruder-Laufen. Aber auch draußen in der Wildnis oder bei hocheffizienten
Ölförderstationen, usw. gibt es Hunderte von anderen Fällen, in denen der Technikgebrauch
misslingt (Chiles 2001, 283). Dies war schon Homer geläufig. In den erhaltenen Schriften
antiker Gelehrter und Historiker findet sich sehr wenig über Navigation. Küstenbe-
schreibungen dienten als Orientierungsmarken nicht nur der Küstenschifffahrt. Karten und
Weltkarten gab es etwas später. Ptolemäus entwickelte eine wissenschaftliche Kartographie.
Der Gnomon und das Astrolabium dienten als weitere Instrumente. Besonders letzteres kann
den Breitengrad bestimmen. Häufig wurde der Nachtsprung praktiziert. Das heisst, es erfolgte
eine Suche an der Küste nach dem Breitengrad den man erreichen wollte und dem man dann
nachtsüberfolgte. Alles in allem hat die Nautik spätestens im Hellenismus einen Stand er-
reicht, der erst nach dem Mittelalter übertroffen wurde. Auf die geringe Genauigkeit der
Messwerte von Gnomon und Astrolabium ist hinzuweisen. Die Erfahrung der Seeleute musste
dies kompensieren.

Die Risikogesellschaft ist auch eine Vertrauensgesellschaft: Vertrauen ist die dunkle Seite der
entzauberten Welt - und das Vertraute die Seite des Selbstverständlichen, unvermeidlicher
Boden der technisierten Lebenswelt. Die Realgeschichte der Technik in der Moderne ist die
eines erstaunlichen Triumphes – die gesellschafkritische Semantik besteht darauf, diese Erfol-
ge als Marginalisierung nicht-technischer Kommunikation zu deuten, anstatt nach der
Vertrauenswürdigkeit der technischen Entlastungen zu fragen. Wie ist es also möglich, dass
im alltäglichen Umgang mit Technik ganz unspezifische Vertrauensleistungen mit frappie-
render Mühelosigkeit aufgebracht werden? Gemeint sind jedenfalls technische Artefakte, also
technische Gegenstände, eben Sachen, die im Unterschied zu Techniken im Sinne erlernbarer,
regelgeleiteter Handlungsabläufe funktionieren. Es geht also um technische Gebilde in Form
von bereits eingeführten, praktisch erfahrbaren Sachen, typischerweise gängige Verbraucher-
technik, Technik für Laien, wie sie tagtäglich zur Verfügung steht. Es geht um die
Vertrauenswürdigkeit technischer Gebilde. Dabei sollte vielmehr gefragt werden, warum trotz
der vielfach erfahrenen Gefahrenpotenziale von Technik und ihrer sozialen Kosten unsere
Gesellschaft – vergleichbar dem, worauf Webers „Einverständnisgemeinschaft“ zielte – als
Vertrauensgemeinschaft in Technik bezeichnet werden kann. Ansätze einer Normalform der
Technik in ihrem Funktionieren sind weiter zu entwickeln. Doch das – im Sprachgebrauch
Heideggers – Unheimliche der technisierten Welt ist aber doch das Funktionieren der Technik
und nicht ihr erwartbares Scheitern (Wagner 1992, 1-3).

Technikvertrauen als Autoritätsvertrauen oder die moderne Gesellschaft als technische


Vertrauensgemeinschaft finden sich bei Max Weber. Weber unterscheidet Einverständnis in
eine rationale Ordnung (sei sie technischer, sozialer oder symbolischer Art) vom Verständnis
ihrer Komplexität: Einverständnis und Verständnis sind nicht identisch.
Einverständnishandeln wird von Weber als Gewohnheitshandeln klassifiziert (Wagner 1992,
4f). Je mehr wir uns mit technischen Artefakten umgeben, desto kleiner wird der Ausschnitt
des verstandesmäßig Nachvollziehbaren und desto größer der funktional notwendige Bedarf
an Vertrauen (Wagner 1992, 11). Jeder Versuch, zu tatsächlicher Sachbeherrschung zu
kommen, wirft neue verborgene Kontingenzen und latente Unsicherheiten auf. Allerdings
ermöglicht der Zwang zur Selektion die Bewährung erfolgreicher Realisationen (Wagner
1992, 15). Vertrauen in Technik wird nicht durch ethische Überlegung, sondern durch den all-
täglichen Gebrauch erzeugt. Expertentechniken wie Nukleartechniken oder Gentechnologien
haben es so nicht leicht. Sie müssten Artikel für den alltäglichen Konsum anbieten, um so
eine Chance für Akzeptanz zu bekommen. Dies sieht man z.B. an der roten Gentechnologie.
Das Beispiel grüne Gentechnik zeigt, dass Schwellenländer die Chance nutzen, die Industrie-
länder aufgrund einer falschen Naturideologie nicht nutzen wollten.

244
Die Explosionen von Dampfmaschinen gehörten zu den ersten technologiebasierten Kata-
strophen, die als ein Problem der modernen Technologie erkannt wurden. Der Dampfdruck
war so kräftig, dass Arbeiter getötet wurden. Durch Kesselexplosionen wurden Fabrikhallen,
manchmal sogar Häuser in der Nachbarschaft, beschädigt. In den 1830er Jahren bestand die
Hoffnung, dass man diese Explosionen durch neue technologische Entwicklungen beherrsch-
bar machen könnte. Aber dies war nicht die eigentliche technologische Möglichkeit. Das erste
Gesetzgebungsverfahren bezüglich der technologischen Sicherheit wurde in Frankreich im
Jahre 1810 durchgeführt. Die Gesetze für die Dampfmaschine wurden durch Gesetze zur
Verantwortungsfrage, bzw. Verantwortbarkeit zunächst von Eisenbahnunternehmen einge-
führt, dann aber auch von Unternehmern im Allgemeinen. Handlungen und Aktionen gegen
Arbeitsunfälle und Berufskrankheiten sind zentrale Punkte im Umgang mit Technologie. Sie
sind auch die Basis für die Entwicklung besserer sozialer und ökologischer Technologie
(Kornwachs/Hronszky 2006, 20f).

Im Hinblick auf die Technikeinstellung ist Technikfeindlichkeit nicht zu verzeichnen, aber


auch keine Euphorie – eher eine Gleichgültigkeit gegenüber der Rolle, die Technik in unserer
Gesellschaft und im Alltag spielt, ein Nutzinteresse, welches das Konstruktionsinteresse bei
weitem überwiegt, sowie eine rückläufige Wertschätzung für Präzision und Detailgenauigkeit.
Alltagstechnologien werden eher akzeptiert als Großtechnologien, von diesen geht keine
Faszination mehr aus. „Toll-Collect“ als organisatorisch-technisches Versagen coram publico
wird geradezu zum Sinnbild verfehlter großtechnischer Systeme. Die Kritik am Over-
engineering wächst. Mut setzt Vertrauen in das eigene Können voraus. Vertrauen zu sich
selbst ist aber als Zeichen des Wissens um die eigenen Fähigkeiten zu verstehen. In der Fort-
entwicklung wird dann persönliches Vertrauen durch Systemvertrauen ersetzt (Kornwachs
2006, 218-222).

In Situationen der Ungewissheit noch zu vertrauen bedeutet subjektiv, ein Risiko zu


akzeptieren, ein Wagnis einzugehen. Die Begründung einer solchen Vertrauensbeziehung
geht von Erfahrung aus. Jede Erfahrung beruht aber auf induktivem Schließen und ist damit
mit einer gewissen Unsicherheit behaftet. Das Problem der digitalen Signatur entsteht heute,
wenn es um die Authentifizierung des Autors, Urhebers oder Überbringers einer Nachricht
geht. Man kann von einem Vertrauensdilemma ausgehen. Einigung ist nur möglich, wenn
beide Partner ein Minimum an Vertrauen aufbringen. Andererseits kann jedes gezeigte
Vertrauen ausgenutzt und missbraucht werden. Vertrauen ist immer eine riskante Vorleistung,
es braucht deshalb zur Verringerung des Risikos Strukturen, Verfahren, Prozesse, Systeme
und Rituale als „vertrauensbildende Maßnahmen“. Es kann unterschieden werden zwischen
Personen und deren Handlungsdispositionen wie Kompetenzbereitschaft, Handlungsweisen
usw. Hier wird das Vertrauen in die objektive Glaubwürdigkeit angesprochen, der Andere gilt
aufgrund seiner Persönlichkeitsmerkmale als verlässlich. Beim Vertrauen als Attribut von
Wohlwollen ist das Vertrauen das Ergebnis der Einsicht in die fehlende manipulative Absicht
des Anderen (Kornwachs 2006, 225-227).

In der modernen Konsumgesellschaft werden Personen zum Kauf von Gütern angeregt, über
die sie nur wenige Informationen besitzen. Werbung kann daher nicht nur Kaufgewohnheiten
als Entscheidungsgewohnheiten, sondern auch Vertrauensgewohnheiten beeinflussen.
Erfahrung ist demnach in der Technik nicht die Bestätigung eines Gesetzes oder eines regu-
lären Zusammenhangs, sondern das Erlebnis, dass eine gewünschte Funktion durch einen
technisch-organisatorischen Zusammenhang umgesetzt wird oder nicht. Das Erfahren techni-
schen Scheiterns oder Gelingens kann sich auf mehreren Ebenen abspielen (Kornwachs 2006,
229-231). Die gemeinschaftsstiftende Funktion von Technik kommt über die organisatorische
Hülle zustande. Gerade bei gestörten Vertrauensbeziehungen erweist es sich als schwierig,

245
vertrauensbildende Maßnahmen zu finden und umzusetzen. Die Krise des Vertrauens in die
Technologie ist also eher eine Krise des Vertrauens in die Institutionen der Selbstkontrolle.
Insofern ist eine Verbesserung der Zuverlässigkeit technischer Funktionen, also von der
Technik im engeren Sinne, nämlich der Instandhaltung, zu so etwas wie der Verbesserung der
Zuverlässigkeit der Vertrauenswirkung von Technik zu kommen. Das erste wäre in diesem
Zusammenhang die permanente Verbesserung der eigenen Wissensbasis. Das Misstrauen
erweist sich in diesem Zusammenhang als Beziehungsfalle. Der Vertrauensverlust beginnt mit
einem Bruch von Selbstverständlichkeiten. Der Vertrauensverlust begann demzufolge damit,
dass man bemerkte, dass die Technik eben nicht nur Technik ist, sondern auch organisatorisch
vermittelt wird (Kornwachs 2006, 235-239).

Vertrauen in Technik sei eine Sache des Umgangswissen, des tacit knowledge. Man kann es
durch Beweise und Legitimationsstrategien nicht vor der Benutzung erzeugen. Man kann
bestenfalls dazu überreden, den Umgang doch einmal durch Benutzung auszuprobieren. Es ist
letztendlich eine Frage der Routine, des Aufbaus und des Einübens von Routine, des bewähr-
ten Umgangs mit technischen Artefakten, die Vertrauen in Technik schaffen. Man kann
Vertrauen in Technik keinesfalls erzwingen. Die Wiederholung von Resultaten, die Routine
und die Bewährung führen letztendlich zu Vertrauen in Technik. Der Gedanke der Beherr-
schung von Technik im Sinne der Beherrschung eines technischen Artefaktes ist grundsätzlich
nicht richtig. Es geht eher um das Einüben und das Beherrschen von eigenen Umgangs-
Kompetenzen. Die Reproduktion des erfolgreichen Abschlusses eines Experimentes im Sinne
der Bewährung schafft Vertrauen. Es ist also die Wiederholung, nicht die rationale Argumen-
tation, die Vertrauen in Technik schafft. Wenn man einer Technik überhaupt keine Möglich-
keit gibt, sich bewähren zu können, dann hat man dieser Technik niemals die Chance
gegeben, ihre Legitimität unter Beweis stellen zu können. Dies ist aber in der Regel ein
dogmatisches Verfahren, es sei denn, es sprechen gute Gründe für eine extreme Gefähr-
lichkeit einer bestimmten Technik.

Mit der Einführung des elektronischen Büros hat der Papierverbrauch unendlich zugenom-
men. Diese paradoxen Folgen nennt man das „Zurückschlagen der Dinge“ oder die „Rache
der Dinge“. Genau genommen manifestieren sich darin die Risiken technologischer Extra-
polationen. Die Hoffnungen auf eine sich selbst korrigierende technische Welt ist eine Illu-
sion. Dabei muss man von dem Gesamtmodell der „Rache“ zu einzelnen Rückkopplungs-
effekten übergehen. Ausgangspunkt sind die paradoxen Verhaltensweisen technischer Objek-
te. Die meisten nicht intendierten Konsequenzen sind unangenehm, denn die angenehmen
sind höchstens überraschend. Wir entdecken außerdem auch die angenehmen positiven Effek-
te nur nach negativen Erfahrungen. Neue Technologien sind nur wertvoll, wenn wir mit ihnen
neue Nutzungsgewohnheiten an den Tag legen können. Ein Rückschlageffekt ist nicht
dasselbe wie ein einzelner Racheakt. Wenn z.B. die Krebsbehandlung einen weiteren töd-
lichen Krebs erzeugt, dann liegt ein im strengen Sinne Racheeffekt vor. Die Sicherheit ist ein
anderes Einfallstor für Racheeffekte. Alarmsysteme führen zu vielen falschen Alarmen und
Racheeffekte treten auf, wenn wir Technologien institutionalisieren (Tenner 1996, 5-7).

Die Erhöhung der Temperatur in den Städten macht zusätzliche Klimaanlagen erforderlich.
Die Zeitersparnis durch Technik wird häufig durch Wartungseffekte und andere Faktoren
wieder verloren gehen. Kompliziertere technische Effekte erhöhen den Mehraufwand im Um
gang mit einer Technik. Racheeffekte passieren oder ereignen sich, weil neue Strukturen,
Aufgaben und Organisationen mit wirklichen Leuten reagieren müssen in realen Situationen
und auf Art und Weisen, die nicht vorhergesehen werden können. Sichere Technik ist schon
wegen der Techniknutzer nicht möglich (Tenner 1996, 24). Auch die Natur kann nach
Technikeinsatz unerwartet reagieren. Werkzeugsysteme können versagen und ihrer Aufgabe

246
nicht gerecht werden. Teile von Maschinen, die in nicht gewünschter und nicht vorher-
sehbarer Art miteinander interagieren, können ebenfalls zu Racheeffekten führen. Wichtig ist
die Berücksichtigung des Gebrauchs, das Management. Systemeffekte und Handhabungs-
effekte können interagieren. Im 19. Jh. gab es einen technischen prometheischen Titanismus
und einen Gipfel des technischen Optimismus. Tatsächlich aber musste zu allen Zeiten aus
Unfällen gelernt werden. Ein zu hohes Vertrauen in die Technik und in die eigenen Fähig-
keiten führt zwangsläufig zu Fehlern. So haben Katastrophen ein Veränderungspotential und
insbesondere chronische Probleme basieren auf kumulativen Effekten, die manchmal
unwahrnehmbar klein anfangen (Tenner 1996, 15-21).

Die Frustrationen, die durch Technologie erzeugt werden, sind gigantisch. Die Ängstlichkeit
des Menschen um seine Gesundheit ist nur ein mentaler Effekt. Technologische Systeme
erhöhen auch die Gelegenheiten für fehlerhafte Berechnungen und für falsche Prognosen.
Mehr Nahrung macht nicht gesünder. Das moderne Konzept der Nebenwirkungen entsteht im
19. Jh. Besonders viele Infektionen gibt es im Krankenhaus (Tenner 1996, 26-31). Der Be-
reich der Medizin ist ein umfangreicher Bereich für Rückschlagseffekte. Es gibt eine Reihe
von chronischen Krankheiten, die vom Menschen selbst hervorgebracht werden. Diabetes
kann erfolgreich behandelt werden, aber die Kosten sind enorm. Dabei entsteht eine ganze
Reihe von Rückschlagseffekten im Hinblick auf das Überleben. Die psychologischen Folgen
des Krieges sind sehr schwer zu behandeln. Das Überleben von Kinderkrankheiten ist
ebenfalls ein psychologisches Problem. Je älter man wird, umso kränker wird man. Die Ein-
führung von Antibiotika hat zu Resistenzen geführt. Technologischer Wandel erhöht die Rolle
der Art und Weise, wie Zufälle anwachsen.

Viele Bereiche technischer Entwicklung haben Grenzen der Intensivierung. Die Ambivalenz
und der potentielle Katastrophencharakter der Technologie sind hervorzuheben. Der Unter-
gang der Titanic führte zur Einführung eines Seenotrettungsdienstes. Das Automobil und die
Folgen für die Sicherheitstechnik sind ebenfalls zu bedenken. Im Übrigen waren auch Pferde
und Wagen gefährlich. Die Reduzierung von Rückschlageffekten erfordert hohe technische
Intelligenz. Technologischer Optimismus meint in der Praxis die Fähigkeit, frühzeitig böse
Überraschungen zu erkennen, so frühzeitig, dass man dagegen etwas tun kann (Tenner 1996,
277). Tenner beschreibt ein grundlegendes Schema in der Logik technischen Misslingens. Es
gibt noch andere. Dieses Schema aber ist insofern von besonderem Interesse, als hier
Konstruktion, Produktion und Gebrauch ineinandergreifen, insofern die Handlungssituation
besonders unübersichtlich ist und so Fehler leicht entstehen können. Technisches Handeln ist
ein riskantes Handeln, das dem Bestehen verschiedener Gefährdungen Rechnung trägt.
Zudem ist im Zuge des technischen Handelns immer eine Entscheidung darüber zu treffen,
welche Handlung im Anschluss ausgeführt werden soll. Drittens stellt die planend getroffene
Entscheidung angesichts der möglichen Gefahren in der Risikosituation dann ein Wagnis dar,
wenn im entscheidenden Augenblick ein Entschluss getroffen wird, eine Handlung auszu-
führen und nicht etwa zu unterlassen. Die Legitimation kann grundsätzlich auf der Basis einer
Unterscheidung positiver von negativen Aspekten erfolgen (Erlach 2000, 176). Angesichts
der Unvermeidlichkeit von Katastrophen ist es erstaunlich, dass sie so selten sind (Erlach
2000, 207). Letztlich ist es technische Praxis, die Technik angesichts ihres Wagnischarakters
(Risikopotentials) rechtfertigen kann und nicht irgendein theoretisches Konstrukt – und sei
dies die Idee des technischen Fortschritts.

Lernen und Erziehung sind immer schwierig. Dabei gibt es Lernen, um etwas zu wissen und
Lernen, um etwas zu können. Das Problem besteht darin, Nutzung zu lernen. Außerdem
haben wir es im Zusammenhang mit Computer und Internet mit einer neuen Generation des
Lernens zu tun, nämlich mit der „User self Instruction“. Dabei gibt es den Drill und den

247
Praxiszugang zum Lernen. Die Leute wollen keine Benutzerhandbücher lesen und daher brau-
chen wir einen Ansatz, der mit minimaler Belehrung auskommt (Caroll 1990, 1-7). Professio-
nelle Nutzer sind selbstbewusster als nicht-professionelle. Es geht im Wesentlichen darum,
die Situation zu erfassen. Das System und das Training müssen koordiniert werden. Insofern
basieren die neuen Zugänge auf einem Lernen, das versucht, mit dem System zu interagieren.
Dabei geht es um Aufgabenselektion. Die früheren Kenntnisse sollten genutzt werden,
genauso wie Lernen aus Fehlern und aus dem Erkennen von Nebeneffekten erfolgt (Caroll
1990, 17-41). Die Anweisung sollte auf einer Sequenzierung der Arbeitsschritte beruhen und
Schritt für Schritt vorgehen. Dabei sind Konzepte einer begrenzten Intelligenz zugrunde-
zulegen. Auch Fehlermanagement ist gefragt. Die Schreibtischmetapher hat sich im Umgang
mit Textverarbeitungsprogrammen durchgesetzt. Außerdem wird durch Interfaces ein Benu-
tzertraining möglich (Caroll 1990, 56-71).

Das Konzept der minimalen Anleitung übt an realen Aufgaben. Es weiß um die Grenzen des
Lernens und kann erfahrene Nutzer von weniger erfahrenen unterscheiden. Die Pragmatik der
Induktion ist jeweils begrenzt (Caroll 1990, 73-102). Die Erforschung als Instruktion getarnt
ist besser als die direkte Anweisung. Auf die Abenteuer der Sinngebung müssen wir uns
einlassen. Die Bewertung des Designs ist ganz entscheidend. Das Verstehen von Zielen beim
Lernen ist ebenfalls ein wichtiger Punkt. Auf die Art und Weise geht es um eine geleitete
Erforschung (Caroll 1990, 103-138). Improvisieren und Formen des schnelleren Lernens
gehören zusammen. Das Lernen durch das Buch und das Lernen durch die Tat sind zu
unterscheiden (Caroll 1990, 147-176). So entstehen für das Lernen während der Handlung
Aufgabenpfade. Auf der anderen Seite gibt es auch eine theoriebasierte Konstruktion.

Arbeit in der Praxis ist normalerweise viel komplexer, als wir uns diese vorstellen. Die Praxis
eines experimentellen Technikers und auch des technischen Services sind recht
unterschiedlich und anspruchsvoll. Dennoch basieren sie auf Routinen. Außerdem ist auf die
Fragilität der verschiedenen Verständnismöglichkeiten für problematische Situationen hinzu-
weisen. Dies ist nicht zuletzt auch eine Frage der Verfügbarkeit der nötigen Information. Die
Grenzen der Rationalisierbarkeit der technischen Praxis erfordern gelegentlich narrative
Elemente auch innerhalb des Diskurses über Technik. Die Diagnose gilt als Basis für den
technischen Diskurs. Zunächst gibt es Technikergeschichten, die häufiger auch vom Zu-
sammenbruch der Mensch-Maschine-Interaktion sprechen. Techniker arbeiten hart am bes-
seren Verständnis der Nutzer von ihren Maschinen. Es gibt soziale Interaktionen und Inter-
aktionen auch von Technikern. Es geht um die Zähmung der Maschinen in einem Büro (Orr
1996, 1-11).

Die Reputation des Technikers manifestiert sich in der Fähigkeit, Fehler zu vermeiden. Man
muss Betriebshandbücher lesen können und im Team arbeiten. Ältere Maschinen gehen
leichter kaputt. Außerdem ist man mit älteren Maschinen vielleicht nicht so vertraut. Sauber-
keit ist ein wichtiges Merkmal beim Betreiben von Maschinen, außerdem bedürfen viele einer
Aufwärmphase. Zurückliegende Erfahrungen im Umgang mit Maschinen sind bedeutsam für
die Aufgabenerfüllung eines Technikers, genau so wie technische Details. Der Techniker ist
darauf trainiert, den einfachsten Weg der Fehlerbehebung zu suchen. Die Dienstleistungs-
leistungsarbeit ist inkonsistent: manchmal gibt es nichts zu tun, zu anderen Zeiten schafft er es
kaum. Auch die vorsorgliche Wartung und der Ersatz von Maschinen ist Aufgabe des Techni-
kers. Das Justieren der Geräte ist ebenfalls wichtig. Der Fehler der Maschine muss zunächst
durch den Kunden beschrieben werden. Dabei ist zu unterscheiden zwischen gelegentlichen
oder trainierten Nutzern. Der Techniker muss seine Maschinen vor den Nutzern schützen,
genauer gesagt vor Benutzungsfehlern. Mangelnde Erfahrungen im Umgang mit den Geräten
ist eine wichtige Quelle für Beschädigungen (Orr 1996, 14-60).

248
Es kommt zur Spezialisierung der Arbeitsgebiete des Technikers im Team. Die soziale
Dimension des technischen Service wird kaum beachtet (Orr 1996, 62f). Der Techniker muss
eine Beziehung zum Team, zum Benutzer und zur Maschine aufbauen (Orr 1996, 66).
Techniker haben ein gutes Verhältnis zu ihren Kunden, was verwunderlich ist, da sie Kunden
meistens dann treffen, wenn etwas nicht funktioniert. Dabei wird Professionaliät im aussehen
angestrebt (Orr 1996, 78f). Techniker sind stolz auf ihre Maschinen, die Arbeit aber mit den
Maschinen kann auch zu einem Frustrationspotenzial führen. Gelegentlich sind Ersatzteile
erforderlich (Orr 1996, 93-100). Der eigene Service muss dokumentiert werden. Die meisten
technischen Probleme lassen sich schnell lösen (Orr 1996, 104-122). Konfliktsituationen
zwischen Technikern und Kunden gibt es durchaus. Oft wird die heroische Praxis des Techni-
kers hervorgehoben, um sein Selbstvertrauen zu stärken (Orr 1996, 125-142). Techniker teilen
im Umgang mit ihren Maschinen gemeinsame Werte. Außerdem müssen sie auf ein
systematisches Sich Verhalten Können zurückgreifen (Orr 1996, 144-146).

Technische Mittel haben Eigengesetzlichkeiten funktioneller Art, insbesondere den Umgang


mit ihnen betreffend. Aber diese determinieren keineswegs die technische Entwicklung.
Technische Entwicklung ist auch weder autonom, noch außer Kontrolle, sondern insgesamt
im Detail als Wagnis zu beschreiben. Diese Unsicherheit hat zur Folge, dass die Legitimitäts-
frage selbst nicht eindeutig zu beantworten ist. Sie ist eine riskante und riskierte Frage selbst
bei einem tutioristischen Antwortversuch, weil ein solcher grundsätzlich unangemessen ist. In
gewisser Weise hatte Heidegger Recht: Technik ist eine Herausforderung für die Intensi-
vierung des Fragens und Durchdenkens der mit Technik verbundenen Möglichkeiten. Die
technischen Medien werden nicht immer bekannter, sondern immer komplexer, und zwar
nicht nur für den Laien, sondern auch für Experten. Für immer mehr Menschen werden
technische Hilfsmittel zur Blackbox, obwohl das professionelle Wissen über technische Hilfs-
mittel wächst, immer mehr technische Mittel im Hinblick auf das in ihnen implementierte
technische Wissen vertrauter werden. Die anwachsende Spezialisierung ist erforderlich, um
die Struktur technischer Medien auch in ihrem Knowthat zu durchschauen. Dies ist primär
technischer Fortschritt: besseres technisches Know how und Knowing that bezüglich techni-
scher Medien.

Warum wird uns eine neue Technologie so schnell selbstverständlich? Die Frage geht am
Kern der technischen Innovation vorbei. Selbstverständlich wird uns nur die Technologie, mit
der sowieso schon die technologische Textur unserer Lebenswelt kompatibel ist. Der Prome-
theusmythos impliziert, dass die Technik die Lebenswelt von Grund auf verändert. Dies ist
ein philosophisches Vorurteil über Technik schlechthin, denn Technik selbst ist die Wurzel
der Lebenswelt und nicht das unbewaffnete Auge. So bedeutet Technologisierung nicht die
Revolutionierung unserer Lebenswelt, sondern ihre zunehmende Schließung. Unsere Lebens-
welt ist sensomotorisch/technisch und sprachlich konstituiert. Dabei scheint das Problem
hauptsächlich darin zu liegen, dass Technik immer mehr menschliche Potentiale ersetzt und
anscheinend zerstört. Aber auf der anderen Seite schafft sie neue Kompetenzen und Poten-
tiale, bzw. regt solche an, denn der Mensch lernt ja ein neues Können durch Technik dazu. Er
muss nun den Umgang mit Maschinen oder Robotern lernen, wo früher der Umgang mit dem
Werkzeug ausreichend war. Die Technik als solche wurde nicht vom Menschen erfunden, er
lebt schon immer in einer technisch signierten Lebenswelt. Der Mensch hat sich die Sprache
nicht erfunden, Technik und Sprache sind Teil einer biologisch-kulturellen Entwicklung, die
durch Menschen konstituiert wurde, aber auch den Menschen konstituiert. Technik und
Sprache sind die lebensweltlichen Horizonte, in denen Erfindungen und Innovationen
geschehen, oder vielmehr sich ereignen können. Dabei ist zu unterscheiden: eine Technik der
Werke (Artefakte, Handlungsresultate) und eine Technik des Gedankens.

249
Lebenswelt ist insgesamt eine kollektive Kompetenz, die durch die Partizipation von
Subjekten realisiert werden muss. Es gibt keinen prinzipiellen Unterschied zwischen Poiesis
und Praxis, wenn man die herstellende Tätigkeit in den Fordergrund stellt. Die Poiesis steht
meines Erachtens stärker für die routinisierten, automatisierten Handlungsabläufe im Rahmen
des technischen Handelns, die Praxis eher für den unsicheren Teil, in dem Innovationen zu
geschehen haben. Deutlicher unterscheidet sich der Gebrauch der Technik von der Poiesis,
also die Schiffsführung vom Schiffsbau. Umgangsformen mit Technik sind sie allerdings
beide. Die Technikwissenschaften haben sich spezialisiert auf die Analyse technischer
„Erga“, also technischer Werke. Technische Praxis ist technisches Handeln unter Verwen-
dung technischer Mittel zu technischen Zwecken. Sie ist die Realisierung und Implemen-
tierung technologischen Wissens im Sinne technologischer Potenziale. Ist also technolo-
gisches Wissen auch Technik oder beschränkt sich Technik auf Erga? Ich meine, dass techno-
logisches Wissen im Sinne der technischen Potenziale viel wichtiger ist als technische Arte-
fakte. Umgehen Können mit technischen Artefakten begreift das Wesen der Technik viel eher
als die Analyse technischer Artefakte. Machen Können bedeutet technologisches Funktions-
wissen als explizites Wissen, Gebrauchen Können setzt im Gegensatz dazu eigentlich nur ein
technologisches Umgangswissen meist impliziter Art voraus.

Das Herstellungshandlungen zugrundeliegende Denken im Sinne von Können und Wissen,


von implizitem und explizitem Wissen, von Dispositionen und Kompetenzen umfasst das
technologische Potenzial. Technisches enthält die Elemente des Herstellens, des Handelns im
Sinne des Entwerfens und des Arbeitens. Technik stellt mehr her als unmittelbar gebraucht
würde, daher ist sie Grund für den Reichtum und für darüber hinausgehende Schmuckbe-
dürfnisse. Der Schmuck ist ein Teil der Kultur. Technik ist somit eine Lebensform, nicht ein
subjektiv tätiges Hervorbringen. Der Techniker baut ein Haus, eigentlich aber sollte er
Wohnen entwerfen. Es geht nicht darum, dass Technik nur gemacht und weitergemacht wird,
sondern vor allen Dingen weitergedacht wird. Die technische Medialität der Selbstinstru-
mentalisierung des eigenen Körpers, die leibliche Medialität der Selbstgestaltung in leiblichen
Übungen (Sport, Kunst, Wissenschaften, Meditation) eröffnet der Technik einen Weg zum
menschlichen Leib. Die Gegebenheit technischer Artefakte erfolgt im Möglichkeitsfeld ihres
Gebrauchs. Es entstehen technische Gegenstandswelten, die sich technisch gebrauchen lassen.
Der Bergbau behandelt die Erzeugung von Rohstoffen für die Weiterverarbeitung. Auf die Art
und Weise werden technische Experten erzeugt, die andere Anforderungen an die Gebrau-
chenden zur Weiterverarbeitung entwickeln, nämlich für Handwerker. Der Bau von Hochöfen
ist eine technisch hoch stehende Ingenieursleistung und die Montanindustrie gehört zumindest
in das Umfeld der entstehenden Technikwissenschaften. Die Metallschmelze und der Waffen-
bau werden für das Militär oder für andere technische Experten vorgenommen, und nicht etwa
für normale Endverbraucher. Dies ist bei Handelsgütern anders.

Die Verselbständigung der Technik ist ein spezifisch neuzeitliches Phänomen. In der Neuzeit
bringt der kollektive Technikgebrauch völlig neue Chancen und Gefahren mit sich. Welche
Struktur hat die neuzeitliche Technik und wie ist sie mit der naturwissenschaftlichen und
ökonomischen Entwicklung verflochten? Als anthropologisches Merkmal, das wesentlich
zum individuellen und sozialen Leben des Menschen gehört, ist die Technik per se
ambivalent. Sie hat zwei komplementäre Aspekte, die sich gegenseitig ergänzen:

(1) Sie ist ideengeleitet. Als ideengeleitete Praxis steht sie im Dienst des Menschen.
(2) Sie ist naturhaft und als evolutionärer Prozess tendiert sie zur Verselbständigung.

250
Die wissenschaftlichen und technischen Revolutionen der Neuzeit führten zur fort-
schreitenden Fusion von Wissenschaft, Technik und Ökonomie. Hierdurch verselbständigte
sich der technische Fortschritt gegenüber der Technik als einer ideengeleiteten Praxis.
Spätestens seit der Industriellen Revolution im 18. Jh. ist die Technik höchstens noch indirekt
Dienerin der gesellschaftlichen Entwicklung. Die Technik dient nunmehr der ökonomischen
Entwicklung, und diese beherrscht die Gesellschaft. Zu klären ist, welche Steuerungs-
möglichkeiten bestehen, um die Technik in den Dienst einer wünschenswerten gesellschaft-
lichen Entwicklung zu stellen. Hierfür brauchen wir Organisierungswissen, das uns Auskunft
darüber gibt, welche Technologien dem Gemeinwohl dienen und welche nicht (Falkenburg
2004, 45f).

Bacon charakterisierte das Haus Salomon als Einrichtung, die dazu dient, die Grenzen der
Naturbeherrschung bis zum Bewirken aller möglichen Dinge zu erweitern. Danach soll alles,
was technisch machbar ist, auch ausgeführt werden. Allerdings dachte er an Forschungs-
kontrolle in der Form, dass naturwissenschaftliche Erkenntnisse daraufhin überprüft werden,
ob sie sich für die Veröffentlichung eignen oder der Geheimhaltung unterliegen sollten. Die
menschliche Herrschaft erstreckt sich danach auf den kontrollierten Umgang mit Forschungs-
ergebnissen. Ist die Technik also nach Bacons Utopie der gesellschaftlichen Entwicklung
dienlich? Es gibt in Nova Atlantis keine gesellschaftliche Entwicklung. Der Idealzustand ist
im utopischen Staat bereits erreicht. Zum einen gilt Technik seit Galilei und Bacon nicht mehr
wie in Antike und Mittelalter als Überlistung der Natur, sondern als Nutzung der Naturkräfte,
die auf Einsicht in die Naturgesetze beruht. Zum anderen gilt dabei die Vollkommenheit der
immerwährenden Himmelsbewegungen als Modell perfekter Technik. Gelingen oder Misslin-
gen eines technischen Plans liegt nicht nur in der Macht des Urhebers (Falkenburg 2004, 50-
53). Die technischen Utopien aus der zweiten Hälfte des 20. Jh. entwerfen weniger optimisti-
sche Bilder als Bacon. Sie berücksichtigen die heute sichtbare Eigendynamik technischer
Erfindungen und ihrer gesellschaftlichen Verwertung, und sie malen in schwarzen Farben aus,
wie sich die Verhältnisse umkehren: die Gesellschaft wird durch die ökonomische
Entwicklung beherrscht: die Technik wiederum wird zur Dienerin der ökonomischer
Interessen; und die Folgen unkontrollierter Technik drohen global aus dem Ruder zu geraten.
Auch wo kein antimodernistischer Kulturpessimismus und keine antikapitalistische Globali-
sierungskritik am Werk sind, stimmen die Prognosen zuweilen düster. Wie sich die Ent-
wicklung immer leistungsfähigerer Computer auf die Gesellschaft auswirkt, ist derzeit kaum
zu prognostizieren. Es hängt aber drastisch davon ab, was man mit den Computern macht.
Dafür sind primär ökonomische Interessen maßgebend. Denken wir an das Internet. Es wird
als neues Medium angenommen und grenzüberschreitend genutzt. Dabei dient es vor allem
dem uneingeschränkten Zugang zu Wissen und Information, und damit der Demokratisierung.
Daher gilt es, die Ambivalenzen des kollektiven Technikgebrauchs möglichst sachlich und
differenziert auszubuchstabieren (Falkenburg 2004, 55-58).

Was sich mit dem technischen Fortschritt verselbständigt, ist nicht die Technik, sondern es
sind die Folgen kollektiven Technikgebrauchs – die Auswirkungen der Technik auf die For-
men menschlichen Zusammenlebens, auf die Umwelt und auf unsere eigene Natur. Ziel ist es
daher, die Ambivalenzen des kollektiven Technikgebrauchs möglichst genau zu verstehen
(Falkenburg 2004, 62-67). Bei Technik, die fehlschlägt, und auch bei Technik, mit deren
Konsequenzen wir uns nicht mehr auskennen, klaffen die technische Idee und ihre Realisie-
rung auseinander. Der Gebrauch konkreter Technologien schlägt offenbar in der Neuzeit im
Vergleich zum vorneuzeitlichen kollektiven Technikgebrauch dort von planmäßigem Handeln
in unkontrollierte „Naturwüchsigkeit“ zurück, wo die Folgen dieses Gebrauchs unüberschau-
bar werden, weil das Ganze eben doch mehr ist als die Summe seiner Teile. Offenbar haben
die Verselbständigungstendenzen kollektiven Technikgebrauchs in der Neuzeit zwei Wurzeln:

251
die Mechanismen des Marktes und die Gesetze der Natur. Die neuzeitliche Technik ist so
erfolgreich, weil sie auf den modernen Naturwissenschaften beruht. Naturwissenschaft zielt
auf theoretische Naturerkenntnis, Technik zielt auf praktische Umgestaltung der Natur zu
unseren Zwecken. Durch experimentelle Eingriffe werden nur Ausschnitte aus dem Naturzu-
sammenhang erkannt, nicht aber der gesamte Naturzusammenhang. Naturwissenschaftliche
Erkenntnis ist präzise, aber nicht vollkommen. Vollständige Naturerkenntnis ist grundsätzlich
nicht möglich. Heutige Technologien beruhen auf den experimentellen Methoden der Physik,
Chemie und Mikrobiologie. Umgekehrt beruhen die neuzeitlichen Naturwissenschaften auf
der technischen Kontrolle über Naturvorgänge (Falkenburg 2004, 72-79).

Die experimentelle Methode ist darauf angelegt, ein Einzelphänomen auf wohldefinierte
Weise herzustellen und es so weit unter Kontrolle zu bekommen, dass man gleichartige
Phänomene erzeugen kann (Falkenburg 2004, 88). Die Technik verselbständigt sich, wenn ihr
Gebrauch nicht diejenigen Ideen realisiert, die dem Entwurf von Technik zugrundeliegen
(Falkenburg 2004, 93). Soweit die Klimaerwärmung mittlerweile als eine Tatsache akzeptiert
wird, die durch kollektiven Technikgebrauch verursacht ist, besteht auch die Tendenz, sie als
ein unabänderliches „Naturgeschehen“ zu betrachten. Der homo faber ist zugleich ist homo
oeconomicus. Technik zielt auf den effizienten sparsamen, zweckrationalen - mit einem Wort
ökonomischen – Umgang mit menschlicher Arbeitskraft und anderen knappen Ressourcen
(Falkenburg 2004, 100). Aus der ökonomischen Modellbildung resultiert ein Begriff des
Ökonomischen, der sich stark an den Modellvorstellungen der klassischen Physik orientiert.
Der neoklassischen Ökonomik liegt ein atomistisches Modell der Gesellschaft zugrunde
(Falkenburg 2004, 111f).

Technische Innovationen steigern die Produktivität. Dies macht die Arbeit billiger und
vernichtet Arbeitsplätze im Produktionssektor, um im selben Ausmaß neue zu schaffen
(Falkenburg 2004, 116). Die technische Zweckrationalität ist per se auf Funktionalität
angelegt (Falkenburg 2004, 123). Die großen technischen Innovationen, die unsere Lebens-
welt seit Mitte des 19. Jh. revolutionierten, beruhen darauf, die Naturkräfte in ungeahntem
Maße auf naturwissenschaftlicher Basis nutzbar zu machen. Bacons Utopie wurde nun schritt-
weise in die Wirklichkeit umgesetzt. Im Dienstleistungssektor wird wieder verstärkt die
Möglichkeit einer vorindustriellen Technik realisiert, die sich wie einst an externen Zwecken
und wohldurchdachter Funktionalität orientieren. Dies meint Globalisierung oder die Ökono-
misierung von allem (Falkenburg 2004, 130-134). Die viel beschworene Ambivalenz der
Technik hat also viele Aspekte, es ist ein ganzes Bündel von Ambivalenzen. Hier einseitig
Stellung für oder gegen die Technik und ihre heutige Verzahnung mit der Ökonomie Stellung
zu beziehen oder mit Heidegger die Schicksalsmächtigkeit der Technik zu betonen und
Technikverweigerung zu propagieren – solche Haltungen sind nicht besonders hilfreich. Dass
der kollektive Technikgebrauch die genannten Ambivalenzen hervorbringt, ist charakte-
ristisch für die neuzeitliche Technik. Die Ambivalenzen technischen Fortschritts haben mit
den Schattenseiten der Effizienzsteigerungen zu tun, die wir der industriellen Produktions-
weise und der ökonomischen Verwertung technischer Innovation verdanken. Nur nachhaltige
Technik, die langfristig umweltfreundlich und sozialverträglich ist, dient der Gesellschaft
(Falkenburg 2004, 143f). Die Nachhaltigkeitsdebatte wird besonders um die Frage geführt,
inwieweit natürliche Ressourcen durch technisch erzeugte Ressourcen substituierbar sind
(Falkenburg 2004, 150).

Die Debatte um unterschiedliche, stärkere und schwächere Nachhaltigkeitsforderungen ist


fraglos belastet durch ein einseitiges Verständnis des Ökonomischen. Der Verbrauch von
Ressourcen wird vor diesem Hintergrund primär durch Kosten-Nutzen-Rechnungen im Sinne
der traditionellen Ökonomik berücksichtigt, denn die Vertreter der neoklassischen Wirt-

252
schaftstheorie verstehen meist nur die Sprache der Monetarisierung. Die Forderung nach
einem ökonomischen Paradigmenwechsel stößt allerdings auf wissenschaftstheoretische
Probleme. Wie soll ökonomisches Denken, das sich mit der Entwicklung und Steuerung
unserer Wirtschaftssysteme befasst, die Sphäre individueller moralischer Entscheidungen und
ihrer Auswirkungen einbeziehen? Das Verhalten von Individuen, die ihre eigenen, sehr kon-
kreten Interessen verfolgen, ist besser kalkulierbar, als das Verhalten von Individuen, die sich
nach einem abstrakten Menschheitsinteresse richten wollen oder sollen (Falkenburg 2004,
153f). Der kollektive Technikgebrauch hat oft Nebenwirkungen, die ursprünglich nicht einge-
plant waren, und dann, wenn er aufgrund des kollektiven Nutzens extrem schädlich wird,
nicht mehr gestoppt zu werden vermag (Beispiel: Automobil). Dieser kollektive
Technikgebrauch ist quasi naturwüchsig, extrem gefährlich machen ihn die gesellschaftliche
Routine und die kulturelle Einbettung, die von massenhaft akzeptierter Technik ausgeht. Es
ist extrem schwer, eingeführte und routinierte Technik, deren Nutzen akzeptiert ist, durch
neue innovative und nachhaltige Technik zu ersetzen.

Der Versuch, auf der Basis von Umgangswissen moderne Technologie zu denken, führt zu
der Einsicht, dass es zwischen dem Benutzen eines Werkzeuges und dem Führen einer
Maschine keine prinzipiellen Unterschiede gibt, wenn auch graduelle. Selbst das Eingebun-
densein in eine technische Struktur, die quasi automatisch Arbeitsvorgänge oder technische
Prozesse (maschinenmäßig implementiertes technisches Handeln) strukturiert und modelliert,
ist das Ergebnis eines Umgangs mit technischen Strukturen. Wenn technische Strukturen aus-
schließlich durch technische Strukturen hervorgebracht würden, wäre zwar die Umgangsthese
technischen Handelns nicht widerlegt, dann aber wäre die anthropologische Dimension aus
dem technischen Handeln eliminiert. Keineswegs wäre dann Technik völlig sicher, frei von
Störungen. Die Verwissenschaftlichung der Technik ergab sich nicht zwangsläufig aus der
anwachsenden Komplexität der Technik, sondern aus dem Legitimitationsbedürfnis der
Techniker und der gesellschaftlichen Abwertung der Techniker durch das Bildungsbürgertum
in der zweiten Hälfte des 19. Jh. Dabei ist die Verwissenschaftlichung bei der Großtechnik
sicher am wichtigsten und bringt hier auch einen Zuwachs an Sicherheit in der Technik selbst.
Ein Grund für dieses abschätzige Urteil des Bildungsbürgertums über Technik kann in
Goethes scheinbarem Verdikt über die Industrielle Revolution gefunden werden. Mit der
Elektrizität wurde eine Versöhnung von Technik und Kultur vorstellbar. Die Verwissen-
schaftlichung versprach eine Vergeistigung der Technik sowie eine kulturelle Durchdringung
der Technik und erhöhte ihre Legitimität. Die pragmatische Dimension in der Begründung der
Legitimität technischen Fortschritts wurde damit aber übersehen (Irrgang 2008).

Für die technische Erkenntnis und Handlungspraxis brauchen wir über die Sprache hinaus
basalere Symbolisierungen, wie sie im Umgangswissen sedimentieren, eine Symbolisierung
des Visiblen insbesondere in der Geometrie. Eine Symbolisierung effektiven Wissens gelingt
aber nur in Grenzen, da sich dieses Wissen nicht vollständig symbolisieren lässt. Hier zeigen
sich auch Gründe für Grenzen der Legitimierbarkeit für technische Praxis. Man kann das
Gefühl für den Stoff, das technisch zu bearbeitende Material nicht theoretisch oder wissen-
schaftlich ableiten. Es bedarf des fortgesetzten Umgangs, um ein Gefühl für einen Stoff zu
entwickeln. Hier zeigen sich Grenzen der Verwissenschaftlichungsmöglichkeiten technischer
Praxis. Das menschliche Gehirn modelliert den Bewegungsablauf beim technischen Handeln,
auch den Umgang mit technischen Hilfsmitteln. Diese Modellierung versucht das „implizite“
Wissen. Unter dieser Voraussetzung kann technisches Handeln nahezu vollständig in Maschi-
nen abgebildet werden. Es wäre möglich, vollständig menschenähnliche Roboter zu bauen.
Umgangswissen ist aber in gewissen Grenzen in technische Mittel implementierbar und damit
trotz all der ihnen anhaftenden Subjektivität zumindest teilweise objektivierbar. Technisches

253
Umgangswissen selbst kann zwar nicht in Maschinen implementiert werden, aber eine techni-
sche Simulation aus der Dritten-Person-Perspektive (Irrgang 2008).

Die Konstitution der wissenschaftlich-technischen Sphäre oder der wissenschaftlich-


technischen Welt auf der Basis der Technosphäre ist sozial. Ineinander verflochten sind
Wissenschaft und Technik seit der Mitte des 20. Jh. Dies modifiziert die Legitimitätsfrage von
Technik. Nun kann auch zivile Technologie zumindest im Prinzip in umfangreichem Maße
menschliches Leben zerstören und Umwelt langfristig schädigen. Die Überlebenssicherung
der Menschheit als legitimierender Grund für Wissenschaft und Technik wird prinzipiell
fragwürdig. Die Ambivalenz der Technik zeigt sich in ihrer Verknüpfung mit technisierter
Forschung besonders deutlich, ist aber grundsätzlich nichts Neues. Der Konsum symbolischer
Güter wie Ordnung, Sicherheit, Stabilität, Eigentum und Reichtum wird technisch erzeugt und
erhält ideologische Funktion. Das Problem der Ideologiekritik ist allerdings ihre immer
drohende Selbstanwendungsforderung. Reflexive Ideologiekritik ist Teil der Gestaltung
technischer Entwicklung. Vertrauen in Wissenschaft und Technik ist als knappe Ressource zu
bewerten. Wichtig sind dabei die Prozesse der Vertrauensbildung. Jeder Zugewinn an Zuver-
lässigkeit an einer wissenschaftlich gestützten Technik erhöht auch die Glaubwürdigkeit der
dazugehörigen wissenschaftlichen Annahme. Sie beziehen sich auf das standardisierte Labor-
experiment. Mit fortschreitender Technologisierung der Wissenschaft erweitert sich nun aber
sukzessive das Labor auf die ganze – jedenfalls die technologisierte – Welt, und dadurch
ereignet sich nun eine neue Verschiebung: war in der beginnenden, neuzeitlichen Wissen-
schaft jeder Zugewinn an Zuverlässigkeit der wissenschaftlich gestützten Technik zugleich
auch ein Zuwachs an Glaubwürdigkeit der dazugehörigen Theorie und damit der Wissen-
schaft als ganzer, kommt jetzt noch eine weitere Ebene hinzu. Es mag nämlich nun durchaus
sein, dass erfolgreiche wissenschaftliche Experimente zugleich einen Vertrauensverlust be-
wirken, dann nämlich, wenn ihre technische Durchführung im Großlabor der technolog-
isierten Welt unerwünschte Folgen hat (Zimmerli 1997, 190f).

Heidegger thematisierte das Denken in Ressourcen und Beständen, das Denken in Strategien
des verfügbar Machens, aber auch das Denken im Sinn der Nachhaltigkeit, der Erweiterung
und des Schutzes des Bestandes an Handlungsmöglichkeiten für eine sich immer weiter
entwickelnde Menschheit. Für Heidegger ist Technik mit der Tilgung des selbstständigen
Charakters der Dinge verbunden (Luckner 2008, 7f). Dabei ist erstaunlich, wie selbstver-
ständlich einem selbst die neuartigsten Techniken schon nach kürzester Zeit werden, wie etwa
mikroelektronische Geräte so schnell in die Selbstverständlichkeiten der Lebenswelt absin-
ken. Die technische Welt überrascht, so könnte man paradox formulieren, gerade durch ihre
Überraschungslosigkeit. Unsere Lebenswelt ist immer schon von einer technologischen
Textur durchzogen und sicherlich ist diese Textur immer dichter geworden, aber deswegen
wird die Welt, in der wir leben, von der zunehmenden Technisierung gerade nicht revolutio-
niert, denn das hieße ja, in irgendeiner grundsätzlichen Weise geändert (Luckner 2008, 10f).
Eine philosophisch-naturalistische Anthropologie setzt bereits einen Begriff des Mittelge-
brauchs voraus, der für die Grundlegung einer Philosophie der Technik allererst geklärt wer-
den müsste (Luckner 2008, 39). Insofern ist eine Phänomenologie des technischen Denkens
und Handelns erforderlich (Luckner 2008, 41; Irrgang 2009b)). Technische Mangelhaftigkeit
kann repariert oder kompensiert werden. Endlichkeit dagegen muss übernommen werden. Das
Spezifikum der Technik scheint nun gerade in dieser Fähigkeit des Erfindens zu liegen (Luck-
ner 2008, 43f).

Der durch den ‚Satz vom Grund’ geprägte Denkstil ist in letzter Konsequenz materialistisch.
Technik hat es vor allem mit einer bestimmten Form des Wissens zu tun – wir würden es
heute Verfügungswissen nennen (Luckner 2008, 95-97). Technisches Handeln ist nicht das

254
Bewirken eines Zwecks, das heißt eine durch einen bestimmten Mitteleinsatz hervorgerufene
Realisation eines intendierten Sachverhalts, sondern ein Vollbringen des Seins. Es gibt auch
ein Handeln aufgrund indirekter oder reflexiver Intentionen, Handeln ohne äußeren Zweck,
wenn man so will. Wenn dem nicht so wäre, wäre alles Handeln in der Tat technischer Art,
der Mensch reduzierbar auf den Homo Faber und der Ingenieur die Krone der Schöpfung.
Dagegen setzt Heidegger das Konzept des Handelns als Vollbringen. Das Modell zweck-
rationalen Handelns beruht grundsätzlich auf einer Trennung von Erkennen und Handeln.
Insofern muss man Phasen der Handlung unterscheiden. Weil Handlungen, um welche zu
sein, sich als direkte Zweckrealisierung interpretieren lassen können müssen, ist es also
möglich, jedwedes Handeln unter technischen Aspekten zu sehen. Technik beschreibt damit
eine bestimmte Weise des Denkens. Dabei wird der Gegenstand theoretischer Betrachtung auf
der Grundlage bestimmter Praxen reflektiert. Nur aus dem technischen Denken selbst heraus
kann eine Kehre des Denkens erfolgen. Das Sein einer Person aber ist nicht fixiert. Es bleibt
eine bloß äußerliche Medialität der Technik. Es ist nicht der Hervorbringungsakt selbst, der
im Hergestelltsein von etwas terminiert wird, sondern man sollte den Vollzugscharakter und
Eigenwert gerade auch von Herstellungshandlungen sehen (Luckner 2008, 121-133).

Heidegger versucht uns dazu anzuleiten, das Regime der Zuhandenheit zu überwinden. Die
Maschinerie ist gekennzeichnet durch ihr Worumwillen. Die Bedeutung eines Werkzeuges
liegt in seinem Worumwillen. Dieses Worumwillen ist essenziell menschlich. In der Zwi-
schenzeit ist das Equipment global geworden und agiert auch in diesem Sinne. Zerbrochene
Werkzeuge sind nicht mehr effektiv. Insofern kommen für die Gesamtheit der Werkzeuge die
Ausrichtung und die Entfernung der Werkzeuge im Sinne ihrer Als-Struktur zur Geltung. Es
gibt damit eine fundamentale Differenz zwischen Werkzeugen und Organen, wobei die Werk-
zeuge eine Dienlichkeit haben, Organe eine Fertigkeit entwickeln können. Leben ist ein pures
Ereignis, das Erlebnis eines Ereignisses (Harman 2002, 28-83). Zur Erfassung des so genann-
ten Heideggerschen Pragmatismus ist die Poiesis-Praxis-Struktur im Rahmen seines Aristote-
lismus näher zu beleuchten. In Heideggers Sophistesvorlesung von 1924/1925 findet sich die
detaillierteste Diskussion von Poiesis und Praxis. Heideggers Konzeption ist kein Pragmatis-
mus. Okrent, Dreyfus und Rorty lesen den Begriff der Zuhandenheit im Sinne eines prakti-
schen Know hows und bestimmen Heideggers Vorgehensweise als Pragmatismus. Hier hat
Harman durchaus Recht, denn Umgehen Können, verstanden als Kompetenz, ist mehr als nur
Know how. Auch im Paragraph 69 von „Sein und Zeit“ geht es um Theorie und Praxis.
Heideggers Werkzeuganalyse ist nicht mit einer Analyse instrumenteller Aktivität zu ver-
wechseln. Ihm geht es implizit um eine Humanisierung des Werkzeugs. Ist Existieren als per-
manenter Interpretationsprozess zu verstehen? Nein, denn dies wäre eine zu intellektua-
listische Auslegung von Existieren, vielmehr ist Existieren als permanente Realisierung von
Umgangskompetenz zu verstehen. Darin sind selbstverständlich Interpretationsprozesse ein-
geschlossen. Dasein ist nicht bloße intellektuelle Selbstinterpretation, sondern zielt ab auf
Selbstverwirklichung, also auf ein Ineinander von Poiesis und Praxis. Für Harman ist das
Geviert als Interpretament von Zuhandenheit zu verstehen. Zuhandenheit kann in diesem
Sinne als Gebrauchspotenzial verstanden werden. Dabei leitet das Werkzeug an, die Phantasie
zu überschreiten (Harman 2002, 101-216). Die Aktualität ist reicher als die Potenzialität.
Daher ist in besonderem Maße die Relationalität der Werkzeuge wichtig, die die Dienlichkeit
und Potentialität technischer Mittel erhöht. Heidegger hat eine kraftvolle Ontologie der Dinge
entdeckt, wobei das Zentrum seiner Entdeckung darauf hinausläuft, dass Werkzeuge in sich
inhärent relational sind (Harman 2002, 229-296). Das Maß der Technik ist der Mensch.
Technik ist um des Menschen Willen da. Technik ist kein Selbstzweck. Potenzial ist mehr als
Potenzialität, es ist die Grundlage für die Ausübung von technischer Kompetenz. Es ist die
(technische) Anlage, die genutzt werden kann, zur Nutzung quasi auffordert und sofort ver-
fügbar ist, und nicht erst in Jahren (Irrgang 2007d, 2008, 2009b).

255
Denn es gibt Unterschiede zwischen einer technokratisch-totalitären und einer liberal-demo-
kratischen Ausübung technischer Praxis. Die Technizität der Macht ist ambivalent. Selbst
militärische Machtausübung muss nicht hierarchisch sein: neben den Legionen Roms gab es
die Germanenheere und die Hunnen-, Mongolen und Tartarenstürme mit ganz anderer
Kampftechnik. Sicher; die Art der Bewaffnung spielte eine Rolle, aber nicht nur. Die Technik
und ihre Macht manifestiert sich in Drill, Routine, Maloche und Unterdrückung, aber auch in
Kreativität, dem freien Umgang mit technischen Mitteln und Selbstorganisation der kultu-
rellen Einbettung von Technik (Irrgang 2007d). Die Industrielle Revolution hat vermutlich für
mehr als ein Jahrhundert Technik im militärischen Paradigma gefördert und zu einer Produk-
tionseuphorie geführt. Die Macht technischer Mittel, die Potentialität technischer Artefakte
und die bisweilen erdrückende Eigengesetzlichkeit technischer Artefakte mit Sachzwang-
charakter beschreiben die bedrängende Seite der Technizität der Mittel (Kornwachs 2008), die
in ihrer Universalisierung in Technokratie münden. Doch die Macht technischer Praxis, die
im Umgang mit der Technizität der Mittel selbst bedrohliche Formen ihrer Macht herabmin-
dern kann (die sicher utopische Vision, mit einem Panzer nicht auf wehrlose Demonstranten
zu feuern, obwohl man dazu den Befehl hat), öffnet den Blick auf eine andere Form der
Technizität der Macht, nämlich die der technischen Praxis und des technologischen Wissens.
Beide schaffen eine Distanz zu technischen Mitteln und ihren angeblichen Sachzwängen, die
freien Umgang mit Technik und ihrer Einbettung ermöglichen. Die neuzeitliche Theorie der
Macht spricht von Zwang, Bedrohung und Legitimität. Dies sieht man am Umgang mit dem
Phänomen Terrorismus. Die Umgangsthese mit technischen Mitteln im Rahmen einer Kon-
zeption technischer Praxis und Technologie ermöglicht einen anderen Zugang zur Interpre-
tation der Technizität der Macht: technische Macht und technische Praxis schaffen Werte –
positive wie negative. Insgesamt empfiehlt sich ein eher skeptischer Umgang mit der Tech-
nizität der Macht (Irrgang 2007d).

Dass sich in den letzten zwei Jahrhunderten oft die Macht kollektiver technischer Praxis
gegen die Macht des Einzelnen durchgesetzt hat, möchte ich gar nicht bestreiten. Auch ist
eine Machtsteigerung der technischen Mittel in den letzten Jahrhunderten schwer zu leugnen.
Die Ausübung von Herrschaft als Praxis der Macht ist von der Mächtigkeit technischer Mittel
nicht unabhängig. Sie erfolgt instrumental, also durch technische Medien, Werkzeuge, Waf-
fen, Apparate, usw. Die Durchsetzbarkeit technischer Praxis hängt ab von der Effizienz
technischer Mittel. Die Technizität der Maschine, die Instrumentalität des Machtapparates
und der Organisation werden zu solchen totalitären Herrschaftsformen aber erst im Rahmen
der entsprechenden Einbettung. Die technokratische Einbettung ihrer Industrie übernahmen in
der ersten Hälfte des 20. Jh. der US-amerikanische Kapitalismus, der Stalinismus und der
Nationalsozialismus – die verheerende Wirkung war durchaus unterschiedlich. Die Macht des
Apparates und von Organisationen manifestiert sich in der Regelhaftigkeit ihrer Spielregeln.
Technik gewinnt ihre Macht und Mächtigkeit durch ihre menschlich-praktische Einbettung,
denn die Realisierung von Technik ist notwendig mit Wertfragen verbunden. Die Kraft der
Maschine als Naturereignis steht nicht in einem Werthorizont. Aber die Maschine im Kontext
einer technischen Praxis (Betreiben einer Eisenbahn) ist eben nicht nur ein Naturereignis,
sondern mit Wertfragen versehen. An sich betrachtet ist das Handeln eines Roboters unter
dem Aspekt der Kraftübertragung ebenfalls ein Natuereignis (Der Roboter als eindimen-
sionaler Mensch), aber er hat einen Schöpfer und einen Anwender, ist also eingebettet in
menschliche Praxis. Die Technizität menschlich-materialer Praxis und die Sprachförmigkeit
menschlich-kommunikativer Praxis stehen in einem Ergänzungsverhältnis (Irrgang 2007b)
und begründen unterschiedliche Formen von Mächtigkeit. Auch die Sprachförmigkeit
menschlicher Praxis kann instrumentell und künstlerisch-kommunikativ ausgeübt werden. So
wirft die Technik wie ihre Einbettung Ethik auf den Plan. Technik wurde dabei viel zu lange
im Rahmen einer Prinzipienethik interpretiert: heraus kamen Grenzziehungsmoralen, die na-

256
turgemäß immer hinter dem Können hinterherhinken. Erforderlich ist ein anderer Typ von
Ethik, eine situativ begründete Ethik der Technik (Irrgang 2007a).

Technologien als Lebensformen implizieren eine Art von Welt. Es gibt Technologien mit
einer inhärenten politischen Struktur. Sie können zentralisierte oder dezentralisiert, egalitär
oder nicht egalitär, repressiv oder befreiend sein. Die technische Konstitution der Gesellschaft
wird immer offenkundiger. Technik hilft zu kontrollieren und zu organisieren. Rationale
Arrangements soziotechnischer Systeme werden angestrebt. Die Tendenz großer, zentrali-
sierter, hierarchisierter soziotechnischer Arrangements und Größen, sich zu verbreitern und
andere Varianten der menschlichen Gesellschaft zu eliminieren, ist gigantisch. Große techni-
sche Systeme und Organisationen üben Gewalt und Macht aus, um die sozialen und poli-
tischen Einflüsse zu kontrollieren, die offensichtlich sich selbst kontrollieren. Innovations-
wettbewerb bedeutet eine Beschleunigungsfalle für die daran Beteiligten, auch für die Gesell-
schaft, die angesichts der Vielzahl der Innovationen in Wissenschaft und Technik nicht mehr
nachkommt. Sie erschwert die Realisierung einer Reflexionskultur von Technologien, wird
sich aber kaum aus der Welt schaffen lassen, auch nicht durch Moratorien. Das Mittel der
Wahl ist Intensivierung des Diskurses und der Reflexionsarbeit. Technologisierte Forschung
ist projektbezogen, sie orientiert sich nicht mehr an allgemeinen Regularitäten, sondern an
situations- und fallbezogenen Entscheidungen. Lebenslanges Lernen ist eine Folge und eine
Umorientierung der Bildung und Ausbildung. Zu einer Technikkultur gehören auch modifi-
zierte Konzepte der universitären und außeruniversitären Aus- und Weiterbildung, aber auch
einer verbesserten schulischen Information über Technologie und Forschung in ihrer gesell-
schaftlichen und kulturellen Einbindung.

In den USA lebten gesellschaftliche Entwicklungen von Technikvisionen. Die Elektri-fi-zie-


rung der Städte und Haushalte, die Entwicklung des Radios und des Automobils, aber auch
die Technisierung des Alltags, des Büros und schließlich der Raumfahrt stellen solche Visio-
nen dar. In Deutschland, das über eine weit ältere technische Kultur als die USA verfügt,
stand technische Kultur weit hinter der literarischen, philosophischen und künstlerischen
Kultur, deren erzieherischer und humanitärer Aspekt immer herausgestellt wurde. Die Sach-
werte technischer Kultur waren meist durch Inferiorität gekennzeichnet. In Deutschland wur-
de oft das Handwerkerparadigma bevorzugt und das Industrieparadigma mit Militarismus und
Kriegswirtschaft verbunden. Und dies war für die Zeit zwischen 1870 und 1945 vielleicht
noch nicht einmal so ganz falsch. Die Verachtung der Technologie durch die Intellektuellen,
wenn sie wie Heidegger und die kritische Theorie zumindest am Rande auch über Natur und
Technologie nachdachten, wurde als Ausdruck einer Zivilisation mit einer Basis von zwei
Kulturen gewertet – eine Simplifikation, denn es gibt eine Vielzahl technischer und nicht-
technischer Kulturen (Irrgang 2007d).

Der Wert des Nutzens, genauer gesagt des Dienlichen im Sinne eines ethisch qualifizierten
Nutzens, eines am Humanen orientierten Nutzens, empfiehlt die Einübung dieser komplemen-
tären Betrachtungsweise der Nützlichkeits- und der Ethikdimension technischer Praxen. Das
technisch Machbare ist definiert durch das Gelingen, durch das Können; das Dienliche durch
das Glücken. Wenn etwas nicht gelingt, kann es auch nicht glücken. Technikhöhe als Zivilis-
ationshöhe bedarf dieses doppelten Maßes des Gelingens und Glückens, auch wenn dieses
nicht immer leicht zu beurteilen ist. Die Beurteilungsmaßstäbe liefern die Klugheit und das
Gemeinwohl. Das naturhafte Gelingen technischer Handlungen und das vernünftige Glücken
technischer Handlungen sind als komplementär zu betrachten. Der zufällige und der plan-
mäßige Gebrauch der Technik sind ebenfalls zu unterscheiden.

257
Seit der Industriellen Revolution wird der Zukunftsaspekt der Technik immer zentraler für das
technische Handeln. Damit stellt sich die Frage nach dem Entwurf für die Zukunft der
Technik, die wir wollen. Eine technische Utopie, vielleicht eine technische Weltanschauung
sind erforderlich. Das Reflexiv-Werden der technischen Entwicklung in ihrer Ambivalenz und
ihre Zukünftigkeit technischer Entwicklung löst das Paradigma des technischen Fortschritts
ab. Auch die Gattungszukunft des Menschen, die der technische Fortschritt seit der Auf-
klärung propagierte, greift zu kurz, müsste verändert und in ein Konzept nachhaltiger Ent-
wicklung integriert werden. Der konkrete Mensch in seiner Leiblichkeit sollte in den Mittel-
punkt der Bewertung technischen Fortschrittes gestellt werden. Von der hier zufälligen tech-
nologischen Evolution mit Beschleunigungseffekten seit der Industriellen Revolution ist zu
einem Gestaltungsmodell stärker projektierter Technik überzugehen. Die meisten Gestal-
tungstheorien wollen der Technik Grenzen ziehen, nicht die Technologie transformieren. Üb-
lich ist die Formulierung von moralischen Grenzen, die die Rückkehr zu einer neuen Einfach-
heit propagieren. Allerdings muss man auf die Begrenztheit moralischer und politischer
Grenzziehungen hinweisen. Die westliche Theorie besagt, dass alternative Formen der Tech-
nologisierung (in anderen Kulturen und Gesellschaften) nicht möglich sind. Mit einer kultura-
listischen Theorie im Hintergrund kann die Idee einer alternativen Technologie entwickelt
werden. Die ökonomischen Kosten der Regulation sind zu berücksichtigen und die dominante
ökonomische Kultur in ihren Voraussetzungen zu hinterfragen. Technologie wird immer an
sich ändernde Bedingungen angepasst, daher sind alternative Technologien möglich.

Naturwissenschaft und Technik sind eingebettet in ein Geflecht von Tradition, Innovation,
Folgelast und Traditionstransformation. Technische Entwicklung ist als kulturell-geschicht-
licher Prozess zu begreifen. Bedürfnisse und Wertvorstellungen „lenken“ die technische Ent-
wicklung, wodurch die kulturelle Perspektive bedeutsamer ist, als gemeinhin unterstellt. Diese
Art der „Lenkung“ wird allerdings von Geisteswissenschaftlern nicht bevorzugt analysiert,
obwohl sie für ethische Bewertungen nicht uninteressant wäre. Auch eine Ethik der
technischen Entwicklung ist nicht als Kompensation zu begreifen. Die Umgangsthese techni-
schen Wissens und Handelns impliziert auch eine andere Ethikkonzeption. Hier kommt Ethik
nicht zur technischen Entwicklung von außen dazu, sondern die ethische Bewertung ist von
Anfang an ein Teil technischen Handelns. Dies verändert auch Modernisierungskonzepte.
Technische Entwicklung geschieht nicht ausschließlich um ihrer selbst willen, selbst wenn
dies manchmal den Anschein hat. Eine neue Modernisierungskonzeption ist national und
global dringend erforderlich.

Praxen der Technikentwicklung und Technikherstellung, Praxen der Nutzung von Technik
und Praxen, in denen Technik aus dem Verwendungszusammenhang entfernt werden muss
(Entsorgung usw.). Hauptmerkmal dieser Artefakte ist ihre Relikthaftigkeit. Eine große Zahl
von Entscheidungen zur Technikgestaltung verläuft reibungslos, effizient und unauffällig.
Lediglich relativ wenige Gestaltungsfragen lassen Technikgestaltung als ein heikles, konflikt-
trächtiges Geschäft erscheinen. Die große und inhomogene Gruppe der Technikgestalter ist so
zu strukturieren, dass sich prinzipielle, für die Einbringung ethischer Fragen relevante Unter-
schiede erkennen lassen. Technikgestaltende Individuen haben in der Regel keine profes-
sionelle Ausbildung in Ethik erhalten. Ansätze zur Wirtschaftsethik finden in Industrieländern
zunehmend Eingang in die betriebliche Praxis, aber die Anwendung ethischer Reflexion zur
unternehmerischen Technikgestaltung steckt vergleichsweise noch in den Kinderschuhen.
Technikgestaltende Praktiker stehen mit ihren Bedürfnissen, in konkreten Einzelfällen oder
auch kontinuierlich ethische Hilfestellung zu erhalten, außerhalb des universitären Systems.
Den meisten an Technikgestaltung Beteiligten fehlen Informationen über die jeweils andere
Seite, wodurch bereits im Vorfeld mögliche ethische Beratung verhindert wird, zum anderen
sind die Kontaktmöglichkeiten mit eher abschreckend hohem Aufwand verbunden. Es fehlt

258
zum einen der Überblick über die vorhandenen Angebote bzw. die Nachfrage, zum anderen
ein Mechanismus, Angebot und Nachfrage zusammenzubringen. Ethische Gesichtspunkte
sind ein integraler Bestandteil der neuen Modernisierungsdiskussion.

Technischer Fortschritt bewegt sich zunächst im instrumentellen Bereich und bedarf einer
pragmatisch-utilitaristischen Rechtfertigung. Fortschritte im technischen Handeln haben aber
auch eine ethische Dimension, insofern lassen sich pragmatische und ethische Legiti-
mitätsprüfung zwar methodisch unterscheiden, aber nicht vollständig voneinander trennen.
Die Legitimierung im Hinblick auf eine Praxis muss die Grenzen der Tradierbarkeit und Lehr-
barkeit einer Praxis mit einkalkulieren. Die Legitimierung kann nur im Hinblick auf die Un-
sicherheit der Technikfolgen und der zukünftigen Entwicklung überhaupt geschehen.
Überkomplexität, Theoriedefizit und die mangelhafte Kausalität der Prognose erschweren
zwar die Abschätzung zukünftiger Entwicklungen, verunmöglichen diese aber nicht gänzlich.

In der Globalisierung scheint es keine wirklich legitimierten Gestalter mehr zu geben. Welche
Instanz könnte auf globaler Ebene legitime Technikentscheidungen treffen und auch
durchsetzen? Beispiele sind Regulierungsfragen im Internet und die Sicherstellung bislang
national vereinbarter Urheberrechte. Hinzu kommt die Beschleunigung durch Globalisierung.
Die Beschleunigung der technischen Entwicklung bringt Effekte mit sich, die Gestal-
tungsmöglichkeiten beschränken. Vermeintliche Sachzwangargumente bekommen unter Zeit-
druck eine höhere Relevanz. Für sorgfältiges Abwägen zwischen verschiedenen Optionen und
für eine (z.B. ethische) Reflexion verbleibt immer weniger Zeit. Pluralisierung in der Globali-
sierung meint: In einer zunehmend pluralen und heterogenen Weltgesellschaft wird es schwie-
riger, noch so etwas wie Gemeinwohl zu bestimmen. Die funktionale und moralische Aus-
differenzierung der Gesellschaft führt dazu, dass Konsense über Technik kaum zustande
kommen können. Gestaltungsbedarf gibt es also durchaus, problematisch aber bleibt die Frage
nach den Gestaltern. Technikgestaltung wird dabei anderen Zugängen zum Verhältnis von
Technik und Gesellschaft gegenübergestellt, vor allem der Technikentwicklung und der
Techniksteuerung. Technik wird zu einem großen Teil heute in der Wirtschaft entwickelt. Es
kam in den letzten Jahren zu einem leider rückläufigen Anteil staatlicher Technikentwicklung.
So stellt sich nach wie vor die Frage nach der politischen Steuerung der Technikentwicklung.
Dieses steuerungsoptimistische Bild allerdings gehört der Vergangenheit an. Der Staat wird
heute eher als Moderator gesellschaftlicher Entscheidungsprozesse denn als zentrale Steu-
erungsinstanz angesehen. Aus diesen Gründen wird der Begriff einer dezentralen und auf
viele gesellschaftliche Bereiche verteilten Gestaltung der Technik bevorzugt (Grunwald 2003,
5f).

Das politische System beeinflusst Technikentwicklung an mindestens vier Stellen:

(1) als Nachfrager und Nutzer von Technik in großem Umfang,


(2) als direkter Auftraggeber für Technik (z. B. in Bezug auf große Infrastrukturen
und die Militärbereiche),
(3) als Förderer von Wissenschaft und Technik und
(4) als Gestalter der Rahmenbedingungen für Technikentwicklung (z. B. Steuerge-
setzgebung, Haftungsrecht, Sicherstellung von Datenschutz und Urheberrechten,
Festlegung von Umwelt- und Sicherheitsstandards).

Die Wirtschaft (Ingenieure, Entwickler, Management) greift in die Technikentwicklung durch


konkrete Forschungs- und Entwicklungsarbeit, durch die Produktion und Vermarktung

259
technischer Produkte, Systeme und Dienstleistungen sowie durch strategisch-betriebliche Ent-
scheidungen ein. Die Konsumenten, die Käufer und Nutzer von Technik entscheiden über die
Akzeptanz von Technik und technikbasierten Dienstleistungen auf dem Markt. Außerdem
können sie als Teilnehmer an Dialogen in der Marktforschung an der Entwicklung zukünfti-
ger Technologie mitwirken oder sich im Rahmen partizipativer Technikfolgenabschätzung an
der politischen Gestaltung von Technik beteiligen. Engagierte Bürger, Nichtregierungsorga-
nisationen oder Vereinigungen wie die Kritischen Aktionäre können im Rahmen einer Zivil-
gesellschaft ebenfalls Einfluss nehmen (Grunwald 2003).

Demokratische Technikgestaltung erfolgt durch ein dezentrales Zusammenwirken vieler Ak-


teure und Gruppen, nicht zuletzt der Konsumenten und unter ihnen derjenigen, die Technik
produktiv (nicht destruktiv wie Terroristen) umnutzen. Technikgestaltung steht damit vor der
Notwendigkeit von kommunikativen oder machtgesteuerten Aushandlungsprozessen zwi-
schen den jeweils Beteiligten. Der staatliche Beitrag zur Technikgestaltung besteht keines-
wegs darin, dass der Staat der bessere Ingenieur sei, sondern ist charakterisiert durch eine
Moderatorenrolle in Bezug auf gesellschaftlich relevante Aushandlungsprozesse und durch
die Bedeutung als Legitimation erzeugende Instanz für Entscheidungen. Technikgestaltung
erfolgt in einem Zusammenwirken von Wissen und Werden, wissenschaftlich informiert und
beraten durch Technikfolgenabschätzung und Technikethik. Technikgestaltung in einer durch
Unsicherheit und Unvollständigkeit des Wissens und Vorläufigkeit von Bewertungen
charakterisierten Situation ist auf gesellschaftliche Lernprozesse angewiesen (reflektiert expe-
rimenteller Zugang zur Zukunft; Grunwald 2003). Experten spielen dabei eine zentrale Rolle
(Irrgang 2007a).

In unserer heutigen Zeit fördern diejenigen Strukturen, die die wirtschaftliche Globalisierung
ermöglichten, also besonders die Revolution der Telekommunikation und der Informatik, das
Entstehen einer globalen öffentlichen Meinung. Dies allein jedoch reicht nicht aus. Zu fordern
ist eine Technologie-Reflexionskultur, die demokratische technische Praxis ermöglichen soll.
Ohne moralische Instanz ist das wirtschaftliche Handeln in vielen Bereichen nicht auf das
Wohl der Allgemeinheit ausgerichtet. Die Internationalisierung und Globalisierung des
Handels, verbunden mit den ultraschnellen Geldtransfermöglichkeiten und einer völligen
Intransparenz der Geldströme, setzt das „Gesetz der unsichtbaren Hand“ außer Kraft. Nach
meinem Dafürhalten sollte Technologie-Reflexions-Kultur die Forderung nach basisdemo-
kratischer Beteiligung aller Betroffenen, wie sie die Kritische Theorie erhebt, ergänzen. Denn
das dialektische Geschichtsmodell ist nicht auf technische Entwicklung anwendbar, sondern
diese ist viel komplexer. Technische Entwicklung kann insgesamt nicht geplant werden,
sondern nur in einzelnen Projekten. So bleibt uns im Umgang mit technischer Macht nur die
Kompetenzerhöhung jeden einzelnen Techniknutzers und der Experten (Irrgang 2007a). Die
Organisation der Experten und die Sicherstellung einer angemessenen Rekrutierung sind
Aufgaben, die nach dem Modell von Technoscience zu regeln sein werden, unter Beteiligung
der Öffentlichkeit, wobei Einspruchsrechte formuliert werden sollten, keine generellen
Anhörungsrechte.

Große technische Systeme zu managen war schon immer mit hierarchischen Strukturen
verbunden. Schon in der Antike konnte der Segler, mehr noch das Kriegsschiff, nur vom
Kapitän oder dem Steuermann auf Kurs gebracht werden, nicht vom Schiffsjungen. Im Zeital-
ter hypermoderner Technologie sollten Technologie, technologische Infrastruktur und techno-
logische Systeme dezentralisiert und die Rückvernetzung erhöht werden. Dies vermindert die
Auswirkungen von Störfällen, seien sie natürlich, technisch oder gesellschaftlich bedingt.
Dezentralisierung und Regionalisierung ermöglichen zumindest eine gewisse Demokratisie-
rung und Beteiligung der Bürger bei Fragen, welche Technik sie denn haben möchten. Dabei

260
sollte nicht Willkür, Inkompetenz und Angst zu Eckwerten der Technikgestaltung werden,
sondern Formen einer reflektierten Gestaltung zukünftiger Technik auf allen drei Ebenen,
dem Funktionalen, dem Nützlichen und dem Ethischen. Urteile in diesen Fragen setzen Sach-
kompetenz voraus. So läuft meine Antwort auf die Frage nach dem Umgang mit technischer
Macht auf Technologie-Reflexions-Kultur, Kompetenzerhöhung und Expertisen-Kultur hin-
aus.

Eine Demokratisierung der Technikgestaltung muss die Umgangskompetenzen mit Technik


weiter Bevölkerungsschichten erhöhen, nicht unmittelbar ihre Durchsichtigkeit und Versteh-
barkeit. Die Verstehbarkeit und Durchsichtigkeit ist das Aufgabenfeld für Experten auch tech-
nikphilosophischer Art. Klassische Kulturen waren Elitekulturen von Kompetenten, in denen
die Natur urbar war und Innovationen getätigt wurden. Mit der Trivialisierung technischer
Kompetenzen verband sich eine gewisse Demokratisierung, aber auch der Verlust von Kom-
petenzen. Die Massengesellschaft und die Konsumgesellschaft entstanden und wurden von
den meisten Technikphilosophen und der Kritischen Theorie abgelehnt. Aber Fakt ist, dass
auch diese neuen technischen Muster und Schemata neue kreative Nutzungsmöglichkeiten
anbieten. Selbstverständlich ist die Vorinterpretation unseres Zugangs zur Realität und zur
Kultur durch Technik zu berücksichtigen, aber diese ist nicht per se als negativ einzustufen
und zu bewerten. Mit Neuauflagen der Zwei-Kulturen-Ideologie ist niemandem gedient.

Technische Macht erfordert eine Kompetenzgesellschaft, in der auch Experten für Normen
und Werte beteiligt sind. Aber die vielen Ethiken, die Fragen technischer Macht ignorieren
und nur darauf achten, nach formalen Kriterien richtig zu argumentieren, sind inkompetent.
Eine angewandte Ethik, die sich in Schulstreitigkeiten verzettelt, bleibt letztendlich inkom-
petent. Die Schlüsselfrage einer solchen Kompetenz ist eine Anthropologie des hypermoder-
nen Menschseins. In Kompetenzdemokratien geht es um die Erhöhung der Anforderungen
unserer Gesellschaft an die Arbeitsplätze und ihre Kreativität. Die Zeiten der Technokratie,
der Fließbandproduktion und der rauchenden Schlote ist für die nachindustrielle Gesellschaft
im Grundsatz vorbei. Was wir also brauchen ist eine Technologiereflexionskultur und eine
politische Technologie. Das menschengerechte und umweltgerechte Design von Technologie
ist ihr Leitbild und ihr Ziel. So kann also Vertrauen in Technik auch durch Trivialisierung und
Massenserien erreicht werden (Irrgang 2007d, 2007a).

Expertokratie herrscht, wenn technische Experten als Interessierte ihres Berufsstandes selbst
handeln und entscheiden. Wissenschaftliche Experten haben aber ihrer Natur nach eher
Beraterfunktion. Handelnde sind Kompetente, aber nicht unbedingt Spezialisten auf einem
Gebiet. Die Technologie der Expertenkultur dient als Vermittlung von Expertokratie und
einer Demokratisierung der Technologie von unten. Kompetenz ist perfektionierte Routine
und aus dieser erwächst eine eigene Form von Freiheit und Kreativität. Wiederholung und
Routine sind Grundlage von Kompetenz und Virtuosität. Expertentum beruht auf vertrautem
Umgang mit Technologie, auf Kompetenz. Expertise besteht in der Kunst, unterschiedliche
Interpretations- und Bewertungsmodelle zu erarbeiten. Experten weisen ein meisterliches
Denken auf. Kompetenz steigert sich zur meisterlichen bis hin zur genialen Kompetenz im
Sinne von Kreativität und Innovation. Die Diskussion um Experten und Expertenmacht haben
typischerweise politische Implikationen. So haben wir Experten von dreierlei Art, die in
unterschiedlicher Art und Weise kognitive Kompetenz ausüben (Selinger, Crease 2006, 159-
167). Expertentum und parlamentarische Demokratie lassen sich vereinigen, wenn der Erwerb
von Kompetenz grundsätzlich jedermann offen steht. Dabei wird häufig unterstellt, dass das
Internet unsere gegenwärtigen Probleme der Erziehung und des entsprechenden
Erziehungssystems lösen wird (Selinger, Crease 2006, 197). Dreyfus entwickelt ein Modell
des Kompetenzerwerbs in Stufen:

261
(1) Novize,
(2) fortgeschrittener Anfänger,
(3) Kompetenz,
(4) Fingerfertigkeit,
(5) Expertentum,
(6) Meisterschaft,
(7) praktisches Wissen.

Jede Ebene und Stufe des Erwerbs von Kompetenz betreffen auch die Rahmenbedingung des
Erwerbs von Kompetenz selbst (Dreyfus 2001; Selinger, Crease 2006, 209).

Expertise beruht auf personalem Wissen und persönlicher Erfahrung im leiblichen Kontext.
Expertise ist daher in gewisser Weise nicht ohne den Rückbezug auf die Subjektivität des
Experten verstehbar. D. h. im Gegensatz zum objektiven mathematischen Wissen muss bei
Expertenwissen die Subjektivität des Interpreten mit berücksichtigt werden. Insofern muss bei
der Interpretation der Expertise der Standpunkt des anderen Experten bekannt sein. Experte
das ist eine Kontraktion des Partizips „experienced“, erfahren und erscheint als Substantiv in
Frankreich zu Beginn der 3. Republik (ungefähr um 1870). Der Hintergrund dieses Begriffs
ist damals so ähnlich wie heute. Experten gibt es für spezialisiertes Wissen, und Experten sind
für dieses spezialisierte Wissen trainiert. Experten werden entgegengesetzt dem normalen
beruflichen Laientum, aber auch den entsprechenden Intellektuellen. Es geht dabei um die
epistemische Macht der Expertise. Kollegialität befähigt Experten dazu, dass sie sowohl
Wissen repräsentieren als auch eine ideale Form der Macht haben. Dies alles umschreibt den
epistemologischen Status der Expertise. Expertise ist aber auch ein konstitutives soziales
Phänomen (Selinger, Crease 2006, 342-344). Expertentum ist keine universalisierbare soziale
Rolle. Außerdem lässt sich die utopische Vision einer demokratisierten Expertise formulieren.
Wissensingenieure spielen eine wichtige Rolle in den zukünftigen Dispositionen von
Expertisen und einem allgemeineren Wissen. Expertenwissen darf nicht durch einen Mangel
an Effizienz gekennzeichnet sein, d. h. das Expertenwissen ist durch diese Folgen gekenn-
zeichnet (Selinger, Crease 2006, 351-355).

Expertise setzt politische Technologie voraus. Expertentum ist die Antwort auf den Macht-
aspekt von Technik und von Technologie zwischen Kunst und Wissenschaft. Wissenschaft-
liche Expertise braucht zu lange, technologische Expertisen stehen unter Zeit- und Entschei-
dungsdruck. Beschleunigung aber ist ein technologisches Phänomen, unter dem auch die
Expertise leidet, und mit dem Experten umgehen lernen müssen. Das Problem aber, mit dem
methodisch das Expertentum und die Expertise ringen, ist, dass Nichtexperten nicht richtig
abschätzen können, wer ein Experte ist und wer nicht. Expertise ist insgesamt ein Phänomen
von Technoscience und Technoresearch, also Forschungshandeln (Irrgang 1997, 2008). In
diesem Zusammenhang erhalten der Experte und seine Expertise kognitive Autorität. Es gibt
aber auch eine Expertise im Sinne der Berufs- und Standesethik. Ich verstehe zunächst unter
Expertise eine Form des Urteils im Sinne der Reflexions- und Argumentationskompetenz. In
dem Zusammenhang ist von Ethikexpertise zu sprechen. Der Experte muss sich rechtfertigen
und ausweisen können und zwar durch Methode und durch Argumentation. Es gibt auch eine
interdisziplinäre Kompetenz als Expertise. Expertise ist die Folge von wissenschaftlich durch-
gearbeiteter technischer Kunst (Ars, Techne), nicht von klassischer Wissenschaft. Von Tech-
noscience und Laboratoriums- und Experimentalkunst ist Expertise genauso abzuleiten, wie
von Epistemologie und Methodologie in der Philosophie. Es gibt eine Methodenpluralität im

262
Hinblick auf die Expertise und hoffentlich Konvergenz in den Ergebnissen, bzw. den Punkten
über die am Anfang gestritten wurde.

Technologie ist zu einer wesentlichen Quelle gesellschaftlichen Reichtums und gesellschaft-


licher Macht geworden. Eine Demokratisierung und Liberalisierung sind Rahmenbedingun-
gen, die für die hypermoderne Technologiezivilisation günstig sind. Die Erfahrungen der
Kritischen Theorie, dass moderne Technologie insbesondere in den 20er bis 40er Jahren des
letzten Jahrhunderts und darüber hinaus zu Staatskollektivismen entartet ist (Kapitalismus,
Faschismus, Stalinismus), sollte uns eine bleibende Warnung sein, auch wenn das nicht noch
einmal in dem Ausmaß passieren muss, wie in der ersten Hälfte des 20. Jh. Die Antiterror-
gesetze der Gegenwart sollten uns warnen. Moderne Technik bestand aus der Verknüpfung
von Taylorismus, Technokratie und Schwerindustrie. Die rauchenden Schlote haben uns die
Umweltkrise bewusst gemacht. Die Erhöhung der technischen Macht durch Rationalisierung
und Massenproduktion war das Kennzeichen der Moderne. Wir aber sollten auch in unserer
Gedankenwelt – und nicht nur technologisch - allmählich in das Stadium hypermoderner
Technologie eintreten, welches wir mit unseren „Maschinen“ und unserer Designer-
Konstruktion längst erreicht haben. Dies ist kein Plädoyer für Zwei Kulturen, sondern dafür,
den veralteten Sicherheitswahn füt Technologie aufzugeben, und eine angemessene Sicher-
heitsphilosophie zu entwickeln, d.h. dem ins Auge zu blicken, was die Macht der Technik
immer mehr ausmacht – nämlich trotz aller Routine immer wieder überraschend sein zu
können. Dabei ist zu berücksichtigen, dass hypermoderne Technologie eine andere Basis hat,
als die Technologien vor ihr. War die Prämoderne durch das Paradigma Holz gekennzeichnet
und die Moderne durch den Stahl, richtet sich die hypermoderne Technologie an dem
Synthetischen aus.

Demokratie im liberalen Verständnis ist charakterisiert durch geschützte Rechte des indi-
viduellen Lebens wie Freiheit, Privatheit und Mitbestimmungsrechte. Die Welt als Folge
individueller Entscheidungen ist das liberale Modell. Risiko hat den klassischen Liberalismus,
die Demokratie und das klassische Verantwortungsmodell hervorgebracht (Hiskes 1998, 3-6).
Nichtwissen ist an die Stelle des Risikos getreten, und mit diesem müssen wir den Umgang
lernen (Irrgang 2007a). Das Risiko ist nicht persönlich zu definieren, sondern nur transper-
sonal. Demokratie ist riskant, aber sie ist das Risiko wert. Die Verwandlung einer
Gesellschaft in kollektive Angsthasen scheint kein erstrebenswertes Ziel zu sein. Risiken der
modernen Industriegesellschaft bestehen insbesondere in Bereichen der Umweltver-
schmutzung (Hiskes 1998, 9-12). Es gibt Risiken, die direkt aus technologischem Wissen oder
solchen Geräten stammen. Aus der Modernisierung, dem modernen Verkehr, aus medizini-
schen Techniken entstehen Risiken. Dabei ist die Verwiesenheit und Verknüpfung von Risi-
ken untereinander zu betonen. Die modernen technischen Risiken können nicht auf die Ent-
scheidung eines einzelnen Menschen zurückgeführt werden. Die Entscheidungstheorie als
Theorie der rationalen Wahl des Homo oeconomicus basiert auf einem methodischen Atomis-
mus. Dieser greift nicht mehr angesichts der Unvorhersehbarkeit von Risiken (Irrgang 2007a).

Der Massenkonsum erhöht das Risiko bei fehlerhaften Produkten. Becks These von der
Risikogesellschaft zeigt auf, dass der rationalistische Zugang zum Thema Risiko teilweise zur
Problembewältigung unfähig ist. Es gibt gruppenspezifische Konstruktionen von Risiken. Die
Macht der moralischen Überredung, die Definitionsmacht und physische Gewalt sind zu
unterscheiden und beeinflussen das Risikoverhalten von Gruppen. Technische Entwicklungen
sind Entwicklungen von Gruppen. Der Emergenzaspekt des modernen Risikos macht Pro-
gnosen schwierig. Risikomanagment und Risikowahrnehmung sind insgesamt eine Sache der
Kultur (Hiskes 1998, 12-17). Technologische Risiken sind das Produkt einer noch unauf-

263
geklären Technologie-Reflexionskultur und einer noch unzureichenden Kooperation im
Umgang und in der Nutzung von hypermoderner Technologie.

Die Rhetorik technologischer Risiken führt dazu, dass es nicht unmittelbar klar ist, wie
moderne Risiken technologischer Art die Privatheit bedrängen. Ein Beispiel ist die Biomacht.
Normalisierung gilt als eine Konsequenz der Macht. Impliziert also das Risiko eine Welt der
Ethik? Die traditionell liberale Politik des technologischen Risikos, in der alle Aspekte
moderner Technologiegesellschaft auf Risikoaspekte reduziert werden, ist insgesamt zu über-
winden. Das Bürokratiemodell setzt sich in diesem Zusammenhang durch. Verantwortbarkeit
wird durch staatliche Verwaltung und durch Autorität des Staates garantiert (Hiskes 1998, 26-
32), ist aber neu zu bestimmen (Irrgang 2007a). Legitimation geschieht durch die Macht der
Zustimmung und der Übereinstimmung. Daher wird die Behandlung technologischer Risiken
mittels entscheidungsorientierter Politik heute durchgeführt. Es geht um die Frage, wer die
Macht der Entscheidung hat. Einige Entscheidungen bezüglich öffentlicher Güter können nur
auf einem kollektiven Level geleistet werden. Die meisten Modelle der Risikoabschätzung
führen exklusiv zu dem Konzept eines impliziten Konsenses. Der implizite Konsens wird als
ein anwachsender Konsens betrachtet. Dieses Modell führt zu einer ausdrücklichen Bevor-
zugung des Zustimmungsmodells in der Politik (Hiskes 1998, 33-43).

Der liberale Egalitarismus ist angesichts der Risikothematik gefährdet. Dies führt zum Risiko
der Einebnung des Wahrheitspotenzials und der Wahrheitskonzeption. Die Gerechtigkeits-
debatten stehen im Zentrum vieler Risikodiskussionen. Gerichte und ihre Kompetenz der
Risikobewertung werden bemüht. Die Autorität der Ziele gilt auch in einem technologischen
Zeitalter. Dabei tritt die Autorität der Alternativen in den Vordergrund. Risiken sind in ihrem
Zentrum moralischer Natur (Hiskes 1998, 57-82). Die Stellung von liberalen Bürgern ist
durch minimale Rechte beschrieben. Die Technologie hat traditionelle Rechtskonzeptionen
verändert. Die technologische Entwicklung forciert die Bedeutung von Rechten und damit
von Demokratie. Es ist jedenfalls so, dass liberale Positionen gemeinsam geteilte kollektive
Verantwortlichkeiten ignorieren. Wir brauchen ein neues Verständnis dieser Rechte (Hiskes
1998, 85-107). Es geht nicht nur um den Respekt vor den Rechten, sondern auch vor den
neuen Verantwortlichkeiten in einer sozial eingebundenen Autonomie im Rahmen einer
Technologie-Reflexions- und Gestaltungskultur. Technische Risiken größerer Art erfordern
eine kollektive Verantwortbarkeit aufgrund einer gemeinschaftlichen Verletzlichkeit (Hiskes
1998, 108-124). Es geht um eine gemeinsame Zustimmung, um gemeinsame Entscheidungen
und um geteilte Grundüberzeugungen (Hiskes 1998, 133-158), aber nicht aufgrund popu-
listischer Vorurteile einer unaufgeklärten Öffentlichkeit. Diese bedarf der kritischen Kor-
rektur durch eine Expertenkultur im Sinne einer effektiven Gewaltenteilung in der Techno-
logie-Reflexions-Kultur. Über ihre geeignete Institutionalisierung ist nachzudenken.

Sicherheit war ein modernes Konzept, der Umgang mit Unsicherheit ist ein Kandidat für ein
nachmodernes Konzept und muss erst gelernt werden. Der Utilitarismus, später der Präferenz-
utilitarismus waren die Ethik der Moderne die Ethik der Nachmoderne ist da wohl pragma-
tischer (Irrgang 2007a, 2007d). Die Kompetenz der Techniknutzer wie die Beurteilungskom-
petenzen gegenüber Technik müssen angehoben werden. Sollte der Techniknutzer daher
gleich am besten zur Maschine werden? Sind unsere Maschinen tatsächlich besser als wir
selbst? Alle Beunruhigung wirkt fort, die noch durch die Unfasslichkeit unseres Ich gesteigert
wird. Als künstliche Maschinen beneiden und fürchten sie die natürlichen. Diese sind zwar
nicht aus Fleisch und Blut, aber gerade deshalb können sie Arbeit besser und schneller
ausführen. Sie kopieren die körperliche Seite menschlicher Existenz und nehmen ihr ihre Hin-
fälligkeit. Gleichzeitig konfrontieren sie den Menschen mit dem Verdacht, selbst nichts ande-
res als eine Maschine zu sein, die von einer höheren Macht gelenkt wird (Meyer-Drawe 1996,

264
96). Deutlich wird dennoch, dass das Leben zum Problem wird, das mechanische Theorien
hier von innen heraus an ihre Erklärungsgrenzen geraten. In Mitleidenschaft gezogen wird die
bislang unschuldige Maschinenmetapher. Sie wird zum Signum der Verherrlichung des Toten
und der Verunglimpfung des Lebens, der Schöpferkraft und der Individualität. Bei Leibniz ist
der Maschinenbegriff noch nicht mechanistisch, eine lebendige Maschine war noch kein Para-
dox (Meyer-Drawe 1996, 104f). Das Ich, dieser prominente Repräsentant des Eigentlichen,
könnte eine Marionette sein. Dies ist der Verdacht, der in der frühen Romantik oder in der
schwarzen Romantik immer mehr zu einer Versuchung der Literatur wird. Eine weitere Folge
der Maschinisierung ist das Bild einer gläsernen Welt (Meyer-Drawe 1996, 118).

In den anatomischen Bildtafeln beginnen in bestimmter Hinsicht die Spuren des gläsernen
Menschen, wenngleich der Abstand zu ihm noch unübersehbar ist. Die Anatomie der Men-
schen wird noch nicht von seinem Tod her begriffen. Jedenfalls nicht bei Vesalius. Im 18. Jh.,
dem Jahrhundert der Automaten, beginnt man, das Tote im Leben zu sehen. Der gläserne
Mensch aus dem Hygienemuseum in Dresden stellt einen Knotenpunkt dieser angedeuteten
Entwicklung dar. Dieser ist ein Amalgam aus Hygiene und Transparenz. Mit dem immer tie-
fer dringenden Blick wird allerdings die Undurchschaubarkeit der Welt nicht beseitigt.
Gleichzeitig macht sie kenntlich, dass Durchleuchtung und Zerstörung zusammenhängen. Die
Steigerung der Sichtbarkeit im Rahmen naturwissenschaftlichen und technischen Forschens
wird flankiert durch Blicke in die Psyche des Menschen (Meyer-Drawe 1996, 127-132). Die
Geschichte der Selbstformation des Menschen zur Maschine wird im 19. Jh. durch Samuel
Butler vorweggenommen, der die Maschinenbegeisterung seiner Zeitgenossen mit dem popu-
lären Darwinismus verknüpfte und voraussagte, dass die Maschinen demnächst die Herrschaft
über die Menschen übernehmen würden Meyer-Drawe 1996, 136). Die Analogie von Geist
und Computerprogrammen hat die Materialität des Gehirns als notwendige Bedingung geisti-
ger Funktionen aus dem Blick verloren. Lernen ist keine bloße Kumulation von Kenntnissen,
die wir unbekümmert fortsetzen können. Posthumanität ist das falsche technologische Leitbild
(Irrgang 2005a).

Die Mensch-Maschinen-Schnittstelle als zentrales Problem für das technologische Design


sollte einem neuen Leitbild folgen: Wir brauchen keinen instrumentellen Umgang mit
Technik, sondern einen pragmatischen, der die Dimension des personalen Wissens mit ein-
schließt. Das Umgangswissen wie der Technikgebrauch beruht auf instrumentellem, persona-
lem und reflexivem „tacit knowledge“ oder „know how“. Spielerisch-kreativer Umgang mit
Technik, bewusst explorativ oder inventiv, also der Joy-of-Design-and-of-Use sind die Leit-
bilder des Homo technicus construens oder des technologischen Designs. Betrachtet man län-
gere Zeiträume technischer Entwicklung, so sollte klar werden: Der technische Fortschritt ist
zu Unrecht insbesondere bei Historikern weitgehend aus der Mode gekommen, er ist nicht
verschwunden, sondern vollzieht sich nur anders als früher gedacht, nämlich als Entwicklung
ohne immantes Ziel, aber nicht völlig ungerichtet. Menschen sind zu oft zufrieden mit
schlechter Technik, die nicht ausgereift ist und mehr dem Gelderwerb der Produzenten, als
dem Wohlbefinden der Nutzer dient. Wir sind übersättigt mit Technik, aber leider oft der
falschen. Technikvertrauen wird aufgebaut durch:

(1) implizites technisches Wissen,


(2) routiniserite technische Alltagserfahrung,
(3) technologisches Wissen,
(4) Bewährungskriterien technologisch-wissenschaftlicher Art für technologisches
Wissen,

265
(5) Kommunikation über Technik.

Dabei unterscheidet sich das Vertrauen in Technik der Konstrukteure und der Nutzer in
entscheidender Weise zumindest seit der technischen Moderne. Mit der Neuzeit verändert
sich die Nutzerorientierung der technischen Konstrukteure, insbesondere der Mitglieder des
neuen Berufsstandes der Ingenieure. Sie wird abstrakt und orientiert sich zunächst eher an
staatlichen Bedürfnissen (Auftaggeber für den neu entstehenden Berufsstand des Ingenieurs
sind zunächst Fürsten, dann der Französische Absolutismus) und später an den Bedürfnissen
einer wachsenden Bevölkerung, die immer mehr zur kommerziellen Gesellschaft wird (der
Ansatzpunkt liegt hier in Großbritannien, einer Handel treibenden Kolonialmacht). Ver-
wissenschaftlichung und Mathematisierung der Technik ist die Antwort auf die Verstaat-
lichung bzw. Vermassung und Kommerzialisierung der Nutzerorientierung der Ingenieure, die
insgesamt zur Bürokratisierung der Techniknutzung und Technikentwicklung führt. Der
Nutzer orientiert sich allerdings weiterhin zum Vertrauenserwerb am Technikgebrauch, wird
aber durch Massenproduktion immer öfter durch das Angebot der Konstrukteue enttäuscht.
Daher erfolgt wohl nach den drei Industriellen Revolutionen zwischen 1760 und 1945 ein
Strukturwandel der technischen Konstruktion ab den 50er Jahren ein Übergang zu techno-
logischen „Revolutionen“, die an die Stelle von Mathematisierung und Verwissenschaftli-
chung Technologisierung setzen und damit den Kunstcharakter der Technik wieder hervor-
heben. Ebenso entsteht mit den neuen Technologien (man nennt die Zeit der technologischen
Revolutionen auch „postindustrielle“ Gesellschaft) eine neue Nutzerorientierung. Nach der
Dominanz der Produktion nicht nur in der sozialistischen Planwirtschaft, sondern auch in
marktwirtschaftlichen Bürokratien erfordert die permanente Innovation im Zeitalter der
Hypertechnologie (Irrgang 2008) andere und weniger bürokratische nutzerorientierte techni-
sche Konstruktion.

Die Ingenieurskonstruktion wurde als ein Prozess verstanden, welcher technologisches


Wissen in Produkten materialisiert und so in substantiver Form unser Leben wie unsere
Gesellschaft gestaltet. Von der Konstruktion technischer Artefakte und Anlagen geht techno-
logisches Design immer mehr zur Gestaltung soziotechnischer Systeme über. Zentral für diese
sind Mensch-Maschinen-Interaktionen. Ein verantwortbares Design solcher Systeme erfordert
notwendigerweise Ingenieure, die aufmerksam sind auf die menschlichen Handelnden und die
sozialen Institutionen, die sie leiten, einschließlich der technischen Lehrbücher, Unterneh-
mensleitungen, nationalen oder internationalen Gesetzen, und das umfangreichere Rahmen-
werk des sozialen Kapitals, das durch die Produktion von solchen Systemen vorausgesetzt ist.
Die anwachsende Komplexität der Ingenieurskonstruktion revidiert die Trennung zwischen
Konstruktion in der Architektur und im Ingenieurswesen. Ein integrales Verständnis der
Philosophie und Ethik des ingenieurmäßigen und architekturmäßigen Designs führt in Teilen
der gegenwärtigen Sichtweise dazu, dass diese anscheinend recht unterschiedlich verstanden
werden (Vermaas u. a. 2008, 1-3). Dabei ist insbesondere auf materiell-physikalische und
intentionale Aspekte technischer Artefakte hinzuweisen. Die duale Natur technischer Arte-
fakte führt dazu, dass technische Artefakte hybride Objekte sind, die nur dann adäquat
beschreibbar sind, wenn man in der Lage ist, in gewisser Weise physikalische und intentio-
nale Konzeptualisierungen der Welt zusammenzubringen. Dabei sind als Grundvoraussetzung
für technologisches Design der Gebrauch und das Design bzw. die Konstruktion von tech-
nischen Artefakten inklusive ihrer Mensch-Maschinen-Schnittstellen als gegenseitig aufein-
ander verwiesen zu betrachten. Beide sind intentional aufzufassen. Technische Dinge werden
für einen bestimmten Zweck und eine Aufgabenerfüllung konstruiert. So entstehen unter-
schiedlich Typen von technischen Artefakten. Dabei sind die Grenzen der möglichen Gewich-

266
tung menschlicher Persönlichkeit in der Mensch-Maschinen-Interaktion nicht in allen Punkten
klar (Vermaas u. a. 2008, 22-27).

Es gibt interessante Beziehungen zwischen dieser doppelt intentionalen Natur von techni-
schen Gegenständen und der Schwierigkeit, eine eingängige Definition des Begriffes der
Funktion von technischen Artefakten und biologischen Organen bzw. Geweben zu finden.
Wenn wir das technische Mittel nur als etwas für etwas Anderes interpretieren, so erhalten wir
eine essenzialistische Technikdefinition. In diesem Zusammenhang muss deutlich werden,
dass es keine privilegierte Rolle für Designer bzw. Konstrukteure gibt (Vermaas u. a. 2008,
28-31). Für die Konstruktion werden normalerweise Pläne benutzt. Diese Plannutzung sollte
analysiert werden. Intentionale Handlungen zu verstehen bedeutet, dass Handlungen Zweck-
haftigkeit und Überlegungen ausdrücken. Die Analyse der Plannutzung in der technischen
Konstruktion bereitet ein phänomenologisch durchführbares Rahmenwerk für das Verständnis
von technischer Konstruktion vor, das letztlich von vier Grundaspekten für die Konstruktion
von technischen Dingen und ihren Gebrauch ausgeht (Vermaas u. a. 2008, 39f).

Man kann den prototypischen Designprozess, oder das konstruierte Artefakt an einem Auto
plausibel machen. Ein Auto zu fahren impliziert eine Aktivität, die typischerweise einen
Zweck erfüllt und immer bestimmte, zugeordnete Aktionen erforderlich macht. Beim Fahren
sind solche strukturierten Handlungen durchzuführen wie Regeln einhalten, partiell oder
vollständig. Außerdem sind Konditionen vorausgesetzt, die gemacht werden, wenn Autofah-
ren als Durchführung eines Plans angesehen wird. Viele der Gebrauchspläne, wenn auch nicht
alle, erfordern überlegte Manipulationen von materiellen Objekten, die von unseren Leibern
verschieden sind. Eine typische Serie von Handlungen beginnt mit dem Öffnen der Autotür
und dem Lösen der Handbremse. Von größerem Interesse ist die Struktur des Gebrauchs von
Plänen. Warum müssen manche Handlungen beim Autofahren in einer strikten Reihenfolge
abgewickelt werden, wohingegen andere in einer gewissen beliebigen Reihenfolge durchge-
führt werden können? Die Struktur des Gebrauchs unter Nutzung von Plänen soll den Ge-
brauch (effectivenes) des eigenen Fahrens sowohl hinsichtlich der Sicherheit wie hinsichtlich
der Höflichkeit und Freundlichkeit sicherstellen. Die Analyse des Plangebrauchs bei der
Nutzung mag dazu führen, dass wir die technische Konstruktion zuerst und notwendiger
Weise als Konstruktion betrachten, die den Gebrauch von Plänen und die Kommunikation
über solche Pläne mit anderen Handelnden impliziert (Vermaas u. a. 2008, 37-39).

Diese neue Analyse technischer Konstruktion im Fahrwasser der STS-Forschungen legt Wert
auf den instrumentellen und den zweckorientierten Aspekt technischer Konstruktion und stellt
ihre Überlegenheit über den produktiven oder modellorientierten Aspekt des technologischen
Designs heraus. Produktdesigning ist sekundär, wenn ein Produkt ausgewählt oder beschrie-
ben wird im Hinblick auf die Rolle, die es bei der Ausführung des Plans spielen soll, und ist
optional, wenn der Handelnde, der einen Gebrauchsplan konstruiert, nicht nur bestehenden
Artefakte oder natürliche Objekte berücksichtigt, sondern realisiert, dass all diese Bedin-
gungen für die Konstruktion von Plänen zu erfüllen sind. So ist die Bewertung einer Aktivität
wie Konstruktion allgemein daraufhin angelegt, die Existenz des Plangebrauchs und eine
Gruppe von zukünftigen Nutzern im Auge zu behalten. Kreativer Gebrauch zeigt nicht, dass
die Intentionen des Konstrukteurs irrelevant sind für den tatsächlichen Gebrauch. Häufig wird
professionellen Konstrukteuren laienhafte Konsumenten gegenüber gestellt. Diese sozialen
Zuschreibungen machen es allerdings nicht unmöglich, dass Konstruktionsprozesse durch
Nutzer und Konsumenten erfolgen können (Vermaas u. a. 2008, 40-42).

Studien des Nutzerverhaltens zeigen immer wieder, dass Nutzer nicht die Bedienungsanlei-
tungen lesen, und wenn sie Pläne nutzen, so wird dies Verhaltensmuster hervorbringen, die

267
letztlich zur verbalen Kommunikation führt als dem einzig möglichen Weg, diese auch
verständlich zu machen. Designing ist nicht nur charakterisiert durch physikalische Unmög-
lichkeiten, Standards und Regulierungsinstrumente, sondern sollte auch in traditionellen Ver-
ständnismustern des Gebrauchs betrachtet werden. Was von Bedeutung ist, ist die Recht-
fertigung und Kommunikation dieser Pläne. Konstrukteure sollten die Rationalität dieser
Design-Pläne garantieren (Vermaas u. a. 2008, 44f). Weder die Identität des Konstrukteurs
noch seine Intentionen scheinen eine Relevanz für die Bewertung und das Verständnis der
gegenwärtigen technischen Praxis, zum Beispiel des Zimmerns, zu haben. Die Intentionen des
Konstrukteurs und des Unternehmers müssen miteinander kommuniziert werden. Auf diese
Art und Weise wurde ein Rahmenwerk für die Analyse der Bewertung von technischem
Artefaktgebrauch und Konstruktion erarbeitet: professionelle Konstrukteure sind sozial und
gesetzlich privilegiert genauso wie der Gebrauch („sachgemäßer Gebrauch“) als Gebrauch im
geplanten Sinne, obwohl ein fortgesetzt „unordentlicher“ Gebrauch, der auf nicht pro-
fessionellen Plänen beruht, durchaus effizient sein kann. Zudem kann man professionelle
Konstrukteure als Experten betrachten, die vom normalen Arbeiter als ausführende Kräfte zu
unterscheiden sind. Die Analyse des Gebrauchs von Plänen betrifft nicht alleine Produkte,
sondern effektive Wege, um Ziele zu realisieren (Vermaas u. a. 2008, 43).

Don Ihde spricht vom Designerfehlschluss und kritisiert die gängige Ingenieursvorstellung,
dass der Konstrukteur eine Technologie designen und so ihren Gebrauch und die erreichbaren
Zwecke festlegen kann. Er beruht auf dem Glauben an die materielle Neutralität oder Plastizi-
tät technischer Artefakte, über die der Designer Kontrolle hat. Der Designerfehlschluss ist
gemäß Don Ihde deistisch im Sinne des 18. Jh., in dem der Schöpfergott mit plastischen
Material eine Maschine oder ein Artefakt schafft, das intelligent durch die Konstruktion zu
sein scheint und in der Art und Weise funktioniert, in der es konstruiert wurde. Tenner gibt
eine ganze Reihe von Beispielen, in dem dies Unterstellung nicht funktioniert, dass Techni-
ken, die für spezielle Gebräuche konstruiert wurden sind, tatsächlich zu schrecklichen und
nicht intendierten Konsequenzen geführt haben. Daher ist eine Beschreibung erforderlich,
welche die Beziehungen zwischen Konstrukteuren, Technologien und dem letztendlichen
Gebrauch von Technologien in verschiedenen sozialen und kulturellen Situationen viel kom-
plexer betrachtet als bisher. Die Einbettung von Technologien in unterschiedliche kulturelle
Kontexte bestimmt den Gebrauch mit, was ursprüngliche Designervorstellungen zunichte
machen kann und zu dem führt, was man heute einen massiven Markt für Nachfolgeprodukte
nennt (Ihde 2004; Vermaas u. a. 2008, 51-55).

So gibt es eine enge Verbindung zwischen den intentionalen und den Designerfehlschlüssen.
Ihde wollte zeigen, dass die Designer-Material-Beziehung als Interaktion zwischen Mensch
und Maschine nicht linear abhängig, sondern spielerisch exploratorisch und interaktiv kon-
struiert werden sollte. Der Gebrauch von Artefakten ist wichtiger als die ursprünglichen
Konstruktionspläne, und so nimmt der Nutzer heute eine immer bedeutendere Rolle ein. Die
Beziehungen zwischen Konstrukteur und Nutzer von Artefakten sind komplex und multistabil
(Vermaas u. a. 2008, 57-59). Techniker tendieren dazu, zwischen traditionellen Techniken,
die durch menschliche Fertigkeiten charakterisiert waren, von einer modernen Technologie zu
unterscheiden, die durch Wissenschaft unterstützt wird. Fertigkeiten werden durch Expersisen
ersetzt, die als übersetzbar in wissenschaftliches Wissen gelten. Jedoch sind Fertigkeiten
keineswegs aus der modernen Technologie verschwunden. Wie bei CAD zu sehen war, blei-
ben Fertigkeiten konstitutive Elemente für Technikkonstruktion und Technikgebrauch, auch
in der Gegenwart. Daher ist zu berücksichtigen, dass auch in der modernen Technologie ge-
wisse kulturelle Elemente inkorporiert sind. In diesem Kontext kann auch das Problem der
Akzeptabilität von Risiken in einem kulturellen Kontext verortet werden (Vermaas u. a. 2008,
120). Es gibt eine ganze Reihe von kulturellen Leitvorstellungen, welche die Akzeptabilität

268
von Risiken auf der Basis technischer Kultur bewerten helfen (Vermaas u. a. 2008, 123f).
Konstruktion sollte daher vor dem Hintergrund einer wechselseitigen Anerkennung zwischen
Experten und Nichtexperten, die in Dialogen untereinander engagiert sind, erfolgen (Vermaas
u. a. 2008, 129f). Die Intention des Ingenieurs bzw. Konstrukteurs manifestiert sich zunächst
im Bauplan und indirekt im technischen Produkt. Jedenfalls ist die Intention oder der
Handlungsentwurf des technischen Handelns, welches ein technisches Artefakt hervor bringt,
zu unterscheiden von dem technischen Artefakt, was dann konkret entsteht. Die technische
Intelligenz, die in der Struktur technischer Artefakte und soziotechnischer Systeme immanent
ist bzw. implementiert wurde, und die technische Intelligenz, die erforderlich ist, erfolgreich
damit umgehen zu können, ist zu unterscheiden und macht den Doppelaspekt des technischen
Wissens aus.

Die Kosten einer Technologie werden offenkundig nur in den Momenten eines katastrophalen
Fehlschlags wahrgenommen, dann, wenn etwas tödlich falsch gelaufen ist mit einer
Technologie, die vorher als selbstverständlich hingenommen wurde. Technologie entwickelt
sich nicht gemäß einem inneren Gesetz der Notwendigkeit technologischer oder wissen-
schaftlicher Logik. Sie haben nicht ein inneres Instrument der Orientierung. Wenn sie sich
wandeln, dann deswegen, weil sie von außen her in bestimmte Schemata gepresst werden
(Bijker, Law 1992, 2f). Technologien enthalten ihre Erklärung nicht innerhalb ihrer selbst.
Der technologische Wandel ist in der Tat zufällig und kontingent. Technologien werden
geboren aus Konflikten, Differenzen oder Widerständen. Technologien entspringen nicht am
Anfang einer desinteressierten Quelle der Innovation. Viel mehr sind sie geboren durch so-
ziale, ökonomische und technische Beziehungen bzw. ein Beziehungsgeflecht, dass bereits
vor ihrem Erscheinen wirksam gewesen ist (Bijker, Law 1992, 11). Die erfolgreiche Durch-
führung eines Innovationsprojektes hängt in großem Maße von der Erschaffung zweier Netz-
werke ab, die sich untereinander austauschen können. Die erste Fähigkeit bei der Durchfüh-
rung eines innovativen Projektes besteht darin, ein globales Netzwerk aufzubauen und auf-
recht zu erhalten, das für eine bestimmte Zeit Ressourcen verschiedener Art und Weise in der
Erwartung auf einen letztendlichen Gewinn bereitstellen kann. Der zweite Schritt umfasst die
Fähigkeit der Projektgruppe, ein lokales Netzwerk aufzubauen, welches die angebotenen
Hilfsmittel und Ressourcen einsetzt, um letztendlich materielle, ökonomische, kulturelle und
symbolische Nutzenfunktionen für die Aktoren der lokalen Gruppe bereit zu stellen. Es
handelt sich um die Fähigkeit zu einem Experiment, Dinge zu versuchen und sie zusam-
menzusetzen mit einigermaßen Erfolg (Bijker, Law 1992, 46).

Der Inventionsprozess beruht auf dem Schaffen und dem Verknüpfen von technologischen
Artefakten und ihrem Bedeutungsrahmen. Edisons Fehler im Hinblick auf die Filmindustrie
beruhen auf der Beschränkung seines Interesses auf der filmtechnischen Projektion als
Verfahren, weshalb er sich nur das Patent für die Kinetoskope sicherte, und seiner Indifferenz
im Hinblick auf die Filmproduktion. Wie Edison waren seine Manager geleitet durch
Produzentenvorstellungen und durch ihre Mittelklassenwerte, die im Film nichts anderes
sehen konnten als das Produkt für eine Massenzuhörerschaft. Das Design und die Einführung
dieser Technologie waren gegen die anwachsende Konsumentenkultur gerichtet. Andere
Filmunternehmer entdeckten, dass die Amerikaner Filme als eine Form von passivem
Unterhaltungswert anerkannten und sie bemühten sich darum, Filme vorzulegen, die angefüllt
mit neuen Sensationen und auch Passionen waren. Um ihre Filme im Verkauf voranzutreiben,
entwickelten die Unternehmer ein Starsystem und waren bereit, das Risiko von verschie-
denartigen Stil- und Filmrichtungen einzuführen. Die Technologie der bewegten Bilder muss-
te in kulturelle Werte eingebettet werden. Auf der anderen Seite schuf die Konsumentenkultur
eine Bottom-up-Entwicklungsrichtung, die durch die arbeitenden Klassen als Zuhörer und die

269
Unternehmer als Antwort auf den schnellen Wandel am Arbeitsplatz der Stadt und der Fami-
lie geschaffen wurde (Bijker, Law 1992, 192-195).

In den 70er und 80er Jahren entstanden menschenzentrierte Ansätze des Designs der Mensch-
Maschinen-Schnittstelle in England und Skandinavien. Es gab dabei eine Organisation und
ein Design von technologischen Systemen, welches an Menschen orientiert war. Dieser
Ansatz baut auf dem soziotechnischen Modell auf. Es geht um den nutzerorientierten Ansatz
gegenüber einem technozentrierten Fokus, der menschliche Kompetenzen und Fähigkeiten
marginalisiert. Die Hervorhebung der Kreativität, die Einbeziehung der humanistischen
Erziehungstradition und die Berücksichtigung von normativen Fragestellungen sind charakte-
ristisch. Produzenten und Konsumenten werden zusammengebracht. Insofern bestehen hier
eine wissenschaftliche und ein intellektuelle Herausforderung. Der Computer vollendete die
Trennung von Mensch und Maschinen, von maschinenzentrierter Produktion und Kontrolle.
Somit stellte sich in extremem Maße die Frage nach einem partizipatorischen Design (Gill
1996, 1-7).

Die Macht des Computers und menschliche Macht sollten zusammen gebracht werden. Die
Infragestellung der regelorieniterten Konstruktion ist der Ausgangspunkt für ein menschenge-
rechtes Konstruieren. Im 19. Jh. herrschten Empirie und Maschine. Die Frage nach den Fer-
tigkeiten und der Regelbefolgung des Technikers wurde objektivistisch beantwortet. So
wurden die Herausforderungen des Kausalitätsverständnisses übersehen. Kausalität ist ein
„schlüpfriges“ Konzept. Man muss Diversität und Rationalität zusammenbringen. So
entwickelt sich die Frage nach der Kohärenz und nach der Struktur kultureller Interfaces. Die
Dimension des Tacit Knowledge sollte einbezogen werden. So kam es zum Lernen durch
Machen, nicht allein durch Regelbefolgung, sondern durch Verständnis der Situation. Insbe-
sondere muss man konstitutive Regeln von weniger wichtigen Regeln unterscheiden lernen
(Gill 1996, 8-23). Ein weiterer Ansatz für die Konstruktion der Mensch-Maschinen-Inter-
aktion waren Sprachspiele und Dialoge, wobei zunächst die Dominanz der Sichtweise der
Cognitive Sciences überwunden werden musste. Erforderlich war der Übergang von einer
Technikauffassung auf der Basis nutzungsbereiter technischer Mittel und eines technischen
Systems, dass unabhängig vom Menschen zusammenbrechen kann über zu Fragen der
Brauchbarkeit bzw. Benutzbarkeit von technischen Mitteln und technischen Systemen. Der
kommunikative Aspekt von Gebrauchbarkeit wurde lange Zeit übersehen. Gemeinsames
Lernen musste mit einbezogen werden. Die menschenzentrierten Perspektive der Benutzbar-
keit erforderte andere Konstruktionsexperten, die als Kollaborateure und Mediatoren zwi-
schen Produzenten und Konsumenten dienen wollten und welche bereit waren, im
Konstruktionsprozess zu lernen. In dem Zusammenhang spielt die Perspektive des Werkzeugs
eine Rolle. Auch in guten Werkzeugen und in ihrem gekonnten Gebrauch bleibt ein Risiko
bestehen. Das Design kann benutzerfreundlich und benutzervergessen sein, kann aber auch
partizipatorisch und kooperativ. Die Konstruktionsspezifikation erfolgt vor dem Hintergrund
der Visualisierung. Es gibt dabei ein nutzerkontrolliertes Informationssystem der technolo-
gischen Entwicklung. Computerunterstützung für kooperatives Zusammenarbeiten ist eben-
falls ein Teil des neuen Paradigmas. Vom nutzerzentrischen zum nutzerinvolvierten Design
ist es wichtig, auch das Prozedere der Sprachverwendung mit einzubeziehen. Anthropo-
zentrische Systeme (APS) sind eine neue europäische Tradition in der technischen Kon-
struktion (Gill 1996, 24-54).

Die neue Konzeption von technologischem Design betont die neue Bedeutsamkeit von
Fertigkeiten. Im technologischen Design ist technologisches Wissen Grund der Modellierung
des Potentials für technische Praxis als Mensch-Technik-Interaktion, die menschengerecht
ausfallen soll. Common Sense und Tacit Knowledge sind entscheidende Ansatzpunkte für

270
nutzerorientierte Technologie und ihre Konstruktion. Zum Tacit Knowledge gehören Wissen,
Weisheit und Handlung, Information gehört in den wissenschaftlichen Bereich. Der Erwerb
von Fähigkeiten und die Entwicklung zum Experten sind eher Dinge der Professionalität als
der Wissenschaft. Realistisch aber und alltagsweltbezogen ist die Entwicklung von Intelli-
genz. Mangel an Voraussicht und Kreativität sind Anzeichen mangelnder Intelligenz. Kompe-
tenz, Fertigkeiten und Training sind Gegenstände einer menschenorientierten Technikauf-
fassung und einer darauf aufbauenden Lehre des technischen Designs. Die Konstruktion in
der Architektur und die Ursprünge des Designs in der Architektur werden hervorgehoben. Es
gibt systematische Anstrengungen einer Konzeptualisierung der technischen Konstruktion, die
letztendlich auf der perspektivischen Zeichnung beruhen. Die euklidische Geometrie ist der
Ansatzpunkt für die technische Zeichnung und ein holistisches Design. Dabei gibt es Meister
und Konstruktionsregeln für Meister. Konsumenteninkompetenz sollte Anlass für Konsu-
mententraining sein (Gill 1996, 69-96). Die automatische Kontrolle ist Zentrum einer neuen
Technologie intelligenter Art, die autonom wirkt. Die westliche Philosophie baut auf dem
Mythos der Kausalität auf. Technologie baut ebenfalls auf dem Mythos von Kausalität auf,
aber Handlung kann auf der Basis von naturwissenschaftlich konzipierter Kausalität nicht
adäquat verstanden werden (Gill 1996, 101-125). So gibt es eine immanente Tendenz der
Technologie, die sich in einem Prospekt von Technologie, ihrem Design und ihrem Gebrauch
äußert. Die traditionelle Auffassung autonomer Technologie beharrt auf einer Unabhängigkeit
von Kultur und Technologie, während der nutzerorientierte Ansatz technologischen Designs
auf Selbstbeobachtung ihrer Perspektive beruht. Design wird als Hilfe bei der Selbstbeob-
achtung angesehen (Gill 1996, 177).

Norman unterscheidet körperliche, verhaltensmäßige und reflexive Aspekte des Designs. Das
Design der Alltagsdinge ist weiter zu untersuchen. Es gibt zum Beispiel völlig unbrauchbare
Teetassen. Technische Konstruktion beruhte traditionell auf bewussten Rationalisierungen.
Emotion ist aber ein unabtrennbarer Teil der Erkenntnis. Menschen ohne Emotionen haben
Entscheidungsschwierigkeiten. Das emotionale System ist wichtig für unser Verhalten und
damit auch für den Umgang mit Technik (Norman 2004, 3-12). Attraktive technische Dinge
arbeiten besser. Dies merkt man nicht zuletzt an der ästhetischen Tradition Japans. Diese führt
zu einem positiven emotionalen Zustand. Dabei gibt es drei Arten, mit Dingen umzugehen,
körperlich, verhaltensmäßig und reflektiert. Dies ist eine Beschreibungsmöglichkeit des
sensomotorischen Systems. Man kann erfolgreich Auto fahren auf der Verhaltensebene.
Achterbahnfahren ist das Spiel mit der Angst auf der Verhaltensebene. Es geht darum, die
drei Ebenen spielerisch zu integrieren. Neurotransmitter steuern die Gehirnprozesse, kognitive
wie emotionale (Norman 2004, 18-29). Auch moderne Technologie bleibt leiblich eingebettet,
allerdings auf einer abstrakteren Ebene als bei der handwerklichen Technik.

Das Fallschirmspringen ist ein Spiel mit angeborenen Ängsten. Auch die wirklich gut
konstruierten Werkzeuge haben wir nie völlig unter Kontrolle. Technikanwendung produziert
Konflikte. Erfolgreiches Design muss sich über alle Ebenen erstrecken. Die Anforderungen an
das Design unterscheiden sich von Ebene zu Ebene recht erheblich. Das körperliche Design
betrifft die Erscheinung eines Werkzeugs. Das Verhaltens-Design betrifft Freude und die
Effektivität des Gebrauchs, das reflexive Design richtet sich an Selbstbilder, an persönliche
Befriedigung und an Erinnerung. Kein einzelnes Produkt kann darauf hoffen, jede oder alle
Menschen auf der Welt zu befriedigen. Auf der biologischen Ebene sind wir uns noch am
ähnlichsten, aber schon auf dieser Ebene bezieht sich der Technikgebrauch auf sehr unter-
schiedliche Reaktionen. Der PC war sehr erfolgreich dadurch, dass der Welt die Nutzenfunk-
tionen deutlich größer erschienen als seine zahlreichen Fehler und weil tatsächlich keine
große Wahl bestand. Man sollte zwischen Bedürfnissen und Wünschen differenzieren. Video-
spiele könnte man auch für das E-Learning heranziehen. Die Orientierung von PCs an jungen

271
Männern lässt Marktpotenziale brachliegen. Eine femininere Vermarktungsstrategie ist in
diesem Fall erfolgreich. Ein Souvenir ist ein Objekt, das Erinnerungen erweckt und emotional
besetzt ist. Fotografien sind wichtig für das emotionale Leben. Es geht hier um Gefühle, das
eigene Selbst betreffend. Vorstellungen vom selbst gehen hier mit ein in Produkte und ihren
Gebrauch (Norman 2004, 35-57).

Das viszerale (körperliche) Design ist das, was die Natur im Umgang mit Werkzeugen macht.
Kulturinvariant Umgang mit Technik beruht auf Dispositionen und Anlagen. Es gibt damit
also auch ein verhaltensorientiertes Design. Hier steht die Funktionalität noch im Vorder-
grund. Um Innovationen durchzusetzten, ist ein entsprechendes Design erforderlich. Dazu
bedarf es mentaler Modelle von Designern und Nutzern. Brauchbarkeit ist ein komplexes
Phänomen. Gebrauchsorientiertes Design ist in gewisser Weise immer auch reflexives
Design. Oft kann man die Differenz zwischen Marktprodukten und Alltagsware gar nicht fest-
stellen. Attraktivität von Technik spielt sich bereits auf der biologischen Ebene ab. Design
bezieht sich auf eine Gruppe und wird über eine Gruppe gemacht. Es gibt aber auch Design
für einen Einzelnen. Tests mit potenziellen Nutzern führen häufig zu Redesign. Design
aufgrund von Kompromissen, vom Komitees und Konsensen ist zu beachten. Allerdings ist
der geniale Einzelne mit seinem Einfall häufig besser (Norman 2004, 65-97). Das Designing
eines Objektes für Spaß und Unterhaltung ist sehr wichtig. Die japanische Lunchbox ist auch
eine Augenweide. Sie ist sozusagen eine Einladung zum Konsum. Auch das Logo ist ein
Symbol für das, was es tut. Es gibt luxuriös ausgestattete Alltagsdinge, die Aufmerksamkeit
erwecken sollen. Sie unterstreichen die Neuartigkeit. Erwartungen werden anders erfüllt und
Reaktionen werden spontan erweckt. Das machen also bestimmte Versprechungen. Musik ist
genauso anregend für Design wie die Unterstützung des lustbetonten Sehens. Der Film spricht
alle drei Ebenen an. Videospiele sind eine Mixtur einer interaktiven Fiktion mit Unterhaltung.
Videospiele bekommen den Charakter des Lebens. Sie können bisweilen sogar das Geschäfts-
leben beeinträchtigen (Norman 2004, 101-133).

Zukünftige Maschinen müssen emotional designt sein, um mit Menschen interagieren zu


können. Überleben war meist ein Teil der Konstruktionsqualität von technischen Artefakten.
Sie enthielten damit eine implizite Emotionalität. So werden heute emotionale Roboter kon-
struiert. Heutige Haushaltskraftmaschinen sind sehr spezialisierte Roboter. Es geht also um
die Verknüpfung von Haushaltsmaschinen. Unsere Wohnungen müssen sich für den Roboter-
einsatz ändern. Es gibt eine Koevolution von Robotern und Menschen. Ein Reinigungsroboter
in Scheibenform, damit er unter die Möbel kommt, dies ist auch eine Sache der Emotion
(Norman 2004, 162-185). Die wichtigste Koevolution ist die im Automobilsystem. Es gibt ein
kooperatives Verhalten zwischen Mensch und Roboter, wobei Roboter häufig auch Auto-
mobile darstellen (Norman 2004, 201-204). Viele Produkte werden um ihres Verhaltens-
designs geliebt. Es geht hier um eine Personalisierung von Dingen. Vertraut machen heißt,
etwas zur Gewohnheit werden zu lassen. Letztlich können wir unsere eigenen Produkte
designen. Unser Leben ist insgesamt zum Designing geworden und die persönliche Webseite
dient als Hilfe zur Kommunikation dieses Tatbestandes (Norman 2004, 215-222).

Wenn wir den Gebrauch von technischen Artefakten analysieren, so haben wir es mit zwei
Paradigmen zu tun, nämlich Konsum, welcher im Mittelpunkt soziologischer Zugänge steht
und Nachfrage, die bei ökonomischen Analysen im Vordergrund steht. Die Verbindungen
zwischen Konsum und Nachfrage einerseits und Innovationen andererseits wirft eine ganze
Reihe von interessanten Fragen auf. Wie können Unternehmen und andere Organisationen
Märkte strukturieren und Nachfrage schaffen? Dies ist zur zentralen Fragestellung in der ge-
genwärtigen Technologie und ihrem Design geworden. So kann eine Theorie entwickelt
werden, die die ökonomische Nachfragetheorie einschließt, aber von einer kulturell-soziologi-

272
schen Betrachtungsweise ausgeht. Innovationen hängen von realen wie wahrgenommenen
Rollen ab. Genderverteilungen begrenzen oder ermöglichen Innovationen (McMee-kin u.a.
2002, 1-5). Ausgangspunkt ist die multivalente Natur des Konsums. Wenn man die Logik der
rationalen Wahl zugrunde legt, wird deutlich, dass diese Theorie zur Beschreibung des Ge-
brauchs von Technik stark eingeschränkt ist. Daher sollten wir die Konzepte von Gewohnheit
und Routine neu durchdenken. Wir müssen die alltäglichen Dinge bewältigen und domesti-
zieren. So ist es insbesondere erforderlich, ein realistisches Modell des Schoppens zu ent-
wickeln. Um Anpassung durch Gebrauch zu verstehen, sollte Konsum als Praxis begriffen
werden. Die soziale Bedeutung des Konsums sollte dabei herausgearbeitet werden. Um zu-
künftige Nachfrage antizipieren zu können, ist es erforderlich, Einsicht zu gewinnen in die
Entwicklungslogik von sozialen Praktiken (McMeekin u.a. 2002, 12-19).

Für Verbraucherverhalten sind Konformität und Konventionen erforderlich (McMeekin u.a.


2002, 34). Moderne Ökonomien enthalten eine große Anzahl von Dingen wie Produkte,
Dienstleitungen und Methoden der Produktion, Fähigkeiten, individuellen und organisatorisch
Handelnde und Institutionen, die qualitativ neu sind und sich unterscheiden im Hinblick auf
die früher (bis in die Mitte des 20. Jh.) in ökonomischen Systemen existierenden Dinge.
Varietät hängt mit Nachfrage zusammen und der Konsument wird immer mehr zu einem
Innovator. Dabei gibt es eine Unabhängigkeit der Vorlieben und der Nützlichkeitsfunktionen
unterschiedlicher Verbraucher. Und diese impliziert nicht eine Konvergenz in ihrer Präferenz
und Wünsche (McMeekin u.a. 2002, 41-45). Varietät und Verschiedenheit wächst an, im
Hinblick auf die Einführungen von Gütern und Servicen, die sehr verschieden sind von denen,
die ihnen vorangingen. Eine dynamische Theorie der Nachfrage muss kompatibel sein mit der
Analyse von langfristigen ökonomischen Entwicklungen und die Ausbildung von Präferenzen
und Wünschen in Rechnung stellen, die mit diesen Gütern und Dienstleistungen zusam-
menhängen (McMeekin u.a. 2002, 52f.).

So sind in einer ökonomischen Konsumententheorie die Bedingungen für die Annahme neuer
Güter genauer zu untersuchen. Kognitive und emotionale Lernprozesse spielen bei Ge- und
Verbrauch eine wichtige Rolle. Warum haben einige Konstruktionsprozesse Erfolg gehabt,
andere vielleicht viel ausgeklügeltere nicht (McMeekin u.a. 2002, 56-61)? Die Bedeutung
sozialer Routinen für den Gebrauch von Technik kann aus d em Interpretationshorizont einer
Rahmentheorie von Grundeinstellungen und Grundhaltungen wie z.B. Gesundheit und
Lebensstil verständlich gemacht werden. In der Zwischenzeit definieren sich Klassenzu-
gehörigkeiten ehr durch Können. Man kann sie unterteilen in 1. Professionelle, 2. Manager, 3.
routinisierte „weiße Kragen“-Arbeiter, 4. trainierte handwerkliche Arbeiter, 5. ausgebildete
Arbeiter mit Fertigkeiten und 6. ungelernte Arbeiter (McMeekin u.a. 2002, 79-81). Eine
Verbrauchsroutine ist eine umschreibbare Fähigkeit für wiederholten Konsum, welcher erlernt
wurde bzw. erworben wurde von Gruppen von Verbrauchern als Antwort auf sozialen Druck
oder soziale Kontexte (McMeekin u.a. 2002, 85). Nicht also Konsum (Soziologie) oder
Nachfrage (Ökonomie), sondern Gebrauchsroutinen und ihre Veränderung durch neue
Produkte sind Gegenstand zumindest einer technikphilosophischen Betrachtung. Gute Um-
gänglichkeit ist dabei sehr wichtig neben dem (billigen) Preis für die technischen Produkte.
Schoppen ist also kein nutzenoptimierter rationaler Entscheidungsprozess, der sich spieltheo-
retisch berechnen lässt, sondern basiert auf Erfahrung mit Produkten aus der Vergangenheit
und zunehmend aus Informationsmöglichkeiten über Nutzererfahrungen, die im Internet
publiziert werden. Dabei kann der vermeintliche Wert des Gekauften nicht von allen Kunden
gleich gut beurteilt werden, vor allen Dingen nicht, wenn es sich um Neuigkeiten handelt. Das
Umgangswissen geht auch über das biologische Selektionsmodell hinaus. Umgangswissen ist
Interaktionswissen, welches die Mensch-Artefakt-Schnittstelle mit einbezieht.

273
Großprojekte sind für viele geradezu zum Inbegriff der auslaufenden Industriegesellschaft
und ihrer Schrecken geworden. Skepsis ihnen gegenüber ist nun mehr keineswegs nur noch
Sache von grünen Ökospinnern in selbstgestrickten Wollsocken. Wie folgenlos diese Kritik
dennoch geblieben ist, können wir daran sehen, dass die Abkehr von groß dimensionierten
Vorhaben allenfalls punktuell stattfindet. Die Rückkehr zum menschlichen Maß wurde
gefordert, vor allem im Buch von Schumacher mit dem programmatischen Titel „Small is
beautiful“. Seine Botschaft des kleinräumigen Wirtschaftens, der überschaubaren Strukturen,
der kleinen Gemeinschaften und der schrittweisen Veränderungen wurde überaus populär.
Kleine und mittlere Technologien sollten eine gangbare Alternative aus der Sackgasse der
großtechnischen Gesellschaft darstellen. Das Ende der Massenproduktion, das Loblied auf die
flexible Sozialisierung des Konsums mit ihrem breitgefächerten und innovativen Warenan-
gebot, den vielfältig Produktionstechnologien und dem hohen Wert qualifizierter Arbeit
anstimmten. Auch der Trend zur Bildung immer größerer betrieblicher und unternehmerischer
Einheiten hat zwar angehalten – man denke nur an die zahllosen Fusionen in den letzten
Jahren- dennoch ist ihm ein moderates Gegengewicht erwachsen, da gleichzeitig die kleinen
Betriebe und Unternehmen einen Aufschwung erlebt haben. So ist es zu einer Vielzahl von
Existenzgründungen gekommen (und diese fangen in der Regel klein an), außerdem haben
Industrie- und Dienstleistungsunternehmen Strategien der Dezentralisierung eingeschlagen.
Und doch entsprechen diese Entwicklungen sicher nicht dem, was sich die Anwälte der Klein-
technologie und Kleinbetriebe ursprünglich vorgestellt haben. So bleibt immer noch die
Suche nach alternativen Technologien bestehen (Reith, Schmidt 2002, 9-14).

Betrachten wir ein Fallbeispiel. Zwischen dem Höhepunkt der Windmühlennutzung im letzten
Drittel des 19. Jh. und dem Wiederaufstieg der Windenergieanlagennutzung in den 90er
Jahren des 20. Jh. lag eine lange Phase, in der die Windenergie keine wirtschaftliche Rolle
spielte. Der größte Makel der Windenergietechnik bestand darin, dass sie keine Großtechnik
war und zur Großtechnik nicht taugte (Reith, Schmidt 2002, 76). Erst nach der Ölpreiskrise
1973 stieß die Windenergie auf erneutes Interesse. Die erste Antwort war das deutsche
GROWIAN-Projekt, die Errichtung einer Großwindanlage mit einer Turmhöhe und einem
Flügeldurchmesser von jeweils 100 Metern. Das Projekt endete bekanntlich in einem teuren
Desaster. Stattdessen waren es dänische Handwerker und Kleinunternehmen, die zu Beginn
der 1980er Jahre die ersten funktionstüchtigen Kleinanlagen als Nachbauten der Pionieranlage
von Johannes Juul aus den 1950er Jahren entwickelte (Reith, Schmidt 2002, S. 84 f.). Die
moderne Windenergietechnik hat inzwischen dennoch viele Eigenschaften, die sie als eine
Großtechnik erscheinen lassen. Die Erfahrungen des 20. Jh. haben gezeigt, dass die Wind-
energietechnik sich nicht als Großtechnik im Stil der fossilen oder nuklearen Energienutzung
ausbauen und an die Erfordernisse einer zentralen Stromerzeugung anpassen lässt. Die
Renaissance der Windenergienutzung ist erst gelungen, nachdem die zentralisierte und
monopolisierte Struktur der Stromversorgung partiell aufgebrochen und die dezentrale
Erzeuger zugelassen und integriert worden sind (Reith, Schmidt 2002, 89). Hier haben wir ein
Beispiel dafür, dass nicht einfach ein Artefakt ausgetauscht werden kann – Kernkraftwerk
gegen Windkraftanlagen. Vielmehr muss das ganze Nutzungssytem der durch Wind gewon-
nen Energie umgestellt, Anwendungs- und Gebrauchsstrukturen verändert werden, also sozio-
technische Strukturen bzw. Mensch-Technik-Schnittstellen redesignt werden, bevor ein
sinnvoller Gebrauch der neuen Technologie möglich wird.

Hinsichtlich der Frage, mit wievielen Mitarbeitern eine Firma nicht mehr als Kleinunterneh-
men anzusehen ist, gibt es unterschiedliche Ansichten. So mancher meint, dass 20 bis 30
Mitarbeiter eine Grenze bilden, ab der neue Organisationsstrukturen geschaffen werden müss-
ten. Insofern nennt man heute Mittel- und Kleinbetriebe solche, die mit weniger als 50
Beschäftigten auskommen. Ein weiteres wichtiges Fallbeispiel bietet der Markt für Sonnen-

274
kollektoren an. In diesem Zusammenhang setzte sich das Prinzip des „learning by using“, also
die Integration der Erfahrung der ersten Nutzer durch. Learning by using funktionierte beson-
ders gut, wenn sich die Kleinfirmen auf den Kollektormarkt konzentrierten. Die enge Ver-
bindung zu den Kunden regte die Kleinfirmen zu technischen Veränderungen an. Da aus
Umfragen hervorging, dass der Selbstbau für manche Kunden zu komplex war, rückten die
Unternehmer aus der alternativen Szene von ihren Prinzipien ab und verkauften seit 1985
auch Bausätze, die vorgefertigte Absorber enthielten (Reith, Schmidt 2002,93-98).

Ein weiteres Thema ist das Reparieren. Die Durchsetzung der massenhaft produzierten
Gebrauchsartikel ruhte zunächst noch auf zwei Pfeilern: Auf der Reparaturmöglichkeit durch
qualifizierte Handwerker, deren Tätigkeitsfeld sich durch die industrielle Massenproduktion
verschob, wobei Technologien und Werkstoffe zunächst noch ähnlich waren, andererseits
durch das Entstehen des Ersatzteils, das den Prozess der Reparatur zum Austausch hin
veränderte. Transfers konnten durchaus an unzulänglichen Reparaturmöglichkeiten scheitern:
Während in den USA der Kundendienst ein Teil des Systems war, entwickelte der Transfer
des Ford-Korntraktors in die Sowjetunion gerade wegen fehlender Reparaturmöglichkeiten
erhebliche Probleme. Installation, Wartung und Reparatur stellen sich insgesamt als Verflech-
tung zwischen Big und Small, bis hin zur Symbiose zwischen Großbetrieb und Reparatur dar
(Reith, Schmidt 2002, 146f.). Das Basteln jedenfalls scheint den ökonomischen Zwängen
stärker enthoben zu sein als das Reparieren. Insofern hat sich ein bestimmter Hobbymarkt
herausgebildet. Beim Reparieren lernt man den Blick für die Verwendbarkeit der Sachen und
deren Einzelteile. Denn Reparieren ist immer auch ein gutes Stück Improvisation und Kom-
bination. Reparaturfähigkeit ist daher eine Kategorie, die sowohl die objektive Eigenschaft
der Sachen als auch die subjektive Fertigkeit des Konsumenten bezeichnet. Insofern könnte
man neben das „Lerning by doing“ und „Learning by using“ auch das „Learning by reparing“
hinzufügen (Reith, Schmidt 2002, 151-154).

Die Rolle der Nutzer im Innovationsprozess und die dynamische Interaktion zwischen
Konstruktion und Gebrauch haben in den letzten Jahren begonnen, mehr Aufmerksamkeit auf
sich zu ziehen. Nichtsdestotrotz gibt es eine große Anzahl von Gründen, vorsichtig zu sein im
Hinblick auf die Hoffnungen, dass der Einbezug von Nutzern dazu führen könnte, in umfang-
reicherem Maße bessere Technologien hervorzubringen, und zwar nicht allein aus prak-
tischen, sondern auch aus prinzipiellen Gründen. Es gibt in der Tat Parallelen im Hinblick auf
Nutzerbeteiligung mit der Frage nach der Beteiligung der Konsumenten in der Produktion und
in der öffentlichen Administration, also im Hinblick auf Innovationsprozesse und Demokra-
tien. Design und der Gebrauch von Technologien sind nicht in einer linearen und einfachen
Art und Weise miteinander verknüpft. Einige der Schwierigkeiten hängen zusammen mit der
Heterogenität der Nutzergruppe und der Frage, wie Nutzer repräsentiert werden können,
damit man sie in den Konstruktionsprozess integrieren kann (Rohracher 2005, 9-13). Auf der
anderen Seite ist in der letzten Zeit das Leitbild des reflektierten Nutzers entstanden. Der
Nutzer als eine soziale Gruppe ist nur selten organisiert in Verbänden oder Institutionen. So
können die Nutzer auch keine gemeinsamen Interessen durch repräsentativ Handelnde artiku-
lieren. Auf der anderen Seite führt das Modell des reflektierten Nutzers zu einer aktiven
Aneignung von Technologien. Die Eignung von Technologien für das alltägliche Leben ist
das, was einige Autoren die so genannte Domestizierung von Technologien nennen und als
praktische wie emotionale Anpassung von Technologien an die Nutzer fordern (Rohracher
2005, 19f). Konsumenten oder Nutzer können so Technologien umdefinieren bzw. neu
definieren, oder sie können auch aktiv eine Wahl treffen, indem sie spezifische Technologien
nicht nutzen. Die Gelegenheiten für Nutzereinfluss bei der Konstruktion hängen ab von der
Form der entsprechenden Technologien. Dabei kann das soziale Lernen als eine Perspektive
für die Beeinflussung von Design herangezogen werden (Rohracher 2005, 51f). Auf der

275
anderen Seite ist jede Konstruktion auch eine Hypothese im Hinblick auf den Nutzer
(Rohracher 2005, 55). Viele der Autoren haben herausgearbeitet, dass Verhaltensweisen von
Nutzern und Gebrauchsszenarien letztendlich nicht in ausreichender Art und Weise
innovative Technologien antizipieren können, die vorgeschlagen werden, und koevolutionäre
Modelle von Technologieentwicklung erfolgreicher sind, in denen der Gebrauch und die
Partizipation von Nutzern eine wesentliche Rolle bei der Lösung von Problemen spielen, wie
bei Technologien die Erfordernisse und Anforderungen von Nutzern durch rekursive
Lernprozesse miteinander verknüpft werden können (Rohracher 2005, 333). Kunden orien-
tierte Entwicklungen sind ziemlich teuer und daher immer nur für bestimmte Nutzergruppen
möglich und angemessen (Rohracher 2005, 337). Die Zugangsmöglichkeiten von Technologie
müssen jedenfalls eingebettet werden.

Technologien stehen vor dem Problem, dass die Annahmeraten und die Akzeptanz der Nutzer
gering sind, oder dass Produkte nicht in der Art und Weise genutzt werden, wie dies von den
Konstrukteuren oder von der Öffentlichkeit gewünscht wird. So soll zum Beispiel eine
Erhöhung der Umweltverträglichkeit von Technologien erreicht werden, die nach wie vor nur
wenig von Kunden auch angenommen wird. Soziologen sollen daher mehr Akzeptanz herbei-
führen. Auf der andern Seite stellt sich die Frage insbesondere für Technikphilosophen, ver-
stehen zu lernen, warum bestimmte Technologien fehlschlagen. Außerdem geht es um Akzep-
tanz nicht im allgemeinen Sinn, sondern meistens innerhalb von speziellen Gruppen. Eine
Basis für die entsprechenden Unterstützungsstrategien bei der Einführung von Umwelttech-
nologien ist zu untersuchen. Dabei geht es um das Problem, die Akzeptanz von Nutzern ver-
stehen zu lernen. Es geht um situierten technologischen Wandel in einer umfangreichen
Produktinnovation. Dabei spielen sozial eingebettete Innovationen eine zentrale Rolle; unter-
„Smarte“ Haustechnologien sind in einem frühen Verbreitungszustand und gelten als Zu-
kunftsentwicklung. Dabei könnte es sich um grüne Häuser mit Wärmerückgewinnung handeln
(Rohracher 2006, 11-15).

Für die Analyse der Rolle der Nutzer in der Ausgestaltung von Innovationen und bei den
Diffusionsprozessen bei ihrer Durchsetzung helfen Gender-Studien weiter. Auszugehen ist
von einem Patchwork von Theorien und nützlichen Einsichten, wobei die Logik des Ge-
brauches und die Logik der Konstruktion bzw. des Entwurfes zusammengebracht werden sol-
len. Den Hintergrund dafür geben evolutionäre Ökonomie und evolutionäre Technologie-
studien insbesondere über Innovation ab. Nutzerspezifische Technologien sind normalerweise
kein Untersuchungsgegenstand. Dabei sind Technologien als soziale Ordnungsfunktionen von
größerer Bedeutung als allgemein angenommen. Die soziale Interaktion ist als konstitutiv für
die Entwicklung von Technologien zu erkennen. Dabei besteht ein Potenzial von Wahl- und
Gebrauchsmöglichkeiten, die in bestimmten Konstruktionsideen von Artefakten und techni-
schen Systemen inhärent ist. SST, Social Studies of Technology, haben hier ein neues Auf-
gabenfeld über das der traditionellen technologischen Entwicklung hinaus erhalten. Die
impliziten Potenziale, die helfen, eine gesellschaftliche Gestaltung von Technologien durch-
zuführen, werden ergänzt durch SCOT, die sozialkonstruktivistisch die interpetative Flexibili-
tät von technischen Artefakten herausarbeitet. Dabei wird auf das Fehlerpotenzial, das in so-
zialen Strukturen enthalten ist, bei der Nutzung von technischen Artefakten mitberücksichtigt.
Beide Ansätze gehen aber von keinem sozialen Determinismus aus (Rohracher 2006, 17-23).

Der Umgang und die Nutzung von Automobilen sind im Hinblick auf die Einführung ökolo-
gisch verträglicher Techniken interessant. Widerstand ist eine weitverbreitete Einstellung bei
Kunden. Dabei sind Städter innovationsfreundlicher als Landbewohner. Große technische
Systeme setzen Systemkonstrukteure und eine Systemevolution voraus. Hier ist eine inter-
pretative Breite der technischen Artefakte festzustellen. Bereits 1992 hat Fischer bei der

276
Nutzungsgeschichte des Telefons herausgearbeitet, wie wichtig spezifische Nutzergruppen,
wie z. B. die Farmer oder später die Frauen bei der Verbreitung des Telefons gewesen sind.
Die Macht der Nutzer bei den Elektrizitätssystemen ist ebenfalls von ausschlaggebender
Bedeutung. Technologische Aktionspläne und Dramen bei der Erzeugung und Durchsetzung
von technologischen Innovationen sind zu berücksichtigen. Leitende Visionen, grundsätzliche
Diskurse und begrenzende Faktoren sind herauszuarbeiten. Bei der technischen Lösung kann
die Multiinterpretabilität von technologischen Artefakten auszuprobiert werden (Rohracher
2006, 25-42). Gebrauchen und Lernen gehören zusammen: Learning by doing, Learning by
Using, Lernen aus den Vorteilen in Wissenschaft und Technologien, Lernen aus den zwi-
schenindustriellen Vorteilen bei Transferen, Lernen durch die Interaktion zwischen Firmen
und Lernen durch gezieltes Suchen. Gemeinschaften von Praxis sind auch die Nutzer-
Produzenten-Interaktionen. Interessant wird das Interface zwischen Nutzern und Produzenten.
Außerdem ist die Innovationsdiffusion und Systemtransformation zu berücksichtigen. Der
Diffusionsforschung geht es um die Anpasser und um die sozialen Netzwerke der ersten An-
wender einer neuen Technologie, um die Wiedererfindung des Artefaktes durch hundert-
fachen Gebrauch im neuen institutionellen Kontext gebrauchsorientierter Technikbetrachtung
zu rekonstruieren. Insofern sind integrierte Konzepte von Innovation, Diffusion und Annahme
erforderlich. TEN, Techno-ökonomische Netzwerke, sind zu analysieren (Rohracher 2006,
46-58).

Das Konzept der Innovations-Diffusions-System-Transformation muss ein Multilevelmodell


der Innovation herausarbeiten. Es geht um die Konzeptualisierung der Rolle des Nutzers in
unterschiedlichen theoretischen Rahmenbeziehungen und Rahmenanalysen. Der Nutzer als
Konsument bedeutet, dass der Gebrauch von Produkten als eine Kommunikation über die
Bedeutung dieser Produkte aufgefasst wird. Tatsächlich geht es aber um mehr als bloßes
Reden, Ausprobieren ist unumgänglich. Es geht also um die Bedeutung von technischen
Artefakten und von technischen Gütern, die vermarktet werden sollen. Insofern ist eine Kunst
des Konsums zu entwickeln. Die Anwendung von Technologien im alltäglichen Leben stellt
die Frage nach dem Nutzer als Bürger und die Frage bewusst verantworteter Techniknutzung.
Diese Techniknutzung ist nach geschlechtsspezifischen Rollenmustern zu differenzieren. So
kommt es zu einer ANT, zu einer Aktor-Netzwerk-Theorie. Die Rolle des Nutzers im
technologischen Wandel wird in diesen Modellen hervorgehoben. Dabei geht es um eine
Design- und eine Nutzerlogik. Fiktive und reale Nutzer, zukünftige Nutzer, Nutzerbilder, all
diese sind Teil von Sozialen Arenen-Theorien mit multiplen Perspektiven und Standards für
den Gebrauch (Rohracher 2006, 60-99).

Die Co-Konstruktion zwischen Märkten und Technologien führt zu einer Konfigurierung des
Nutzers, kann aber auch zu Modellen angepasster Technologie ausgearbeitet werden. Hier
taucht die Metapher von der Maschine als Text auf. Verschiedene Marktsphären sind zu
unterscheiden. Es gibt technische Dinge in der sozialen Kommunikation. Die Technologien
sind mehr oder weniger offen für schrecklichen Missbrauch. Dabei spielen die Pioniergruppen
der urbanen Erfinder und Erstnutzer eine zentrale Rolle. Hier wird der Gebrauch einer
Technologie sozial und kulturell kodiert. Ein Entwurf oder eine Konstruktion, die auf
Einbettung und Nutzerinteraktion in einem breiteren Sinne abzielt, analysiert sozio-
technologische Konfigurationen. Es geht um Ko-evolution und wechselseitige Anpassung
zwischen Technologie und Organisationen. Soziales Lernen und seine Verbesserung wird
aufgewiesen in begrenzten sozio-technologischen Experimenten, wie z. B. Nischen-
management. Konstruktives Technologie-Assessment (CTA) führt zur Analyse von signifi-
kanten Barrieren und Grenzen im Hinblick auf den bewussten Nutzer und Gebraucher und die
dabei von ihm involvierten Strategien. Gegenseitige Partizipation, soziale Lernprozesse

277
zwischen Designern, Unternehmern und verschiedenen Gruppen von Handelnden und
Nutzern sind hier zu berücksichtigen (Rohracher 2006, 100-111).

Der Gebrauch führt zum Re-Design. Insbesondere der Umgang mit Erwartungen von Nutzern
ist wichtig und stellt neue Aufgaben für Techniknutzer hier sind kognitive Prozesse z. B. bei
der Einführung von Smart Homes und Niedrigenergiehäusern erforderlich. Es geht um die
Abgleichung der tatsächlichen Prozesse mit den Erwartungen der Nutzer. Die Industrie spielt
bei Innovationen nur eine untergeordnete Rolle. Für Innovationen gibt es eine Reihe von
begrenzten Faktoren. Der Druck im Hinblick auf den Wandel ist bereits durch die Struktur
vorgegeben. Luftaustausch- und Managementsysteme sind im Energiesparhaus zu installieren,
um Energieverluste zu minimieren. Diese Systeme sind nicht sehr kompliziert ebenso wie
Energiepassivhäuser. Hygienische Probleme, medizinische Bedürfnisse, Klimaanlagen, die
Programmierung und die Aufgabentafeln machen die Entwicklung von Smart Home Häusern
aus. Insbesondere gilt es, die Energieeffizienz zu optimieren und Parameter z. B. Tempe-
raturen entsprechend einzustellen. Die Senkung des Bedarfs an elektrischer Energie ist eine
der Hauptaufgaben. Technologische Komplexität und die Reife einer Technologie gehören
zusammen (Rohracher 2006, 113-142).

Mangelnde Erfahrung mit solchen Energieverteilungssystemen und fehlerhafte Funktionen


können Bedingungen des Sich Wohlfühlens beeinträchtigen. Entscheidend aber sind die
Kosten der Einführung neuer Technologien. Will man sich wirklich ein solches Haus leisten
und die entsprechenden Investitionen tätigen, dann gibt es vorher einen Bedarf an Infor-
mationsbeschaffung. Nutzererfahrung und ihre Weitergabe im Internet werden immer
dringlicher und wichtiger. Bewertung und Befriedigung hängen oft miteinander zusammen.
Durch die unmittelbare Internetbekanntgabe von Kundenzufriedenheit wird der Einfluss der
Firmen bei der Einführung neuer Technologien heruntergehen. Ganz entscheidend wird in
diesem Zusammenhang sein, dass die Wirtschaftlichkeit und die Funktionalität der neuen
Technologien im technologischen Produkt bereits angelegt sind. Missfallen, Betriebslärm und
so weiter mindert den Komfort. Außerdem muss der Kunde den Eindruck von Autonomie und
Kontrolle behalten. Positive und negative Erfahrungen mit den neuen Technologien sind ganz
entscheidend für die Durchsetzung einer solchen neuen Technologie. Veränderungen der
Handlungsmuster und Verhaltensweisen lassen sich leichter beim Einbezug der Nutzer in den
Konstruktionsprozess erreichen. Für Niedrigenergiehäuser sind Sensoren wichtig und die
integrative Planung für zusätzliche Heizleistungen. Durch die Verknüpfung von Konstruktion
und Gebrauch entstehen Smart Homes. Die leitende Vision ist hier Nachhaltigkeit und
Energiemanagement. Auch bei den Niedrigenergiehäusern müssen Fehlerquellen und
Schwachstellen aufgespürt werden (Rohracher 2006, 171-246).

In der neueren Philosophie der Technologie wird die Nicht-Neutralität der Technologie her-
vorgehoben. Die meisten der Forscher in diesem Gebiet stimmen darin überein, das
Technologien in aktiver Art und Weise dazu beitragen können, Kultur und Gesellschaft zu
gestalten. Ingenieursethik legt das Schwergewicht auf die Entscheidungen und die Verant-
wortlichkeit des Ingenieurs und verbleibt damit zu externalistisch im Hinblick auf die
moralische Bedeutung der Technologien selbst. Wenn Technologien gebraucht werden, dann
helfen sie in jeder Form, in der sie ihre Funktionen erfüllen, den Kontext zu gestalten und zu
beeinflussen, in dem sie sich befinden. Man nennt dies technologische Mediation. Wie kann
man nun diese materiale Moralität von Technologien verstehen? Impliziert sie tatsächlich,
dass Artefakte als moralische Handelnde betrachtet werden können? Zumindest scheint es so
etwas wie eine technologische Intentionalität zu geben. Insofern ist Don Ihdes Beschäftigung
mit der hermeneutischen Dimension der technologischen Mediation zu berücksichtigen. So
führt die Methode des Ultraschalls bei der pränatalen Diagnose zu einer Veränderung der

278
Situation. Der Ultraschall isoliert den Fetus vom mütterlichen Leib. Dadurch schafft er eine
neuen ontologischen Status des Fetus, der jetzt als etwas gilt, das neben der Mutter und
separiert von ihr leben könnte. Dies schafft Raum für Entscheidungen über den Fetus
abstrahierend von dem Leib der Mutter, die diesen Fetus austrägt. Als ein Resultat dieser
Methode wird die Schwangerschaft zu einem Prozess von Entscheidungsmöglichkeiten, zum
Beispiel der darüber, Testverfahren durchzuführen oder nicht (Verbeek 2008, 91-94). Techno-
logische Konstruktion ist eine inhärent sittliche Tätigkeit, also Praxis im eigentlichen aristote-
lischen Sinn (Verbeek 2008, 99).

Neben der „Intentionalirät“ technischer Artefakte spielt bei der ethischen Bewertung aber
auch die Ausweitung der Folgen eine zentrale Rolle. Das Entstehen wachsender Märkte
gerade für sich entwickelnde Länder hat den globalen Marktplatz verändert. Er hat ein weit
verzweigtes Netzwerk von Unternehmern, Programmierern und Designern geschaffen, die
irgendwo in der Welt tätig sein können. Aber die Nutzer sind jeweils lokal, und so kann es
dazu kommen, dass, wenn erfolgreiche Produkte und Dienstleistungen für Kunden entwickelt
werden sollen, es eine ungeahnte Zahl von Wegen gibt, dies falsch zu machen. Weniger als
die Hälfte der Unternehmen, die auf den wachsenden Märkten erfolgreich gewesen sind,
haben darin ihre Ziele auch erreicht. Ein Beispiel: Kelloggs entwickelte eine Kampagne, um
ihre Cornflakes auf dem indischen Markt einzuführen. Was sie nicht berücksichtigt hatten
war, dass Inder genauso wie Chinesen und andere Asiaten ihren Tag nicht mit irgendetwas
Kaltem wie kalte Milch in Cerialien beginnen wollen. Das ist ein Schock für ihr kulturelles
System. Und wenn man etwas warme Milch in Cornflakes hineintut, dann schmeckt es wie
nasses Papier (Chavan u.a. 2009).

Ein anderer Fall betrifft die Whirlpool Cooperation, die ein einziges einfaches Modell einer
Waschmaschine für Märkte in sich entwickelnden Ländern konstruierte, kurz „Worldwasher“
genannt. Es wurde in Brasilien, Mexiko, China und Indien eingeführt, mit großem Erfolg,
ausgenommen im südlichen Indien. Eine Untersuchungsgruppe fand heraus, dass traditionelle
südindische Saris aus sehr feiner Baumwolle oder Seide gefertigt war, 6 mal 9 Yards lang.
Die so konstruierte Maschine sog die fein gearbeiteten Kleidungsstücke in den wenigen
Millimeter weiten Spalt zwischen der Maschinenöffnung und der Trommel und zerriss sie.
Eine neue Waschmaschine musste für diese Region konstruiert werden. Konventionelle
Designmethoden sind gut für konventionelle Märkte. Sich entwickelnde Märkte aber in den
neuen sich entwickelnden Ländern fordern ein anderes Vorgehen und kulturelle Sensitivität
mit Blick auf ihre Nutzer und deren Gewohnheit und gelegentlich auch unorthodoxe Zugänge
zu dem, was ein Designer möglicherweise aus der Balance wirft. Aber nur wenn Designer
konventionelles Denken über Produkte und Produktionsdesign hinter sich lassen, kommen sie
in die Lage, dass ihre Märkte und Kunden differenziert sind und dann erzeugen sie auch
angepasstere, langlebigere und brauchbarere technische Produkte. Diese Herausforderungen
im Hinblick auf neue Formen der Konstruktion und der Produktion sind außerordentlich. Aber
sie führen letztendlich zu kreativen Lösungen, die tatsächlich auch Erfolg versprechen im
Hinblick auf sich entwickelnde Märkte (Chavan u.a. 2009).

Und die Nutzer ändern sich und werden dem Bild ähnlicher, das in diesem Buch von
denjenigen entwirft, die Technik gebrauchen. Undifferenzierter passiver Massenkonsum ist
zwar nicht vorbei, aber im Schwinden begriffen. „Digital natives“ werden Kinder und Jugend-
liche in der einschlägigen Literatur genannt, „digitale Eingeborene“, in Abgrenzung zu den
„digitalen Immigranten“, den über 30-Jährigen. Und sie, die Jungen, haben ein Leben ohne
Internet und Handy nicht kennengelernt. Es ist also die Generation der nach 1980 Geborenen,
die einen ganz anderen Umgang mit Computern pflegen als die Älteren. Diese neue Jugend
bringt Fähigkeiten mit, die sie sich in tausenden von Stunden bei Computerspielen perfek-

279
tioniert haben. Das verändert die Art und Weise, wie Business in den nächsten Jahren
funktionieren wird und zwar wohl ziemlich grundsätzlich. Solche Erfahrungen hat zum
Beispiel IBM gemacht. Vor etwa 20 Jahren begann dort ein Lernprozess dahingehend, dass es
nicht mehr ausreichend ist, gute Technologie anzubieten, sondern dass man unter Umständen
zwar sehr gute Technologie anbieten kann, aber diese trotzdem nicht das Richtige für den
Markt ist, weil sich die Bedürfnisse der professionellen Kunden aus der Wirtschaft mitt-
lerweile verändert haben. Diese Tatsache hätte IBM 1993 fast die Existenz gekostet. Ganz
wichtig für einen erfolgreichen Spieler ist nämlich die Fähigkeit, in Echtzeit zu entscheiden,
welche Information wesentlich ist, was notwendig ist, um zu gewinnen und was unwichtig ist.
Spieler müssen außerdem bereit sein, Risiken einzugehen (Stieler 2009, 43f).

Der Einfluss der „digital natives“ ist bereits heute spürbar. Früher ist ein Kunde, wenn er
einen neuen DVD-Player kaufen wollte, in einen Laden gegangen. Da standen eine ganze
Menge Geräte herum und der Kunde ist zu einem Verkäufer gegangen, um sich beraten zu
lassen. Heute könnte das ganz anders aussehen. Die Macht würde sich vom Verkäufer zum
Käufer verschieben. Auch Digitale Eingeborene kommen in den Laden und lassen sich ein
Gerät empfehlen. Aber dann machen sie mit dem Smartphone ein Foto davon und rufen eine
Webseite mit Rezensionen oder ein Forum auf. Dort lesen sie, was andere für Erfahrungen
mit der angebotenen Technik gemacht haben. Und dann sehen sie noch, dass es ein paar
Kilometer weiter einen anderen Laden gibt, wo man dieses Gerät für 100 Euro weniger
kaufen kann. Die Firmen werden selbstverständlich versuchen, sich dagegen zu wehren, etwa
durch Zurückhalten von Informationen. Aber das wird langfristig nicht funktionieren. Sie
müssen schneller werden, sonst werden sie von den jungen Leuten als Dinosaurier angesehen.
Wichtig ist dabei die Offenheit und Vernetzung der Digitalen Eingeborenen. Sie gehen aus
von Vertrauen in das eigene Netzwerk, mit dem sie kommunizieren. Eine neue Art von
Öffentlichkeit entsteht, selbst technisch hergestellt. Hier machen die Nutzer die Wahr-
nehmung, dass es keine Grenzen gibt, weder zeitlich noch räumlich. Digitale Eingeborene
hören in geschäftlichen Dingen wahrscheinlich eher auf Menschen aus ihrem persönlichen
Netzwerk als auf Kollegen aus dem eigenen Betrieb. Damit verschiebt sich das Problem von
Expertentum und Laientum. Auf der einen Seite ergeben sich dadurch Probleme bei der
Sicherheit der technischen Artefakte und bei dem Umgang mit geistigem Eigentum. Regie-
rungen, Versicherungen und Banken machen sich darüber eine Menge Sorgen. Aber es gibt
wohl auch Unternehmen, die jene neuen Möglichkeiten, die sich durch die Jungen auftun,
sehr positiv aufnehmen. Denn neue Ideen könnten so sehr schnell und kostengünstig getestet
und diskutiert werden (Stieler 2009, 44). Auf jeden Fall sollte zur Kenntnis genommen
werden, dass sich in der vordersten Front der Technologieentwicklung die Idee technischer
Konstruktion und des klassischen Ingenieurswesen dramatisch geändert hat und in Richtung
eines technologischen Designs transklassisch hypermoderner technologischer Strukturen
läuft, in der Designer und Nutzer wieder stärker miteinander verflochten sind als im Zeitalter
der produktionsbesessenen industriellen Revolutionen.

Beim technologischen Design spielen daher drei Ebenen eine Rolle, die alle drei in der
Geschichte des technischen Konstruierens jeweils schon einmal bedeutsam waren:

(1) klassische ingenieursmäßige Aspekte, bei der Fragen der wissenschaftlichen


Absicherung und der mathematischen Modellbildung im Vordergrund stehen;
(2) architektonisch-künstlerische Aspekte unter Berücksichtigung von funktionalen
Aspekten z.B. wie beim Design im Bauhaus; und

280
(3) das Modell des mittelalterlichen „architectus sapiens“, die nutzerorientierte
Planung der technischen Konstruktion unter Nutzerpartizipation, wobei dieses
allerdings heute häufig für einen kollektiveren Gebrauch umzuformulieren ist.

Das technische Konstruieren ist also in einem fundamentalen und rapiden Wandlungsprozess
begriffen. Beim technologischen Design steht anders als in der Alltagssprache nicht das
Künstlerische, sondern das technologisch Funktionale im Vordergrund. Daher bin ich
angesichts der Entwicklung ins transklassisch Hypertechnologische nicht wie Martin Hei-
degger der Meinung, dass die schönen Künste die moderne Technik retten werden, sondern
die leiblich-humanen Dimensionen des Menschseins auch im Ingenieurswesen und seinem
technologischen Design, nicht irgendwelche postmodernen oder posthumanen Visionen einer
technologischen Transformation des technischen Konstruierens (Irrgang 2005a).

Der nächste Schritt, der aber über die Aufgabenstellung dieses Buches hinausgeht, wäre die
Frage nach der Organisation der Nutzung, eine Nutzerorientierung ausgerichtet an Werten des
Gemeinwohles oder von Nachhaltigjeit. Dies kann Werbemaßnahmem wie Schulungsver-
anstaltungen umfassen, wenn wir von der Konstruktions- bzw. Unternehmensseite an das
Problem herangehen. Firmen organisieren ihre Nutzer durch Fortbildung, neue Leitbilder, die
Entwicklung neuer Gebrauchsroutinen und –formen z.B.im Umweltbereich. Andererseits
können sich Nutzer auch selbst organisieren, z.B. durch das Internet als Informationsbörse
für Erfahrungen im Gebrauch neuer Techniken und Produkte. Aber auch der Staat kann
mithelfen durch die Einrichtungen von Verbraucherinformations- und Verbraucherschutz-
institutionen. Strukturen, Institutionen und Netztwerke, die Gebrauch unterstützen bzw.
einbetten, vor allem auch den jeweils kollektiven Gebrauch (Coobs u.a. 2001). Unter
Konstruktionsgesichtspunkten handelt es sich dabei nicht nur um die soziale Konstruktion von
Nutzern, d.h. die Anpassung des Nutzers an die sich wandelnde Technik, sondern auch um die
Verbesserung der Technik zum leichteren Gebrauch.

281
Literaturverzeichnis
Achterhuis, Hans 2001: (Hg.) American philosophy of technology: the empirical turn, übersetzt von R. Crease
(11999), Bloomington, Indianapolis
Aristoteles 1979: Physikvorlesung. Übers. v. H. Wagner; Darmstadt 1979
Bannasch, Rudolf 2007: Bionik; in: H. J. Bullinger (Hg.): Technologieführer; Grundlagen- Anwendungen-
Trends; Berlin u. a., 204-209
Banse, Gerhard 2002: Über den Umgang mit Unbestimmtheit in: G. Banse; A. Kiepas (Hg.): Rationalität heute.
Vorstellungen, Wandlungen, Herausforderungen; Münster, 211-234
Banse, Gerhard, Günther Ropohl 2004: (Hg.) Wissenskonzepte für die Ingenieurpraxis. Technikwissenschaften
zwischen Erkennen und Gestalten; VDI-Report 35; Düsseldorf
Bauer, Reinhold 2006: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel; Frankfurt, New
York
Bayertz, Kurt, Patricia Nevers 1998: Biology as technology; In R. Porter und K. Bayertz (Hg.): From physico–
theology to bio-technology: Amsterdam, 108-132
Beckmann, Johann Jacob 1777: Anleitung zur Technologie, oder zur Kenntniß der Handwerke, Fabriken und
Manufacturen, vornehmlich derer, die mit der Landwirtschaft, Polizey- und Cameralwissenschaft in
Verbindung stehn. Nebst Beyträgen zur Kunstgeschichte; Göttingen
Beckmann, Johann 1985: Anleitung zur Technologie; Hrsg. von Peter Buck, Berlin 1985
Beniger, James 1986: The control revolution. Technological and economic origins of the information society;
Cambridge, Mass.
Bijker, Wiebe, John Law 1992: Shaping Technology / Building Society. Studies in sociotechnical Change;
Cambridge Mass., London
Bijker, Wiebe u. a. 1987: The social construction of technological systems. New directions in the sociology and
history of technology; Indiana
Binding, Günther 1998: Der früh- und hochmittelalterliche Bauherr als sapiens architectus. 21998 Darmstadt
Borgman, Albert 1984: Technology and the Character of Contemporary Life. A Philosophical Inquiry; Chicago,
London
Borgmann, Albert 1992: Crossing the Postmodern Divide; Chicago London
Borgmann, Albert 2008: Reality and Technology; in: Cambridge Journal of Economics.
Bowing, Niels, Wolfgang Stieler 2008: Technik zum verlieben; in: Technology Review 3/2008, 26-33
Brey, Phillip 2005: Ethics of New Information Technology; Enschede.
Buchheim, Gisela, Rolf Sonnemann 1990: Geschichte der Technikwissenschaften, Leipzig, Frankfurt
Bugliarello, George, Dean B. Doner 1983: The history and philosophy of technology; Urbana, Chicago, London
Bullinger, Hans Jörg u. a. 1989: Künstliche Intelligenz in Konstruktion und Arbeitsplanung, Landsberg a. Lech
Bullinger, Hans-Jörg 2007: (Hg.) Technologieführer. Grundlagen – Anwendungen – Trends; Berlin u.a.
Calvert, Monte A. 1967: The mechanical Engineer in America, 1830-1910. Professional Cultures in Conflict;
Baltimore
Chavan, Apala Lahiri, Douglas Gorney, Beena Prabhu, Sarit Arora 2009: The Washing Machine Atem y sari -
Mistakes in crosskultural Design; in: ACM Portal Vol. 16 Nr. 1 2009, 26-31
Caroll, John M. 1990: The Nurnberg Funnel: Designing Minimal Instruction for practical Computer Skill;
Cambridge Mass., London
Charpa, Ulrich 2001: Wissen und Handeln. Grundzüge einer Forschungstheorie; Stuttgart, Weimar

282
Chiles, James 2001: Inviting disaster. Lessons from the age of technology; New York
Collins, Harry, Robert Evans 2007: Rethinking Expertise; Chicago, London
Conrad, Dietrich 1990: Kirchenbau im Mittelalter. Bauplanung und Bauausführung 41990; Leipzig
Coombs, Rod u. a. 2001: (Hg.) Technology and the Market. Demand, Users and Innovation; Cheltenham,
Northamton
Corona, Nestor; Bernhard Irrgang 1999: Technik als Geschick? Geschichtsphilosophie der Technik; Dettelbach
Daele, Wolfgang van den 1989: Kulturelle Bedingungen der Technikkontrolle durch regulative Politik; in: Peter
Weingart (Hg.) Technik als sozialer Prozess; Frankfurt, 197-230
Dosi, G. 1984: Technical Change and Industrial Transformation. The Theory and an Application to the Semicon-
ductor Industry; Houndsmills
Dreyfus, Hubert L. 2001: On the Internet; London New York
Dylla, Norbert 1991: Denk- und Handlungsabläufe beim Konstruieren; München Wien
Edquist, Charles 1997: (Hg.) Systems of innovation. Technologies, institutions and organisations; London,
Washington
Engelhardt, Ulrich 1984: Handwerker in der Industrialisierung. Lage, Kultur und Politik im späten 18. bis ins
frühe 20. Jh., Stuttgart
Erlach, Klaus 2000: Das Technotop. Die technologische Konstruktion der Wirklichkeit; Münster Hamburg
London
Falkenburg, Brigitte 2004: Wem dient die Technik?; Baden-Baden
Fellmeth, Ulrich, Andreas Kothidir 1993: (Hg.) Paracelsus, Theophrast von Hohenheim. Naturforscher, Arzt,
Theologe; Stuttgart
Feng, Patrick; Andrew, Feenberg 2008: Thinking about Design. Critical Theory of Technology and the Design
Process, in: P. E. Vermaas et al. (Hg.): Philosophy and Design, Berlin u.a., 105-118
Ferguson, Eugene S. 1993: Das innere Auge von der Kunst des Ingenieurs. Aus dem amerikanischen von Anita
Ehlers; Basel, Boston, Berlin (11992)
Feuchte, Martin 2000: Praxisorientierte Technikwissenschaften. Zur Gründung des Maschinenlaboratoriums am
Züricher Polytechnikum und dem Werk Aurel Stodulas, Düsseldorf
Fischer, Claude 1992: America Calling. A Social History of the Telefon to 1940; Berkeley u. a.
Gallee, Martin Arnold 2003: Bausteine einer abduktiven Wissenschaft- und Technikphilosophie; Münster
Gamm, Gerhard, Andreas Hetzel 2005: (Hg.) Unbestimmtheitssignaturen der Technik. Eine neue Deutung der
technischen Welt; Bielefeld
Gembicki, Dieter, Rolf Reichardt 1993: (Hg.) Progres in: Handbuch politisch-sozialer Grundbegriffe in
Frankreich 1680-1820; Hg. von R. Reichardt und H.-J. Lüsebrink Heft 14/15 München
Gembruch, Werner 1983: Persönlichkeit und Werk Vaubans als „Ingenieur de France“; in: Beiträge zur Ge-
schichte der frühneuzeitlichen Festungstadt; Saarbrücken, 48-63
Gershenfield, Neil 2000: Wenn die Dinge Denken lernen; aus dem Engl. v. N. Gatter 11998; EA 1997; München
Gershenfield, Neil 2005: Fab. The coming Revolution on your Desktop – from Personal Computers to Personal
Fabrication; New York
Gibbs, W. Wayt 2004: Künstliche Biomaschinen. Synthetische Biologie, in: Spektrum der Wissenschaft
10/2004, 68-75.
Gill, Karamjit 1996: (Hg.) Human-Machine-Symbiosis. The Foundation of Human-centred Systems Design;
Berlin u.a.
Gille, Bertrand 1968: Ingenieure der Renaissance; Wien, Düsseldorf
Glock, Friedrich 1998: Konstruieren als sozialer Prozess. Eine Untersuchung technischen Gestalten, Wiesbaden
Goldammer, Kurt 1953: Paracelsus Natur und Offenbarung; Hannover
Grelon, Andre, Heiner Stück 1994: (Hg.) Ingenieure in Frankreich 1747-1990, Frankfurt/New York

283
Grove, J. W. 1989: In Defence of Science: Science, technology, and politics in modern society; Toronto,
Buffalo, London
Grunwald, Armin 2003: (Hg.) Technikgestaltung zwischen Wunsch und Wirklichkeit; Berlin u.a.
Grunwald, Armin; Saupe, Stephan 1999: Ethik in der Technikgestaltung. Praktische Relevanz und Legitimation;
Berlin u.a.
Hacker, Winfried 1994: Konstruieren als Handeln – Bild: Begriff ist gleich Zeichnen: Denken; Dresden
Hacker, Winfried, Pierre Sachse 1995: Konstruieren als Denktätigkeit; Dresden
Hägermann, Dieter, Helmuth Schneider 1991: Landbau und Handwerk 750 v. Chr. bis 1000 nach Chr.; W.
König (Hg.) Propyläen Technikgeschichte Band 1 Berlin
Hänseroth, Thomas 2003: Die Konstruktion „verwissenschaftlicher“ Praxis: Zum Aufstiegs eines Paradigmas in
den Technikwissenschaften des 19. Jh.; in: ders. (Hg.) Wissenschaft und Technik. Studien zur Geschichte
der TU Dresden, Köln u. a. 15-36
Hänseroth, Thomas; Klaus Mauersberger 2001: Spekulative Betrachtungen über die Entwicklung des
technischen Wissens im Mittelalter, mit besonderer Berücksichtigung vom Heben und Versetzen von
Lasten; in: Uta Lindgren (Hg.) Europäische Technik im Mittelalter 800-1400; Tradition und Innovation;
Ein Handbuch; Berlin, 87-93
Hahn, Achim 2002: Ausdruck und Gebrauch. Überlegungen zur lebensweltlichen Perspektive von Wohnen und
Bauen zugleich: Anregung zu einem ästhetisch-pragmatischen Architekturverständnis; in: Ausdruck und
Gebrauch 1 (1/2002), 3-24
Hall, A. Rupert 1994: Science and society. Historical essays on the relation of science, technology and medicine,
Variorum
Hard, Mikael, Andrew Jamison 2005: Hubris and Hybrids. A Cultural history of Technology and Science; New
York, London
Harman, Graham 2002: Tool-Being. Heidegger and the Metaphysics of objects; Chicago, La Salle
Harré, R. 1986: Varieties of Realism. A Rationale for the Natural Science; Oxford, New York
Hartmann, Dirk, Peter Janich 1998: (Hg.) Die kulturalistische Wende. Zur Orientierung des philosophischen
Selbstverständnisses; Frankfurt
Harris, John 1982: Essays in Industry and Technology in the 18th Century: England and France, Variorum.
Hassenpflug, Dieter 1990: Die Natur der Industrie. Philosophie und Geschichte des industriellen Lebens,
Frankfurt, New York
Hausen, Karin, Rürup, Reinhard (Hg.) 1975: Moderne Technikgeschichte; Köln

Heidegger, Martin 1972: Sein und Zeit; 121972; Tübingen


Heisel, Joachim 1993: Antike Bauzeichnungen; Darmstadt
Helten, Frank 1993: Technik und Konstruktionshandeln. Eine sozialwissenschaftliche Studie im sozialen Prozess
der Technik; Frankfurt u.a.
Hensel, Susann, Karl-Norbert Ihmig, Michael Otte 1989: Mathematik und Technik im 19. Jh. in Deutschland.
Soziale Auseinandersetzung und philosophische Problematik, Göttingen
Hiskes, Richard P. 1998: Democracy, Risk, and Community. Technolocical Hazards and the Evolution of
Liberalism; New York, Oxford
Homburg, Ernst; A. Travis, S. Schröter, G. Harm 1998: (Hg.) The chemical Industry in Europe, 1850-1914.
Industrial Growth, Pollution and Professionalisation; Dodrecht u. a.
Hubig, Christoph 2002: Mittel; Bielefeld
Hubig, Christoph 2006: Die Kunst des Möglichen, Bd. 1: Technikphilosophie als Reflexion der Medialität.
Grundlinien einer dialektischen Philosophie der Technik; Wiesbaden
Hughes, Thomas P. 1989: Machines, Megamachines and Sytems, in: S. Cutcliffe, R. Post (Hg.): History and the
History of Technology. Essays in Honor of Melvin Kranzberg, Band 1, 106-119
Hughes, Thomas P. 2004: Human-Built World. How to Think about Technology and Culture; Chicago/London

284
Huisinga, Richard 1996: Theorien und gesellschaftliche Praxis technischer Entwicklung. Soziale Verschrän-
kungen in modernen Technisierungsprozessen; Amsterdam
Ihde, Don 1993a: Philosophy of Technology. An introduction; New York
Ihde, Don 1993b: Postphenomenology. Essays in the postmodern context; Evanston
Ihde, Don 2002: Bodies in technology; Minnesota London
Ihde, Don 2004: The designer fallacy and technological imagination, Vortrag
Irrgang, Bernhard 1996: Von der Technologiefolgenabschätzung zur Technologiegestaltung. Plädoyer für eine
Technikhermeneutik; in: Jahrbuch für Christliche Sozialwissenschaften 37, 51-66
Irrgang, Bernhard 1997: Forschungsethik Gentechnik und neue Biotechnologie. Grundlegung unter besonderer
Berücksichtigung von gentechnologischen Projekten an Pflanzen, Tieren und Mikroorganismen; Stuttgart
Irrgang, Bernhard 1998: Praktische Ethik aus hermeneutischer Perspektive; Paderborn
Irrgang, B. 2001: Technische Kultur. Instrumentelles Verstehen und technisches Handeln; (Philosophie der
Technik Bd. 1) Paderborn
Irrgang, B. 2002a: Technische Praxis. Gestaltungsperspektiven technischer Entwicklung; (Philosophie der
Technik Bd. 2) Paderborn
Irrgang, B. 2002b: Technischer Fortschritt. Legitimitätsprobleme innovativer Technik; (Philosophie der Technik
Bd. 3); Paderborn
Irrgang, Bernhard 2002c: Natur als Ressource, Konsumgesellschaft und Langzeitverantwortung. Zur Philosophie
nachhaltiger Entwicklung; Technikhermeneutik Band 2; Dresden 2002
Irrgang, Bernhard 2002d: Künstliches Leben – Natur und technische Grenzen; in: W. Hogrebe (Hg.): Grenzen
und Grenzüberschreitungen. 19. Deutscher Kongreß für Philosophie; Bonn 2002, 865-872
Irrgang Bernhard 2003a: Künstliche Menschen? Posthumanität als Kennzeichen einer Anthropologie der
hypermodernen Welt?; in Ethica 11/2003/1, 1
Irrgang, Bernhard 2003b: Von der Mendelgenetik zur synthetischen Biologie. Epistemologie der
Laboratoriumspraxis Biotechnologie; Technikhermeneutik Bd. 3; Dresden
Irrgang, Bernhard 2003c: Technologietransfer transkulturell als Bewegung technischer Kompetenz am Beispiel
der spätmittelalterlichen Waffentechnologie; in: Wissenschaftliche Zeitschrift der Technischen
Universität Dresden 52 (2003) Heft 5.6, 91-96
Irrgang, Bernhard 2004: Konzepte des impliziten Wissens und die Technikwissenschaften; in: G. Banse, G.
Ropohl (Hg.): Wissenskonzepte für die Ingenieurpraxis. Technikwissenschaften zwischen Erkennen und
Gestalten; VDI-Report 35; Düsseldorf 2004, 99-112
Irrgang B. 2005a: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und
Designer-Menschen - Anthropologie des künstlichen Menschen im 21. Jahrhundert; Stuttgart
Irrgang, B. 2005b: Paracelsus Idee einer Bearbeitung der Natur. Anmerkungen zum Technikverständnis des
Hohenheimers; In: Manuskripte, Thesen, Informationen hg. von der Deutschen Bombastus-Gesellschaft
Nr. 22/2005, 13-18
Irrgang B. 2005c: Einführung in die Bioethik; München
Irrgang, B. 2006: Technologietransfer transkulturell. Komparative Hermeneutik von Technik in Europa, Indien
und China; Frankfurt u.a.
Irrgang, B. 2007a: Hermeneutische Ethik. Pragmatisch-ethische Orientierung für das Leben in technologisierten
Gesellschaften; Darmstadt
Irrgang, B. 2007b: Gehirn und leiblicher Geist. Phänomenologisch-hermeneutische Philosophie des Geistes,
Stuttgart
Irrgang, B. 2007c: Wegbereiter einer alternativen Moderne? Der Überwachungsstaat als Antwort auf Verun-
sicherung durch terroristische Umnutzung von Technologie; in: Ethica 15 – 2007 – 2, 145-172
Irrgang, Bernhard 2007d: Technik als Macht. Versuche über politische Technologie; Hamburg
Irrgang, B. 2008: Philosophie der Technik; Darmstadt

285
Irrgang, B. 2009a: Der Leib des Menschen. Grundriss einer phänomenologisch-hermeneutischen Anthropologie;
Stuttgart
Irrgang, B. 2009b: Grundriss der Technikphilosophie. Hermeneutisch-phänomenologische Perspektiven; Würz-
burg
Janich, Peter 1992: Grenzen der Naturwissenschaft. Erkennen als Handeln; München
Janich, Peter 1993: Erkennen als Handeln. Von der konstruktiven Wissenschaftstheorie zur Erkenntnistheorie;
Erlangen, Jena
Janich, P. 1998: Die Struktur technischer Innovationen; in: D. Hartmann u. P. Janich (Hg.): Die kulturalistische
Wende. Zur Orientierung des philosophischen Selbstverständnisses; Frankfurt 129-177
Janich, Peter 2003: Technik und Kulturhöhe in: A. Grunwald (Hg.), Technikgestaltung zwischen Wunsch und
Wirklichkeit, Berlin u.a., 91-104
Jesberg, Paul Gerd 1996: Die Geschichte der Ingenieurbaukunst aus dem Geist des Humanismus; Stuttgart
Kellenbenz, Hermann 1979: Technik und Wirtschaft im Zeitalter der wissenschaftlichen Revolution; in. C.
Cipolla: Europäische Wirtschaftsgeschichte Bd. 2. Stuttgart, New York, 113-196
Klemm, Friedrich 1969: Die Rolle der Technik in der Aufklärung; in: K.-H. Manegold (Hg.): Wissenschaft,
Wirtschaft und Technik. Studien zur Geschichte, Wilhelm Treue zum 60. Geburtstag; München, 318-330
Klemm, Friedrich 1999: Geschichte der Technik. Der Mensch und seine Erfindungen im Bereich des
Abendlandes; Stuttgart Leipzig 41999
Klöppel, Kurt 1961: Die Entwicklung der Ingenieurwissenschaften; in VDI-Zeitschrift 103/23, (11.8.1961),
1145-1184
Knorr-Cetina, Karin 1991: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft; Frankfurt
(11981)
Knorr-Cetina, Karin 1999: Epistemic cultures. How the sciences make knowledge; Cambrigde Mass. u.a.
König, Wolfgang 1991: Propylen Technikgeschichte; Mechanisierung und Maschinisierung 1600 bis 1840;
Berlin
König, Wolfgang 1995: Technikwissenschaften. Die Entstehung der Elektrotechnik aus Industrie und
Wissenschaft zwischen 1880 und 1914; Amsterdam
König, Wolfgang 1999: Künstler und Strichezieher. Konstruktions- und Technikkulturen im deutschen,
britischen, amerikanischen und französischen Maschinenbau zwischen 1850 und 1930; Frankfurt
Koen, Billy Vaughn 1985: Definition of the engineering massed; Washington
Koen, Billy Vaughn 2003: Discussion of the method. Conducting the Engineer’s Approach to Problem Solving;
New York/Oxford
Kornwachs, Klaus 1996: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie der Tech-
nik; in: G. Banse, K. Friedrich (Hg): Technik zwischen Erkenntnis und Gestaltung. Philosophische Sich-
ten auf Technikwissenschaften und technisches Handeln, Berlin, 13-50
Kornwachs, Klaus 2002a: Kohärenz und Korrespondenz bei technologischen Theorien; Cottbus
Kornwachs, Klaus 2002b: Kohärenz und Korrespondenz bei technologische Theorien; in: G. Banse, A. Kiepas
(Hg.): Rationalität heute. Vorstellungen, Wandlungen, Herausforderungen; Münster 235-265
Kornwachs, K. 2006: Vertrauen und technische Erfahrung; in: H. J. Petshee, M. Bartikova, A. Kiepas (Hg.),
Erdacht, gemacht und in die Welt gestellt: Technikkonzeptionen zwischen Risiko und Utopie, Festschrift
für Gerhard Banse; Berlin, 217-243
Kornwachs, K. 2008: Macht der Technik – Technizität der Macht; in: Gerhard, M. (Hg.): Oldenburger Jahrbuch
für Philosophie; Oldenburg, 123-172
Kornwachs, Klaus; Hronszky, Imre 2006: (Hg.). Shaping better Technologies; Münster
Krafft, Viktor 1970: Dynamische und statische Betrachtungsweise in der antiken Mechanik; Wiesbaden
Kramer, Gerhard W. 1995: Berthold Schwarz. Chemie- und Waffentechnik im 15. Jahrhundert; München
Landes, David S. 1973: Der entfesselte Prometheus. Technologischer Wandel und industrielle Entwicklung in
Westeuropa von 1750 bis zur Gegenwart; Köln

286
Lange, Rainer 1999: Experimentalwissenschaft Biologie. Methodische Grundlagen und Probleme einer
technischen Wissenschaft vom Lebendigen; Würzburg
Laske, Gabriele 1995: Eine Musterbranche stürzt ab. Werkzeugmaschinenbau in den USA und in Deutschland –
Lernen aus der Krise; Bremen
Latour, Bruno 1987: Science in Action; Cambridge Mass.
Latour, Bruno 2000: Die Hoffnung der Pandora. Untersuchung zur Wirklichkeit der Wissenschaft. Übersetzt von
G. Roßler; Frankfurt 11999
Latour, Bruno, Steve Woulgar 1986: Laboratory Life. Reconstruction of Scientific Facts; Princeton N. J. 11979
Layton, Edwin 1971: Mirror-Image twins: the communities of science and technology in nineteen century
America; in: Technology and culture 12 (1971), 562-570
Layton, Edwin 1974: Technology is knowledge; in Technology and Culture 15/1 (1974), 31-41
Layton, Edwin 1979: Scientific technology, 1845-1900: the hydraulic turbine and the origins of American
industrial research; in: Technology and Culture 20(1979), 64-89
Layton, Edwin 1986: The Revolt of the Engineers. Social Responsibility and the American Engineering
Profession; Baltimore/London
Lenk, Hans; Maring, Matthias 2001: Advances and Problems in the Philosophy of Technology; Münster
Leon, Antoine 1968: La Revolution Francaise de l’Education technique; Paris
Lindackers, Karl-Heinz 1994: Sicherheit von Technik Ladenburger Kolleg 1988 bis 1993; Köln
Linstone, Harold; Ian Miteroff 1994: The Challenge of the 21. Century. Managing Technology and Our Selfs in
a Shrinking World; New York
Ludwig, K.-H. 1981: Technik, Ingenieure und Gesellschaft. Geschichte des Vereins Deutscher Ingenieure 1856
bis 1981; Düsseldorf
Ludwig, Karl-Heinz, Volker Schmidtchen 1992: Metalle und Macht 1000-1600; W. König (Hg.) Propylen
Technikgeschichte Band 2; Berlin
Luckner, Andreas 2008: Heidegger und das Denken der Technik; Bielefeld
Mackensen, Rainer 1997: (Hg.) Konstruktionshandeln. Nicht-technische Determinanten des Konstruierens bei
zunehmendem CAD-Einsatz; München, Wien
Manegold, Karl-Heinz 1969: Zur Emanzipation der Technik im 19. Jahrhundert in Deutschland; in: ders. (Hg.):
Wissenschaft, Wirtschaft und Technik. Studien zur Geschichte, Wilhelm Treue zum 60. Geburtstag,
München 379-402
Manegold, Karl-Heinz 1979: Technischer Fortschritt und gesellschaftlicher Wandel im Frankreich der Auf-
klärung; in: Schriften der Georg-Agricola-Gesellschaft 5, 45-69
Mauersberger, Klaus 1986: Integrationsprozesse in der Geschichte der Technikwissenschaften; in: Wissen-
schaftliche Zeitschrift der technischen Hochschule Otto von Gericke Magdeburg 30 (1986), Heft 4, 20-24
Mauersberger, Klaus 1994: Visuelles Denken und nichtverbales Wissen im Maschinenbau; in: Dresdner Beiträge
zur Geschichte der Technikwissenschaften Heft 23/2 (1994) 7-11
Mauersberger, Klaus 1997: Von Karmarsch bis Reuleaux – verallgemeinernde technikwissenschaftliche Kon-
zepte im 19. Jahrhundert; in: G. Banse (Hg): Allgemeine Technologie zwischen Aufklärung und Meta-
theorie. Johann Beckmann und die Folgen; Berlin, 45-64
McMeekin, Andrew, Ken Green, Mark Tomlinson, Vivien Walsh 2002: Innovation by Demand: An Inter-
disciplinary Approach to the Study of Demand and Its Role in Innovation, Manchester, New York.
Mende, Michael 1994: Modelle und Zeichnungen: Anschaulichkeit als Prinzip der Ausbildung in der Maschi-
nenlehre und Technologie während des 19. Jahrhunderts; in: Dresdner Beiträge zur Geschichte der Tech-
nikwissenschaften Heft 23/2 (1994), 17-23
Meyer-Drawe, Käthe 1996: Menschen im Spiegel ihrer Maschinen, München
Mitcham, Carl 1994: Thinking through technology. The path between engineering and philosophy; Chicago,
London

287
Mitcham Carl 1995: Ethics into Design, in: Buchanan, Richard, Victor Amrgolin: Discovering Design.
Explorations in Design-Studies, Chicago, London, 173-189
Musson, A. E. 1977: Wirtschaft, Technik- und Wirtschaftswachstum im 18. Jh., übers. H. Vetter, Frankfurt
Nelson, Richard, R. Sidney G. Winter 1982: An evolutionary theory of economic change; Cambridge, Mass.
Nennen, Heinz-Ulrich; Detlef Garbe 1996: (Hg.) Das Expertendilemma. Zur Rolle wissenschaftlicher Gutachter
in der öffentlichen Meinungsbildung; Berlin u. a.
Newell, Allen, Herbert Simon 1972: Humanproblem Solving; New Jersey
Niemitz, Hans-Ulrich, Hartwig Paulsen 1992: Konstruktionspraxis im deutschen Maschinenbau von 1917 bis
1945; in: LTA-Forschung 1992 Heft 9, Mannheim
Noble, David F. 1979: America by Design. Science, Technology and the Rise of Corporate Capitalism (11977);
Oxford u.a.
Norman, Donald 1990: The problem of Automation. Inappropriate Feedback and Interaction not Over-
automation, in: Philosophical Transactions of the Royal Society of London
Norman, Donald 2002: The Design of Everyday Things. New York (EA) 1988
Norman, Donald 2004: Emotional Design. Why we Love (or Hate) Everyday Things; New York
Noyes, Jan 2001: Designing for Humans; East Sussex
Orr, Julian E. 1996: Talking about Machines. An Ethnography of modern Job; Ithaca, New York
Pagel, Walther 1982: Paracelsus. An introduction to philosophical medicine in the era of the renaissance; Basel
Pahl, Gerhard 1998: Denk- und Handlungsweisen beim Konstruieren; Bamberg
Paul, Mattias 1980: Gaspard Monges „Geometrie descriptive“ und die Ecole Polyechnique – eine Fallstudie über
den Zusammenhang zwischen Wissenschaft und Bildungsprozess; Bielfeld
Paul, Siegfried, Georgij Ruzavin 1986: Mathematik und mathematische Modellierung. Philosophische und
methodologische Probleme; Berlin
Paulinyi, Akos 1989: Industrielle Revolution. Vom Ursprung der modernen Technik; Reinbek
Petrowski, Henry 1992: To engineers is human: The role of failure in successful design (11982); New York
Petrowski, Henry 1997: Remaking the world. Advendures in ingineering; New York
Picon, Antoine 1992: L’Invention de l’Ingenieur Moderne. L’École des Ponts et Chaussées 1747-1851; Paris
Pirker, Theo; Müller, Hans-Peter, Winkelmann, Rainer (Hg.) 1987: Technik und Industrielle Revolution. Vom
Ende eines sozialwissenschaftlichen Paradigmas, Opladen
Pohlmann, Friedrich 1997: Die europäische Industriegesellschaft. Voraussetzungen und Grundstrukturen; Op-
laden
Polanyi, Michael 1985: „Implizites Wissen“; Frankfurt
Polanyi, Michael 1998: Personal knowledge. Towards a Post-Critical Philosophy; 11958
Popplow, Marcus 2004; Die Emanzipation der Technik. Zwischen Gelehrten und Handwerkern entstand eine
technische Intelligenz, die vor allem an Großprojekten ihr Rüstzeug entwickelte; in: Spektrum der
Wissenschaft Spezial: Forschung und Technik in der Renaissance 10/2004, 2-5
Price, Derek J. DeSolla 1965: Is technology historical independent of science? Studies in statistical historeo-
graphy; in Technology and Culture 6 (1965), 553-568
Radermacher, F. J. u. a. 2001 a: Management von nicht-explizitem Wissen: Noch mehr von der Natur lernen;
Abschlußbericht Teil 1: Ergebnis und Einordnung; Ulm
Radermacher, F. J. u.a. 2001 b: Management von nicht-explizitem Wissen: Noch mehr von der Natur lernen;
Abschlußbericht Teil 2: Wissensmanagement: Ansätze und Erfahrungen in der Umsetzung; Ulm
Radkau, Joachim 1989: Technik in Deutschland. Vom 18. Jahrhundert bis zur Gegenwart; Frankfurt
Rammert, Werner 1993: Technik aus soziologischer Perspektive. Forschungsstand, Theorieansätze, Fallbeispiele
– ein Überblick; Opladen

288
Rammert, Werner 1998: Die kulturelle Orientierung der technischen Entwicklung. Eine technikgenetische
Perspektive; in: Dirk Siefkes u. a. (Hg.), Sozialgeschichte der Informatik. Kulturelle Praktiken und Orien-
tierungen; Wiesbaden, 51-68
Reich, Leonard 1985: The Making of American Industrial Research. Science and Business at GE and Bell, 1876-
1926; Cambridge
Reith, Reinhold, Dorothea Schmidt 2002: (Hg.) Kleine Betriebe – Angepasste Technologie? Hoffnungen,
Erfahrungen und Ernüchterungen aus sozial- und technikhistorischer Sicht, Münster u.a.
Reuleaux, Franz 1875: Theoretische Kinematik. Grundzüge einer Theorie des Maschinenwesens; Braunschweig
Reuleaux, Franz 1900: Kinematik Teil 2, 1900
Rheinberger, Hans-Jörg 1992: Experiment, Differenz, Schrift. Zur Geschichte epistemischer Dinge; Marburg
Rieger, Bernhard 2005: Technology and the Culture of Modernity in Britain and Germany 1890-1945; Cam-
bridge
Röpke, Jochen 1977: Die Strategie der Innovation. Eine systemtheoretische Untersuchung der Interaktion von
Individuum, Organisation und Markt im Neuerungsprozess; Tübingen
Rohracher, Harald 2005: User Involvement in Inovation Processes. Strategies and Limitations from a social-
technical Perspective; Graz
Rohracher, Harald 2006: The mutual shaping of Design and Use: Innovations for sustainable Buildings as a
Process of social Learning; Graz
Rueb, Franz 1995: Mythos Paracelsus. Werk und Leben von Philippus Aureolus Theophrastus Bombastus von
Hohenheim ; Berlin/München
Sachse, Pierre, Winfried Hacker 1998: Wie denkt, handelt der Konstrukteur?; Dresden
Schimank, Hans 1961: Der Ingenieur. Entwicklungsweg eines Berufs bis Ende des 19. Jahrhunderts; Köln
Schipperges, Heinrich 1983: Paracelsus. Das Abenteuer einer sokratischen Existenz; Freiburg
Schneider, Helmuth 1989: Das griechische Technikverständnis. Von den Epen Homers bis zu den Anfängen der
technologischen Fachliteratur; Darmstadt
Schneider, Helmut 1992: Einführung in die antike Technikgeschichte; Darmstadt
Schön, Donald A. 1991: The reflective practitioner. How professionals think in action (11983); London
Schuchardin, Wiktorowitsch u.a. 1981: Allgemeine Geschichte der Technik von den Anfängen bis 1870; Leipzig
Schürmann, Astrid 1991: Griechische Mechanik und antike Gesellschaft; Stuttgart
Seibicke, Wilfried 1968: Technik. Versuch einer Geschichte der Wortfamilie um techne in Deutschland vom 16.
Jahrhundert bis etwa 1830; Düsseldorf
Seliger, Falk 2001: „Kunst“ oder Wissenschaft im konstruktiven Ingenieurbau? Zum Umgang mit Wissens-
formen im 20. Jahrhundert; In: Dresdner Beiträge zur Geschichte der Technikwissenschaften Nummer 27
(2001), 77-91
Simon, Eberhard 2002: Erhaltung von Technik durch Instandhaltung. Eine technikphilosophische Untersuchung;
Masch. Diss. Stuttgart
Simondon, Gilbert 1969: Du Mode d`Existence des Objets Techniques; Paris
Skolemowski, Hendrik 1966: The structure of thinking in technology; in: Technology and culture 7 (1966) 371-
383
Spinosa, Charles, Fernando Flores, Hubert L. Dreyfus 1997: Disclosing new Worlds. Entrepreneurship, demo-
cratic Action, and the Cultivation of Solidarity; Cambridge Mass., London
Sternberg, Robert, David Preiss 2005: Intelligence and Technology. The Impact of Tools on the Nature and
Development of human Abilities; New Jersey, London
Stichweh, Rudolf 1984: Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen. Physik in
Deutschland 1740-1890; Frankfurt
Stieler, Wolfgang 2009: Die geborenen Spieler; in: Technology Review 1/2009, 43-45

289
Straub, Hans 1992: Die Geschichte der Bauingenieurkunst. Ein Überblick von der Antike bis in die Neuzeit;
4
1992 Basel, Boston, Berlin
Strohschneider, Stefan, Rüdiger von der Wet 1993: (Hg.) Ja, mach nur einen Plan. Pannen und Fehlschläge –
Ursachen, Beispiele, Lösungen; Bern u.a.
Technology Review 03/2007: Das vernetzte Haus; Schwerpunktthema in: Technology Review 03/2007, 62-78
Tenner Edward 1996: Why things bite back. Technology and the Revenge of Unintended Consequences; New
York
Tobey, Ronald 1996: Technology as freedom. The new deal and the electrical modernisation of the American
home; Berkeley u. a.
Treue, Wilhelm 1966: Die Bedeutung der chemischen Wissenschaft für die chemische Industrie 1770-1870. in:
Technikgeschichte 33, 1966, Nr.1, 25-51
VDI 2002: VDI-Richtlinien Ethische Grundsätze des Ingenieurberufs, Fundamentals of Engineering Ethics vom
März 2002
Verbeek, Peter-Paul 2008: Morality in Design. Design Ethics and the Morality of technological Artefacts, in: P.
E. Vermaas et al. (Hg.): Philosophy and Design, Berlin, 91-103.
Vérin, Hélène 1984: La Gloire des Ingénieurs. L’ intelligence technique du 16. au 18 siècle; Paris
Vermaas, Pieter, Peter Kroes, Andrew Light, Steven A. Moore 2008: Philosophy and Design. From Engineering
to Architecture; Dordrecht
Vico, Gian-Batista 1947: De nostri temporis studiorum ratione. Vom Wesen und Weg der geistigen Bildung;
übers. Von W. Otto, München 1947, Darmstadt 31984
Vincenti, Walter G. 1990: What Engineers Know and How they Know it. Analytical Studies from Aeronautical
History; Baltimore, London
Wagner, Gerald 1992: Vertrauen in Technik. Überlegungen zu einer Voraussetzung alltäglicher Technik-
verwendung; Berlin.
Weber, Wolfhard 1983: Technologie und Polytechnik in Preußen im 18. und 19. Jahrhundert; in: F. Rapp und H.
W. Schütt (Hg.): Philosophie und Wissenschaft in Preußen; Berlin 1983, 175-200
Wengenroth, Ulrich 1990: Technik und Wirtschaft (Technik und Kultur Bd. VIII); Düsseldorf
Wengenroth, Ulrich 1998: Der aufhaltsame Weg in der klassischen zur reflexiven Moderne in der Technik; in:
Th. Hänseroth (Hg.): Technik und Wissenschaft als produktive Kräfte in der Geschichte; Dresden, 129-
140
Wengenroth, Ulrich 2001: Vom Innovationssystem zur Innovationskultur. Perspektivwechsel in der
Innovationsforschung; in: J. Abele u.a.: Perspektivwechsel in der Innovationsforschung; Köln u.a., 23-32
Wengenroth, Ulrich 2004: Gute Gründe. Technisierung und Konsumentenentscheidungen; in Technikgeschichte
71(2004) Heft 1, 1-18
Wieland, Thomas 2002: Arbeitspapier nationales Innovationssystem/nationale Innovationskultur. Arbeitspapier
vom 30.04.2002
Winnacker, E. L. 1985a: Gene und Klone. Eine Einführung in die Gentechnologie; Weinheim
Winnacker, E. L. 1985b: Grundlagen und Methoden der Gentechnologie; in: Max-Planck-Gesellschaft München
(Hg.): Gentechnologie und Verantwortung; München, 14-21
Winnacker, E. L. 1993: Am Faden des Lebens. Warum wir die Gentechnik brauchen; München
Winograd, Terry 1996: (Hg.) Bringing Design to Software; Reading Mass. u. a.
Winograd, Terry, Fernando Flores 1989: Erkenntnis, Maschinen, Verstehen. Zur Neugestaltung von
Computersystemen; übersetzt von L. Voet (11986); Berlin
Wolff, Michael 1978: Geschichte der Impetustheorie. Untersuchungen zum Ursprung der klassischen Mechanik;
Frankfurt
Ziman, John 2000: Technological Innovation as an evolutionary Process; Cambridge
Zimmerli, W. Ch., R. Hohlfeld 1991: Interdisziplinäre Technikfolgenforschung; IGW-Report 5, 79-85

290
Zimmerli, W. Ch. 1993: Die Bedeutung der empirischen Wissenschaften und der Technologie für die Ethik; in:
A. Hertz, W. Korff, T. Rendtorff, H. Ringeling (Hg.) Handbuch der christlichen Ethik; Freiburg, Basel,
Wien, Aktualisierte Neuausgabe Bd. I, 297-316
Zimmerli, Walther 1997: Zwischen Forschungsfreiheit und Verantwortung. Natur- und Ingenieurwissenschaften
vor der Gretchenfrage; in: H. Pfuster Schmid-Hardtenstein (Hg.) Wissen wozu? Erbe und Zukunft der
Erziehung; Alpbach, 184-196
Zühlke, Detlef 2005: Der intelligente Versager. Das Mensch-Technik-Dilemma

291

You might also like