Was waren die Funktionsprinzipien des japanischen MITI in den 1950er und 60er Jahren?

Was waren die Funktionsprinzipien des japanischen MITI in den 1950er und 60er Jahren?

Das japanische Ministerium für Internationalen Handel und Industrie (MITI) führte die japanische Wirtschaft durch zwei Jahrzehnte beispiellosen Wirtschaftswachstums. MITI war das wichtigste Instrument der japanischen Industriepolitik, die nicht die gesamte Wirtschaft steuerte, wie es ein zentral geplantes kommunistisches System könnte, sondern „den Industrien administrative Anleitungen und andere formale und informelle Richtungen in Bezug auf Modernisierung, Technologie und Investitionen in neue Fabriken gab“. und Ausrüstung sowie in- und ausländische Konkurrenz" (Quelle: Wikipedia). Wie wurde MITI aufgebaut? Wie hat es kompetente und wohlmeinende Bürokraten angezogen? Wie wurden Interessenkonflikte zwischen etablierten Industrien und Verbrauchern verhindert?

Verweise auf eine ausführliche Beschreibung, wie sie dieses Kunststück erreicht haben (in englischer Sprache), wären ebenfalls willkommen.


MITI entstand durch den Zusammenschluss der Handelsagentur und des Ministeriums für Handel und Industrie. Sein Zweck bestand darin, die Inflation einzudämmen und die Führung der Regierung in verschiedenen Branchen zu übernehmen. MITI half diesen Industrien, indem es Richtlinien für Exporte und Importe sowie inländische Induktionen aufstellte. Tatsächlich war die von ihnen entwickelte Außenhandelspolitik darauf ausgerichtet, die inländische Produktion zu stärken. Sie waren auch verantwortlich für die Erstellung von Richtlinien in Bezug auf Umweltschutz, Energie und Strom sowie Kundenbeschwerden.

Der Schlüssel zu ihrem Erfolg aus bürokratischer Sicht war, dass sie keine Gruppe von Bürokraten hatten, die zufällig Entscheidungen trafen, die ihrer Meinung nach erfolgreich waren. Stattdessen verließen sie sich darauf, die Spitzenleute in jedem Bereich der Industrie zusammenzubringen, um einen Konsens über die Politik zu erzielen, bevor sie sie in Kraft setzten. Sie ermutigten auch Branchenführer, ihre Best Practices zu teilen, um sicherzustellen, dass jeder die Chance auf Erfolg hatte.

In Bezug auf Ihre Bitte um eine ausführliche Beschreibung, wie sie dies getan haben, fand ich eine Forschungsarbeit von Harvard, die sich speziell auf die Rolle des MITI bei den Fortschritten der Informationstechnologie konzentriert. Die in diesem speziellen Bereich angewandten Prinzipien sind jedoch auch in anderen Industriezweigen relevant. Hier ist ein Beispiel für den Hauptpunkt, der all dies zusammenbringt:

MITI allein ist nicht für den wirtschaftlichen Erfolg Japans verantwortlich. Ihre Stärke scheint vielmehr ihre Fähigkeit zu sein, unterschiedliche Standpunkte bei der Schaffung nationaler Politiken zusammenzuführen, die für die verschiedenen Sektoren der Gesellschaft allgemein akzeptabel sind. Konsensbildung bleibt eines der markanten Merkmale der japanischen Szene. Der Erfolg Japans und des MITI in der Nachkriegszeit ist zu einem großen Teil auf die genossene politische Stabilität zurückzuführen. Diese Stabilität hat es MITI ermöglicht, seine Führungs- und Koordinationsrolle effektiv wahrzunehmen.


Es gibt eine sehr gründliche Erklärung des japanischen Wirtschaftswachstums in der Arbeit des asiatischen Gelehrten Chalmers Johnson in seiner Arbeit Rückschlag: Die Kosten und Folgen des amerikanischen Imperiums. Neben einer sehr gut recherchierten Erklärung zu amerikanischen Aktionen und dem von der Geheimdienstgemeinde abgeleiteten Konzept des "Blowback" liefert er eine sehr detaillierte Erklärung zum japanischen wirtschaftlichen Erfolg (Sie würden wahrscheinlich an seiner Arbeit mit einer direkteren Erklärung der Rolle des speziell das MITI, MITI and the Japanese Miracle: The Growth of Industrial Policy, 1925-1975). Sein Argument in Rückschlag ist, dass zusätzlich zu den japanischen Fähigkeiten in der Industrie, die von MITI gefördert wurden, ein Großteil ihres unglaublichen Wachstums auf ihre Fähigkeit zurückzuführen war, ihre geopolitische Umgebung zu ihrem Vorteil zu nutzen.

"Von ungefähr 1950 bis 1970 behandelten die Vereinigten Staaten Japan als eine geliebte Gemeinde, die seinen wirtschaftlichen Bedürfnissen nachging und es stolz als kapitalistischer Starschüler bevormundete. Die Vereinigten Staaten förderten Japans Eintritt in viele internationale Institutionen… übertrugen den Japanern entscheidende Technologien zu praktisch konzessionierten Bedingungen und öffneten ihre Märkte für japanische Produkte, während sie Japans Produktion auf seinem eigenen Inlandsmarkt tolerierten."

-Chalmers Johnson, Rückschlag: Die Kosten und Folgen des amerikanischen Imperiums, S.177

Einer der interessanten Punkte, die Johsnon anführt, ist seine Behauptung, dass "Ostasiatische Exportregime gediehen auf ausländischer Nachfrage, die künstlich von einer imperialistischen Macht erzeugt wurde… die Strategie funktionierte nur so lange, wie Japan und vielleicht ein oder zwei kleinere Länder diese Strategie verfolgten.„Während die vorteilhaften Maßnahmen zunächst sowohl Japan als auch den USA zugute kamen, waren erstere wie oben beschrieben und letztere durch die Bereitstellung billiger Konsumgüter und ein Beispiel für die Vorteile des Kapitalismus, die in den ideologisch getriebenen Konflikten in Ostasien zu nutzen sind Ende der 80er Jahre, die Japaner eine Überkapazität entwickelt, um Waren für den amerikanischen Markt zu produzieren gleichzeitig, dass die amerikanische Politik in Japan (und anderswo) hatte lebenswichtige amerikanische Industrien ausgehöhlt, die Beschäftigungsmöglichkeiten und Löhne in den USA gesenkt und damit die Fähigkeit der US-Verbraucher, japanische Produkte zu absorbieren, entsprechend verringert.

Sein Argument wird in Kapitel 9 von Blowback ausführlicher ausgeführt, und ich würde wirklich empfehlen, dass Sie es in Ihrer örtlichen Bibliothek auschecken oder es kaufen, wenn Sie mehr wissen möchten.


Underwriters Laboratories, Inc.

Underwriters Laboratories, Inc. (UL) und seine Tochtergesellschaften auf der ganzen Welt bewerten Produkte, Materialien und Systeme auf Sicherheit und Einhaltung US-amerikanischer und ausländischer Standards. 1998 wurden weltweit mehr als 14 Milliarden UL-Prüfzeichen auf neuen Produkten angebracht. Die Mitarbeiter von UL haben mehr als 600 Sicherheitsstandards entwickelt, von denen 80 Prozent als American National Standards anerkannt sind. Test- und Servicegebühren von Kunden unterstützen die unabhängige, gemeinnützige Organisation.


USS Amberjack (SS-522)

Guppy II-Konfiguration, wie sie aussah, als ich an Bord diente. Die Deckgeschütze wurden während der GUPPY-Umbauten entfernt.

Verdrängung: 1.570 (surf.), 2.415 (subm.)
Länge: 311′ 8″, Breite: 27′ 3″
Tiefgang: 15′ 5″ (Mittelwert), Geschwindigkeit: 20,25 km. (surf.), 8,75 km. (subm.)
Ergänzung: 81
Bewaffnung: 10 21″ Torpedorohre, 1 5″ Deckgeschütz, 1 40-mm. Deckgeschütz
Klasse: BALAO

Die zweite AMBERJACK (SS-522) wurde am 8. Februar 1944 im Boston Navy Yard auf Kiel gelegt, am 15. Dezember 1944 von Frau Dina C. Lang gesponsert und am 4. März 1946 von Comdr. William B. Parham im Kommando. Das erste U-Boot mit diesem Namen, USS Amberjack (SS219), wurde vom japanischen Torpedoboot versenkt Hiyodori am 16. Februar 1943, weniger als 9 Monate nach Indienststellung. Um mehr über die Heldentaten und den Verlust der SS219 zu erfahren, können Sie die beiden schriftlichen Kriegspatrouillenberichte ihres Kapitäns und seine Funkberichte über die dritte Patrouille bis zum Zeitpunkt ihres Untergangs lesen. Klicken Sie hier, um die sehr ergreifende Geschichte zu lesen.

Nach dem Shakedown-Training auf den Westindischen Inseln und im Golf von Mexiko meldete sich AMBERJACK am 17. Juni zum Dienst bei der U-Boot-Geschwader (SubRon) 8. Von der U-Boot-Basis New London, Connecticut, führte sie Trainingsmissionen im Nordatlantik durch , und machte im November 1946 eine Kreuzfahrt über dem Polarkreis. Im Januar 1947 lief das U-Boot für umfangreiche Modifikationen in der Portsmouth (NH) Naval Shipyard ein und verbrachte danach etwa ein Jahr mit einer „Guppy“ II-Umrüstung (von größerer Unterwasserantriebsleistung), bei der Rumpf und Segel stromlinienförmig und zusätzliche Batterien und A Schnorchel wurden installiert, um ihre Ausdauer und Manövrierfähigkeit unter Wasser zu erhöhen. Im Januar 1948 meldete sie sich zum Dienst bei SubRon 4 mit Sitz in Key West, Florida. Sie operierte etwas mehr als 11 Jahre entlang der Ostküste und auf den Westindischen Inseln. Ihr Zeitplan umfasste die Entwicklung von Taktiken und eigenständigen Schiffsübungen, Musterschulungen, periodische Überholungen und Flottenübungen. In dieser Zeit besuchte sie auch zahlreiche karibische Häfen. Im Juli 1952 wurde AMBERJACK in die neu gegründete SubRon 12 versetzt, blieb jedoch in Key West stationiert und ihre Anstellung wurde wie zuvor fortgesetzt.

Die Januar-Ausgabe 1950 des National Geographic Magazine enthält einen 23-seitigen Artikel über die Navy in Key West mit vielen Bildern der Amberjack und ihrer Crew. Der Autor war während des steilen Aufstiegs an Bord, der auf dem Foto unten auf dieser Seite berühmt wurde.

Amberjack beim Schnorcheln vor Key West im Jahr 1950

Anfang August 1959, nach mehr als 11 Jahren Betrieb von Key West aus, wurde der Heimathafen des U-Bootes nach Charleston, SC verlegt. Sie kam dort am 8. an und meldete sich mit ihrem ehemaligen Geschwader SubRon 4 zum Dienst Als neuer Heimathafen blieb AMBERJACKs Betrieb wie zuvor, mit einem wesentlichen Unterschied: Sie begann mit Einsätzen in europäischen Gewässern. Im August, September und Oktober 1960 nahm das U-Boot an einer NATO-Übung teil, bevor es einen einwöchigen Hafenbesuch in Portsmouth, England, unternahm. Ende Oktober kehrte sie nach Charleston zurück und nahm ihre normalen Aufgaben wieder auf. Zwischen Mai und September 1961 wurde das Kriegsschiff in der 6. Flotte im Mittelmeer eingesetzt.

Ich meldete mich am 9. September 1961 in Charleston, South Carolina, als Stürmer von Seaman 1C, ET an Bord. Meine Aufgabe für die ersten zwei Wochen war die eines Durcheinanderkochs, der Teil der Initiationsroutine war. Wir brachen sofort zur See auf, da ein Hurrikan herannahte und alle USN-Schiffe auf offenes Meer auslaufen sollten, um nicht gegen die Piers zu hämmern. Wir waren mitten in einigen Reparaturen, die es uns unmöglich machten, unterzutauchen, also mussten wir es an der Oberfläche ausreiten. Wir wälzten uns wie eine Kokosnuss in der Brandung und ich war mehrere Tage lang ständig seekrank, als wir riesige Meere überstanden. Wir konnten nicht an Deck gehen, also musste ich Mülltonnen durch den Kontrollraum, eine Leiter zum Kommandoturm und eine weitere Leiter zur Brücke schleppen. Dann musste ich auf den richtigen Rollwinkel warten, damit der Müll nicht auf dem Deck landete, wenn ich den Inhalt über die Seite kippte. Alles ohne Erbrechen auf dem Weg. Wenn ich gute Arbeit leistete, würde mich der Conning Officer eine Weile oben bleiben lassen, um frische Luft in mein Gesicht zu bekommen. Nach der Einführungsphase wurde ich reguläres Mitglied der Elektronik-Gang in der Betriebsabteilung.

Zu meinen Aufgaben gehörten stehende Radar- und elektronische Abwehruhren sowie die Wartung der Ausrüstung. Ich drehte mich durch Ruder-, Tauchkontroll- und Wachposten, und meine Kampfstation war an der Kontrollstation der Bugflugzeuge, da ich ziemlich gut darin war, den vorgeschriebenen Winkel auf dem Boot zu halten.

Wir machten häufig Halt in Fort Lauderdale, Florida, wo wir Soundprofile in der South Florida Testing Facility erstellten. Der Meeresboden fiel innerhalb von 3 Meilen von der Küste auf 600 Fuß ab, was einen idealen Testbereich darstellte. Wir legten an einem kommerziellen Pier in Port Everglades an, fuhren morgens ab, liefen die meiste Zeit des Tages auf und ab und kehrten am Abend nach Fort Lauderdale Liberty zurück. Während dieser Aufgabe würden wir Backbord- und Steuerbord-Wächter (typisch im Hafen) statt 3 Wachen wie auf See betreiben. Manchmal ließen wir einen der 2 Wachabschnitte für die Freiheit an Land, da wir nur 1 Wache für den Tag brauchten. Sie mussten nur rechtzeitig wieder am Pier sein, um uns festzubinden. Nach einem Tag in der Stadt hatten sie manchmal Schwierigkeiten, die wogenden Leinen zu fangen.

An betriebsfreien Tagen hielten wir Open House auf dem Boot für lokale Besucher ab. Wir haben immer gescherzt, dass wir so oft dort waren, weil der Skipper eine Freundin dort hatte. Ich kenne viele der Jungs auf dem Boot.

Wir haben auch in Key West Halt gemacht, als wir die Gewässer zwischen Florida und Kuba patrouillierten. 1962 nahmen wir an einer großen Flottenübung „Spring Board“ teil. Wir und mehrere andere U-Boote beschatteten und „angriffen“ jede Nacht die Militärflottille auf dem Weg nach Puerto Rico. Wir waren in San Juan stationiert, als wir Navy SEALs nicht unter Wasser transportierten und „aussperrten“, damit sie mit ihren Schlauchbooten auf Vieques Island „einfallen“ konnten.

Heutzutage ist es nicht ungewöhnlich, dass die Boote beim Einfahren in enge Gewässer bewaffnetes Personal an der Oberseite haben. Aber damals hatten wir nicht viel Erfahrung mit Kleinwaffen, außer gelegentlichen “Hai-Shoots” nach dem Schwimmruf. Abgesehen davon, dass ich im Stehen eine .45 OOD trug, trug ich nur ein weiteres Mal eine Seitenwaffe. Unsere Krypto-Maschine hatte eine Fehlfunktion und musste zur Wartung in einen sicheren Laden in der Charleston-Basis. Da ich für das Nuklearprogramm schnell verfolgt wurde, war ich bereits auf eine geheime Sicherheitsüberprüfung überprüft worden. Also packten der Einsatzoffizier und ich die Maschine in eine verschlossene Segeltuchtasche mit Belüftungslöchern, die so konstruiert waren, dass sie zu Boden sinken, wenn wir sie vom Pier werfen mussten. Dann luden wir alle unsere .45er, packten die 2 Griffe der Tasche und gingen damit den Pier hinauf und über den Marinehof zu einem Gebäude, wo 2 bewaffnete Marines dafür unterschrieben und sie in einen Raum hinter einer gewölbeartigen Tür brachten.

Meine ersten Dolphins erwarb ich nach meiner Ausbildung zum Submariner auf AMBERJACK im März 1962. Damals dauerte es etwa 7 Monate, um alle für die Qualifizierung notwendigen Systeme, Steuerungen und Wachstationen zu erlernen. Im Juni wurde ich auf die Nuclear Power Training School in Bainbridge, Maryland, versetzt, um ab diesem Monat an der Klasse teilzunehmen.

Nach einem dreijährigen Zwischenspiel an der Ostküste und auf den Westindischen Inseln unternahm AMBERJACK zwischen dem 7. Juli und dem 1. November 1964 eine weitere Mittelmeerkreuzfahrt. Die folgenden 29 Monate arbeitete sie von Charleston aus. 1967 machte das U-Boot zwischen dem 23. April und dem 24. Juli einen dreimonatigen Einsatz im Mittelmeer. Nach weiteren 25-monatigen Einsätzen an der Ostküste und auf den Westindischen Inseln trat sie am 2. , und niederländische Marinen. Am Ende der Übung besuchte AMBERJACK eine Reihe von Häfen in Nordeuropa, bevor sie am 12. Dezember 1969 nach Charleston zurückkehrte.

Am 9. Juli 1970 erreichte AMBERJACK ihren neuen Heimathafen Key West, ihre Basis für den Rest ihres Dienstes in der amerikanischen Marine. Ihren letzten Einsatz im Mittelmeer absolvierte sie zwischen dem 27. November 1972 und dem 30. März 1973. Am 17. Oktober 1973 wurde die AMBERJACK in Key West außer Dienst gestellt und ihr Name von der Navy-Liste gestrichen. Noch am selben Tag wurde sie der brasilianischen Marine übergeben und als CEARA (S-12) in Dienst gestellt. Ab Ende 1984 war sie noch in der brasilianischen Marine aktiv. Etwa 1995 lernte ich in Brasilia einen Geschäftspartner kennen, der im brasilianischen Marinereservat war. Er bestätigte, dass die AMBERJACK/CEARA zu diesem Zeitpunkt noch in Betrieb war.

Vor der GUPPY-Konvertierung. Hat immer noch ihre Deckgeschütze. Nach GUPPY II Modifikationen. Nach vollständigen Segeländerungen.

Auch die USS Pickerel (SS524) verzeichnete einen sehr steilen Aufstieg. Hier ein Erfahrungsbericht:

Pickerel (SS-524) tauchte bei Tests vor der Küste von Oahu, Hawaii, 1. März 1952 in einem Winkel von 48 Grad aus einer Tiefe von 50 Fuß auf Bewerten Sie die Fähigkeiten und Eigenschaften des U-Boots des GUPPY-Schnorchel-U-Boots. Dieses Bild wurde von Sabalo (SS-302) aus aufgenommen. Ihre Sonarmen hielten Pickerel unter Beobachtung, während sie untergetaucht war und sich darauf vorbereitete, aufzutauchen. Während Pickerels Manöver lieferte die Sonarausrüstung die sich ständig ändernde relative Peilung, die es den Fotografen ermöglichte, diese Aufnahme zu machen, als sie die Oberfläche durchbrach.“ Hinweis: Der offizielle Rekord des oben abgebildeten „Auftauchens“ ist, dass er bei 150 Fuß begann und einen Aufwärtswinkel von 48 Grad erreichte. Von einem Besatzungsmitglied, das während dieser Entwicklung das Ruder bemannte: „Wir begannen mit 250 Fuß Flankengeschwindigkeit. Die Auftauchreihenfolge beinhaltete „60 Grad verwenden“ (der höchste Wert auf der Winkelanzeige vom Typ „Blasen“). „Wir haben übergeschossen und die Blase bei 65 Grad verloren. Der maximale Winkel (72 Grad) wurde später durch die Hochwassermarken in den Bilgen des Pumpenraums berechnet. Wenn wir zurückdenken, wären die Schrauben selbst mit dem über dem Wasser steckenden Bug bis zum Brücken-Fairwater nicht viel über dem Ausgangspunkt gewesen, der uns immer noch nach oben drückte. „Erste Nachricht von der Queenfish (SS-393), die uns begleitete: ‚Wie hoch ist das spezifische Gewicht Ihrer Torpedoraum-Bilgen?‘ „Wie Sie sich vorstellen können, hat der C.O. war so etwas wie ein kompetitiver Wilder, der darauf drängte, die Grenzen dieser neuen GUPPY-Boote herauszufinden, nachdem er sich mit den älteren Booten aus dem 2. Weltkrieg abgefunden hatte. Und wir mussten den Rekord der Amberjack (SS-522) von 43 Grad brechen.“


Geschichte der Hygiene-Zeitleiste

Das Wort Hygiene stammt von Hygeia, der griechischen Göttin der Gesundheit, die die Tochter von Äskulap, dem Gott der Medizin, war. Seit der industriellen Revolution (ca. 1750-1850) und der Entdeckung der Krankheitskeimtheorie in der zweiten Hälfte des 19. Jahrhunderts stehen Hygiene und Hygiene im Kampf gegen Krankheit und Krankheit an vorderster Front.

4000 v. Chr. – Ägyptische Frauen tragen Bleiglanzmesdemet (aus Kupfer- und Bleierz) und Malachit auf ihre Gesichter auf, um Farbe und Definition zu erhalten.

Um dieses Video anzuzeigen, aktivieren Sie bitte JavaScript und ziehen Sie ein Upgrade auf einen Webbrowser in Betracht, der HTML5-Video unterstützt

3000 vor Christus – Die alten Römer erfanden mit Blei ausgekleidete Wasserrohre und Tanks. Die Reichen bezahlten private Wasserwerke für ihr Trinkwasser und anderen Wasserbedarf, obwohl es nicht viel besser war als die Wasserversorgung, die die Bauern nutzten. Die meisten Wassersysteme wurden aus Ulmenstämmen und mit Blei ausgekleideten Haushaltsrohren hergestellt. Wasser wurde in großen Bleitanks gelagert und stand oft still.

2800 v. Chr. – Einige der frühesten Spuren von Seife oder seifenähnlichen Produkten wurden während der Ausgrabungen des alten Babylon in Tonzylindern gefunden. Inschriften an den Seiten der Zylinder besagen, dass Fette mit Asche gekocht wurden, beziehen sich jedoch nicht auf den Zweck von „Seife“.

1550-1200 v. Chr. – Die alten Israeliten interessierten sich sehr für Hygiene. Moses gab den Israeliten detaillierte Gesetze über die persönliche Reinlichkeit. Er verband auch Sauberkeit mit Gesundheit und religiöser Reinigung. Biblische Berichte deuten darauf hin, dass die Israeliten wussten, dass das Mischen von Asche und Öl eine Art Haargel ergab.

1500 v. Chr. – Aufzeichnungen zeigen, dass die alten Ägypter regelmäßig badeten. Der Papyrus Ebers, ein medizinisches Dokument aus der Zeit um 1500 v.

1200-200 v. Chr. – Die alten Griechen badeten aus ästhetischen Gründen und verwendeten anscheinend keine Seife. Stattdessen reinigten sie ihre Körper mit Ton-, Sand-, Bimsstein- und Ascheblöcken, salbten sich dann mit Öl und kratzten Öl und Schmutz mit einem Metallinstrument, dem sogenannten Strigil, ab. Sie verwendeten auch Öl mit Asche.

1000 v. Chr. – Griechen haben ihren Teint mit Kreide- oder Blei-Gesichtspuder aufgehellt und aus ockerfarbenem Ton, der mit rotem Eisen geschnürt ist, einen groben Lippenstift hergestellt.

600 v. Chr. – Die alten Griechen beginnen, öffentliche Bäder zu benutzen. Im Buch des Bades schrieb Françoise de Bonneville: „Die Geschichte der öffentlichen Bäder beginnt in Griechenland im 6. Die alten Griechen begannen auch, Nachttöpfe zu verwenden. Von den alten Griechen ab mindestens 600 v. Chr. verwendet, wurden sie bis zum 18. Jahrhundert auf der ganzen Welt verwendet.

300 v. Chr. – Die wohlhabenden alten Römer begannen, Wischtechniken in ihren Toilettengewohnheiten zu verwenden. Häufig verwendete Materialien waren Wolle und Rosenwasser. Ungefähr 100 Jahre später benutzten die gewöhnlicheren Römer einen in Salzwasser getränkten Schwamm.

19 v. Chr. – Die alten Römer begannen, öffentliche Bäder zu benutzen. Agrippa (die rechte Hand von Kaiser Augustus) baute im Jahr 19 v. Chr. die ersten öffentlichen Bäder namens Thermae. Ihre Zahl nahm schnell zu, mindestens 170 waren bis zum Jahr 33 v. Chr. in Rom im Einsatz, mehr als 800 auf dem Höhepunkt ihrer Popularität.

27 v. Chr. – Die alten Römer glaubten an die Fähigkeit von Urin, Flecken zu entfernen. Bis ins Mittelalter reinigten die Menschen ihre Kleidung mit Lauge aus Asche und Urin.

100 n. Chr – Die alten Römer entwickelten Senkgruben, meist im Keller oder Garten. Im Jahr 1183 v. Chr. stürzte der Boden der Halle eines römischen Kaisers ein und schickte die Gäste des Abendessens in die Senkgrube, wo einige von ihnen leider ertranken.

400 n. Chr – Im mittelalterlichen Großbritannien hatte die Bevölkerung verschiedene Gewohnheiten angenommen, um ihre Zähne sauber zu halten. Dazu gehörte das Ausspülen des Mundes mit Wasser oder einer Mischung aus Essig und Minze, um Schmutz zu entfernen. In Orangenblütenwasser getränkte Lorbeerblätter wurden ebenfalls verwendet, und die Zähne wurden oft auch mit einem sauberen Tuch gerieben.

1110 n. Chr – In Großbritannien empfahl eine Broschüre den Menschen, ihre Zähne weiß zu halten, indem sie sich die Zähne mit pulverisierten Fischgräten reiben und dann den Mund mit einer Mischung aus Essig und Schwefelsäure ausspülen!

1308 n. Chr – In Großbritannien war es üblich, dass Ihr Friseur problematische Zähne entfernt! Wenn grundlegende Behandlungen das Problem nicht beheben würden, würde der Friseur es ohne die Hilfe von Novocain entfernen! Ein Leitfaden für Barbiere wurde im Jahr 1308 erstellt, der die chirurgischen Fähigkeiten von Barbieren lehrt.

1346-1353 n. Chr – Die Pandemie des Schwarzen Todes fegte über Europa hinweg und tötete während eines Zeitraums von 4 Jahren 40-50% der Bevölkerung. Wahrscheinlich aus Zentralasien stammend, wurde es wahrscheinlich über Handelsrouten verbreitet.

1400 n. Chr – Die Chinesen haben Toilettenpapier erfunden.

1500-1600 n. Chr – Blasse Gesichter waren während der Regierungszeit von Elizabeth I. in Mode. Ceruse war in der elisabethanischen Ära sowohl für Männer als auch für Frauen die erste Wahl für das Make-up, da es ihnen ein glattes, blasses Aussehen verlieh. Es enthielt jedoch Blei, das durch die Haut in den Körper sickerte und zu Vergiftungen führte. Varianten mit Blei werden seit Tausenden von Jahren verwendet.

1566 – König James VI. von Schottland trug monatelang die gleiche Kleidung und schlief gelegentlich sogar darin. Er trug auch 24 Stunden am Tag den gleichen Hut, bis er auseinanderfiel! Er nahm kein Bad, da er dachte, es sei schlecht für seine Gesundheit!

1586– Sir John Harington erfand ein Ventil, das beim Ziehen Wasser aus einem Wasserklosett abgeben würde. Albert Giblin besitzt das britische Patent von 1819 für den Silent Valveless Water Waste Preventer, ein System, das eine effektive Toilettenspülung ermöglicht. Leider gab es zu dieser Zeit keine Kanalisation oder fließendes Wasser, so dass es nicht praktisch genutzt werden konnte.

1600 – In Großbritannien traten neue Entwicklungen in der Zahnreinigung auf. Das Einreiben der Zähne mit der Asche von Rosmarin war üblich, und Salbeipulver wurde zum Einreiben der Zähne als Bleichmittel verwendet. Essig und Wein wurden auch gemischt, um ein Mundwasser zu bilden.

1600-1700 – Es wurden die gleichen Reinigungspraktiken verwendet, aber die „Barbiere“ (auch bekannt als Zahnärzte) hatten begonnen, mehr über die Zahnmedizin zu lernen. Die ersten Prothesen, Goldkronen und Porzellanzähne kamen im 18. Jahrhundert auf den Markt. 1790 wurde der Zahnfußmotor eingeführt, der einen Bohrer zum Ausräumen von Hohlräumen drehte. Der erste Zahnarztstuhl wurde Ende des 18. Jahrhunderts hergestellt.

1750 – Ein Brief von Lord Chesterfield an seinen Sohn fordert dazu auf, sich jeden Morgen mit einem Schwamm und warmem Wasser die Zähne zu schrubben. Die Empfehlung, den eigenen Urin in Frankreich zu verwenden, wurde vom französischen Zahnarzt Fouchard weithin missachtet. Schießpulver und Alaun wurden ebenfalls empfohlen.

1789 – Schon im 18. Jahrhundert waren die Menschen modebewusst. Wenn ihre Augenbrauen nicht modisch aussahen, maskierten sie sie oft mit winzigen Hautstücken einer Maus. Gedichte aus dem Jahr 1718 deuteten auf ihre Verwendung hin.

1834 – Das London Medical and Surgical Journal von 1834 beschreibt scharfe Magenschmerzen bei Patienten ohne Anzeichen einer Krankheit. Dies führte dazu, dass sie glaubten, dass „Malerkolik“ eine „nervöse Affektion“ des Darms sei, die auftritt, wenn Blei „in den Körper aufgenommen wird“.

1846 – Öffentliche Bäder waren seit dem 13. Jahrhundert beliebt. Aufgrund der Knappheit an Brennholz wurde das Baden zu einer teuren Praxis. Ganze Familien und Freunde mussten sich ein Bad teilen, sonst blieben viele schmutzig.

1847 – Ein Arzt namens Ignaz Semmelwis stellte fest, dass bei Frauen, die von Medizinstudenten betreut wurden, Kindbettfieber aufgetreten war. Er fand Studenten, die bei der Geburt halfen, dies nach Autopsien taten. Nach Einführung einer strengen Richtlinie zum Händewaschen sanken die Todesfälle innerhalb von 3 Monaten um das 20-Fache.

1837 – 1901 – Ein Nose-Gay war normalerweise ein kleiner Blumenstrauß oder ein Päckchen Kräuter. Es wurde an einem Revers am Handgelenk befestigt oder einfach in der Hand gehalten. Es würde auch Menschen, die durch Menschenmengen gehen, unter die Nase gehalten. Nasenschwalben wurden während der Regierungszeit von Königin Victoria populär.

1854 – In England führten Mitte des 18. Jahrhunderts Cholera-Ausbrüche zu einer Epidemie. Ein Arzt namens John Snow beobachtete, dass sich die Cholera anscheinend über abwasserverseuchtes Wasser ausbreitete. Dies wurde hauptsächlich um eine Wasserpumpe in der Broad Street, London herum bemerkt. John entfernte den Pumpgriff und der Aufstrich war sofort eingedämmt.

1858 – Heißes Wetter traf die Hauptstadt im Jahr 1858, trocknete die Themse aus und hinterließ reines Abwasser und andere Abfälle, die aufgehäuft und freigelegt wurden. Dies war der Beginn von „The Great Stink“, der das Parlament zur Schließung zwang und schließlich eine Reform der Abwassersysteme und Senkgruben einleitete.

1861 – Die moderne Spültoilette. Thomas Crapper hat die Spültoilette nicht erfunden, soll aber maßgeblich zu ihrer Entwicklung beigetragen haben, indem er eine moderne Klärgrube implantiert hat, die verschmutztes Wasser aus der Stadt pumpt. Dieses spezielle Thema wird jedoch noch immer heftig diskutiert.

1920 – Lysol wurde als Genitaldesinfektionsmittel und Verhütungsmittel verkauft. Lysol-Werbung proklamierte eine Vielzahl von Vorteilen für jeden gynäkologischen Bedarf und war von 1930 bis 1960 die führende Form der Geburtenkontrolle. Lysol ist eigentlich ein ätzendes Gift, das nach dem ersten Tropfen Verbrennungen und Juckreiz verursacht – die meisten Frauen trugen es 30 Minuten lang auf ihre Haut auf Jahre.


Was waren die Funktionsprinzipien des japanischen MITI in den 1950er und 60er Jahren? - Geschichte

Es schien also ein günstiger Moment, innezuhalten und darüber nachzudenken, wie wir hierher gekommen sind. Wie bei all diesen Bemühungen war die Reise teils strategisch und teils zufällig, aber die Grundlage für alles war die Verpflichtung, unser Wissen über die Fertigung im weitesten Sinne zu erweitern und dieses Wissen an die Industrie und die Regierung sowie an nachfolgende Generationen talentierter Studenten weiterzugeben .

Das IfM tritt in vielerlei Hinsicht in die Fußstapfen von James Stuart, dem ersten &lsquotrue&rsquo Professor of Engineering in Cambridge (1875-1890). Als pädagogischer Innovator und leidenschaftlicher Verfechter der praktischen Umsetzung der Theorie stellte er die Konventionen seiner Zeit in Frage. Angesichts der seiner Meinung nach unzureichenden Lehreinrichtungen richtete er unbeirrt in einer Holzhütte eine Werkstatt für seine Schüler ein und installierte, weniger beliebt, eine Gießerei in der Free School Lane. Die Geschichte der Fertigung in Cambridge ist von seinem unbeugsamen Geist durchdrungen.

1966: Studenten des ersten Aufbaukurses in Produktionsmethoden und Management (jetzt MPhil Industrial Systems, Manufacture and Management)

DIE 1950er, 60er UND 70er Jahre

Der Beginn der Fertigungsausbildung in Cambridge: der Advanced Course in Production Methods and Management.

In den 1950er Jahren war Großbritannien noch ein industrieller Goliath. Das verarbeitende Gewerbe machte rund ein Drittel der nationalen Produktion aus und beschäftigte 40 Prozent der Erwerbstätigen. Es spielte eine entscheidende Rolle beim Wiederaufbau Großbritanniens nach dem Krieg, aber aus einer Reihe von Gründen &ndash, einschließlich des Mangels an ernsthaftem Wettbewerb und der Erwartung, dass es ein hohes Beschäftigungsniveau bieten würde &ndash gab es für Unternehmen wenig Anreiz, ihre Fabriken zu modernisieren oder die Fähigkeiten ihrer Mitarbeiter zu verbessern Manager und Arbeiter.

Damals war es üblich, dass Absolventen der Ingenieurwissenschaften bis zu zwei Jahre als &lsquoDiplom-Lehrling&rsquo in die Industrie einstiegen. In der Praxis war dies oft schlecht organisiert, was bei allen Beteiligten zu Enttäuschung und Frustration führte.

Sir William Hawthorne, Professor für Angewandte Thermodynamik (und späterer Abteilungsleiter und Master des Churchill College), war selbst ein unbeeindruckter Absolvent der Ausbildung. Er verglich die Lehre mit einem unangenehmen Initiationsritual &bdquoin bei dem die Nase eingerieben wurde und dann die Nase anderer Leute&bdquo und beobachten, was sie taten&rdquo. Hawthorne konnte erkennen, dass dieser Ansatz die derzeitige Praxis fortsetzt und Innovation und Unternehmertum hemmt.

Er entschied, dass Cambridge etwas dagegen unternehmen könnte und sollte und bat seine Kollegen John Reddaway und David Marples, einige kurze Industriekurse für Absolventen zu entwickeln. Diese umfassten Vorträge, Diskussionen und Ortsbesichtigungen und untersuchten, wie ein ganzes Unternehmen operierte und wie es seine Konstruktion, Produktionskontrolle, Sozialfürsorge und Marketing organisierte. Und die Kurse schienen zu funktionieren. Sie wurden sehr erfolgreich für den Flugzeugtriebwerkshersteller D. Napier & Son Ltd. durchgeführt, und basierend auf dieser Erfahrung schrieben Reddaway, Marples und Napiers Personalchef J. D. A. Radford einen Artikel zum Thema &bdquoEin Ansatz für die Techniken der Absolventenausbildung&rdquo. Sie legten dieses Papier 1956 der Institution of Mechanical Engineers mit dem Vorschlag vor, die Durchführung dieser Kurse zu übernehmen und sie allgemein zugänglich zu machen. Obwohl die Kurse &ndash und das Papier &ndash gut angenommen wurden, ohne das Gefühl der Dringlichkeit hinsichtlich der Notwendigkeit, die derzeitige Praxis zu verbessern, erlag das Unternehmen einem Mangel an Finanzierung. In der Zwischenzeit war Reddaway von der Universität gebeten worden, einen Plan für einen Kurs mit ähnlichem Stil und Inhalt zu erstellen, der ein Jahr dauern würde. Dies wurde als Reddaway-Plan bekannt. Aber es gab kein Geld, um jemanden zu rekrutieren, der es leitete, und so wurde der Plan für die meiste Zeit von zehn Jahren verstaubt.

Während dieser zehn Jahre begann sich die Besorgnis über die zurückbleibende Produktivität Großbritanniens und seinen abnehmenden Anteil an den weltweiten Exportmärkten zu häufen. Aufeinanderfolgende Regierungen leiteten eine Reihe von politischen Interventionen ein, und die Produktion wurde zu einem nationalen Anliegen. Als John Reddaway 1965 auf einer Konferenz der Cambridge University Engineering Association gebeten wurde, über seinen Plan zu sprechen, bestand vielleicht ein größeres Bedürfnis nach Veränderung. Anwesend war Sir Eric Mensforth, der Vorsitzende von Westland Aircraft. Zufälligerweise war Reddaway ein Lehrling in Westland gewesen, und als Mensforth ein Stipendium in Cambridge einrichtete, war Reddaway sein erster Empfänger gewesen. Mensforth bot der Universität 5.000 Pfund an, wenn sie den Reddaway-Plan auf den Weg bringen könnten.

Zu den Zuhörern gehörte auch der Cambridge-Alumnus Mike Sharman, der sich sofort freiwillig meldete, seine Dozentur an der Hatfield Polytechnic zu verlassen, um den Kurs zu leiten, obwohl Mensforths Beitrag nur zwei Jahre lang finanziert wurde.

Der Aufbaukurs in Produktionsmethoden und -management wurde im darauffolgenden Jahr mit einem ersten Jahrgang von 12 Studenten gestartet. Der Kurs erstreckte sich über ein ganzes Kalenderjahr und war darauf ausgelegt, eher professionelle als studentische Aufgaben und Disziplinen nachzuahmen.

Die Projekte, typischerweise die Analyse und Verbesserung des Fabrikbetriebs, waren fast immer erfolgreich und manchmal sogar spektakulär. Die Industrie reagierte gut darauf, dass sich diese Studenten mit den praktischen Aspekten des Ingenieurwesens und der Fertigung vertraut machten, und die Absolventen des Studiengangs waren und sind sehr gefragt. Der Gedanke, in eine Fabrik zu gehen und kurze, intensive Projekte zu machen, war eine effektive Lernmethode, die ihnen das Selbstvertrauen gab, immer schwierigere Aufgaben zu bewältigen und sie sehr schnell zu Menschen zu entwickeln, die wirklich zu &lsquoCaptains of . werden könnten Industrie&rsquo.

Mike Gregory belegte den Kurs im vierten Jahr: &bdquoFür viele von uns, die durch das ACPMM in die Welt der Konstruktion und Fertigung eingeführt wurden, war die Erfahrung buchstäblich lebensverändernd. Wir Studenten waren von Mike Sharmans Enthusiasmus mitgerissen, ganz zu schweigen von dem Nervenkitzel, durch Großbritannien und Übersee zu reisen und alle möglichen Fabriken zu besuchen und zu arbeiten. Wie man einen Volkswagen Käfer herstellt, wie man einen Tennisschläger herstellt, wie man den Geschmack auf beiden Seiten einer Kartoffel knusprig macht &ndash all dies und vieles, vieles mehr haben wir gelernt.&rdquo

1987 wurde ACPMM um eine Designoption erweitert und in Advanced Course in Design, Manufacture and Management (ACDMM) umbenannt. Dies war eine Reaktion auf die wachsende Anerkennung der Bedeutung von Design als Wettbewerbsunterscheidungsmerkmal.

Aber der Weg von ACPMM/ACDMM verlief nicht immer reibungslos. Viele Jahre lang hatte der Studiengang eine anomale Position innerhalb der Universität, die ihm gegenüber misstrauisch blieb und regelmäßig versuchte, sie zu schließen. Bis 1984, als das Wolfson College zustimmte, es aufzunehmen, hatte es kein richtiges Universitätshaus, was bedeutete, dass die Studenten keine Mitglieder der Universität waren. Die Finanzierung war ein ständiges Problem, insbesondere wenn die Universitäten mehr Rechenschaft über ihre Ausgaben ablegen mussten. Viele Jahre lang war ACPMM nicht mit einer Qualifikation verbunden und das University Grants Committee (UCG) finanzierte Universitäten nur auf der Grundlage der Anzahl der Studierenden, die einen Abschluss oder ein Diplom erhielten.

Ein weiterer ungewöhnlicher Aspekt des Kurses war, dass er in den 1970er Jahren zunächst Beziehungen zur University of Lancaster und dann zu Durham aufbaute, um sowohl seine Lehrkompetenz zu erweitern als auch seine geografische Reichweite auf Unternehmen in ganz Großbritannien auszudehnen. Dies wurde zusätzlich erschwert, als die Mittelvergabe nach Studierendenzahlen begann und sich die administrative Aufgabe der gerechten Aufteilung der Mittel zwischen den Partnern als zu schwer zu lösen erwies. 1996 wurde Cambridge allein gelassen.

ACPMM-Schüler der 17. Klasse, die aus einer Mine kommen

Das Qualifikationsproblem war gelöst, als Professor Colin Andrew Mitte der 80er Jahre eintraf und sich daran machte, eine Prüfung zu erarbeiten, die die Verleihung eines Diploms ermöglichte. Es gelang ihm, sowohl Mike Sharman als auch die Universität davon zu überzeugen, dass dies eine gute Sache war. Doch als eine Hürde überwunden war, tauchte eine andere auf. Weitere Finanzierungslücken traten auf, da die Vergabestellen weniger Stipendien anboten und die Unterstützung für das Personal kürzten. In diesem nicht ganz förderlichen Umfeld wollte ACDMM seine Studentenzahlen erhöhen. An diesem Punkt intervenierten David Sainsbury (jetzt Lord Sainsbury of Turville und Kanzler der Universität) und die Gatsby Charitable Foundation. Die Fortsetzung von ACDMM stand im Einklang mit einem von Gatsbys primären gemeinnützigen Zielen &ndash, die wissenschaftlichen und technischen Fähigkeiten im Vereinigten Königreich zu stärken &ndash, so dass Gatsby zugestimmt hat, eine Finanzierung für einen Zeitraum von fünf Jahren bereitzustellen.

1995 ging Mike Sharman endgültig in den Ruhestand, nachdem er im Vorjahr für seine Bemühungen einen MBE erhalten hatte. Tom Ridgman kam mit einer 20-jährigen Karriere in der Automobilindustrie von der University of Warwick und übernahm 1996 die Leitung des Studiengangs. Im Jahr 2004, noch vor finanziellen Herausforderungen und nach eingehender Prüfung der Möglichkeiten, wurde der Studiengang erneut umbenannt &ndash Industrial Systems, Manufacture and Management (ISMM) &ndash und wurde MPhil. Es wurde auf neun intensive Monate verkürzt und mit einer großen Dissertation abgeschlossen. Dies führte zu einem sofortigen Anstieg der Studierendenzahlen und der Studiengang unter der Leitung von Simon Pattinson ist heute um den Faktor fünf überzeichnet und zieht besonders hochkarätige Kandidaten aus der ganzen Welt an.

Aktuelle ISMM-Studenten auf einer Studienreise im Ausland

Ein neuer Studiengang für Studierende: Production Engineering Tripos

In den 1950er und 60er Jahren drehte sich bei einem Bachelor-Abschluss in Ingenieurwissenschaften in Cambridge alles um Naturwissenschaften und Mathematik und das Management war so ziemlich das arme Verwandte. David Newland, der zwischen 1996 und 2002 Abteilungsleiter war, erinnert sich, dass es als Student in den 1950er Jahren nur zwei Vorlesungen pro Woche über Management gab, die am Samstagmorgen geplant waren, &bdquo In diesem Fall gab es den Eindruck, dass Sie sich einfach durch die Prüfungsfragen hindurchschlängeln könnten.&rdquo In den 1970er Jahren sahen die britischen Hersteller ihren Anteil an den weltweiten Exportmärkten weiter zurückgehen und sahen sich einer Reihe inländischer Herausforderungen gegenüber, nicht zuletzt in diesem Bereich der Arbeitsbeziehungen.

Die Regierungen verfolgten weiterhin industriepolitische Maßnahmen und kündigten an, dass die University Grants Commission Anträge für ein vierjähriges Ingenieurstudium statt der herkömmlichen dreijährigen prüfen werde, solange der Schwerpunkt auf der Vorbereitung der Absolventen auf die Industrie statt auf die Forschung liege. Das Department of Engineering reagierte mit einem Vorschlag, der angenommen wurde, um das Production Engineering Tripos (PET) zu gründen. Dies war eine Premiere für Cambridge: Es ermöglichte Studenten der Ingenieurwissenschaften, sich in den letzten zwei Jahren auf das Erlernen der Fertigung sowohl aus technischer als auch aus Managementperspektive zu spezialisieren. Die Absicht war, diese sehr intelligenten Studenten mit dem theoretischen und praktischen Wissen und der Fähigkeit auszustatten, reale industrielle Probleme zu lösen, und die Fähigkeiten und Erfahrungen, um sich in einer Fabrikumgebung zu behaupten.

Mike Gregory, der 1975 von Mike Sharman rekrutiert worden war, um an ACPMM zu arbeiten, wechselte hinüber, um den neuen PET-Kurs einzurichten. 1988 änderte PET seinen Namen in Manufacturing Engineering Tripos (MET), um die Breite seines Ansatzes widerzuspiegeln. Schon in den Anfängen der Kurzkurse von John Reddaway war erkannt worden, dass sich die Fertigung mit viel mehr als nur der Produktion befasste und eine Reihe von Aktivitäten umfasste, darunter das Verständnis von Märkten und Technologien, Produkt- und Prozessdesign und -leistung, Lieferkettenmanagement und Servicebereitstellung .

Mike Gregory und MET-Studenten

im Ausland
Forschungsprojekt, 1988.

1997 war Mike, wie wir sehen werden, zunehmend beschäftigt und übergab die Leitung des Kurses an Ken Platts.Ken leitete MET durch seine erste Bewertung der Lehrqualität, bevor er es zuerst an Jim Platts und dann an Claire Barlow übergab, die es viele Jahre lang erfolgreich leitete. Heute sind MET-Studenten, wie &lsquoISMMs&rsquo sehr gefragt, und der Kurs hat eine Reihe angesehener Alumni hervorgebracht, die erfolgreiche Start-ups gegründet, bestehende Fertigungsorganisationen transformiert, neue Technologien entwickelt und eine breite Palette neuer Produkte und Dienstleistungen rund um die Welt.

DIE 1980er UND 90er Jahre

Forschung und Praxis gehen Hand in Hand

In den 1980er und 1990er Jahren schrumpfte die britische Produktion im Verhältnis zur nationalen Produktion weiter. Aber wenn die Produktion im Vereinigten Königreich rückläufig war, so weitete sie sich anderswo in Umfang und Komplexität aus. Vor allem Japan kombinierte Automatisierung mit innovativen Arbeitspraktiken und erzielte spektakuläre Ergebnisse sowohl in Bezug auf Qualität als auch Produktivität. Hersteller aller Nationalitäten gingen global auf und bauten neue Fabriken in Entwicklungsländern, um ihnen Zugang zu schnell wachsenden neuen Märkten und billigeren Arbeitskräften zu verschaffen. Jetzt waren die Hersteller im Geschäft, miteinander verbundene globale Produktionsnetzwerke zu verwalten und ihre Rolle noch umfassender zu betrachten und Teile ihres Betriebs an andere Unternehmen zu vergeben.

Während große Unternehmen immer internationaler wurden, florierte das Unternehmertum in der Nähe der Heimat. Das &lsquoCambridge Phenomenon&rsquo &ndash ein Cluster aus Technologie-, Life-Sciences- und servicebasierten Start-ups &ndash war im Gange und begann die Aufmerksamkeit der Forscher auf sich zu ziehen.

Als Colin Andrew 1986 zum Professor für Mechanik ernannt wurde, wurde der Lehrstuhl auf seinen Wunsch hin in Fertigungstechnik umbenannt. Dies signalisierte eine neue Richtung für die Abteilung und eine wachsende Erkenntnis, dass die Fertigung ein wichtiges Thema für das wissenschaftliche Engagement war. Etwa zur gleichen Zeit gab Mike Gregory zu, den Ehrgeiz zu hegen, ein Fertigungsinstitut zu gründen. Colin hatte Verständnis für die Idee, riet jedoch, dass eine überzeugende akademische Leistung eine Voraussetzung für eine solche Aufgabe sei. Mit charakteristischer Energie nahm Mike die Herausforderung an und machte sich daran, eine Reihe von Forschungsaktivitäten zu entwickeln, die die breite Definition der Fertigung widerspiegeln, die bereits sowohl die Lehre im Grundstudium als auch im Aufbaustudium beeinflusste.

Zehn Jahre später waren die Fundamente gelegt. Im Jahr 1994, als Colin Andrew in den Ruhestand ging, wurde Mike zum Professor für Fertigung und zum Leiter einer neuen Abteilung für Fertigung und Management innerhalb der Fakultät für Ingenieurwissenschaften ernannt. Eine embryonale Forschungsgruppe für Fertigungssysteme begann sich einen Namen zu machen. Wäre James Stuart in der Nähe gewesen, hätte er eine unaufhaltsame Kraft erkannt.

Managementforschung

Nach einer Reihe von industriellen und akademischen Konsultationen in den Jahren 1985 und 1986 wurde ein EPSRC-Forschungsstipendium, Manufacturing Audit, gewonnen. Es wurde untersucht, wie Fertigungsstrategien in einem Geschäftskontext verstanden und gestaltet werden können. Die Rekrutierung von Ken Platts aus den Forschungslabors von TI im Jahr 1987 und seine Verfolgung des Projekts als Promotionsthema führten zu einer stärkeren akademischen Ausrichtung und der Veröffentlichung eines Arbeitsbuchs im Auftrag des Ministeriums für Handel und Industrie, Wettbewerbsfähige Fertigung: ein praktisches Herangehensweise an die Entwicklung einer Fertigungsstrategie.

Kens Ernennung war in vielerlei Hinsicht wichtig. Es schuf einen Präzedenzfall für die Einstellung von Menschen mit Industrieerfahrung in Forschungsposten und verankerte den Grundsatz, dass die Fertigungsforschung in Cambridge sowohl in Bezug auf ihre Inhalte als auch in ihren Ergebnissen für die Industrie von Nutzen sein sollte. Das Arbeitsbuch wurde zur Blaupause für eine unverwechselbare Arbeitsweise. Für jedes größere Forschungsprojekt sollte ein Buch erstellt werden, das Managern in der Industrie eine Reihe von Werkzeugen und Ansätzen an die Hand gibt, die sie selbst anwenden können. Die Tatsache, dass dieser erste Versuch, sich in der Nähe von 10.000 Exemplaren zu verkaufen, war auch hilfreich bei der Etablierung von Cambridges Referenzen.

Kens Arbeit zeigte das Potenzial eines &lsquoAktionsforschung&rsquo-Ansatzes für das Management. Mit anderen Worten, anstatt sich auf Umfragen und Fallstudien zu verlassen, so wichtig diese auch waren, würden die Forscher ihre theoretischen Modelle in Unternehmen mitnehmen und in realen Situationen testen. Dieser Forschungsstrang führte zum Center for Strategy and Performance und etablierte einen Ansatz, der im gesamten IfM weit verbreitet sein sollte. Kens frühe Arbeiten wurden auch vom Forschungsrat für Ingenieur- und Physikalische Wissenschaften gefördert. Dieser große, fortlaufende Zuschuss ermöglichte die Einstellung zusätzlicher Forscher, darunter einen Andy Neely, und etablierte Cambridge als ernsthaften Akteur im Bereich der Fertigungsstrategie und Leistungsmessung.

Die nächste wichtige Forschungsstelle war 1992 David Probert, ein weiterer ACPMM-Alumnus, der wie Ken aus der Industrie kam. Aufbauend auf den Grundlagen, die Mike und Ken in der Fertigungsstrategie gelegt haben, identifizierte und konzentrierte sich David auf ein immer häufiger auftretendes Problem: ob ein Hersteller ein Produkt oder ein Teil selbst herstellen oder an einen Lieferanten auslagern sollte. Davids Arbeit in diesem Bereich fand bei Unternehmen sofort Anklang und sein Rahmen wurde unter anderem von Rolls-Royce übernommen. Dies führte direkt zu einer vom EPSRC finanzierten Arbeit zum Technologiemanagement, die sich seitdem zu einem sehr erfolgreichen und weitreichenden Forschungsprogramm entwickelt hat. Ein Hauptaugenmerk lag auf der Schaffung robuster Technologiemanagementsysteme, die Unternehmen dabei helfen, neue Ideen in erfolgreiche Produkte und Dienstleistungen zu verwandeln. Diese Arbeit umfasste fünf Schlüsselprozesse: Identifizierung, Auswahl, Erwerb, Nutzung und Schutz neuer Technologien. Die Stärke in diesem Bereich wurde durch die Hinzufügung von James Moultries Expertise in Industriedesign und der Entwicklung neuer Produkte sowie in jüngerer Zeit durch Frank Tietze mit seinem Forschungsinteresse an Innovation und geistigem Eigentum gestärkt. Auch die Erforschung breit anwendbarer betriebswirtschaftlicher Instrumente hat sich als fruchtbares Forschungsgebiet herausgestellt, wobei Rob Phaal das IfM als Kompetenzzentrum für Roadmapping etablierte.

Ein Großteil dieser Forschungsaktivitäten war am besten auf große und mittelständische Unternehmen anwendbar, aber es bestand auch ein erhebliches Interesse an unternehmerischeren technologiebasierten Aktivitäten, nicht zuletzt im &lsquoCambridge Cluster&rsquo und den Herausforderungen, die mit der Kommerzialisierung neuer Technologien verbunden sind . Diese Arbeit wurde in den 1980er Jahren von Elizabeth Garnsey entwickelt und wird bis heute von Tim Minshall und seiner Technology Enterprise Group fortgeführt.

1994 schloss sich Yongjiang Shi dieser kleinen Gruppe von Forschern an, um seine Doktorarbeit über internationale Fertigungsnetzwerke zu beginnen. Dies war der Beginn eines ganz neuen Forschungsstrangs, der sich zunächst auf den &lsquoFertigungsfußabdruck&rsquo konzentrierte. Seine bahnbrechende Arbeit in diesem Bereich führte zu einer wichtigen Zusammenarbeit mit Caterpillar und der IfM&rsquos Industry Links Unit (davon später mehr) und zur Entwicklung einer Reihe von Ansätzen, die multinationalen Unternehmen helfen würden, &lsquodie richtigen Dinge an den richtigen Stellen zu machen&rsquo. Da die internationale Fertigung immer komplexer und verstreut wird, hat sich die Forschung unter der Leitung von Jag Srai ausgeweitet, um End-to-End-Lieferketten zu umfassen, globale Wertschöpfungsnetzwerke zu entwerfen und widerstandsfähigere und nachhaltigere Netzwerke zu schaffen. Wie bei den frühen Arbeiten zum Footprint der Fertigung wird diese neue Forschung in Zusammenarbeit mit industriellen Partnern durchgeführt.

Technologieforschung

Als Duncan McFarlane 1995 in die noch junge Division eintrat und sein Fachwissen in der industriellen Automatisierung einbrachte und dem Team eine wichtige technische Dimension hinzufügte, wurden bedeutende Fortschritte im Management und in der Betriebsforschung erzielt. Duncan gründete daraufhin das Cambridge Auto-ID Lab, eines von sieben Labors weltweit, das die Arbeiten zur Verfolgung und Rückverfolgung von Objekten innerhalb der Lieferkette mithilfe von RFID leitete. Es war diese Gruppe, die den Begriff &lsquoInternet der Dinge&rsquo prägte und die Forschung auf diesem Gebiet leitete. Das Team von Duncan erweiterte sich anschließend um ein breiteres Interessenspektrum und untersuchte, wie intelligente Systeme und intelligente Daten sowohl in Fabriken als auch über Lieferketten hinweg genutzt werden können, um intelligentere Produkte und Dienstleistungen zu schaffen. Die Arbeit von Ajith Parlikad zum Asset Management ist zu einem wichtigen Bestandteil dieses Forschungsprogramms geworden und ist auch integraler Bestandteil der innovativen Arbeit des Cambridge Centre for Smart Infrastructure and Construction zur Verbesserung der britischen Infrastruktur und gebauten Umwelt.

Installation von Robotern in Mill Lane

Produktionsprozesse waren eindeutig ein wichtiges Thema für ein Fertigungsforschungsprogramm, und Ende der 1990er Jahre wurde eine neue Gruppe mit Arbeiten aus der gesamten Abteilung gegründet, um sich damit zu befassen. 2001 finanzierte GKN einen neuen Lehrstuhl für Fertigungstechnik, auf den Ian Hutchings berufen wurde. Ian kam vom Department of Materials Science and Metallurgy und genoss internationales Renommee für seine Arbeit in der Tribologie. Er entwickelte die Production Processes Group weiter, die eine Reihe von Forschungsaktivitäten zusammenführte, darunter Claire Barlows Arbeit zur Entwicklung nachhaltigerer Prozesse. Im Jahr 2005 gründete Ian mit EPSRC-Mitteln das Inkjet Research Center, um mit einer Gruppe britischer Unternehmen, darunter einige aus dem lokalen Cambridge-Cluster, zusammenzuarbeiten, um sowohl die Wissenschaft hinter dieser wichtigen Technologie als auch ihre Verwendung als Produktionsprozess zu erforschen .

2003 wechselte Bill O&rsquoNeill von der University of Liverpool zum IfM und brachte sein EPSRC Innovative Manufacturing Research Center (IMRC) für laserbasierte Mikrotechnik mit. Daraus entstand das Center for Industrial Photonics, das heute zusammen mit der Cranfield University das EPSRC Center for Innovative Manufacturing in Ultra Precision und das EPSRC Center for Doctoral Training in Ultra Precision beheimatet. Sowohl das Distributed Information and Automation Laboratory als auch das Center for Industrial Photonics konnten ihr geistiges Eigentum durch Ausgliederungen kommerzialisieren. Ersteres gründete RedBite, ein Unternehmen für &lsquotrack- und Trace&rsquo-Lösungen, und letzteres, Laser Fusion Technologies, das Laserfusion kalt nutzt Sprühtechnologie für eine Vielzahl von Anwendungen in den Bereichen Energie, Fertigung und Luft- und Raumfahrt.

Eine neue Identität

Mikes Ehrgeiz, ein Fertigungsinstitut zu gründen, wurde 1998 schließlich verwirklicht, als eine Allianz mit der Foundation for Manufacturing and Industry (FM&I) geschlossen wurde. Dies war eine Organisation, die gegründet wurde, um Unternehmen zu helfen, zu verstehen, wie sich wirtschaftliche und politische Erwägungen auf ihre Unternehmen auswirken würden, und um das öffentliche Profil der verarbeitenden Industrie im Vereinigten Königreich zu verbessern. Es brachte ein großes Netzwerk von Industriepartnern mit sich und ergänzte die Division & rsquo, die jetzt beträchtliche Stärke und Breite in der Fertigungs- und Managementforschung und ihrer noch jungen Industry Links Unit (siehe unten) hat. Das Institute for Manufacturing entstand, eingebettet in die Fertigungs- und Managementabteilung der Engineering-Abteilung, aber mit einem eigenen Charakter und einer Reihe von Fähigkeiten, die es ihm ermöglichten, die Herausforderungen, denen sich Hersteller gegenüberstanden, und den politischen Kontext, in dem sie tätig waren, zu meistern.

Politikforschung

Eines von Mikes Zielen für das neue Institut bestand darin, seine Fertigungskompetenz &ndash sowohl strategisch als auch technisch &ndash zu nutzen, um das Denken der Regierung zu unterstützen und das Bewusstsein für die anhaltende Bedeutung der Fertigung im Kontext einer zunehmend dienstleistungsorientierten Wirtschaft zu schärfen. Durch den Zusammenschluss mit dem FM&I wurde das IfM um eine wirtschaftspolitische Dimension erweitert. Dies würde sich zu einem wichtigen Forschungsstrang entwickeln, der die grundlegende Frage stellt: Warum sind einige Länder besser als andere darin, wissenschaftliche und technische Forschung in neue Industrien und wirtschaftlichen Wohlstand zu übertragen? Das Policy Research Team des IfM&rsquos, gegründet von Finbarr Livesey und heute unter der Leitung von Eoin O&rsquoSullivan, engagiert sich sehr aktiv in der politischen Community, um diese Fragen zu beantworten (siehe Seite 6).

Wie bei allen IfM-Unternehmen sollte sich die Forschung in diesem Bereich als nützlich erweisen. Es basiert daher auf der praktischen Zusammenarbeit mit politischen Entscheidungsträgern, um ihre Bedürfnisse zu verstehen und Ergebnisse bereitzustellen, die sie bei ihrer Entscheidungsfindung unterstützen. Im Jahr 2003 gründete Mike außerdem das Manufacturing Professors&rsquo Forum, eine jährliche Veranstaltung, die führende britische Akademiker, Industrielle und politische Entscheidungsträger zusammenbringt, um ein gemeinsames Verständnis dafür zu entwickeln, wie die Bedingungen geschaffen werden können, unter denen die britische Fertigung gedeihen kann.

Forschung in die Praxis umsetzen

Dieser Gedanke, dass die am IfM durchgeführte Forschung von echtem Wert für seine industriellen und staatlichen Mitarbeiter sein sollte, wurde in der Schaffung einer Industry Links Unit (ILU) verankert, die 1997, ein Jahr vor der Gründung des IfM, eingerichtet wurde . Die Förderung fruchtbarer Kooperationen zwischen Hochschulen und Industrie stand damals nicht im Vordergrund der öffentlichen Finanzierung. Die Gatsby Charitable Foundation, die zuvor eine entscheidende Rolle bei der Aufrechterhaltung von ACPMM in schwierigen finanziellen Zeiten gespielt hatte, war der Ansicht, dass die Förderung solcher Interaktionen der Schlüssel zur Entwicklung eines langfristigen Wirtschaftswachstums ist und dass die vorgeschlagene neue Einheit dabei eine nützliche Rolle spielen könnte betrachten. Es stellte der ILU eine Anfangsfinanzierung zur Verfügung, die es ihr ermöglichte, die drei Hauptaktivitäten zur Förderung des Wissenstransfers zu entwickeln: Bildung, Beratung und Veröffentlichungen. Gatsby ermutigte die ILU auch, sich selbst auf eine klare kommerzielle Basis zu stellen, indem sie ein separates Unternehmen im Besitz der Universität (Cambridge Manufacturing Industry Links oder CMIL) gründete, über das sie Einnahmen aus den Aktivitäten der ILU zur Finanzierung zukünftiger Forschung erzielen konnte.

CMIL wurde in seinen Anfangsjahren zuerst von John Lucas und dann von Paul Christodoulou erfolgreich gefördert. 2003 wurde Peter Templeton als Chief Executive eingestellt, und bis 2009 waren Umfang und Umfang seiner Aktivitäten so weit gewachsen, dass die Entscheidung getroffen wurde, ILU und CMIL in IfM Education and Consultancy Services Limited zu verschmelzen. Dies führte zu einer klareren Organisationsstruktur und einem Namen, der &lsquomacht, was er auf der Dose steht&rsquo.

Bildungsdienstleistungen

CMIL zielte darauf ab, Wissen und Fähigkeiten an Menschen in der Industrie durch eine Vielzahl von Kursen zu vermitteln, von denen einige ein- oder zweitägige praktische Workshops waren, während andere längere Programme waren, wie das Manufacturing Leaders&rsquo-Programm, ein zweijähriger Kurs für talentierte Mid- -Karriereingenieure und Technologen, die das Potenzial hatten, strategischere Rollen in der Industrie zu übernehmen. Im Jahr 2006 richtete CMIL einen MSc in Industrial Innovation, Education and Management für die University of Trinidad and Tobago ein, der bis 2013 sehr erfolgreich lief und die Fähigkeit zum Export der IfM-Bildungspraxis demonstrierte. Maßgeschneiderte Kurse für sehr große Unternehmen zu erstellen, war und bleibt eine wichtige Aktivität.

Beratungsservice

Durch die Ernennung von &lsquoindustrial Fellows&rsquo, von denen viele Alumni von ACPMM und MET waren, konnte CMIL einen Beratungsarm aufbauen, der die Forschungsergebnisse des IfM&rsquo an Unternehmen jeder Größe, von multinationalen Konzernen bis hin zu Start-ups und mit nationalen und regionalen Regierungen, verbreiten und anwenden konnte. Anfangs lag der Fokus vor allem auf kleinen und mittleren Herstellern, die laut dem ehemaligen Chairman und CEO von Jaguar Land Rover und langjährigem Freund und Berater des IfM, Bob Dover, von der Wissenschaft weitgehend vernachlässigt wurden. Ziel war es, die Entscheidungen der Unternehmen wissenschaftlich zu untermauern, untermauert durch Forschungen des Center for Strategy and Performance. Dies führte zur Entwicklung des ECS-Tools &lsquoPriorisierung&rsquo, das inzwischen bei mehr als 750 Unternehmen und seinem &lsquofast-Start&rsquo-Ansatz zur Entwicklung von Geschäftsstrategien eingesetzt wird.

Das Beratungsprogramm ist in den letzten Jahren stetig gewachsen und lieferte Projekte, die einen echten Einfluss auf die betroffenen Organisationen und das weitere Fertigungsumfeld hatten. IfM ECS hat zum Beispiel viele der Roadmaps unterstützt, die Visionen und Umsetzungspläne für neue Technologien in Großbritannien wie synthetische Biologie, Robotik und autonome Systeme sowie Quantentechnologien definieren. Im Jahr 2012 wurde es vom Technology Strategy Board (jetzt Innovate UK) beauftragt, eine Landschaftsgestaltung durchzuführen, bei der Möglichkeiten für eine hochwertige Fertigung in ganz Großbritannien untersucht wurden. Es ist derzeit damit beschäftigt, die Landschaft &lsquozu erneuern&rsquo, um klare Prioritäten für die Regierung zu setzen und insbesondere Bereiche zu identifizieren, in denen Investitionen in Fertigungskapazitäten durch die Koordinierung der Bemühungen der Lieferunternehmen maximiert werden können.

Darüber hinaus führt IfM ECS vielfältige forschungsbasierte Beratungsaktivitäten mit Unternehmen durch, darunter Großprojekte mit multinationalen Konzernen zur Neugestaltung ihrer Produktionsnetzwerke oder durchgängigen Lieferketten. Es arbeitet mit Unternehmen jeder Art und Größe zusammen, um ihre Technologie- und Geschäftsstrategien aufeinander abzustimmen und ihnen zu helfen, neue Technologien in erfolgreiche Produkte oder Dienstleistungen zu verwandeln.

2000er UND 2010er Jahre

Rasante Expansion &ndash und ein neues Zuhause

Seit 2000 hat sich die Fertigungslandschaft sehr schnell verändert. Disruptive Technologien und neue Geschäftsmodelle stellen Bedrohungen und Chancen dar, die Industrie und Regierungen verstehen und entsprechend handeln müssen. Ein immer dringenderes Anliegen ist, wie wir weiterhin den Appetit der Welt auf Produkte und Dienstleistungen stillen können, ohne dabei den Planeten zu zerstören.

Die geplante Position des Neubaus auf dem Gelände von West Cambridge

Wie wir bereits gesehen haben, expandierten Forschung, Lehre und Praxis am IfM zu Beginn des neuen Jahrtausends rasant. Im Jahr 2001 erhielt das IfM einen bedeutenden Zuschuss und wurde Sitz eines der Flaggschiff-Forschungszentren des EPSRC für Innovative Fertigung, das 2003 zusammen mit Bill O'Neills IMRC eine Organisation von beträchtlicher Größe und Reichweite schuf. Es operierte jedoch von einem ziemlich maroden Büro- und Laborkomplex in der Mill Lane im Zentrum von Cambridge aus, und dies wurde zu einem limitierenden Faktor, insofern das neue Photonik-Team in den Science Park verbannt wurde.

Eine Spendenkampagne brachte 15 Millionen Pfund von einer Reihe sehr großzügiger Spender zusammen, darunter Alan Reece über die Reece Foundation und die Gatsby Charitable Foundation, was ausreichte, um dem IfM ein neues Zuhause zu bauen. Im Jahr 2009 zog es in seine jetzigen, speziell gebauten Räumlichkeiten auf dem Gelände von West Cambridge um. Dies war eine enorm bedeutende Entwicklung, nicht nur im Hinblick auf den Komfort und die Arbeitsmoral der Mitarbeiter. Dadurch konnte das IfM eine ganze Reihe von Veranstaltungen und Aktivitäten durchführen, die für sich genommen nützlich waren, aber auch immer mehr Menschen einen Einblick in die dortige Arbeit gaben und zu weiterem Interesse an Forschungskooperationen und Beratungsprojekten führten.

19. November 2009: Der Herzog von Edinburgh enthüllt die Gedenktafel bei der Eröffnung des neuen Gebäudes unter Beifall von Dame Alison Richard, der damaligen Vizekanzlerin der Universität Cambridge.

Der Neubau ermöglichte auch einen weiteren Ausbau des Forschungsprogramms durch vergrößerte Büro- und Laborflächen. 2010 kehrte Professor Andy Neely von Cranfield ans IfM zurück, nachdem er in den 1990er Jahren mit Ken Platts zur Leistungsmessung zusammengearbeitet hatte und die Cambridge Service Alliance gegründet hatte, die Wissenschaftler und multinationale Unternehmen zusammenbringt, um die Herausforderung anzugehen, vor der eine Organisation steht, wenn sie vom Sein ein Hersteller von Produkten zu einem Anbieter von Dienstleistungen.

Am IfM war seit Ende der 1990er Jahre eine interdisziplinäre Sustainable Manufacturing Group tätig, deren Entwicklung sich durch die verschiedenen Forschungsprogramme des IfM zieht. Im Jahr 2011 wurde dies durch die Gründung des EPSRC Center for Innovative Manufacturing in Industrial Sustainability unter der Leitung von Steve Evans innerhalb des IfM deutlich gestärkt. Dies ist eine Zusammenarbeit zwischen vier Universitäten (Cambridge, Cranfield, Imperial College, London und Loughborough) mit einem Mitgliedschaftsprogramm, um sicherzustellen, dass produzierende Unternehmen sowohl die Forschungsagenda bestimmen als auch aktiv an ihren Projekten teilnehmen.

Das Verständnis von Geschäftsmodellen steht im Mittelpunkt vieler Forschungsaktivitäten des IfM&rsquos: Wie kann ein Unternehmen mit gutem Beispiel vorangehen oder lernen, nachhaltiger zu wirtschaften? Welche Auswirkungen werden neue Technologien wie der 3D-Druck sowohl auf etablierte Unternehmen als auch auf neue Marktteilnehmer haben? Wie sollten Unternehmen ihre Betriebsnetzwerke als Reaktion auf disruptive Technologien neu gestalten? Chander Velu hat eine neue Forschungsinitiative ins Leben gerufen, die einen Management- und Wirtschaftsansatz zur Geschäftsmodellinnovation verfolgt und darauf abzielt, verschiedene Perspektiven des IfM und wichtiger britischer und internationaler Universitäten zusammenzubringen, um eine koordinierte Forschungsagenda zu erstellen.

Mehr Laborflächen haben es dem IfM ermöglicht, seine wissenschaftlichen und technologischen Forschungsinteressen auszuweiten und kürzlich multidisziplinäre Teams zu gewinnen, die sich mit der Herstellung neuer Materialien im Maßstab wie Kohlenstoffnanoröhren (siehe Seite 9) und Biosensoren unter der Leitung von Michaël De Volder und Ronan Daly . beschäftigen bzw. Durch die Zusammenarbeit mit Kollegen mit Politik-, Management- und Betriebsexpertise sind diese Teams in der Lage, die wissenschaftlichen und technologischen Herausforderungen im breiteren Kontext der Fertigungswertschöpfungskette anzugehen, um die Risikofaktoren frühzeitig zu verstehen und die Chancen einer erfolgreichen Kommerzialisierung zu maximieren.

IfM-Gemeinschaftsraum &ndash ein Raum, der die Vernetzung und Zusammenarbeit fördert.

IfM ECS hat sein Leistungsangebot weiter ausgebaut. Zum Beispiel führt es derzeit ein maßgeschneidertes Programm zur Führungskräfte- und Berufsentwicklung für Atos durch (siehe Seite 27) und erweitert aktiv sein Portfolio an offenen Kursen und Workshops, um neue Forschungsergebnisse aus den IfM&rsquos-Forschungszentren widerzuspiegeln. In ähnlicher Weise wächst die Zahl der Tools und Techniken, die IfM ECS zur Verfügung steht, um Industrie und Regierung durch Beratung zu unterstützen, und umfasst Aktivitäten wie Produktdesign und Service.

2010 übernahm IfM ECS das Management von ideaSpace, einem Innovationszentrum in Cambridge, das Unternehmern und Innovatoren, die neue, erfolgreiche Unternehmen gründen möchten, flexible Büroräume und Networking-Möglichkeiten bietet. IdeaSpace trägt nicht nur dazu bei, erfolgreiche neue Unternehmen und wirtschaftlichen Wert zu schaffen, sondern arbeitet auch mit Regierungen, Behörden und Universitäten zusammen, um Richtlinien, Strategien und Programme zu entwickeln, die einen florierenden Start-up-Sektor unterstützen.

Bestandsaufnahme

Forschung, Ausbildung und Praxis in der Fertigung haben in Cambridge in den letzten 50 Jahren einen langen Weg zurückgelegt, aber sie bleiben der Vision von Hawthorne und Reddaway treu: Bei der Fertigung geht es um viel mehr als das Formen von Materialien. Um die Komplexität moderner Industriesysteme mit ihren technischen, betriebswirtschaftlichen und wirtschaftlichen Dimensionen zu verstehen, müssen Sie sich voll und ganz mit den Menschen und Unternehmen auseinandersetzen, die dies tun &lsquofür real&rsquo. Das Forschungsprogramm hier ist mittlerweile umfangreich und deckt das gesamte Spektrum der Fertigungsaktivitäten ab. In diesem Jahr erhielt die Universität Cambridge insgesamt mehr EPSRC-Mittel für die Fertigungsforschung als jede andere britische Universität. Das IfM spielt eine wichtige Rolle, nicht nur bei der Erbringung seines Anteils an dieser Forschung, sondern auch bei der Förderung der Fertigungsforschung in der gesamten Universität.

Bildung floriert. Die ISMM- und MET-Kurse werden immer stärker und dieses Jahr haben wir mehr als 75 Studenten, die promovieren oder MPhils forschen.

IfM ECS wächst weiter und setzt IfM-Forschung in die Praxis um, sei es bei der Neugestaltung von Betriebsnetzwerken multinationaler Unternehmen, bei der Entwicklung robuster Innovations- und Technologiestrategien und -systeme oder bei der Bereitstellung von Programmen zur Führungskräfte- und beruflichen Entwicklung sowie offenen Kursen.

Mit dem Rasterelektronenmikroskop im Zentrum für Industrielle Photonik

In die Zukunft schauen

Wohin führt das IfM in den nächsten 50 Jahren? Unsere starke Zielstrebigkeit wird sich nicht ändern und wir bleiben entschlossen, die Welt zu verändern, indem wir die Leistung und Nachhaltigkeit der Fertigung verbessern. Wir werden weiterhin Wissen, Erkenntnisse und Technologien schaffen, die für neue und etablierte Fertigungsindustrien und die damit verbundene politische Gemeinschaft einen echten Wert haben. Und wir werden auch weiterhin dafür sorgen, dass unser Wissen durch unsere Bildungs- und Beratungsaktivitäten Wirkung zeigt.

James Moultrie inspiriert neue MET-Studenten

Aber grundsätzlich geht es beim IfM um Innovation. Während wir also weiterhin das tun, was wir am besten können, werden wir auch nach Möglichkeiten suchen, Dinge anders zu machen. Wir haben ehrgeizige Pläne für die Zukunft, die die mögliche Entwicklung eines &lsquoscale-up-Centers&rsquo umfassen, eines physischen Raums, der der Unterstützung des Übergangs von Ideen und Konzepten von laborbasierten Prototypen in skalierbare industrielle Anwendungen gewidmet ist. James Stuart hätte die Energie und Entschlossenheit gebilligt, mit der das IfM, wie wir es heute kennen, geschaffen wurde und sein Pioniergeist wird uns weiterhin inspirieren. Auf diese Weise hoffen wir sicherzustellen, dass die nächsten 50 Jahre noch produktiver und angenehmer werden als die letzten 50.

Dieser Artikel wurde von Sarah Fell verfasst, basierend auf Interviews der IfM-Doktorandinnen Chara Makri, Katharina Greve und Kirsten Van Fossen mit ehemaligen und aktuellen Mitarbeitern und langjährigen Freunden des IfM.


Masagana 99

Die Masagana Das 99-Programm wurde 1973 als Überlebensprogramm ins Leben gerufen, um die akute Nahrungsmittelknappheit anzugehen und später die Reisproduktion zu steigern. Ziel war es, einen Ertrag von 99 Cavan (oder 4,4 Tonnen) ungemahlenem Reis pro Hektar zu erreichen. Masagana 99 basierte auf zwei Leistungsangeboten – einem Kreditprogramm und einem Technologietransfer. Masagana 99 war ein innovatives beaufsichtigtes Kreditprogramm und das erste seiner Art zu seiner Zeit. Um die Landwirte von Wuchern und belastenden Bedingungen der Banken bei der Vergabe von Krediten an Landwirte zu befreien, garantierte die Regierung 85% aller Verluste auf Masagana 99 Kredite. Diese Garantie veranlasste ländliche Banken dazu, auf ihre traditionelle Praxis zu verzichten, Sicherheiten zu verlangen. Sogar die Rediskontierungspolitik wurde überarbeitet, um sie einfach zu machen und für den Landwirt-Gläubiger möglichst wenig Kosten zu verursachen. Danach erklärten sich etwa 420 ländliche Banken und 102 Zweigstellen der Philippine National Bank bereit, Kredite zu solchen Bedingungen bereitzustellen.

Kreditanträge wurden schnell und vor Ort bearbeitet. Bankmitarbeiter bearbeiteten zusammen mit landwirtschaftlichen Technikern den Betriebsplan und das Budget für die Landwirte seldas[4] oder Genossenschaften. Ein einzelner Landwirt, der eine Sicherheit anzubieten hat, kann auch einen Kredit erhalten. Das maximal zulässige Darlehen erreichte den Gegenwert von 100 US-Dollar pro Hektar mit einem Prozent (1%) monatlichen Zinsen. Nach der Genehmigung wurden viele der Kredite zu Fuß, mit dem Motorrad, mit Jeeps und sogar mit Pumpbooten zu den Farmen geschickt. Die philippinische Nationalbank nannte dieses Programm „Bank on Wheels“. Ein Teil des Darlehens wurde in bar zur Deckung der Arbeitskosten gewährt, während der Rest in Kaufaufträgen vergeben wurde und in den teilnehmenden Geschäften gegen Düngemittel und Pestizide eingetauscht werden konnte.

Das Bank on Wheels-Programm der PNB, das das Masagana 99-Programm durch die Bereitstellung von Krediten und sogar deren Auslieferung an die Bauern auf den Feldern ergänzen soll

So innovativ das Kreditprogramm war, so war es auch der Technologietransfer. Die Landwirte wurden nun mit neuen Reissorten namens HYVs (High-Yield-Sorten) vertraut gemacht, die sich radikal von denen unterschieden, die sie zuvor angebaut hatten. Diese Sorten erforderten eine umfangreiche Vorbereitung und Verwendung von Düngemitteln und Pestiziden, so dass der Landwirt mit Hilfe von landwirtschaftlichen Technikern die im Programm festgelegte Methode befolgen musste.

Um die Koordination und Zusammenarbeit aller landwirtschaftlichen Initiativen zu gewährleisten, wurden lokale Geschäftsführer in das Programm einbezogen. Gouverneure wurden zum Vorsitzenden der Aktionskomitees der Provinzen ernannt, während Bürgermeister zu Leitern der kommunalen Aktionsteams ernannt wurden. Beide Beamten waren für die Koordinierung verschiedener Behörden – Banken, Müller und Händler, Händler für landwirtschaftliche Betriebsmittel, lokale Radiosender, DA, DAR und DLGCD – auf ihren jeweiligen Ebenen verantwortlich.

In seinem ersten Jahr war Masagana 99 ein großer Erfolg. Aufgrund der vorherrschenden politischen Rahmenbedingungen erfüllten die Durchführungsakteure ihre ihr übertragenen Aufgaben, wenn auch widerwillig. Darüber hinaus erfreute sich das Land 1974 allgemein guten Wetters, so dass die Verluste für die Landwirtschaft im Gegensatz zu den letzten drei Jahren minimal waren. Als die Düngemittelpreise im Jahr 1974 aufgrund der Unruhen im Nahen Osten und des Diktats der Organisation erdölexportierender Länder (OPEC) stark anstiegen, federte die Regierung ihre Auswirkungen durch Subventionen in Höhe von etwa 21% des Einzelhandelspreises ab. Schließlich stellte die Regierung einen garantierten Farm-Gate-Preis von 6 US-Dollar pro Sack zur Verfügung, um die Landwirte von schweren Verlusten zu befreien, wenn die Marktpreise während der Erntezeit fielen. Was die Selbstversorgung mit Reis betrifft, Masagana 99 war ein großer Erfolg. Tatsächlich konnten die Philippinen nach nur zwei Jahren ihrer Umsetzung 1976[5] ausreichend sein und haben möglicherweise Reis exportiert[6].

Tabelle 3: Status von Masagana 99 Kreditprogramm nach Ablauf (31. April 1979)

Phase Begriff Anzahl der Kreditnehmer Bereich (hat.) Gewährte Kredite (in Mio. Pesos) Rückzahlungsrate (in %)
ich Mai – Oktober 1973 401,461 620,922 369.5
II November '73 – April '74 236,115 355,387 230.7 94
III Mai – Oktober 1974 529,161 866,351 716.2 94
NS November '74 – April '75 354,901 593,609 572.1 84
V Mai – Oktober 1975 301,879 558,330 572.9 82
VI November '75 – April '76 151,862 255,882 255.9 76
VII Mai – Oktober 1976 144,265 244,477 274.3 81
VIII November '76 – April '77 89,623 148,763 164.3 80
IX Mai – Oktober 1977 131,842 222,622 250.5 81
x November '77 – April '78 92,476 155,095 176.1 74
XI Mai – Oktober 1978 116,624 202,606 236.9 80
XII November '78 – April '79 85,401 157,521 158.0 68


GM: Wie der Riese seine Stimme verlor – Eine Insider-Perspektive

[erste Veröffentlichung am 21.05.2013. CraigInNC ist ein ehemaliger GM-Mitarbeiter und teilt seit seiner Ankunft bei CC die Vorteile seines Insiderwissens und seiner Perspektive. In diesem Beitrag, der ursprünglich ein Kommentar war, den Craig hinterlassen hat, teilt er seine Gedanken über die externen und internen Kräfte, die während der entscheidenden Ära am Werk waren, die mit dem OPEC-Ölembargo begann und die er als einen wichtigen Wendepunkt bei GM bezeichnet. Der Niedergang von GM ist die größte Automobilgeschichte aller Zeiten, und es gibt offensichtlich viele Ansichten und Perspektiven. Fühlen Sie sich frei, zuzustimmen oder abzulehnen, aber bleiben Sie bitte höflich. – PN]

GMs verkleinerte 1985er FWD C-Body-Autos (Cadillac DeVille und Fleetwood, Olds 98, Buick Electra) und 1986er E/K-Autos (Eldorado/Sevilla) stellen einen der wichtigsten Wendepunkte bei GM dar. Die Situation mit diesen brandneuen Autos beschränkte sich nicht nur auf diese Modelle, sondern war Teil einer breiteren Richtung, die GM zehn Jahre vor ihrer Markteinführung beschloss. Zu sagen, dass die OPEC darauf Einfluss hatte, wäre eine Untertreibung, aber das betraf alle Autos, insbesondere die Einheimischen, die große Autos bauten. Damals waren die meisten Importe mit Ausnahme einiger Mercedes-Modelle sehr gering.

So sehr wir Roger Smith für all die Probleme der 1980er Jahre verantwortlich machen, er hatte nur einen geringen Einfluss auf den Prozess, der all dies in Gang brachte. Er hätte eher Druck ausüben können, um Modelle zu optimieren, aber die Würfel waren schon gefallen, bevor er im Herbst 1980 den Vorsitz übernahm. Die Situation sah ich so aus:

Natürlich änderte das OPEC-Ölembargo von 1973-1974 alles – es platzte die Blase für die meisten Amerikaner und ließ uns erkennen, dass das Öl, aus dem Benzin hervorging, eine endliche natürliche Ressource war und nicht vollständig von den Vereinigten Staaten kontrolliert wurde. Wir alle kennen und verstehen diesen Teil der Geschichte ziemlich genau, also muss nichts mehr gesagt werden.

CAFE wurde 1975 in Kraft gesetzt, um für Pkw des Jahres 1978 und leichte Lkw des Jahres 1979 in Kraft zu treten. GM war von dieser Gesetzgebung am stärksten betroffen, da sie der Baumeister großer Autos waren. Der Kraftstoffverbrauch von Chrysler war in den 1970er Jahren wahrscheinlich etwas niedriger als der von GM, aber angesichts der schlechten finanziellen Situation von Chrysler Ende der 1970er Jahre lag der Fokus bei Chrysler eher darauf, das Unternehmen am Leben zu erhalten, als die Bedrohung durch staatliche Maßnahmen gegen CAFE. Chrysler war mit einem Marktanteil von etwa 15 % auch der schwächste der Big Three und stellte eine geringere Bedrohung für staatliche Maßnahmen dar als GM, das wie AT&T und IBM immer unter der Bedrohung durch das Kartell stand.

Wie ich in dem Artikel mit dem Olds Firenza anmerkte, hätte GM, das die CAFE-Standards nicht erfüllt, wahrscheinlich schwerwiegende Folgen gehabt. Zu dieser Zeit schrieb Washington Gesetze und wertete es erneut GM aus. AT&T gab dir Telefone, RCA gab dir Fernseher, NBC/ABC/CBS gab dir Fernsehprogramme, Kodak verkaufte dir Filme für deine Kamera und IBM verkaufte dir Computer. Das war es in Kürze. Aber wie wir sehen, existiert jedes einzelne dieser Unternehmen nicht mehr in historischer Form. Einige wie AT&T wurden gewaltsam aufgelöst, andere wie IBM & GM erlitten einen Niedergang und erholten sich in neuer Form, und natürlich wissen wir, wie das Fernsehen von 3 Kanälen auf 3.851 und mehr gestiegen ist…

Ed Cole (links) ging 1974 als GM-Präsident in den Ruhestand. Er war einer der letzten wirklich einflussreichen GM-Präsidenten, der als „Autotyp“ galt. Er begann seine Karriere in einem Autoteilegeschäft und beendete sie als Präsident von Checker, bevor er auf tragische Weise starb. Pete Estes (rechts) folgte Cole und war ein operativer Typ, aber unter ihm kam der Typ ins Rollen und trotz seiner legendären Karriere bei Oldsmobile, Pontiac und Chevrolet hatte er nicht die Prahlerei von Ed Cole und anderen. Aber er wurde sehr geliebt. Und ein Mann der extremen Innovationen. Während andere in ihren Verlautbarungen mehr im Großen und Ganzen waren, verstand Estes alle Details. Als junge GMI-Studenten hatten wir alle Ehrfurcht vor großen Namen wie Mitchell und Cole und sogar Iacocca bei Ford, weil sie Prominente waren. Aber für diejenigen, die keine extreme Extrovertiertheit besaßen, ein Typ wie Pete Estes, dessen Einfluss weniger in dem zu spüren war, was man außen an einem Auto sah, als was man innen fühlte, wenn man es fuhr. Er war ein echter Ingenieursmann, und es ist ziemlich passend, dass im Scharchburg-Archiv der Kettering-Universität ein naher Schrein zu ihm ausgestellt ist.

Roger Smith war in seiner Amtszeit ein Zahlenmensch, bevor Chairman und CEO Executive Vice President of Public Relations, Government Affairs und Finance wurde. Dinge, die wir für notwendig hielten, um Geschäfte zu machen, aber nie erwartet hatten, dass jemand zum Chef des Unternehmens befördert wird. Eine sehr ungewöhnliche Situation, an die sich viele nur schwer anpassen konnten. Wir waren es gewohnt, dass unsere Ideen von Leuten genehmigt oder abgelehnt wurden, die zuvor in unseren Schuhen gelaufen waren. Kosten zu diskutieren, bevor Ergebnisse erzielt werden, bedeutete, Kreativität und Produktivität zu unterdrücken.

Ein Teil des Genies von GM für so viele Jahre war wirklich eine kollektive Organisation von Mini-Brain-Trusts und Ideen und Energie strömten von unten nach oben. Davon zeugen Dinge wie die Entstehung des Turbo Buick V6 aus einem Pfadfinderprojekt. Das wäre nach den 1980er Jahren fast unmöglich gewesen. Es gab einfach nicht diesen Kommunikationsfluss. Smith kam aus einem nicht-operativen Hintergrund und fühlte sich nicht mit der Ingenieurscrew verbunden, die tatsächlich alles herstellte, was wir verkauften. Er hatte zu keiner von ihnen eine persönliche Affinität und kannte zu seiner Zeit als CEO oft nicht einmal alle außer den ranghöchsten Mitarbeitern der Divisionen. So fühlte er sich unbelastet, verschiedene Projekte nach seinem Geschmack ohne Schuldgefühle in Angriff zu nehmen.

Bill Mitchell ging 1977 in den Ruhestand. Mitchell übte Einfluss auf die Unternehmensführung aus, anders als zuvor oder danach. So ziemlich alles, was Mitchell wollte, er bekam. Es sei denn, es wurde von der Regierung beauftragt, sagte niemand Mitchell, was er tun sollte. Leider hatte Irv Rybicki, der Mitchell ersetzte, weder die Wirbelsäule noch den Einfluss, den Mitchell hatte. Als Rybicki 1986 in den Ruhestand ging, entwarf er im Grunde genommen Autos, die er entwerfen sollte und nicht umgekehrt.

Als Chuck Jordan die Designherrschaft übernahm, waren die Dinge bereits zu weit fortgeschritten, um sie konkret korrigieren zu können, aber wenn Jordan Mitchell gefolgt wäre, hätte ich persönlich das Gefühl, dass die Dinge viel besser gewesen wären. Jordan war ein echter Fan von Cadillac und sein Einfluss war am stärksten bei den 1992er E/K-Designs zu spüren, die weithin als schick angesehen werden. Jordan war auch einflussreich, um das Management davon zu überzeugen, wieder mit der Aufrüstung von Autos zu beginnen, und war maßgeblich dafür verantwortlich, warum Autos von 1988 an wuchsen. Natürlich steht Mitchell bei GM im Automobil-Styling an zweiter Stelle nach Jesus Christus, aber Jordan hatte nur noch ein Gespür für Präsenz. Der derzeitige GM-Designchef Ed Welburn ist selbst sehr talentiert, aber Jordan war der letzte der alten Jungs mit dem kritischen Blick.

Nach der OPEC, mit dem Aufkommen von CAFE und sich änderndem Kundengeschmack, wurde 1975 innerhalb von GM auf Unternehmensebene die Entscheidung getroffen, Vollgas in den FWD zu gehen und die Raumeffizienz zu maximieren. Man glaubte zu Recht, dass die Zeiten, wie wir sie kannten, vorbei waren. Die Paradigmen, die das Automobildesign und die Entwicklung des ersten Oldsmobile antrieben, galten nicht mehr. Bis in die späten 1960er-Jahre bauten die Autohersteller, was sie wollten, völlig unbelastet von allem, sei es durch staatliche Regulierungen bis hin zu Weltereignissen. Europa und Japan gruben noch immer aus der Asche des Zweiten Weltkriegs. In Detroit gebaute Autos repräsentierten alles, was wir über die Vereinigten Staaten dachten.

Ich erinnere mich, dass ich in einem Auditorium bei GMI saß, als ein GM-Manager eine Rede hielt, in der er uns die Tugenden von GM rühmte und wie es zum Rest des Landes passt. Sie wissen, „was gut für GM ist, ist gut für die USA usw..“ Das Auto war der ultimative Ausdruck der Freiheit, die dieses Land aufgebaut hat. Manifestieren Sie das Schicksal, leben Sie frei oder sterben Sie, und die Macht des Einzelnen. Sowjetbürger fuhren Ladas und Ostdeutsche fuhren Trabants. Wir fuhren Autos, die die industrielle Macht des Landes repräsentierten, und sie wurden entsprechend gestylt.

Dann hat sich alles geändert.Ein Haufen kleiner Männer, gekleidet in weißen Hemden mit dünnen schwarzen Krawatten und Colaflaschengläsern, kamen herein und sagten uns, es sei alles ein Traum. Nun, nicht wirklich, aber es fühlte sich so an. Plötzlich hatten uns Versicherungsgesellschaften im Nacken, die EPA suchte nach Ärger, die NTHSA sagte uns, dass die Leute verrückt seien, und die OPEC sagte uns, dass seltsam klingende Männer mit permanenter Bräune in Bademänteln uns zeigten, dass sie mehr Kontrolle über unser Verhalten hatten als unsere eigene gewählte Regierung. Es war nach einer Weile sehr surreal.

Nach 1978 schien alles ein riesiges Gerangel zu sein, wenn es nicht CAFE, Cashflow oder etwas anderes war. Nichts fühlte sich an, als würde es ungehindert vom Gehirn in die Garage fließen. Alles fühlte sich wie ein Kompromiss an. Erfolg fühlte sich an, als hätte man so viel wie möglich erreicht. Alles war ein Was-wäre-wenn… Die Tage, in denen Bill Mitchell Autos aus Träumen von Autos baute, die in England aus den Wolken kamen, waren vorbei.

Angesichts all dieser Faktoren wurde auf Unternehmensebene die Entscheidung getroffen, die Ausrichtung des Unternehmens in Richtung FWD und Flächeneffizienz einzuschlagen. Die zweite Ölkrise (1980) und die beiden folgenden Jahre mit unsicheren Energiepreisen und Inflation haben dies nur bestätigt. Zuerst kamen die X-Autos (Citation, etc.). Dann kamen die Autos von J & A, und der Rest folgte, wie wir sie kennen. Es war eine totale Verpflichtung, nicht nur auf Modellebene, sondern unternehmensweit. RWD war weg, fertig, fertig für alle außer den spezialisiertesten Pkw-Modellen wie der Corvette.

Wenn alles nach Plan verlaufen wäre, hätte es bis MJ 1985 KEINE RWD-Autos gegeben, mit Ausnahme einiger weniger. Es war ein in der Automobilwelt noch nie dagewesener Paradigmenwechsel, der hinter der Erfindung des Selbstanlassers und des Automatikgetriebes wahrscheinlich an dritter Stelle in Bezug auf die veränderte Wahrnehmung eines Autos steht. Ja, der Markt hatte den VW Rabbit, der klein, effizient und FWD mit einem quer eingebauten Vierzylindermotor war, aber der Rabbit war ein Nischenfahrzeug. Es wurde von Leuten gekauft, die ein kleines Auto brauchten, und VW produzierte damals nichts, was zum Mittelpunkt der Käuferschaft, dem großen RWD-Auto, passte.

So sehr wir die Citation verunglimpfen, als sie herauskam, änderte sie wirklich das Denken von Detroit und der US-Käuferöffentlichkeit. Vor allem im Laufe der Zeit mit der Veröffentlichung der J- und A-Karosserieautos wusste jeder, wohin der Markt ging. Chrysler kam mit den K-Autos heraus. Hätte GM beschlossen, kleinere RWD-Autos mit Längsmotoren zu bauen, wäre es sehr wahrscheinlich, dass FWD-Querautos im Bereich der Importe geblieben wären und/oder nur kleinere Autos. Die Auswirkungen zu unterschätzen, würde dem grundlegenden Wandel nicht gerecht, der sowohl die Designkultur in Detroit als auch in den Köpfen der amerikanischen Käuferschaft beeinflusst hat. Man muss sich Chevette und Vega nur als ultrakleine Autos mit ultrakonventionellem Design vorstellen. Während all diese „Todsünden“ der 1980er Jahre GM-Händler gekostet haben mögen, hat ihr Einfluss Raumeffizienz als Maßstab für das Autodesign hervorgebracht, der uns bis heute geblieben ist.

Der Dreh- und Angelpunkt des Einflusses bei GM verlagerte sich unter Roger Smith von den Divisionen auf die Führungsebene. Das spiegelte nicht mehr die unglückselige Reorganisation von 1984 wider, die die Autonomie der Unternehmen weitgehend zerstörte. Ich nehme an, aus geschäftlicher Sicht würde das alte Modell nicht ewig halten. Wie wir bei der Motorenmischung in den 1970er Jahren gesehen haben, war eine vollständige vertikale Integration der Geschäftsbereiche angesichts der anhaltenden Eskalation der Warenkosten, der Regulierung und der Kosten im Zusammenhang mit dem Unternehmensplan, zu FWD zu wechseln, nicht mehr rentabel.

Früher waren Autos einfach, sie waren RWD, meist gerahmte Fahrzeuge, V8s, Vergaser und groß. Der größte Teil des Budgets in der Autoentwicklung floss in das Styling. Motoren entwickelten sich schrittweise, Karosserien konnten mit einem Karosserie-auf-Rahmen-Design relativ einfach und mit weniger Aufwand geändert werden. Alles war schön eingerichtet. Selbst mit identischen Rahmen und Unterkonstruktionen können Sie einem Auto relativ einfach ein völlig anderes Aussehen und Gefühl geben. GM war der Meister darin. Mit FWD und Unibody war das nicht mehr möglich, mindestens so einfach und kostengünstig wie früher.

FWD kostet Geld, viel Geld. Unibody-Designs kosten mehr Geld, weil sie als Paket konzipiert werden müssen und nicht nur als Karosserie, die auf einen vorhandenen Rahmen aufgesetzt werden kann. Und sie können nicht einfach anders gemacht werden. Daher alle Keksausstecher-Autos der 1980er Jahre. Leider bauten die anderen Autohersteller, insbesondere die Importe, nur eine Art von Auto, also gab es nichts Vergleichbares, bis die Japaner mit ihren Premium-Marken herauskamen und viele dieser Modelle anfingen, viel mehr Abzeichen entwickelt zu sehen und zu fühlen ( wenn auch zugegebenermaßen nicht auf dem Niveau von GM-Fahrzeugen).

Wenn Sie also fünf Divisionen haben, die jetzt FWD-Autos ähnlicher Größe auf Unibody-Designs bauen müssen, gehen Sie von Plattformen, die zuvor leicht an die Styling-Themen und Kundenmerkmale der einzelnen Divisionen angepasst werden konnten, zu Plattformen, die praktisch unmöglich waren anders zu machen. Es war eine schlimme Situation, die nicht einfach behoben werden konnte. Glauben Sie mir, diese Idee ging auf Divisionsebene bei NO ONE verloren und es schmerzte viele Leute. Aber wenn ein Unternehmen eine unternehmerische Entscheidung trifft, das Unternehmen in eine Richtung zu lenken, und investiert, was dem BIP von wahrscheinlich mehreren Staaten entspricht, kann die Richtung nicht einfach geändert werden. Angesichts der Vorhersagen steigender Gaspreise und anhaltender Regulierungen war FWD hier, um zu bleiben, und wir mussten das Beste daraus machen.

Angesichts der Tatsache, dass GM mit ganzem Herzen in das FWD-Programm eingestiegen ist, änderte sich nicht nur die grundlegende Karosseriestruktur, sondern alles andere änderte sich damit. Die X-Autos waren eines der ersten Fahrzeuge auf dem Massenmarkt, die serienmäßig über eine Kraftstoffeinspritzung verfügten. Echte Kraftstoffeinspritzung, wie sie Autos in die Neuzeit brachte und bis weit in die 1990er Jahre dauerte. Das war ein weiterer unglaublicher Paradigmenwechsel. Natürlich war der Sevilla das erste große GM-Modell mit einem modernen EFI-System, aber es war ein Nischenmodell und wurde nur von Cadillac-Händlern gehandhabt, die ausgewähltes Personal für die Wartung ausbilden konnten. Und dieses EFI-System hat sich stark an bestehenden europäischen Systemen angelehnt.

Das GM TBI-System, das 1980 debütierte, setzte den Standard für einfache, aber hocheffiziente Drosselklappen-Kraftstoffeinspritzsysteme in der Produktion. Obwohl es im Laufe der Jahre viele technische Fehler gab, gehörte dieses TBI-System nicht dazu und wurde zusammen mit dem später entwickelten SFI, das 1984 in Turbo-Buicks herauskam, zu einem äußerst zuverlässigen, grundsoliden Design, das erneut den Standard für die Kraftstoffkontrolle in der Industrie. Bis zur jüngsten Einführung von Direkteinspritzsystemen waren Kraftstoffeinspritzsysteme größtenteils Kopien des ursprünglichen Systems, das in den Regals von 1984 debütierte.

All dies geschah in einem noch nie dagewesenen Ausmaß. Das nächste, was einer kompletten Überarbeitung am nächsten kam, war der Toronado von 1966, und das war gerechtfertigt, weil er an Oldsmobile und schließlich an Cadillac und Buick verkauft wurde, weil es sich um Premium-Autos handelte. Jetzt bauten wir billige Alltagsautos für die Massen, die Bewegungsentwicklung in sich hatten, die für die Entwicklung der Atombombe des Zweiten Weltkriegs aufgewendet worden war. Wenn Sie alle ausgegebenen Gelder vom ersten Dollar, der für die Citation ausgegeben wurde, bis zum letzten von RWD in FWD umgerechneten Auto addieren und in 2013-Dollar umrechnen, könnten Sie den Bundeshaushalt fast ausgleichen. Im Ernst. Es war auf diesem Niveau. Es war überwältigend. Es war nichts, was man sich hätte träumen oder vorstellen können, als sie die Ingenieurschule besuchten.

Als wir mit dem College anfingen, erwarteten wir alle, für immer Variationen der RWD-Karosserie an Rahmenautos zu bauen. Solche, die so gestylt waren, wie jede Division sie haben wollte. Einige Autos wie der Vette und der Toronado waren anders, aber sie waren Fahrzeuge mit geringem Volumen und hatten engagierte Mitarbeiter. Ich wusste nicht, dass wir zu der Zeit, als ich nach 41 Jahren effektiv in den Ruhestand ging, massiv computergesteuerte FWD-Fahrzeuge mit weltraumgealterten Materialien fahren würden, die uns vor allen außer den schlimmsten Situationen schützen könnten.

Und das war wirklich der Grund für all die Misserfolge. Einige von ihnen, wie der V864, waren Lückenbüßer, die eindeutig als Brücke zwischen Alt und Neu eingeführt wurden. Andere wie der HT4100, ein Motor, der sich am Ende als recht solide herausstellte, aber aufgrund von Zeit und Umständen schnell in Produktion ging. In gewisser Weise war es, als würde man für den Krieg mobilisieren. Die Änderungen betrafen alles. Von 1975 bis 1985 war fast nichts wie zuvor. Ich bin mir nicht sicher, ob sich innerhalb von zehn Jahren ein einziges Automobilunternehmen auf der Erde so verändert hat. Vielleicht die Unternehmen des Sowjetblocks, aber ich denke, wir könnten es auf Länder des freien Marktes beschränken.

Wann immer Sie auf dieser Ebene so massive Veränderungen vornehmen, mit einem so großen Unternehmen mit einem so großen Einfluss in der Branche, werden Fehler passieren. Das entbindet niemanden von den Effekten, aber es wäre schwer vorstellbar gewesen, wie es hätte perfektioniert werden können, da so viel los war, dass wir alle Hände voll zu tun hatten, alles in Bewegung zu halten.

Die Leute fragen sich also, wie haben Honda oder Mercedes es geschafft, in dieser Zeit zusammenzuhalten und zu wachsen? Nun, ganz einfach, sie waren viel kleiner, bauten weniger Produkte und waren weitgehend unbeeinflusst von den Kräften, die insbesondere die Big Three und GM beeinflussten. Toyota baute nichts von besonderer Größe, außer der Cressida, die nur ein kleiner Player auf dem Markt war. Honda verkaufte nur Accords, Civics und Preludes, von denen drei kleine Fahrzeuge waren, die von CAFE nicht betroffen waren. Sie konnten ihre Energie in aller Ruhe und ohne radikale Veränderungen in die Weiterentwicklung ihrer Fahrzeuge investieren.

Als Benzin knapp war und der Kraftstoffverbrauch von größter Bedeutung war, kauften die Leute viele kleine importierte Autos und viele kleine inländische Autos. Als diese Bedenken jedoch nachließen, sahen wir, dass die Käufer zu traditionelleren Kaufmustern zurückkehrten, wenn auch nur für kurze Zeit. In den 1990er Jahren hatten wir eine längere Blütezeit und niedrige relative Benzinpreise, die zu dieser Zeit bereits vollständig überarbeitete und viel kleinere Pkw-Fahrzeuge trieben, die den Verkauf von SUVs ankurbelten, die die geistigen Nachfolger des traditionellen amerikanischen Autodesigns waren. Das Benzin stieg wieder an und die Leute kauften wieder kleiner und der Zyklus hat das Jo-Jo seit einiger Zeit so gemacht.

Zumindest für die japanischen Autohersteller, die nur Kleinwagen bauen, gingen sie, als sich die Dinge an der Energiefront zu ändern begannen, in gewisser Weise nicht auf den Markt, sondern der Markt kam zu ihnen. Sie waren einfach zufällig da, wie der Mustang II im Jahr 1974, der ohne wirkliche Rücksicht auf die OPEC entworfen wurde, aber zufällig etwas war, das im Moment so richtig schien. Und es verkaufte sich, zum Teil, weil es handlicher war als die neueren Mustangs, aber oft, weil es einfach viel effizienter war. Genau wie beim Vega war MY1974 trotz der Schwierigkeiten der ersten Jahre ein Paradejahr, weil es ein kleines, effizientes Auto war, als die Welten der Menschen auf den Kopf gestellt wurden.

In den 1980er Jahren war die größte Sünde für Roger Smith das Geld, das für fremde Projekte ausgegeben wurde, die nichts mit Autodesign und -bau zu tun hatten. Dinge wie EDS, Hughes Electronics und der Kauf von Robotern, um Umschläge zu lecken, wenn Geld für die Veredelung von Produkten hätte ausgegeben werden können. Es fühlte sich an wie die Bundesregierung, Milliarden von Dollar flogen überall hin, aber niemand wusste wirklich, wohin es ging. 1965 wurde jeder Dollar dafür verwendet, Autos in die Garagen der Leute zu stellen. Ja, Frigidaire baute Kühlschränke und Geräte, aber zum Teil, weil sie auch Klimaanlagen für Autos herstellten und diese Produktlinien profitabel waren und die Unternehmensressourcen nicht belasteten. Ich wusste bis vor etwa acht Jahren nicht, dass eine Abteilung von Hughes Electronics DIRECTV entwickelt und eingeführt hat, ja DAS DirecTV, das mit DishNetwork und TimeWarner um unser Fernsehen konkurriert. Also alle GM-Hasser mit DirecTV, wechselt besser schnell! Nun, eigentlich müssen Sie das nicht, da es sich um ein vollständig separates Unternehmen handelt (seit 2003 abgespalten), aber nur damit Sie es wissen…

Als Roger Smith 1990 in den Ruhestand ging und Bob Stempel das Ruder übernahm, war alles durcheinander. Bob hätte Pete Estes 1981 ersetzen sollen, aber zu diesem Zeitpunkt war er noch nicht in der Nahrungskette, aber wie Pete war er ein Operations-Typ. Er wusste, wie man Dinge erledigt. Er hätte den Drang zum FWD nicht umkehren können, aber er hätte nicht das Geld ausgegeben, das Roger Smith für alles getan hat, und hätte diese Autos möglicherweise zu den besten Fahrzeugen gemacht, die je produziert wurden, oder zumindest viel besser als sie waren. Als er die Schlüssel bekam, war er gelähmt. Die Firma verlor Geld, nichts verkaufte sich, und er verbrachte die meiste Zeit damit, das Schiff wieder in Ordnung zu bringen. Unglücklicherweise war er für einen Großteil der 1980er Jahre außer Landes und leitete Opel (das damals Geld verdiente, nicht wie heute, wo es stirbt) und hatte keinen Einfluss auf die nordamerikanischen Geschäfte. Aber Stempel war ein Autotyp und hätte es gut gemacht, wenn er die Mittel dazu gehabt hätte.

Um dies mit etwas zu verbinden, das Paul vielleicht schätzen würde, gab es 2007 einen Artikel bei TTAC:

Während der Großteil der (ersten) Geschichte verschiedene Leiden des Besitzers und anderer dokumentiert, weist er meiner Meinung nach zu Recht auf das X-Auto als den Anfang vom Ende hin. Tatsächlich war dieses Datum der 21. Juni 1975, als das Exekutivkomitee die gesamte FWD X-Plattform zunächst genehmigte, aber das ist diskret.

Es ist schwer zu sagen, ob es die Entscheidung für FWD war, die den Niedergang selbst auslöste, oder die Übel, die das Auto als Produkt erlitt. Weil wir zu der ursprünglichen Prämisse zurückkehren müssen, was GM zu dem gemacht hat, was es war und was es großartig gemacht hat. All das änderte sich mit der Entscheidung für FWD Unibody. Die Leute kauften GM-Autos, weil jede Division etwas Einzigartiges herstellte und nicht nur einzigartig war, sondern zumindest in Bezug auf Importe die einzige Konkurrenz innerhalb der Großen Drei war.

Vor der OPEC hat sich niemand wirklich um importierte Fahrzeuge gekümmert, außer an den Rändern. Mercedes sparte an Luxusverkäufen, aber wenn sie nicht mit dem Bau von Fahrzeugen für den Massenmarkt begonnen hätten, wären sie auf einen kleinen Teil dieses Marktes beschränkt gewesen. Genau wie VW und die anderen Europäer, die kleine, skurrile Fahrzeuge gebaut haben, die auf Nischensegmente der Bevölkerung ausgerichtet waren, die spezielle Bedürfnisse hatten oder einfach nur seltsam genug waren, um 55 PS starke VW-Busse zu fahren, die schnell nirgendwohin fuhren. Wenn die OPEC nicht passiert wäre, wäre eines von zwei Dingen passiert: Die Importe wären an beiden Enden der Extreme geblieben oder sie wären gezwungen gewesen, größere Produkte einzuführen, die viel mehr wie altmodische amerikanische Autos ausgesehen hätten als was sie gerade bauen. So sehr wir darüber sprechen, wie sehr OPEC und CAFE die Großen Drei beeinflusst haben, nur um den Anwalt des Teufels zu spielen, habe ich oft darüber nachgedacht, was passiert wäre, wenn die Regierung umgekehrt ein Gesetz verabschiedet hätte, das Autos mit einer Mindestgröße vorschreibt. GM hätte die Vega gerne fallen gelassen und in Tokio hätte Chaos geherrscht. Nicht unähnlich, wie es so lange in Detroit regierte.

Also die Moral von all diesen vielen Dingen, wir könnten argumentieren, dass Roger Smith Geld verschwendet hat, das für Produkte hätte ausgegeben werden können, wir könnten die OPEC für die Zerstörung des US-Geschäftsmodells verantwortlich machen, die UAW dafür verantwortlich machen, dass sie den maximalen Nutzen herausgezogen hat, Schuld an Unternehmensentscheidungen, FWD zu gehen. Es ist unmöglich, das wirklich konstruktiv zu tun. Es war einfach so groß. Es war so viel los. Die wahre Todsünde war, dass alles einfach überwältigend war. Fast wie eine Drogensucht.

Als der Ball 1975 wieder ins Rollen kam, explodierte er in diese enorme Menge an Veränderungen, die in der Geschichte beispiellos waren. Es geriet außer Kontrolle, und leider wahrscheinlich so weit, dass niemand hätte aufhören können. Wenn Sie ein Unternehmen von der Größe haben, die GM einst hatte, das größer war als wahrscheinlich die Hälfte der Länder in den Vereinten Nationen, war das wie eine Kernspaltung. Wenn die Reaktionen beginnen, sind sie schwer zu kontrollieren. Es war wie die Kernschmelze in Tschernobyl.

Während ich also auf die über 40 Jahre meines Lebens zurückblicke und an all dies und die Geschichte und meinen Platz darin denke, was hätte man anders machen können, was hätte ich anders machen können, habe ich am Ende wirklich nicht irgendwelche Antworten. Es wäre so gewesen, als würde man versuchen herauszufinden, wie man die Welt während des Zweiten Weltkriegs regiert. Ich nehme an, am Ende musste alles weg. Die Zeiten vertikal integrierter Großkonzerne mit dominierenden Marktanteilen sind vorbei. Einige werden für kurze Zeit dominieren, normalerweise wenn ein neues Produkt eingeführt wird, aber die Zeiten von GM, AT&T, IBM, Kodak und RCA sind vorbei. Weg, fertig. Globalisierung, Technologie, Kommunikation, was auch immer die Faktoren sind, werden solche Dinge nie wieder zulassen.

Aber es war eine Fahrt, eine lustige Fahrt, eine Fahrt, von der ich nie geträumt hätte, dass sie so werden würde, aber bei aller Bitterkeit, die ich über alles haben könnte, hätte ich es wahrscheinlich nicht anders gehabt.

270 Kommentare

Es gab zu viele sich überschneidende Marken (oder genauer gesagt zu viele Vertriebskanäle). Das förderte eine Kultur der Badge-Engineering und Kannibalisierung, die den Wert der einzelnen Marken untergrub und notwendigerweise verzweifelter wurde, als das Unternehmen begann, Marktanteile zu verlieren.

GM und Detroit waren im Allgemeinen erbärmlich unvorbereitet auf die OPEC-Krise, die ausländischen Konkurrenten eine Absatzmöglichkeit bot.

Und die Japaner schlagen ihnen mit Total Quality Management und Lean Production die Hosen aus. Die Verbraucher begannen zu erkennen, dass die Verarbeitungsqualität und die Technik einfach nicht so gut waren.

Ford erfand die automobile Massenproduktion und GM hatte die Idee des Wettbewerbs basierend auf Branding, Styling und Funktionen erfunden. GM erwartete nicht, dass sich dieses Geschäftsmodell weiter entwickeln würde als dort, wo sie es eingeschlagen hatten, und war nicht bereit zu akzeptieren, dass einige Ausländer im Spiel besser sein könnten als sie. Die größten Altlasten waren Hybris, die diese Unfähigkeit, sich an Veränderungen anzupassen, begünstigte.

Dies ist ein herausragender Artikel!
Curbside wird zum Ort des Seins!

Über einen Zeitraum von einem Jahrzehnt ging GM von der Herstellung von Autos, die die Amerikaner glücklich machten, zu Autos über, die dies nicht taten. Irgendwie entschied die größte Autofirma in den USA, dass die Zukunft weg war – und stattdessen ging ihr Hersteller weg. Irgendwie sah der größte Autokonzern der USA nicht die Möglichkeit, sowohl thisaway als auch thataway in seinem Produktportfolio zu haben.

Niemand verlangte, dass GM die Autos fallen ließ, die Amerikaner gerne fuhren. Niemand sagte GM, dass sie keinen Heckantrieb mehr wollten, Karosserie auf Rahmen, Automobil. GM beschloss, die Autos, die Amerikaner gerne fuhren, nicht mehr herzustellen. GM hat sich der Überzeugung verschrieben, dass die Zukunft der Automobile nicht die Automobile sind, die sie zum größten Autokonzern der Welt gemacht haben. Es war, als ob das New Coke-Phänomen GM infiltriert hätte.

GM war monolithisch und denkt immer noch monolithisch. Es war so eng verbunden, dass GM unabhängig von der Marke und dem Markt der Marke entschied, dass die Einheitsgröße für alle Frontantriebs-Unibody-Autos der Zukunft für jede Marke und jeden Markt passen würde.Was also in diesem wunderbaren Artikel beschrieben wird, war SELBST VERURTEILT. OPEC hat es nicht getan. Die Technologie hat es nicht getan. Labour hat es nicht getan. Denn wenn dies wirklich der Grund dafür war, warum produziert GM dann nicht mehr die gleichen ausstechenden Fronttreiber? es ist 2013 und es gibt mehr Vielfalt an Antriebssträngen und Herstellungsmethoden als 1985. Die Probleme von GM wurden selbst verursacht und nicht aufgezwungen.

GM beschloss, sich auf eine Weise neu zu erfinden, die nur ein monolithischer, kopflastiger Konzern mit Fellbindung – und sprengte. GM verschwendete Milliarden von Dollar, um sich neu zu erfinden, ohne dass sie dazu gezwungen wurden. H. Ross Perot erwähnte genau, dass GM Toyota hätte KAUFEN können für das, was sie während der Roger-Smith-Jahre verschwendet haben. Die Männer an der Spitze der Organisation konnten jedoch nicht verstehen, wie man eine so große Organisation wie GM dazu bringt, einen 180-Grad-Backflip zu machen, selbst wenn es nicht notwendig war.

Die neuen Autos von GM saugten wie ein F5-Tornado in einem Schwarzen Loch. Was wir in einem GM-Auto wollten, wurde nicht mehr hergestellt. Sie wollten eine Park Avenue mit Heckantrieb? Tough – Sie haben einen Front Driver, der selbst mit getuftetem Crush-Velours kein Park Avenue sein konnte.

Wir wollten echte GM-Autos. GM sagte uns, dass ihre kraptastic Frontantrieb-Unibody-Pseudomobile besser waren. Wir wussten, was sie wussten, als sie dies sagten – diese Autos waren keine echten GM-Autos.

Als uns die vorderen Fahrer nicht das gaben, was wir in einem GM-Auto wollten, verließen wir GM.


1990er Jahre

In den 1990er Jahren griff Australien routinemäßig auf Fernerkundungsdaten der US-amerikanischen Landsat- und NOAA-Satelliten, der französischen SPOT-Satelliten, des europäischen ERS-1-Radarsatelliten und des japanischen geostationären Meteorologischen Satelliten (GMS) zu. Australien wurde inzwischen international als hochprofessioneller Anbieter von Bodenunterstützung und als innovativer und effektiver Nutzer von Daten anderer Länder, insbesondere bei der Analyse und Verarbeitung von Rohdaten, anerkannt.

Die ESA-Raumsonde Ulysses wurde im Oktober 1990 zu einer Mission gestartet, um die Pole der Sonne genauer zu untersuchen. Dazu flog es zunächst zum Jupiter und schwenkte dann aus der Ekliptik wieder nach Süden, um den Südpol der Sonne zu überfliegen. Während dieser Zeit hatte Tidbinbilla einen exklusiven Blick auf das Raumschiff, als die ersten Details auftauchten. Die Raumsonde hielt mehr als 12 Jahre.

Das Australian Space Research Institute (ASRI) entstand Anfang der 1990er Jahre aus dem Zusammenschluss der AUSROC Launch Vehicle Development Group der Monash University in Melbourne und der Australian Space Engineering Research Association (ASERA). Sie begannen mit der Antriebsentwicklung, waren zertifizierte Sicherheitsbeauftragte und Startoffiziere für Höhenforschungsraketen, übernahmen eine große Menge Zuni-Raketen und boten sie als Startgelegenheiten für Nutzlasten an, führten zweimal im Jahr Startkampagnen in Woomera durch bis 2010, als die ADF die nichtmilitärische Nutzung von Woomera im Wesentlichen verboten. Dank ASRI und den Zunis wurden viele Universitätsarbeiten abgeschlossen, darunter auch die studentischen Überschallprojekte in Queensland.

Nach zufälligen Treffpunkten als eher ein Weltraumclub veranstaltete die National Space Society of Australia 1990 in Sydney die erste australische Weltraumentwicklungskonferenz mit finanzieller Unterstützung von GIO Reinsurance, OTC Australia, Baker & McKenzie, dem Nachfolger der Cape York Space Agency, The Essington Group, Australian Airlines und American Airlines sowie das Australian Space Office.

ASRI veranstaltete 1991 seine erste nationale Weltraumkonferenz und bis 2009 insgesamt 19 Konferenzen pro Jahr.

Die Raumsonde Magellan Mission to Venus trat im August 1990 in die Umlaufbahn ein und kartierte dann bis 1994 die Oberfläche der Venus in noch nie dagewesenen Details. Tidbinbilla unterstützte die Mission.

CSIRO und die australische Industrie lieferten einige Konstruktions- und Komponentenkonstruktionsbeiträge zu den Instrumenten des Along Track Scanning Radiometer (ATSR)-1 und -2 und des Instruments Advanced ATSR (AATSR). Die Instrumente der ATSR-Serie wurden gemeinsam von der britischen und der australischen Regierung finanziert und an Bord der Satelliten ERS-1 (ATSR-1, Start 1991) und -2 (ATSR-2, Start 1995) der Europäischen Weltraumorganisation ESA geflogen. Das Advanced ATSR-Instrument wurde 2002 an Bord des ESA-Satelliten ENVISAT gestartet und funktionierte bis 2012.

Optus erwarb AUSSAT und seine Satelliten, als es im Januar 1992 Australiens neuer Telekommunikationsträger wurde. Der Kommunikationssatellit Optus B1 wurde 1992 in die Umlaufbahn gebracht.

Die Essington Group (gegründet, um die Cape York Space Agency zu ersetzen) wurde 1992 eingestellt und an ihre Stelle trat das 1992 gegründete Space Transportation System (STS). STS plante, in Zusammenarbeit mit Russland Proton-Ks von Darwin und Melville Island aus zu starten.

Ein Abkommen zwischen Australien und den Vereinigten Staaten über die Durchführung von wissenschaftlichen Ballonflügen zu zivilen Forschungszwecken wurde 1992 geschlossen.

Im selben Jahr beförderte ein NASA-Shuttle-Flug das australische Ultraviolett-Weltraumteleskop Endeavour in die Umlaufbahn.

Die 2. australische Weltraumentwicklungskonferenz wurde im Oktober 1992 in Sydney abgehalten und beinhaltete die Gründung der Australian Space Industry Chamber of Commerce (die in den 2010er Jahren zur Space Industry Association of Australia werden sollte).

Rocketplane Kistler wurde 1993 in Südaustralien als australisch-amerikanisches Joint Venture mit dem Ziel gegründet, ein zweistufiges RLV COTS-Programm zu starten. Es ging alles schrecklich schief und endete 2001 teuer, 2007 wurde es schließlich abgemeldet.

Die australische Regierung hat 1992 eine Expertengremiumsprüfung (die Curtis-Prüfung) des National Space Program in Auftrag gegeben Gesetz des australischen Weltraumrates 1994 verabschiedet wurde, wodurch ein Weltraumrat geschaffen wurde. Das Mandat des Rates bestand darin, über Angelegenheiten zu berichten, die die Anwendung weltraumbezogener Wissenschaft betreffen, und eine nationale Raumfahrtpolitik namens National Space Program zu empfehlen, um die Anwendung weltraumbezogener Wissenschaft und Technologie durch den öffentlichen und privaten Sektor in Australien zu fördern.

Die Lockridge Earth Station wurde 1993 gebaut und unterstützt weiterhin internationale und einige inländische Satellitendienste. Es ist immer noch 24 Stunden am Tag besetzt, in Anerkennung seiner Schlüsselrolle als Tracking-, Telemetrie- und Kontrolleinrichtung.

Die 3. australische Weltraumentwicklungskonferenz fand 1994 in Sydney statt und wurde vom damaligen australischen Raumfahrtbüro genutzt, um seinen Fünfjahresplan für die australische Raumfahrtindustrie vorzustellen.

Das DCG von UniSA wurde 1994 zum Institute for Telecommunications Research (ITR) entwickelt. Das ITR ist die größte universitäre Forschungsorganisation im Bereich der drahtlosen Kommunikation in Australien und forscht in vier Hauptbereichen: Satellitenkommunikation, Hochgeschwindigkeitsdatenkommunikation , flexible Funkgeräte und Netzwerke sowie computergestützte und theoretische Neurowissenschaften. Sie entwickelten Satelliten-Bodenstationsmodems, die in ACRES und kommerziellen Bodenstationen verwendet werden. ITR betreibt auch die ASTRA- und S-Band-Antennen, die von der ESA für ATV-Missionen zur ISS und die ersten Dragon-Missionen von SpaceX verwendet werden.

1994 wurde der Kommunikationssatellit Optus B3 in die Umlaufbahn gebracht, um den ausgefallenen Optus B2-Satelliten zu ersetzen, der aufgrund eines Ausfalls der Trägerrakete nie die Umlaufbahn erreichte. Es befindet sich im Orbitalschlitz von 164°E in einer geneigten Umlaufbahn mit einer Grundfläche, die Australien und Neuseeland abdeckt. Optus B3 trägt 16 Transponder, von denen 15 im Ku-Band und die restlichen im L-Band mit Ku-Band-Feederlinks arbeiten.

1995 trat die Galileo-Sonde in die Atmosphäre des Jupiter ein. CDSCC war die wichtigste Ortungs- und Kommunikationsstation für diese Mission. Die Sonde ergab, dass die chemische Zusammensetzung und Struktur der Atmosphäre nicht den Erwartungen entsprach.

John Douglas sah eine Nische in der Satellitendatenverteilung und gründete 1995 die äußerst erfolgreiche Apogee Imaging International, ein in Adelaide ansässiges Remote Sensing Company. Er bereiste die Welt und leitete in den folgenden 15 Jahren Projekte in Afrika, Asien und Australien.

Die Oxford Falls Earth Station wurde 1995 gegründet. Die Einrichtung ist Optus's internationales Gateway für Sprach-, Daten- und Videodienste von internationalen Nachrichtensammlern und bietet internationale Kommunikation für wichtige australische Regierungsbehörden und Pay-TV-Anbieter.

Die Regierung schaffte das Australian Space Office und den Australian Space Council ab und beendete 1996 die Finanzierung des National Space Program. Mehrere Schlüsselpersonen versuchten, es in das Australian Space Agency Office umzuwandeln, aber dies stieß auf taube Ohren.

Zusammen mit ASICC forderte die NSSA die Einrichtung einer Australian National Space Agency (ANSA) und veröffentlichte durch die Bemühungen von Philip Young das Weißbuch “Space Australia” an die Regierung. Aus diesen Petitionen ist nichts geworden.

Der in Australien geborene Astronaut Dr. Andy Thomas AO flog im selben Jahr mit der Endeavour seinen ersten Flug ins All.

1996 war CSIRO im Namen Australiens Vorsitzender des internationalen kooperativen Erdbeobachtungsgremiums Committee on Earth Observation Satellites (CEOS).

Der Satellit des Western Pacific Laser Tracking Network, WESTPAC, im Besitz von Electro Optics Systems Pty Ltd mit Sitz in Canberra, wurde 1998 gestartet.

Das Kooperative Forschungszentrum für Satellitensysteme wurde 1998 gegründet, um Anwendungen von Kleinsatelliten für Australien zu untersuchen.

1998 war Melbourne Gastgeber des 49. Internationalen Astronautischen Kongresses – das erste Mal, dass diese jährliche globale Veranstaltung in Australien stattfand.

Die 5. australische Weltraumentwicklungskonferenz wurde im Juli 1998 in Sydney abgehalten und die Melbourne Space Frontier Society erlebte eine kurze Wiederbelebung. Eine Ablegergruppe veranstaltete außerdem einige Jahre lang Space Frontier-Konferenzen.

Spacelift Australia Ltd (SLA) wurde 1999 als australisch-russisches Joint Venture mit dem Ziel gegründet, 150 Arbeitsplätze und eine 200-Millionen-Dollar-Industrie in Woomera mit der START-1 LV und dem Umbau einer russischen Interkontinentalrakete zu schaffen. Es endete 2001.

United Launch Systems International (ULSI) hat ein Fahrzeug der neuen Generation, den Unity-22, für den LEO-Markt vorgeschlagen. Das ULSI-Konsortium bestand aus International Space Development of Bermuda mit 90 % der Anteile und Projects International Australia mit den restlichen 10 %. International Space Development war wiederum mehrheitlich im Besitz von Thai Satellite Telecommunications (TST). ULSI schlug vor, im Jahr 2002 Teststarts von einer neuen Strecke in der Nähe von Gladstone im Norden von Queensland, Australien, durchzuführen, wobei der kommerzielle Betrieb 2003 mit einer anfänglichen Rate von sechs Starts pro Jahr beginnen sollte. Nichts davon ist passiert.

Spacelift Australia beschaffte von einem russischen Investor fast 1 Million US-Dollar an Kapital und zielte auf das untere Ende des kommerziellen Startmarktes ab, um die russische SS-25-basierte Start-Rakete als Grundlage für einen schlüsselfertigen Gesamtservice von STC-Complex MIHT zu verwenden. Ab November 2000 plante Spacelift drei Demonstrationsflüge von Woomera aus und suchte aktiv nach Kunden und Vorauszahlungen und versprach volle kommerzielle Flüge ab 2001. Es verbrannte keinen Raketentreibstoff, aber es würde in den nächsten zwei Jahren viel Geld verbrennen.

1999 gab es in Australien fünf verschiedene Weltraumhafen-Konsortien, von denen vier auf russischer Hardware basierten und alle darauf abzielten, kommerzielle Startanlagen zu errichten.

Die Gesetz des australischen Weltraumrates 1994 wurde 1999 aufgehoben.

Die Joint Defense Facility Nurrungar (JDFN) in der Nähe von Woomera stellte den Betrieb ein und wurde stillgelegt. Die ADF nutzt die Site jetzt gelegentlich für Armeetest- und Evaluierungsarbeiten im Rahmen der Genehmigung der Woomera Test Range. Die ganze Anlage ist komplett leer und gestrippt – sogar Lichter und Netzstecker. Einer der riesigen "Golfbälle" bleibt als beeindruckende Radomstruktur intakt (nicht funktionsfähig, alle Mechanismen entfernt).


NTR Hot Fire Testing Teil I: Rover- und NERVA-Tests

Hallo und willkommen zurück bei Beyond NERVA, wo wir uns heute mit Bodentests von Atomraketen befassen. Dies ist der erste von zwei Beiträgen über Bodentests von NTRs, der sich auf die Testmethoden konzentriert, die während des Projekts ROVER verwendet wurden, einschließlich eines Blicks auf die Nullstromtests und Montagetests, die im Los Alamos Scientific Laboratory durchgeführt wurden, und die Heißfeuertests, die im Nationale Verteidigungsforschungsstation in Jackass Flats, Nevada. Der nächste Beitrag konzentriert sich auf die Optionen, die sowohl für Heißbrandtests der nächsten Generation von LEU NTP zur Verfügung stehen als auch in Betracht gezogen werden, sowie einen kurzen Blick auf die Kostenschätzungen für die verschiedenen Optionen und die Pläne, die die NASA für die Einrichtungen vorgeschlagen hat die zur Unterstützung dieses Programms benötigt werden (das wenige davon ist verfügbar).

Wir haben bereits untersucht, wie NTR-Brennelemente in Nonne-nuklearen Situationen getestet werden können, und haben uns zwei der Prüfstände angesehen, die entwickelt wurden, um thermische, chemische und Erosionseffekte an ihnen als Einzelkomponenten zu testen, den Compact Fuel Element Environment Simulator (CFEET ) und den nuklearen thermischen Raketenumgebungseffektsimulator (NTREES). Diese Prüfstände bieten eine wirtschaftliche Möglichkeit, Brennelemente zu testen, bevor sie in einen Kernreaktor für Neutronen- und Reaktorphysik-Verhaltenstests geladen werden, und können viele Probleme in Bezug auf chemische und strukturelle Probleme lösen, ohne sich um die Kopfschmerzen beim Testen eines Kernreaktors zu kümmern.

Wie Ihnen jedoch jeder Ingenieur sagen kann, reicht die Computermodellierung bei weitem nicht aus, um ein vollständiges System zu testen. Ohne umfangreiche Praxistests kann kein System in realen Situationen eingesetzt werden. Dies gilt insbesondere für etwas so Komplexes wie einen Kernreaktor – geschweige denn für ein Raketentriebwerk. NTRs haben die Herausforderung, beides zu sein.

Triebwerkswartungs- und Demontageanlage, Bild über Wikimedia Commons

In den Tagen von Project Rover wurden viele nukleare Antriebstests durchgeführt. Die bekanntesten davon waren die Tests, die in Jackass Flats, NV, im National Nuclear Test Site (jetzt National Criticality Experiment Research Center) bei Freilufttests an spezialisierten Eisenbahnwaggons durchgeführt wurden. Dies war weit entfernt von der überwiegenden Mehrheit der menschlichen Besiedlung (es gab eine kleine Ranch mit weniger als 100 Personen in Windrichtung der Anlage, aber in Windrichtung war das Testgelände für Atomwaffentests, sodass jeder Fallout einer Reaktorschmelze nicht als schwerwiegend angesehen wurde Anliegen).

Das Testprogramm am Standort Nevada begann mit der Ankunft der fertig gebauten und vorläufig getesteten Raketentriebwerke, die zusammen mit einem Kontingent von Wissenschaftlern, Ingenieuren und zusätzlichen Technikern per Bahn aus Los Alamos, NM, ankamen. Nach einer weiteren Überprüfung des Reaktors wurden sie (immer noch an dem maßgefertigten Eisenbahnwaggon, mit dem er geliefert wurde) an Instrumentierung und Wasserstofftreibstoff angeschlossen und durchliefen eine Reihe von Tests, die entweder bis zur vollen Leistung oder zum Motorausfall hochgefahren wurden . Die Entwicklung von Raketenmotoren konnte damals (und manchmal sogar heute) ein explosives Geschäft sein, und Wasserstoff war ein neuer Treibstoff, so dass Unfälle in den frühen Tagen von Rover leider häufig waren.

Nach dem Test wurden die Raketen auf eine abgelegene Strecke gefahren, um (aus Strahlensicht) eine Zeitlang abzukühlen, bevor sie in einer heißen Zelle (einer stark abgeschirmten Anlage mit Fernmanipulatoren zum Schutz der Ingenieure) und unter die Lupe genommen. Bei dieser Untersuchung wurde die Stromproduktion anhand der Spaltproduktverhältnisse des Brennstoffs überprüft, alle aufgetretenen stofflichen und mechanischen Ausfälle untersucht und detailliert und die Stilllegungs- und Entsorgungsverfahren des Reaktors eingeleitet.

Im Laufe der Zeit wurden nicht nur beim NTR-Design große Fortschritte gemacht, sondern auch in der Metallurgie, Reaktordynamik, Fluiddynamik, Werkstofftechnik, Fertigungstechnik, Kryotechnik und vielen anderen Bereichen. Diese Raketentriebwerke waren weit über dem neuesten Stand der Technik, sogar für die NASA und die AEC – zwei der wissenschaftlich fortschrittlichsten Organisationen der Welt zu diesem Zeitpunkt. Dies bedeutete leider auch, dass es schon früh zu vielen Ausfällen kam, aus Gründen, die entweder nicht sofort ersichtlich waren oder für die es keine Lösung gab, die auf den Designmöglichkeiten der Zeit beruhte. Sie blieben jedoch bestehen, und bis zum Ende des Rover-Programms im Jahr 1972 wurde eine nukleare Wärmerakete wiederholt erfolgreich in Flugkonfiguration getestet, die Brennelemente für die Rakete entwickelten sich sprunghaft über die erforderlichen Spezifikationen hinaus und mit der Fähigkeit, kostengünstig neue Versionen dieser Elemente in neuen, vielseitigen und wiederverwendbaren Testreaktoren zu iterieren und zu testen, waren die Verbesserungen noch lange nicht am Ende – sie beschleunigten sich.

Wie wir wissen, wurde das Rover-Programm jedoch abgebrochen, nachdem die NASA nicht mehr zum Mars flog, und das Entwicklungsprogramm wurde weitgehend verschrottet. Wissenschaftler und Ingenieure des Westinghouse Astronuclear Laboratory (der kommerzielle Auftragnehmer für das NERVA-Flugtriebwerk), des Oak Ridge National Laboratory (wo ein Großteil der Brennelementfertigung durchgeführt wurde) und des Los Alamos Scientific Laboratory (der AEC-Einrichtung, die hauptsächlich für Reaktordesign und -erste zuständig ist). Tests) verbrachte etwa ein weiteres Jahr damit, den Papierkram und die Abschlussberichte fertigzustellen, und das Programm wurde weitgehend eingestellt. Der Abschlussbericht über die Hot-Fire-Testprogramme für die NASA sollte jedoch erst 1991 veröffentlicht werden.

Hinter den Kulissen: Pre-Hot-Fire-Tests von ROVER-Reaktoren

Testgebiet Pajarito, Bild mit freundlicher Genehmigung von LANL

Diese Heißbrandtests waren eigentlich das Endergebnis vieler weiterer Tests, die in New Mexico im Los Alamos Scientific Laboratory – insbesondere im Pajarito-Testgebiet – durchgeführt wurden. Hier gab es viele Prüfstände und Versuchsreaktoren, um Dinge wie Neutronik, Reaktorverhalten, Materialverhalten, kritische Montagebeschränkungen und mehr zu messen.

Wabe, mit geladenem KIWI-Modell. Bild über LANL

Die erste davon war als Honeycomb bekannt, da quadratische Gitter aus Aluminium (das für Neutronen größtenteils transparent ist) verwendet wurden und in großen Aluminiumrahmen gehalten wurden. Kernbrennstoffprismen, Reflektoren, Neutronenabsorber, Moderator und andere Materialien wurden sorgfältig zusammengebaut (um versehentliche Kritikalität zu vermeiden, die das Pajarito-Testgelände schon früh in seiner Existenz bei den Demon Core-Experimenten und dem anschließenden Unfall gesehen hatte), um sicherzustellen, dass die Das modellierte Verhalten möglicher Kernkonfigurationen stimmte genau genug mit dem vorhergesagten Verhalten überein, um den Aufwand und die Kosten für die nächsten Schritte des Raffinierens und Testens von Brennelementen in einem in Betrieb befindlichen Reaktorkern zu rechtfertigen. Vor allem für Kalt- und Warm-Kritikalitätstests war dieser Prüfstand von unschätzbarem Wert, aber mit der Absage von Project Rover bestand keine Notwendigkeit, den Prüfstand weiter zu nutzen, und so wurde er weitgehend eingemottet.

PARKA, Bild mit freundlicher Genehmigung von LANL

Der zweite war ein modifizierter KIWI-A-Reaktor, der eine schwerwassermoderierte Niederdruckinsel in der Mitte des Reaktors verwendete, um die Menge an spaltbarem Brennstoff zu reduzieren, die für den Reaktor zum Erreichen der Kritikalität erforderlich ist.Dieser Reaktor, bekannt als Zepo-A (für Nullleistung oder Kältekritikalität), war der erste eines Experiments, das mit jedem nachfolgenden Design im Rover-Programm durchgeführt wurde, um das Westinghouse Astronuclear Laboratory und den NNTS-Design- und Testbetrieb zu unterstützen. Während jeder Reaktor seine Nullleistungs-Neutronentests durchlief, wurde das Design verfeinert und Probleme behoben. Diese Art von Tests wurde Ende 2017 und Anfang 2018 beim NCERC zur Unterstützung der KRUSTY-Testreihe abgeschlossen, die im März mit dem ersten Vollleistungstest eines neuen Kernreaktors in den USA seit mehr als 40 Jahren gipfelte. und bleibt eine entscheidende Testphase für die gesamte Entwicklung von Kernreaktoren und Brennelementen. Ein früher kritischer Montagetest vom KIWI-Typ wurde schließlich in einen Prüfstand namens PARKA umfunktioniert, der zum Testen von Flüssigmetall-Schnellbrüterreaktoren (LMFBR, jetzt bekannt als „Integral Fast Reactor oder IFR“, in Entwicklung bei Idaho National) verwendet wurde Labs) Brennstäbe in einer Umgebung mit epithermalen Neutronen mit geringer Leistung zum Testen des transienten Verhaltens beim Starten und Herunterfahren sowie als gut verstandene allgemeine Strahlungsquelle.

Heißgasofen bei LASL, Bild mit freundlicher Genehmigung von LANL

Schließlich gab es noch ein Paar Heißgasöfen (einer bei LASL, einer bei WANL) für die elektrische Beheizung von Brennelementen in einer H2-Umgebung, die eine Widerstandsheizung verwendet, um das Brennelement auf Temperatur zu bringen. Dies wurde im Laufe des Projekts immer wichtiger, da die Entwicklung des Mantels auf dem Brennelement ein großes Unterfangen war. Da die Brennelemente komplexer wurden oder sich die im Brennelement verwendeten Materialien änderten, mussten die thermischen Eigenschaften (und die chemischen Eigenschaften bei Temperatur) dieser neuen Konstruktionen vor dem Bestrahlungstest getestet werden, um sicherzustellen, dass die Änderungen nicht unbeabsichtigt waren Folgen. Dies galt nicht nur für den Mantel, auch die Zusammensetzung der Graphitmatrix änderte sich im Laufe der Zeit, indem sie von der Verwendung von Graphitmehl mit duroplastischem Harz zu einer Mischung aus Mehl und Flocken überging, und die Brennstoffpartikel selbst änderten sich von Uranoxid zu Urancarbid, und die Partikel selbst wurden am Ende des Programms ebenfalls beschichtet. Der Gasofen war bei diesen Tests von unschätzbarem Wert und kann als der Urvater der heutigen NTREES- und CFEET-Prüfstände angesehen werden.

KIWI-A-, Zepo-A- und Honeycomb-Modell in Kiva 3. Mit freundlicher Genehmigung von LANL

Ein hervorragendes Beispiel für die Bedeutung dieser Tests und die sorgfältige Prüfung, die jeder der Rover-Reaktoren erhalten hat, ist der KIWI-B4-Reaktor. Erste Mockups, sowohl auf Honeycomb als auch in strengeren Zepo-Mockups des Reaktors, zeigten, dass das Design eine gute Reaktivität und Kontrollfähigkeit hatte, aber während das Team von Los Alamos den eigentlichen Testreaktor zusammenbaute, wurde festgestellt, dass es so viel Reaktivität gab der Kern konnte nicht zusammengebaut werden! Anstelle einiger Brennelemente wurde inertes Material verwendet und dem Kern wurden Neutronengifte zugesetzt, um dieser übermäßigen Reaktivität entgegenzuwirken. Sorgfältige Tests zeigten, dass die in der Graphitmatrix suspendierten Urankarbid-Brennstoffpartikel hydrolysierten, die Neutronen moderierten und damit die Reaktivität des Kerns erhöhten. Spätere Versionen des Brennstoffs verwendeten größere Partikel von UC2, die dann einzeln beschichtet wurden, bevor sie durch die Graphitmatrix verteilt wurden, um diese Aufnahme von Wasserstoff zu verhindern. Sorgfältige Tests und Montage dieser experimentellen Reaktoren durch das Team von Los Alamos gewährleisteten den sicheren Test und Betrieb dieser Reaktoren, sobald sie das Testgelände in Nevada erreichten, und unterstützten die Designarbeit von Westinghouse, die Herstellungsbemühungen des Oak Ridge National Lab und die ultimative Vollleistung Tests bei Jackass Flats durchgeführt.

NTR Core Design Process, Bild mit freundlicher Genehmigung der IAEA

Nach Abschluss dieser Serie von Modellversuchen der groben Kritikalität, Nullstromtests, Montage und Überprüfung wurden die Reaktoren auf einen speziellen Eisenbahnwaggon verladen, der auch als Prüfstand mit geöffneter Düse dienen sollte, und – begleitet von einem Team von Wissenschaftler und Ingenieure aus New Mexico und Nevada - mit dem Zug zum Testgelände in Jackass Flats transportiert, das neben der Nellis Air Force Base und dem Nevada Test Site liegt, wo Atomwaffentests durchgeführt wurden. Dort angekommen, wurde eine letzte Reihe von Kontrollen an den Reaktoren durchgeführt, um sicherzustellen, dass während des Transports nichts Ungewöhnliches passiert war, und die Reaktoren wurden an die Testinstrumente und die Kühlmittelversorgung mit Wasserstoff zum Testen angeschlossen.

Probleme bei Jackass Flats: Spaltung ist der einfache Teil!

Die Testherausforderungen, mit denen das Nevada-Team konfrontiert war, gingen weit über die Nukleartests hinaus, die das Hauptziel dieser Testreihe waren. Wasserstoff ist aufgrund seiner unglaublich geringen Größe und Masse ein notorisch schwierig zu handhabendes Material. Es sickert durch massives Metall, Ventile müssen mit unglaublich engen Abständen hergestellt werden und wenn es der Atmosphäre ausgesetzt ist, besteht eine große Explosionsgefahr. Um die Probleme noch zu verstärken, waren dies die ersten Tage der kryogenen H2-Experimente. Auch heute noch ist der Umgang mit kryogenem H2 kein Routinevorgang, und die oft unvermeidlichen Probleme beim Einsatz von Wasserstoff als Treibmittel zeigen sich in vielen Bereichen – vielleicht am spektakulärsten beim Start einer Delta-IV Heavy Rakete, Dabei handelt es sich um eine Hydrolox-Rakete (H2/O2). Beim Zünden der Raketentriebwerke scheint die Rakete nicht vom Pad abzuschießen, sondern auf ihr zu explodieren, da H2 nicht nur aus den Druckentlastungsventilen in den Tanks ausgast, sondern auch aus Ventilen, Schweißnähten und . sickert durch den Panzerkörper selbst – die Rakete fängt sich selbst in Brand, ist eigentlich Standardarbeitsgang!

Plu Brook Kryo-Tankdrucktest, Bild mit freundlicher Genehmigung der NASA

In den späten 1950er Jahren wurden diese Probleme gerade erst entdeckt – auf die harte Tour. Die Plum Brook Research Station der NASA in Ohio war eine Schlüsseleinrichtung für die Erforschung von Techniken zum sicheren Umgang mit gasförmigem und flüssigem Wasserstoff. Sie experimentierten nicht nur mit kryogenen Geräten, Wasserstoffverdichtungsmethoden und dem Transport und der Handhabung von flüssigem H2, sondern führten auch Material- und mechanische Tests an Ventilen, Sensoren, Tanks und anderen Komponenten durch und entwickelten Schweißtechniken sowie Test- und Verifizierungsmöglichkeiten zur Verbesserung die Fähigkeit, mit diesem extrem schwierigen, potenziell explosiven, aber auch unglaublich wertvollen (aufgrund seiner geringen Atommasse – genau derselben Eigenschaft, die die Probleme zuerst verursacht hat!) Treibmittel, Kühlmittel und nuklearer Moderator umzugehen. Die anderen verfügbaren Optionen für NTR-Treibmittel (im Wesentlichen alles, was bei Reaktorbetriebstemperaturen ein Gas ist und keine übermäßigen Rückstände hinterlässt) waren aufgrund der geringeren Abgasgeschwindigkeit – und damit des geringeren spezifischen Impulses – nicht annähernd so gut.

Plum Brook ist eine weitere oft übersehene Anlage, die nicht nur für den Erfolg von NERVA, sondern für alle aktuellen mit Flüssigwasserstoff betriebenen Systeme entscheidend war. Ich habe vor, einen weiteren Beitrag zu schreiben (dieser ist bereits SEHR lang), in dem ich mich mit der Geschichte der verschiedenen Einrichtungen beschäftige, die am Rover- und NERVA-Programm beteiligt sind.

Tatsächlich wurde bei allen KIWI-A-Tests und beim KIWI-B1A gasförmiger Wasserstoff anstelle von flüssigem Wasserstoff verwendet, da sich die geplante Verwendung (und die in späteren Tests) aufgrund von Konstruktionsproblemen, Schweißproblemen und Ventilen verzögerte Ausfälle und Brände beim Auschecken der neuen Systeme. Diese Kinderkrankheiten mit dem Treibmittel verursachten bei Jackass Flats große Probleme und verursachten viele der auffälligsten Unfälle, die während des Testprogramms auftraten. Wasserstoffbrände waren an der Tagesordnung, und ein Unfall während der Installation von Treibladungsleitungen in einem Reaktor führte zu erheblichen Schäden am Testwagen, dem Schuppen, in dem er sich befand, und den freiliegenden Instrumenten, aber nur geringfügigen offensichtlichen Schäden am Reaktor selbst, was die Test des Reaktors für einen ganzen Monat, während Reparaturen durchgeführt wurden (bei diesem Test gab es während des Tests auch zwei Wasserstoffbrände, ein häufiges Problem, das sich im Laufe des Programms verbesserte und die Methoden zum Umgang mit H2 verbessert wurden).

Während das H2-Kühlmittel die Quelle vieler Probleme bei Jackass Flats war, entstanden andere Probleme aufgrund der Tatsache, dass diese NTRs eine Technologie verwendeten, die zu dieser Zeit weit über dem neuesten Stand war. Neue Konstruktionsmethoden beschreiben nicht den Grad an technologischer Innovation in praktisch jedem Bereich, den diese Motoren erforderten. Materialien, die noch wenige Jahre zuvor (manchmal sogar Monate!) theoretische Möglichkeiten der chemischen Verfahrenstechnik waren, wurden genutzt, um innovative, chemisch und neutronisch komplexe Hochtemperaturreaktoren zu bauen – die auch als Raketenantriebe fungierten. Neue Metalllegierungen wurden entwickelt, neue Graphitformen eingesetzt, experimentelle Methoden zur Beschichtung der Brennelemente, um zu verhindern, dass Wasserstoff den Kohlenstoff der Brennelementmatrix angreift (wie im KIWI-A-Reaktor, bei dem unplattierte Graphitplatten als Brennstoff verwendet wurden, dies war ein großes Anliegen) wurden ständig angepasst – tatsächlich werden die Experimente mit plattierten Materialien bis heute fortgesetzt, aber mit fortschrittlichen Mikro-Bildgebungsfunktionen und einem halben Jahrhundert Materialwissenschaft und Fertigungserfahrung seither sind die Ergebnisse jetzt Lichtjahre voraus was den Wissenschaftlern und Ingenieuren in den 50er und 60er Jahren zur Verfügung stand. Unvorhersehbare hydrodynamische Prinzipien, nicht vorhersehbare Spannungs- und Schwingungsmuster sowie Materialwechselwirkungen bei höheren Temperaturen als in den allermeisten Situationen verursachten viele Probleme für die Rover-Reaktoren.

Ein häufiges Problem in vielen dieser Reaktoren war das transversale Cracken von Brennelementen, bei dem sich ein Brennelement entlang der schmalen Achse aufspaltete, der Kühlmittelfluss durch die inneren Kanäle unterbrach und die Graphitmatrix dem heißen H2 ausgesetzt wurde (das es dann heftig zerfressen würde, sowohl Spaltprodukte als auch unverbrannten Brennstoff dem H2-Strom auszusetzen und an andere Orte zu transportieren – meistens aus der Düse, aber es stellte sich heraus, dass sich das Uran an den heißesten Stellen im Reaktor ansammeln würde – sogar gegen den H2-Strom – was erschreckende Auswirkungen haben könnte für brenzlige Brennpunkte der Kernspaltung. Manchmal wurden große Teile der Brennelemente aus der Düse ausgestoßen und sprühten teilweise verbrannten Kernbrennstoff in die Luft – manchmal als große Brocken, aber fast immer wurde ein Teil des Brennstoffs aerosolisiert definitiv inakzeptabel sein, aber zu der Zeit testete die US-Regierung Atomwaffen buchstäblich neben dieser Anlage, daher wurde dies nicht als Ursache für größere Kon cern.

Wenn sich das so anhört, als ob es in Jackass Flats große Herausforderungen und schwere Unfälle gab, war das sicherlich zu Beginn des Programms richtig. Diese frühen Probleme wurden auch in der Entscheidung des Kongresses genannt, das Programm nicht weiter zu finanzieren (obwohl es ohne eine bemannte Marsmission sowieso keinen Grund gab, die teuren und schwer zu bauenden Systeme zu verwenden). Man sollte sich jedoch daran erinnern, dass es sich um FRÜHE Tests handelte, mit Materialien, die nur wenige Jahre (oder manchmal Monate) zuvor in der Vorstellung eines Werkstoffingenieurs ein Konzept waren, mechanischen und thermischen Belastungen, mit denen sich noch nie jemand auseinandergesetzt hatte, und eine Technologie, die die einzige Möglichkeit zu sein schien, Menschen auf einen anderen Planeten zu schicken. Der Mond war hart genug, der Mars war Millionen von Meilen weiter entfernt.

Hot Fire Testing: Wie sah ein Test aus?

Nukleartests sind weitaus komplexer, als nur den Testreaktor an Kühlmittel- und Instrumentierungsleitungen anzuschließen, die Kontrolltrommeln und Wasserstoffventile zu drehen und die Zifferblätter zu beobachten. Es sind nicht nur viele Herausforderungen damit verbunden, nur zu entscheiden, welche Instrumente möglich sind und wo sie platziert werden, sondern auch die Installation dieser Instrumente und das Sammeln von Daten von ihnen war oft zu Beginn des Programms eine Herausforderung.

NRX A2 Flussdiagramm, Bild über die NASA (Finseth, 1991)

Um eine Vorstellung davon zu bekommen, wie ein erfolgreicher Heißbrandtest aussieht, schauen wir uns die Testreihen eines einzelnen Reaktors aus später im Programm an: den Demonstrationstest der NRX A2-Technologie. Dies war das erste NERVA-Reaktordesign, das von Westinghouse ANL mit voller Leistung getestet wurde LASL. Der Kern selbst bestand aus 1626 hexagonalen prismatischen Brennelementen. Dieser Reaktor unterschied sich deutlich von dem fünf Jahre später getesteten XE-PRIME-Reaktor. Ein Unterschied war der Wasserstoff-Strömungsweg: Nach dem Durchgang durch die Düse trat er in eine Kammer neben der Düse und über dem Axialreflektor ein (das Triebwerk wurde mit der Düse nach oben getestet, in der Flugkonfiguration befand sich dies unter dem Reflektor). , dann durch den Reflektor laufen, um ihn abzukühlen, bevor er wieder von der Abschirmung durch die Trägerplatte und in die Treibmittelkanäle im Kern umgelenkt wird, bevor er aus der Düse austritt

Am 24. September und 15. Oktober 1964 wurden zwei Leistungstests durchgeführt.

Mit zwei großen Toren und 22 kleineren Toren packte der Test am 24. September viel in die sechs Minuten des Betriebs mit halber bis voller Leistung (der Reaktor war nur 40 Sekunden lang auf voller Leistung). Die Hauptziele waren: 1. Bereitstellung wichtiger Informationen zur Verifizierung der stationären Auslegungsanalyse für den angetriebenen Betrieb und 2. Bereitstellung wichtiger Informationen zur Bewertung der Eignung des Reaktors für den Betrieb bei stationären Leistungs- und Temperaturniveaus, die erforderlich wären, wenn dies der Fall wäre eine Komponente in einem experimentellen Motorsystem zu sein. Zusätzlich zu diesen wichtigen, aber nicht sehr spezifischen Testzielen wurden eine Reihe spezifischerer Ziele festgelegt, darunter vorrangige Ziele der Bewertung der Umgebungsbedingungen in Bezug auf die strukturelle Integrität des Reaktors und seiner Komponenten, Leistungsbewertung der Kernbaugruppe, seitliche Analyse der Stütz- und Dichtungsleistung, Analyse des axialen Stützsystems des Kerns, Bewertung der Außenreflektoranordnung, Bewertung des Steuertrommelsystems und Bewertung der Gesamtreaktivität. Die weniger dringenden Ziele waren auch umfangreicher und umfassten die Leistung der Düsenbaugruppe, die Leistung des Druckbehälters, die Bewertung des Schilddesigns, die Instrumentenanalyse, die Analyse der Treibmittelzufuhr und des Steuersystems, die Analyse des nukleonischen und erweiterten Leistungssteuerungssystems, die Bewertung der radiologischen Umgebung und der Strahlungsgefahr, die thermische Umgebung rund um den Reaktor, Bewertung des Temperaturregelsystems im Kern und der Düsenkammer, Analyse der Reaktivität und thermischer Transienten sowie Bewertung des Testwagens.

Bild über die NASA (Finseth, 1991)

Während des Tests wurden mehrere Power Holds mit 51%, 84% und 93-98% durchgeführt, die alle leicht über der für die Holds geplanten Kraft lagen. Dies lag an der Kompressibilität des Wasserstoffgases (was zu einer stärkeren Mäßigung als geplant führte) und Problemen mit den Venturi-Durchflussmessern, die zur Messung der H2-Durchflussraten verwendet wurden, sowie Problemen mit den für die Instrumentierung verwendeten Thermoelementen im Kern (ein häufiges Problem im Programm). ) und liefert ein gutes Beispiel für die Art von unerwarteten Herausforderungen, die mit diesen Tests bewertet werden sollen. Die Testdauer war durch die Verfügbarkeit von Wasserstoff zum Antrieb der Turbopumpe begrenzt, aber obwohl es sich um einen kurzen Test handelte, war es ein süßer: Alle Testziele wurden erreicht und ein idealer spezifischer Impuls im Vakuum von 811 s wurde bestimmt (niedrig für einen NTR, aber immer noch mehr als doppelt so gut wie jeder chemische Motor zu dieser Zeit).

Bild über die NASA (Finseth, 1991)

Der Test am 15. Oktober war ein Test mit niedriger Leistung und niedrigem Durchfluss, der den Betrieb des Reaktors bewerten sollte, wenn er nicht in einem stabilen Betriebszustand mit hoher Leistung betrieben wird, wobei der Schwerpunkt auf dem Reaktorverhalten beim Anfahren und Abkühlen liegt. Der relevante Teil des Tests dauerte etwa 20 Minuten und wurde mit einer Leistung von 21-53 MW und einem Volumenstrom von 2,27-5,9 kg/s LH2 betrieben. Wie bei jedem System war der Betrieb in dem Zustand, in dem der Reaktor für den Betrieb ausgelegt war, einfacher zu bewerten und zu modellieren als beim Starten und Herunterfahren, zwei Bedingungen, die jeder Motor durchlaufen muss, die jedoch weit außerhalb der „idealen“ Bedingungen für das System liegen , und der Betrieb mit flüssigem Wasserstoff machte die Fragen nur noch größer. Für diesen Test wurden nur vier spezifische Ziele festgelegt: Nachweis der Stabilität bei niedrigem LH2-Fluss (mit Dewardruck als Messgerät), Nachweis der Eignung bei konstanter Leistung, aber mit H2-Flussvariation, Nachweis der Stabilität mit festen Regeltrommeln, aber variablem H2-Fluss zu eine Änderung der Reaktorleistung bewirken und einen Reaktivitäts-Rückkopplungswert erhalten, der mit LH2 am Kerneingang verbunden ist. Viele dieser Tests hängen von der Tatsache ab, dass LH2 nicht nur ein Kühlmittel ist, sondern eine Hauptquelle der Neutronenmoderation, sodass die Durchflussrate (und die damit verbundenen Temperatur- und Druckänderungen) des Treibmittels Auswirkungen haben, die über die Temperatur von . hinausgehen der Auspuff. Dieser Test zeigte, dass es keine Leistungs- oder Strömungsinstabilitäten unter den Bedingungen mit geringer Leistung und geringer Strömung gab, die selbst während des Reaktorstarts (wenn das in den Kern eintretende H2 am dichtesten und daher am stärksten moderiert war) zu sehen waren. Das vorhergesagte Verhalten und die Testergebnisse zeigten eine gute Korrelation, insbesondere wenn man bedenkt, dass die verwendeten Instrumente (wie der Reaktor selbst) wirklich nicht für diese Bedingungen ausgelegt waren und die Mehrheit der verwendeten Wandler im extrem niedrigen Bereich ihrer Skala arbeiteten.

Nach dem Oktober-Test wurde der Reaktor zur radiologischen Abkühlung über eine Shunt-Strecke gefahren (die kurzlebigen Spaltprodukte zerfallen lassen, wodurch der aus dem Reaktor kommende Gammastrahlungsfluss reduziert wird) und wurde dann in der NRDC-Heißzelle zerlegt. Diese Obduktionen waren ein unglaublich wichtiges Instrument zur Bewertung einer Reihe von Variablen, einschließlich der während des Tests erzeugten Leistung (basierend auf der Verteilung der Spaltprodukte, die sich in Abhängigkeit von einer Reihe von Faktoren ändern würde, hauptsächlich jedoch aufgrund der erzeugte Energie und das Neutronenspektrum, in dem der Reaktor zum Zeitpunkt seiner Produktion betrieben wurde), Probleme mit der chemischen Reaktivität, mechanische Probleme im Reaktor selbst und mehrere andere Faktoren. Leider ist es schwierig, selbst ein einfaches System zu zerlegen, ohne versehentlich etwas zu beschädigen, und dies war alles andere als ein einfaches System. Eine Herausforderung wurde: "Hat der Reaktor das selbst kaputt gemacht, oder haben wir das?" Dies gilt insbesondere für Brennelemente, die oft aufgrund unzureichender seitlicher Abstützung über ihre Länge brachen, aber auch oft aufgrund der Art und Weise, wie sie mit dem kalten Ende des Kerns verbunden waren (wobei es sich in der Regel um Hochtemperatur, einigermaßen neutronisch stabil handelte) Klebstoffe).

Dieses Problem wurde im A2-Test veranschaulicht, als es mehrere gebrochene Brennelemente gab, die beim Bruch keine Erosion aufwiesen. Dies ist ein starker Hinweis darauf, dass sie während der Demontage gebrochen sind, nicht während des Tests selbst: Heißes H2 neigt dazu, den Kohlenstoff in der Graphitmatrix – und den Karbid-Brennstoffpellets – stark zu erodieren, und ist ein sehr guter Indikator, wenn die Brennstäbe während eines Stroms gebrochen sind Prüfung.Gebrochene Brennelemente waren ein anhaltendes Problem in den gesamten Rover- und NERVA-Programmen (was manchmal zum Ausstoß des heißen Teils der Brennelemente führte), und die Tatsache, dass nicht alle befeuerten Brennelemente gebrochen zu sein scheinen, war ein großer Sieg für die Brennstoffhersteller.

Dies bedeutet nicht, dass die Brennelemente nicht ohne ihre Probleme waren. Jede Reaktorgeneration verwendete unterschiedliche Brennelemente, manchmal mehrere verschiedene Typen in einem einzigen Kern, und in diesem Fall waren die Treibmittelkanäle, Brennelementenden und die Spitzen der Außenseite der Elemente mit NbC verkleidet, aber die gesamte Länge der außerhalb der Elemente war es nicht, um zu versuchen, Masse zu sparen und die neutronische Umgebung des Reaktors selbst nicht übermäßig zu komplizieren. Leider bedeutet dies, dass die kleine Gasmenge, die zwischen den Füllstreifen und den Pyroplatten gerutscht ist, um dieses Problem zu vermeiden, sich in der Mitte der Außenseite des Brennelements (zum heißen Ende hin) auffressen könnte, was als Mitte bezeichnet wird. Bandkorrosion. Diese trat meist an der Peripherie des Kerns auf und wies ein charakteristisches Streifenmuster auf den Brennelementen auf. Es wurde eine Änderung vorgenommen, um sicherzustellen, dass alle peripheren Brennelemente vollständig mit NbC verkleidet waren, da die Bereiche, die diese Verkleidung hatten, nicht betroffen waren. Der Kern wurde erneut komplexer und schwieriger zu modellieren und zu bauen, aber ein besonderes Problem wurde aufgrund der während des Tests gesammelten empirischen Daten angegangen. Bei einigen unbefeuerten, instrumentierten Brennelementen im Kern wurde jedoch ein derart gebrochener Bruch festgestellt, dass eine Handhabung bei der Demontage nicht abschließend ausgeschlossen werden konnte, sodass die Unversehrtheit der Brennelemente noch zweifelhaft war.

Die Probleme, die mit diesen Graphit-Verbundbrennelementen verbunden sind, sind während ROVER oder NERVA nie wirklich verschwunden, da im PEWEE-Reaktor, dem letzten Test dieser Art, eine Reihe von gebrochenen Brennelementen (von denen bekannt war, dass sie während des Tests gebrochen waren) gefunden wurden der Brennelementmatrix (NF-1 verwendete entweder CERMET – damals Composite genannt – oder Carbid-Brennelemente, es wurden keine GC-Brennelemente verwendet). Der Folgereaktor A3 wies eine Form der Brennstofferosion auf, die als Pinhole-Erosion bekannt ist und die die NbC-Verkleidung nicht angehen konnte, was das NERVA-Team zu anderen Alternativen zwang. Auch in diesem Bereich erwies sich der Langzeiteinsatz der GC-Brennelemente als nicht nachhaltig für den Langzeiteinsatz über die spezifischen Missionsparameter hinaus, und ein großer Teil der Gründe, warum das gesamte NERVA-Triebwerk während des Stagings verworfen wurde und nicht nur das Treibmittel Tanks wie in modernen Designs. Neue plattierte Materialien und Anwendungstechniken sind vielversprechend, und GC kann in einem sorgfältig konstruierten LEU-Reaktor verwendet werden, aber dies wird in den meisten Fällen nicht wirklich gründlich erforscht (sowohl das LANTR- als auch das NTER-Konzept .). verwenden immer noch GC-Brennelemente, wobei die NTER sie ausschließlich aufgrund von Problemen mit dem Aufquellen des Brennstoffs spezifiziert, aber dies scheint das einzige Mal zu sein, dass dies tatsächlich erforderlich ist).

Schlimmer als der schlimmste Fall: KIWI-TNT

Eine Frage, die oft von denen, die mit NTRs nicht vertraut sind, gestellt wird, lautet: "Was passiert, wenn es explodiert?" Die kurze Antwort ist, dass sie dies aus mehreren Gründen nicht können. In einem Kernreaktor gibt es nur so viel Reaktivität und nur so schnell, dass sie genutzt werden kann. Die Reaktivität wird durch die Brennstoffbeladung in den Brennelementen und strategisch platzierte Neutronengifte sorgfältig gesteuert. Auch die für die Kernreaktoren verwendeten Steuerungssysteme (in diesem Fall im Radialreflektor um den Reaktor herum angeordnete Steuerungstrommeln) können nur so schnell gedreht werden. Ich empfehle, den Bericht über Safety Neutronics in Rover Reactors am Ende dieses Beitrags zu lesen, wenn Sie sich dies genauer ansehen möchten.

Während der Rover-Tests bei NRDS wurde jedoch einer in die Luft gesprengt, nach erheblichen Modifikationen, die niemals an einem Flugreaktor vorgenommen werden würden. Dies ist der KIWI-TNT-Test (TNT steht für Transient Nuclear Test). Das Verhalten eines Kernreaktors bei Annäherung an eine außer Kontrolle geratene Reaktion oder einen Ausfall irgendeiner Art wird in allen Reaktortypen untersucht, normalerweise in speziell konstruierten Reaktortypen. Dies ist erforderlich, da das Produktionsdesign jedes Reaktors hochgradig optimiert ist, um solche Fehler zu vermeiden. Dies galt auch für die Rover-Reaktoren. Zu Beginn des Programms war es jedoch eine wichtige Frage zu wissen, was eine schnelle Reaktion auf den Reaktor bewirken würde, und so wurde ein Test entwickelt, um genau herauszufinden, wie schlimm die Dinge sein könnten, und zu charakterisieren, was im schlimmsten Fall passierte Szenario. Es lieferte wertvolle Daten für die Möglichkeit eines Abbruchs während des Starts, der dazu führte, dass der Reaktor ins Meer fiel (Wasser ist ein ausgezeichneter Moderator, was die Wahrscheinlichkeit einer versehentlichen Kritikalität erhöht), wenn die Trägerrakete auf der Startrampe explodierte, und auch testete die Möglichkeit, den Reaktor im Weltraum zu zerstören, nachdem sein Treibstoff erschöpft war (was in den endgültigen Missionsprofilen nicht vorgesehen war).

KIWI B4A Reaktor, auf dem KIWI-TNT basiert, Bild via LANL

Was war der KIWI-TNT-Reaktor? Der letzte Reaktor der KIWI-Baureihe war in seiner Konstruktion dem KIWI-B4A-Reaktor (dem Vorgänger der NERVA-1-Reaktorserie) sehr ähnlich, der ursprünglich als 1000-MW-Reaktor mit einer Abgasaustrittstemperatur von 2000 C. Allerdings verhinderte eine Reihe von Dingen eine schnelle Exkursion in diesem Reaktor: Erstens bestanden die Unterlegscheiben für die Brennelemente aus Tantal, einem Neutronengift, um eine übermäßige Reaktivität zu verhindern, zweitens verwendeten die Steuertrommeln Schrittmotoren, die langsam genug waren, dass eine außer Kontrolle geratene Reaktion schließlich nicht möglich war, wurde dieses Experiment ohne Kühlmittel durchgeführt, das auch als Moderator fungierte, so dass viel mehr Reaktivität erforderlich war, als das B4A-Design zuließ. Nachdem die Unterlegscheiben entfernt wurden, erhöhte sich die überschüssige Reaktivität bis zu dem Punkt, an dem der Reaktor weniger als 1 unterkritisch war (mit vollständig eingesetzten Kontrolltrommeln) und 6 $ überschüssige Reaktivität im Vergleich zu sofort kritisch verfügbar war, und die Trommeldrehrate stieg um einen Faktor von 89 (!!), von 45 °/s auf 4000 °/s, wurde am 12. Januar 1965 die Bühne für diese schnelle planmäßige Demontage gelegt NTR-Design.

KIWI-TNT Prüfstandsschema, Bild über LANL

Der Test hatte sechs spezifische Ziele: 1. Messung des Reaktionsverlaufs und der Gesamtspaltungen, die bei bekannter Reaktivität erzeugt wurden, und Vergleich mit theoretischen Vorhersagen, um die Berechnungen für Unfallvorhersagen zu verbessern, 2. die Verteilung der Spaltungsenergie zwischen Kernerwärmung und Verdampfung sowie kinetische Energien, 3. Bestimmung der Art des Kernzerfalls, einschließlich des Verdampfungsgrades und der erzeugten Partikelgrößen, um ein mögliches nukleares Zerstörungssystem zu testen, 4. die Freisetzung von Spaltschutt in die Atmosphäre unter bekannten Bedingungen zu messen, um andere mögliche . besser berechnen zu können Unfallszenarien, 5. die Strahlungsumgebung während und nach der Leistungstransiente zu messen und 6. um Schäden am Startplatz und Reinigungstechniken für einen ähnlichen Unfall zu bewerten, falls er eintreten sollte (obwohl der erforderliche Modifikationsgrad des Reaktorkerns zeigt, dass Dies ist ein höchst unwahrscheinliches Ereignis, und sollte ein explosiver Unfall auf dem Pad passieren, wäre dieser chemischer Natur gewesen h der Reaktor wird nie kritisch, so dass keine nennenswerten Mengen an Spaltprodukten vorhanden sind).

Während des Tests wurden 11 Messungen durchgeführt: Zeitverlauf der Reaktivität, Zeitverlauf der Spaltungsrate, Gesamtspaltungen, Kerntemperaturen, Kern- und Reflektorbewegung, externer Druck, Strahlungseffekte, Wolkenbildung und -zusammensetzung, Fragmentierungs- und Partikelstudien sowie geografische Verteilung von Trümmern . Ein Winkelspiegel über dem Reaktorkern (wo sich die Düse befinden würde, wenn Treibgas in den Reaktor geleitet würde) wurde in Verbindung mit Hochgeschwindigkeitskameras im Nordbunker verwendet, um während des Tests Bilder vom heißen Ende des Kerns aufzunehmen. und eine Anzahl von Thermoelementen, die im Kern platziert sind.

KIWI-TNT-Test, AEC-Bild über SomethingAwful

Wie zu erwarten war dies ein sehr kurzer Test, mit insgesamt 3,1 × 10^20 Spaltungen nach nur 12,4 Millisekunden. Dies war eine höchst ungewöhnliche Explosion, die weder mit einer chemischen noch mit einer nuklearen Explosion übereinstimmte. Die Kerntemperatur überstieg an einigen Orten 17.5000 C, verdampfte ungefähr 5-15% des Kerns (der Großteil des Rests verbrannte entweder in der Luft oder wurde in die Abgaswolke aerosoliert) und erzeugte eine kinetische Energie von etwa 150 MW/s die gleiche Menge an kinetischer Energie wie etwa 100 Pfund hochexplosiver Stoffe (obwohl aufgrund der Natur dieser Explosion, die durch schnelle Überhitzung und nicht durch chemische Verbrennung verursacht wird, um die gleiche Wirkung von chemischen Sprengstoffen zu erzielen, erheblich mehr HE erforderlich wäre). Es wurde beobachtet, dass sich das Material im Kern mit 7300 m/s bewegte, bevor es mit dem Druckbehälter in Kontakt kam, und das größte intakte Stück des Druckbehälters (ein 0,9 m² großes, 67 kg schweres Stück des Druckbehälters) schleuderte 229 m vom Testort entfernt. Bei diesem Test gab es einige Probleme mit der Instrumentierung, insbesondere mit den Druckwandlern, die zur Messung der Stoßwelle verwendet wurden. Alle diese Instrumente mit Ausnahme von zwei (in einer Entfernung von 30 m) zeichneten keine Druckwelle auf, sondern ein elektromagnetisches Signal zum Zeitpunkt der Spitzenleistung (diese beiden zeichneten einen Überdruck von 3-5 psi auf).

KIWI-TNT bleibt, Bild über LANL

Radioaktive Freisetzung während des Rover-Tests Prequel: Strahlung ist kompliziert

Strahlung ist für viele Menschen eine große Angstquelle und sorgt für große Verwirrung in der Bevölkerung. Um ganz ehrlich zu sein, verbringe ich viel Zeit damit, die meisten Dokumente noch einmal zu lesen, wenn ich mich mit den Details der Gesundheitsphysik (der Untersuchung der Auswirkungen von Strahlung auf lebendes Gewebe) befasse, weil ich leicht durch die Begriffe verwirrt werde werden verwendet. Erschwerend kommt hinzu, dass vor allem für die Rover-Dokumentation alles in den alten, veralteten Messungen der Radioaktivität steht. Entschuldigung, SI-Benutzer da draußen, die gesamte AEC- und NASA-Dokumentation verwendet Ci, rad und rem, und die Konvertierung aller würde große Kopfschmerzen bereiten. Wenn jemand freiwillig helfen möchte, alles in Einheiten des gesunden Menschenverstands umzuwandeln, kontaktieren Sie mich bitte, ich würde mich über Hilfe freuen! Die natürliche Umgebung ist jedoch radioaktiv, und die Sonne emittiert eine enorme Menge an Strahlung, von der nur ein Teil von der Atmosphäre absorbiert wird. Tatsächlich gibt es Beweise dafür, dass der menschliche Körper eine bestimmte Menge an Strahlung benötigt, um die Gesundheit zu erhalten, basierend auf einer Reihe von Studien, die in der Sowjetunion mit vollständig nicht radioaktiven, speziell vorbereiteten Höhlen und Diäten durchgeführt wurden.

Wie viel genau gesund ist und nicht, ist Gegenstand intensiver Debatten und nicht viel Forschung, und es sind drei konkurrierende Haupttheorien entstanden. Das erste, das lineare Modell ohne Schwellenwert, ist das Gesetz des Landes und besagt, dass es eine maximale Strahlungsmenge gibt, die im Laufe eines Jahres für eine Person zulässig ist, unabhängig davon, ob es sich um einen einzigen Vorfall handelt (was normalerweise . ist). ist eine schlechte Sache) oder gleichmäßig über das ganze Jahr verteilt. Jedes Rad (oder Grau, darauf kommen wir weiter unten) an Strahlung erhöht die Wahrscheinlichkeit einer Person, an Krebs zu erkranken, linear um einen bestimmten Prozentsatz, und so bestimmt das LNT-Modell (wie es bekannt ist) effektiv einen akzeptablen Mindestanstieg der Wahrscheinlichkeit, dass eine Person in einem bestimmten Zeitraum (normalerweise Quartale und Jahre) an Krebs erkrankt. Dies berücksichtigt jedoch nicht die natürlichen Reparaturmechanismen des menschlichen Körpers, die beschädigte Zellen ersetzen können (egal wie sie beschädigt sind), was dazu führt, dass die meisten Gesundheitsphysiker Probleme mit dem Modell sehen, selbst wenn sie innerhalb des Modells arbeiten für ihre Berufe.

Das zweite Modell ist als lineares Schwellenwertmodell bekannt, das besagt, dass niedrige Strahlung (unter der Schwelle der Reparaturmechanismen des Körpers) keinen Sinn macht, um auf die Wahrscheinlichkeit, an Krebs zu erkranken, angerechnet wird. Wenn Sie Ihre Resopal-Arbeitsplatte in Ihrer Küche durch eine Granit-Arbeitsplatte ersetzen, werden Sie durch die natürliche Radioaktivität im Granit mehr Strahlung ausgesetzt, aber es gibt keinen Unterschied in der Wahrscheinlichkeit, dass Sie davon Krebs bekommen Veränderung. Ramsar, Iran (das die höchste natürliche Hintergrundstrahlung aller bewohnten Orte auf der Erde hat) hat keine höheren Krebsraten, tatsächlich sind sie etwas niedriger irgendwelche Schäden, und DANN beginnen, das lineare Modell der Zunahme der Krebswahrscheinlichkeit zu verwenden?

Das dritte Modell, hormesis, geht noch einen Schritt weiter. In einer Reihe von Fällen, wie Ramsar und einem Wohnhaus in Taiwan, das aus mit radioaktivem Kobalt verseuchtem Stahl gebaut wurde (wodurch die Bewohner einer VIEL überdurchschnittlich hohen chronischen oder im Laufe der Zeit höheren Gammastrahlung ausgesetzt waren), Menschen waren nicht nur höheren als den üblichen Strahlendosen ausgesetzt, sondern hatten auch niedrigere Krebsraten, wenn andere bekannte krebserregende Faktoren berücksichtigt wurden. Dies ist ein Beweis dafür, dass eine erhöhte Strahlenbelastung in der Tat das Immunsystem stimulieren und eine Person gesünder machen und die Wahrscheinlichkeit verringern kann, dass diese Person Krebs bekommt! Eine Reihe von Orten auf der Welt nutzen tatsächlich radioaktive Quellen als Heilstätten, darunter Radiumquellen in Japan, Europa und den USA und die schwarzen Monazitsande in Brasilien. In diesem Bereich wurde jedoch nur sehr wenig geforscht, da das Standardmodell der Strahlenbelastung besagt, dass dies für jemanden effektiv ein viel höheres Krebsrisiko darstellt.

Ich bin kein Gesundheitsphysiker. Es ist für mich im letzten Jahr so ​​etwas wie ein Hobby geworden, aber dies ist ein Gebiet, das weitaus komplexer ist als die Astronukleartechnik. Daher werde ich mich nicht in die Debatte darüber einmischen, welche dieser drei Theorien richtig ist, und würde es begrüßen, wenn der Kommentarbereich des Blogs nicht zu einem Flammenkrieg der Gesundheitsphysik wird. Wenn ich mit Freunden von mir spreche, die Gesundheitsphysiker SIND (und die ich zu diesem Thema konsultiere), neige ich dazu, mich irgendwo zwischen der linearen Schwelle und der Hormesis-Theorie der Strahlenbelastung zu bewegen, aber wie ich bereits bemerkte, ist LNT das Gesetz des Landes , und darum wird dieser Blog hauptsächlich arbeiten.

Strahlung (insbesondere im Zusammenhang mit Kernkraft) beginnt mit der Emission eines Teilchens oder Strahls von einem Radioisotop oder einem instabilen Kern eines Atoms. Dies wird mit der Curie (Cu) gemessen, die ein Maß dafür ist, wie viel Radioaktivität ALLGEMEIN freigesetzt wird, oder 3,7X10^10 Emissionen (entweder Alpha, Beta, Neutron oder Gamma) pro Sekunde. SI verwendet den Begriff Becquerel (Bq), der einfach ist: ein Zerfall = 1 Bq. Also 1 Cu = 3,7X10^10 Bq. Weil es so klein ist, wird oft MegaBequerel (Mbq) verwendet, denn wenn Sie nicht hochsensible Laborexperimente betrachten, ist selbst ein Dutzend Bq effektiv nichts.

Jede unterschiedliche Strahlungsart beeinflusst jedoch sowohl Materialien als auch biologische Systeme unterschiedlich, daher gibt es eine andere Einheit, die verwendet wird, um die Energie zu beschreiben, die durch Strahlung, die auf ein Material aufgebracht wird, erzeugt wird, die Energiedosis: Dies ist das Rad und die SI-Einheit ist das Grau (Gy). . Das Rad ist definiert als 100 Erg Energie, die in einem Gramm Material deponiert wird, und das Grau ist definiert als 1 Joule Strahlung, die von einem Kilogramm Materie absorbiert wird. Dies bedeutet, dass 1 rad = 0,01 Gy ist. Dies wird meistens bei inerten Materialien wie Reaktorkomponenten, Abschirmmaterialien usw. gesehen. Wenn es für lebendes Gewebe verwendet wird, ist dies im Allgemeinen ein SEHR schlechtes Zeichen, da es so ziemlich nur im Falle einer nuklearen Explosion oder größeren verwendet wird Reaktorunfall. Es wird bei einer akuten – oder plötzlichen – Strahlendosis angewendet, jedoch nicht bei längerfristiger Exposition.

Denn es gibt viele Dinge, die die Schwere einer bestimmten Strahlendosis bestimmen: Wenn Sie beispielsweise einen Gammastrahl haben, der durch Ihre Hand geht, ist er weit weniger schädlich als wenn er durch Ihr Gehirn oder Ihren Magen geht. Hier kommt die letzte Messung ins Spiel: In der Dokumentation von NASA und AEC verwenden sie den Begriff rem (oder strahlungsäquivalenter Mensch), in SI-Einheiten jedoch als Sievert bekannt. Dies ist die Äquivalentdosis oder die Normalisierung aller Auswirkungen der verschiedenen Strahlungsarten auf die verschiedenen Gewebe des Körpers, indem für jeden Teil des menschlichen Körpers, der dieser Strahlungsart ausgesetzt ist, auf jede Strahlungsart ein Qualitätsfaktor angewendet wird. Wenn Sie sich jemals gefragt haben, was Gesundheitsphysiker tun, es ist all die versteckte Arbeit, die anfällt, wenn dieser Qualitätsfaktor angewendet wird.

Das Ergebnis all dessen ist die Art und Weise, wie die Strahlendosis bewertet wird. Es gibt eine Reihe von Variablen, die zu dieser Zeit bewertet wurden (und derzeit bewertet werden, wobei dies ein effektiver Ausgangspunkt für Bodentests ist, die eine winzige, aber zu bewertende Berücksichtigung in Bezug auf die Freisetzung von Radioaktivität an die breite Öffentlichkeit haben). . Die Exposition wurde grob in drei Expositionsarten unterteilt: Ganzkörperexposition (5 rem/Jahr für einen beruflich Beschäftigten, 0,5 rem/Jahr für die Öffentlichkeit) Haut-, Knochen- und Schilddrüsenexposition (30 rem/Jahr beruflich, 3 rem/Jahr für die Öffentlichkeit) und andere Organe (15 Rem/J beruflich, 1,5 Rem/J für die Öffentlichkeit). 1971 wurden die Richtlinien für die Öffentlichkeit auf 0,5 rem/Jahr Ganzkörper und 1,5 rem/Jahr für die allgemeine Bevölkerung geändert, aber wie bereits erwähnt (einschließlich des NRDS-Abschlussberichts zum Abwasser), war dies eher eine administrative Erleichterung als eine biomedizinische brauchen.

1974 Standards für die radiologische Freisetzung am Arbeitsplatz, Bild über EPA

Zusätzliche Überlegungen wurden für einzelne aus dem Kern ausgestoßene Brennelementpartikel angestellt – eine Wahrscheinlichkeit von weniger als eins zu zehntausend, dass eine Person damit in Kontakt kommt, und eine Reihe von Faktoren wurden bei der Bestimmung dieser Wahrscheinlichkeit berücksichtigt. Die größte Sorge besteht darin, dass Hautkontakt bei einer Exposition von über 750 Rad zu einer Läsion führen kann (dies ist eine Energiedepositionsmaßnahme, keine ausdrücklich medizinische, da nur eine Gewebeart untersucht wird).

Schließlich und vielleicht am schwierigsten zu behandeln ist das aerosolisierte Abwasser aus der Abgasfahne, das sowohl gasförmige Spaltprodukte sein könnte (die nicht von den verwendeten Ummantelungsmaterialien aufgefangen wurden) als auch klein genug sind, um länger durch die Atmosphäre zu schweben Dauer – und möglicherweise inhaliert werden können. Die relevanten Grenzwerte der Strahlenexposition für diese Tests für außerhalb des Standorts befindliche Populationen waren 170 mrem/Jahr Ganzkörper-Gammadosis und eine Schilddrüsen-Expositionsdosis von 500 mrem/Jahr. Die höchste im Programm aufgezeichnete Ganzkörperdosis betrug 1966 20 mrem, und die höchste aufgezeichnete Schilddrüsendosis stammte aus dem Jahr 1965 von 72 mrem.

Die Gesundheits- und Umweltauswirkungen der Entwicklung von Nuklearantriebstests in Jackass Flats

Wie schlimm waren diese Tests zur Freisetzung von radioaktivem Material genau? In Anbetracht der dünn besiedelten Gegend erhielten – wenn überhaupt – nur wenige Personen, die nicht direkt mit dem Programm in Verbindung standen, eine Strahlendosis durch aerosolisiertes (einatembares, feinteiliges) radioaktives Material. Nach den geltenden Vorschriften wurde niemals eine Dosis von mehr als 15% der zulässigen AEC/FRC-Dosis (Federal Radiation Council, ein früher Bundesgesundheitsphysikbeirat) für die breite Öffentlichkeit geschätzt oder aufgezeichnet. Die tatsächliche Freisetzung von Spaltprodukten in die Atmosphäre (mit Ausnahme von Cadmium-115) betrug nie mehr als 10 % und oft weniger als 1 % (115Cd-Freisetzung betrug 50 %). Die überwiegende Mehrheit dieser Spaltprodukte ist sehr kurzlebig und zerfällt innerhalb von Minuten oder Tagen, sodass sich – wenn überhaupt – keine große Änderung für die Wanderung von Fallout (Spaltprodukte, die an atmosphärischen Staub gebunden sind, der dann entlang der Abgasfahne des Motors fiel) änderte. abseits des Testgeländes. Laut einer Studie des Energieministeriums aus dem Jahr 1995 betrug die Gesamtstrahlungsfreisetzung aller Rover- und Tory-II-Atomantriebstests etwa 843.000 Curie. Um dies ins rechte Licht zu rücken, erzeugt ein nuklearer Sprengstoff 30.300.000 Curie pro Kilotonne (je nach Größe und Effizienz des Sprengstoffs), sodass die gesamte Strahlungsfreisetzung einer 30-Tonnen-TNT-äquivalenten Explosion entsprach.

Zusammenfassung der radiologischen Freisetzung, Bild über DOE

Diese Freisetzung kam entweder durch die Wanderung der Spaltprodukte durch den Metallmantel und in das Wasserstoffkühlmittel oder durch einen Mantel- oder Brennelementversagen, der dazu führte, dass der heiße Wasserstoff die Graphitbrennelemente und Carbidbrennstoffpartikel aggressiv angreift.

Die Menge des freigesetzten Spaltprodukts hängt stark von der Temperatur und Leistungsstufe der Reaktoren, der Versuchsdauer, der Geschwindigkeit, mit der die Reaktoren auf volle Leistung gebracht wurden, und einer Reihe weiterer Faktoren ab. Die eigentliche Probenahme des Reaktorabwassers erfolgte auf drei Arten: Probenahme durch Flugzeuge, die mit speziellen Sensoren für Strahlung und Feinstaub ausgestattet waren, den Abwassersammler „Elephant gun“ im Abgasstrom des Triebwerks und durch postmortale chemische Analyse der Brennelemente zur Bestimmung des Brennstoffverbrauchs, der Migration und des Spaltproduktbestands. Zu beachten ist, dass bei den KIWI-Tests die Abwasserfreisetzung nicht annähernd so gut charakterisiert wurde wie bei den späteren Phoebus-, NRX-, Pewee- und Nuclear Furnace-Tests, sodass die Daten für diese Tests nicht nur genauer, sondern weitaus vollständiger sind sowie.

Offsite Dose Map, 1967 (ein Jahr mit überdurchschnittlich hoher Freisetzung und das erste, das bessere Probenahmetechniken einsetzte) Bild über EPA

Es wurden zwei Sätze von Flugzeugdaten gesammelt: Einer (von LASL/WANL) stammte aus festen Höhen und Transekten in den sechs Meilen rund um die Abwasserfahne und sammelte partikelförmiges Abwasser, das verwendet werden würde (kombiniert mit bekannten Freisetzungsraten von 115Cd und Post-Mortem-Analysen des Reaktors), um die gesamte Freisetzung des Spaltproduktinventars in diesen Höhen und Vektoren zu bestimmen, und wurde 1967 eingestellt. kryogenen Probenehmer, externer Strahlungssensor und anderer Ausrüstung, aber aufgrund der Tatsache, dass diese Proben mehr als zehn Meilen von den Reaktortests entfernt entnommen wurden, ist es sehr wahrscheinlich, dass mehr der Spaltprodukte entweder zerfallen oder als Fallout auf den Boden gefallen sind , so dass ein Großteil des Lagerbestands an Spaltprodukten leicht aufgebraucht sein könnte, als die Wolke die Standorte des Flugzeugs erreichte. Diese Technik wurde nach 1967 verwendet.

1967 kam auch die nächste Sampling-Methode online – die Elephant Gun. Dies war eine Sonde, die direkt in den aus der Düse austretenden heißen Wasserstoff gesteckt wurde und an mehreren Stellen während des Tests mehrere Mol des heißen Wasserstoffs aus dem Abgasstrom sammelte, die dann in Probenahmetanks gelagert wurden. In Kombination mit Wasserstofftemperatur- und -druckdaten, Säureauslaugungsanalysen von Spaltprodukten und Gasprobendaten ergab dies eine genauere Schätzung der Spaltproduktfreisetzung sowie einen besseren Überblick über die gasförmigen Spaltprodukte, die vom Motor freigegeben.

Triebwerkswartungs- und Demontagegebäude bei NRDC im Bau, Bild über Wikimedia Commons

Schließlich wurde jeder Motor nach dem Testen und Abkühlen einer strengen Post-mortem-Inspektion unterzogen. Hier wurden der Reaktivitätsverlust im Vergleich zur vorhandenen Uranmenge, die Leistungsstufen und die Testdauer sowie chemische und radiologische Analysen verwendet, um zu bestimmen, welche Spaltprodukte (und in welchem ​​Verhältnis) im Vergleich zu denen vorhanden waren, die vorhanden sein sollten. Diese Technik verbesserte das Verständnis des Reaktorverhaltens, des Neutronenprofils und der tatsächlichen Leistung, die während des Tests erreicht wurde, sowie der radiologischen Freisetzung im Abgasstrom.

Die radioaktive Freisetzung aus diesen Triebwerkstests variierte stark, wie in der obigen Tabelle zu sehen ist, aber die Gesamtmenge, die durch den „schmutzigsten“ der Reaktortests, den zweiten Phoebus 1B-Test, freigesetzt wurde, betrug nur 240.000 Curies, und die Mehrheit der Tests veröffentlichte weniger als 2000 Curies. Eine andere Sache, die sehr unterschiedlich war, war, WIE die Strahlung freigesetzt wurde. Der unmittelbare Bereich (innerhalb weniger Meter) des Reaktors wäre während des Betriebs Strahlung in Form von Neutronen- und Gammastrahlung ausgesetzt. Die Abgasfahne würde nicht nur den Wasserstoff-Treibstoff enthalten (der nicht lange genug im Reaktor war, um zusätzliche Neutronen anzusammeln und in sinnvollen Mengen in Deuterium, geschweige denn Tritium, umzuwandeln), sondern auch die gasförmigen Spaltprodukte (von denen die meisten die der menschliche Körper nicht in der Lage ist, wie 135Xe aufzunehmen) und – bei Erosion oder Bruch von Brennelementen – eine bestimmte Menge an Partikeln, die entweder bestrahlt wurden oder verbrannten oder unverbrannten Kernbrennstoff enthalten.

Bild über EPA

Diese Partikel und die während des Tests durch den Treibmittelstrom erzeugte Abgaswolke waren die Hauptsorge für Mensch und Umwelt bei diesen Tests. Der Grund dafür ist, dass sich die Strahlung auf diese Weise viel weiter ausbreiten kann (wenn sie einmal emittiert ist, verläuft die Strahlung unter sonst gleichen Bedingungen geradlinig), und vor allem kann sie vom Körper durch Einatmen oder Verschlucken aufgenommen werden , und einige dieser Elemente sind nicht nur radioaktiv, sondern auch chemisch toxisch. Als zusätzliche Komplikation, während Alpha- und Betastrahlung im Allgemeinen kein Problem für den menschlichen Körper sind (Ihre Haut stoppt beide Partikel leicht), ist es ein ganz anderes Ballspiel, wenn sie sich im menschlichen Körper befinden. Dies gilt insbesondere für die Schilddrüse, die gegenüber Strahlung empfindlicher ist als die meisten anderen und Jod (131I ist ein ziemlich aktives Radioisotop) aufsaugt, wie es niemanden angeht. Aus diesem Grund werden nach einem großen Atomunfall (oder einem theoretischen Atomschlag) Jodtabletten mit einem radioinerten Isotop verteilt: Sobald die Schilddrüse voll ist, passiert das überschüssige radioaktive Jod den Körper, da nichts anderes im Körper ist kann es aufnehmen und lagern.

Es gibt eine ganze Reihe von Faktoren, die bestimmen, wie weit sich dieser Partikel ausbreitet, einschließlich Partikelmasse, Temperatur, Geschwindigkeit, Höhe, Wind (in verschiedenen Höhen), Feuchtigkeitsgehalt der Luft (Partikel könnten in Wassertröpfchen absorbiert werden), Plumenhöhe , und viele andere Faktoren. Der Abschlussbericht des NRDS-Abwasserprogramms geht ausführlich auf die verwendete Modellierung und die Datenerhebungsmethoden ein, die zur Datenerhebung verwendet wurden, um diese Schätzungen zu verfeinern.

Eine andere Sache, die insbesondere im Zusammenhang mit Rover zu berücksichtigen ist, ist, dass in der unmittelbaren Umgebung der Rover-Tests Open-Air-Tests von Atomwaffen stattfanden, die WEIT mehr Fallout (um Dutzende von Größenordnungen) freisetzten eine sehr geringe Menge als die zu diesem Zeitpunkt freigesetzte Menge an Radionukleiden.

Das externe Strahlungsüberwachungsprogramm, das Milchproben von Kühen umfasste, um die Schilddrüsenexposition abzuschätzen, sammelte bis 1972 Daten, und alle gemessenen Expositionen lagen deutlich unter den im Programm festgelegten Expositionsgrenzwerten.

Da wir uns den KIWI-TNT-Test zuvor angesehen haben, schauen wir uns die Umweltauswirkungen dieses speziellen Tests an. Schließlich muss die Sprengung einer Atomrakete der schädlichste Test sein, oder? Überraschenderweise setzten zehn weitere Tests mehr Radioaktivität frei als KIWI-TNT. Die diskreten Partikel wanderten nicht weiter als 600 Fuß von der Explosion entfernt. Die ausströmende Wolke wurde von 4000 Fuß bis 80 Meilen in Windrichtung des Testgeländes aufgezeichnet, und Flugzeuge, die die Wolke überwachten, konnten sie verfolgen, bis sie über dem Pazifischen Ozean auftauchte (obwohl sie zu diesem Zeitpunkt weit weniger radioaktiv war). Als sich die Wolke 16.000 Fuß von der Teststelle entfernt hatte, betrug die höchste gemessene Ganzkörperdosis der Wolke 1,27x10^-3 rad (an Station 16-210), und dieselbe Station registrierte eine Inhalations-Schilddrüsendosis von 4,55x10 ^-3 rad. Dies zeigt, dass selbst der schlimmste glaubwürdige Unfall, der mit einem NERVA-Reaktor möglich ist, aufgrund der freigesetzten Strahlung oder der Explosion des Reaktors selbst nur eine vernachlässigbare ökologische und biologische Auswirkung hat, was die Sicherheit dieses Triebwerkstyps bestätigt.

Karte der diskreten Partikelverteilung, Bild über LANL

Wenn Sie neugierig auf tiefergehende Informationen zu den radiologischen und umweltbezogenen Auswirkungen der KIWI-TNT-Tests sind, habe ich die (unglaublich detaillierten) Berichte zum Experiment am Ende dieses Beitrags verlinkt.

Radiologische Verteilung von Partikelmonitoren, Bild über LANL

Die Ergebnisse des Rover-Testprogramms

Während des gesamten Rover-Testprogramms waren die Brennelemente die Quelle der meisten nicht H2-bezogenen Probleme. Während auch andere Probleme, wie z. B. die Instrumentierung, auftraten, waren die Hauptprobleme die Brennelemente selbst.

Viele der Probleme waren auf die mechanischen und chemischen Eigenschaften der Graphitbrennstoffmatrix zurückzuführen. Graphit wird durch das heiße H2 leicht angegriffen, was zu massiver Brennelementerosion führt, und während der gesamten Testreihe wurde mit einer Reihe von Lösungen experimentiert. Mit Ausnahme des KIWI-A-Reaktors (der unplattierte Brennelemente verwendet und stark durch das Treibmittel beeinflusst wurde) verfügt jeder der Reaktoren über mehr oder weniger stark verkleidete FEs mit einer Vielzahl von Methoden und Materialien. Niobcarbid (NbC) war oft das bevorzugte Plattierungsmaterial, aber es gibt auch andere Optionen wie Wolfram.

CVD-Beschichtungsgerät, Bild mit freundlicher Genehmigung von LANL

Die chemische Gasphasenabscheidung war eine frühe Option, aber leider war es nicht möglich, das Innere der Treibmittelrohre einheitlich und sicher zu beschichten, und die unterschiedliche Wärmeausdehnung war eine große Herausforderung. Beim Erhitzen der Brennelemente dehnen sie sich aus, jedoch mit einer anderen Geschwindigkeit als die Beschichtung. Dies führte zur Rissbildung und in einigen Fällen zum Abplatzen des plattierten Materials, was dazu führte, dass der Graphit dem Treibmittel ausgesetzt war und abgetragen wurde. Bearbeitete Einsätze waren eine zuverlässigere plattierte Form, erforderten jedoch eine höhere Komplexität bei der Installation.

Das Äußere der Brennelemente war ursprünglich nicht verkleidet, aber im Laufe der Zeit wurde klar, dass auch dies angegangen werden musste. Etwas Treibmittel würde zwischen den Prismen austreten, was zu einer Erosion der Außenseite der Brennelemente führen würde. Dies veränderte die Spaltgeometrie des Reaktors, führte zur Freisetzung von Spaltprodukt und Brennstoff durch Erosion und schwächte die ohnehin schon etwas zerbrechlichen Brennelemente. Normalerweise reichte jedoch die Aufdampfung von NbC aus, um dieses Problem zu beseitigen

Glücklicherweise sind diese Probleme genau das, was CFEET und NTREES testen können, und diese Systeme sind im Betrieb weitaus wirtschaftlicher als ein heißbefeuerter NTR. Es ist wahrscheinlich, dass die Brennelemente zum Zeitpunkt der Durchführung eines Heißbrandtests vollständig chemisch und thermisch charakterisiert sind, sodass diese Probleme nicht auftreten sollten.

Das andere Problem mit den Brennelementen war ein mechanisches Versagen aufgrund einer Reihe von Problemen. Der Druck im gesamten System ändert sich dramatisch, was zu unterschiedlichen Spannungen entlang der Länge der Brennelemente führt. Die ursprünglichen, minimal unterstützten Brennelemente würden oft Querrisse erfahren, was zu einer Blockierung des Treibmittels und zu Erosion führte. In einer Reihe von Fällen würde, nachdem das Brennelement auf diese Weise gebrochen ist, das heiße Ende des Brennelements aus dem Kern herausgeschleudert werden.

Rover Tie Tube Bild mit freundlicher Genehmigung der NASA

Dies führte zur Entwicklung einer Struktur, die auch heute noch in vielen NTR-Konstruktionen zu finden ist: das Verbindungsrohr. Dabei handelt es sich um ein sechseckiges Prisma von gleicher Größe wie die Brennelemente, das die benachbarten Brennelemente entlang ihrer Länge trägt. Diese sind nicht nur eine Stütze, sondern auch eine wichtige Quelle der Neutronenmoderation, da sie durch Wasserstofftreibstoff aus der regenerativ gekühlten Düse gekühlt werden. Der Wasserstoff würde zwei Durchgänge durch das Verbindungsrohr machen, einen in jede Richtung, bevor er in das kalte Ende des Reaktors eingespritzt wird, um durch die Brennelemente geleitet zu werden.

Die Verbindungsrohre beseitigten nicht alle mechanischen Probleme, mit denen das Brennelement konfrontiert war. Tatsächlich wurde sogar im NF-1-Test ein umfangreiches Brennelementversagen beobachtet, obwohl keines der Brennelemente aus dem Kern ausgestoßen wurde. Es wurden jedoch neue Arten von Brennelementen getestet (Urankarbid-Zirkonkarbid-Kohlenstoff-Verbundwerkstoff und (U,Zr)C-Karbid), die bessere mechanische Eigenschaften sowie höhere thermische Toleranzen bieten.

Aktuelle NTR-Designs enthalten normalerweise immer noch Verbindungsrohre, insbesondere weil das niedrig angereicherte Uran, das den wichtigsten bemerkenswerten Unterschied im neuesten Design der NASA darstellt, ein viel stärker moderiertes Neutronenspektrum erfordert als ein HEU-Reaktor. Die mechanische Abstützung des Brennelementes über die gesamte Länge (und nicht nur am kalten Ende, wie es bei NERVA-Konstruktionen üblich war) erhöht jedoch auch die mechanische Stabilität des Reaktors und trägt dazu bei, die Integrität der Brennelemente zu erhalten.

Die Reaktoren KIWI-B und Phoebus waren erfolgreich genug, um als Ausgangspunkt für die NERVA-Motoren verwendet zu werden. NERVA ist ein Akronym für Nuclear Energy for Rocket Vehicle Applications und fand in zwei Teilen statt: NERVA-1 oder NERVA-NRX entwickelte den KIWI-B4D-Reaktor zu einem eher flugprototypischen Design, einschließlich Balance der Anlagenoptimierung, verbessert Dokumentation des Reaktorbetriebs und Kühlmittelströmungsstudien. Die zweite Gruppe von Triebwerken, NERVA-2, basierte auf dem Reaktortyp Phoebus 2 von Rover und wurde schließlich zum NERVA-XE weiterentwickelt, der das Triebwerk sein sollte, das die bemannte Mission zum Mars antreiben sollte. Der NERVA-XE PRIME-Test war das Triebwerk in Flugkonfiguration, mit allen Turbopumpen, Kühlmitteltanks, Instrumenten und sogar die Ausrichtung des Reaktors (Düse nach unten statt nach oben) waren so, wie es während der Mission konfiguriert worden wäre .

NERVA XE-PRIME Installation und Überprüfung vor dem Brand, Bild von Westinghouse Engineer (1974)

Die Testreihe XE-PRIME dauerte neun Monate, von Dezember 1968 bis September 1969, und umfasste 24 An- und Abschaltungen des Reaktors. Unter Verwendung eines 1140-MW-Reaktors, der bei einer Abgastemperatur von 2272 K betrieben wurde und 247 kN Schub bei 710 Sekunden spezifischem Impuls erzeugte. Dazu gehörten die Verwendung neuer Starttechniken aus Kaltstartbedingungen, die Überprüfung von Reaktorsteuerungssystemen – einschließlich der Verwendung verschiedener Subsysteme, um die Leistung und die Betriebstemperatur des Reaktors zu manipulieren – und demonstrierte, dass das NERVA-Programm erfolgreich einen flugbereiten Kernkraftstoff hergestellt hat thermische Rakete.

Eine Ära beenden: Designtests nach dem Flug

Gegen Ende des Rover-Programms war das Triebwerksdesign selbst weitgehend abgeschlossen, wobei der NERVA XE-Prime-Test ein Triebwerk demonstrierte, das in Flugkonfiguration getestet wurde (mit allen relevanten Support-Hardware an Ort und Stelle und der Düse nach unten gerichtet). einige Herausforderungen blieben für die Brennelemente selbst bestehen. Um ein kostengünstigeres Testprogramm für Brennelemente zu haben, wurden zwei neue Reaktoren gebaut.

PEWEE Prüfstand, Bild mit freundlicher Genehmigung von LANL

Das erste, Pewee, war ein kleineres (75 klbf, die gleiche Größe wie das neue NTR) Nuklearraketentriebwerk der NASA, dessen Kern für mehrere Testrunden ausgetauscht werden konnte, aber vor der Einstellung des Programms nur einmal verwendet wurde – jedoch nicht, bevor der höchste spezifische Impuls aller Rover-Motoren erreicht wurde. Dieser Reaktor wurde nie außerhalb einer Steckbrettkonfiguration getestet, da er nie für den Flugbetrieb gedacht war. Stattdessen war es eine kostensparende Maßnahme für die NASA und die AEC: Aufgrund seiner geringeren Größe war es viel billiger zu bauen und aufgrund seines geringeren Treibmittelflusses auch viel einfacher zu testen. Dies bedeutete, dass experimentelle Brennelemente, die thermischen und Bestrahlungstests unterzogen wurden, in einer spaltungsbetriebenen Vollstromumgebung zu geringeren Kosten getestet werden können.

NF-1 Queransicht, Bild mit freundlicher Genehmigung der NASA

Der zweite war der Kernofen, der die neutronische Umgebung und die Treibmittelflussraten der größeren NTRs nachahmte, aber nicht als Triebwerk konfiguriert war. Dieser Reaktor war auch der erste mit einem Abwasserwäscher, der den Großteil der nicht gasförmigen Spaltprodukte auffängt und die radiologische Freisetzung in die Umwelt deutlich reduziert. Es erreichte auch die höchsten Betriebstemperaturen aller in Nevada getesteten Reaktoren, was bedeutet, dass die thermischen Belastungen der Brennelemente höher wären als bei einer Volllastverbrennung eines tatsächlichen NTR. Auch dieser war so konzipiert, dass er wiederholt wiederverwendet werden kann, um den finanziellen Nutzen des Reaktorbaus zu maximieren, wurde jedoch vor der Einstellung des Programms nur einmal verwendet. Die Brennelemente wurden in separaten Behältern getestet, und keiner von ihnen war der Graphit-Verbundbrennstoff: Stattdessen wurden CERMET (damals bekannt als Composite) und Carbid-Brennelemente, die in der Entwicklung, aber nicht in großem Umfang in Rover- oder NERVA-Reaktoren verwendet wurden, geprüft. Dieses System verwendete auch ein Abwasserreinigungssystem, aber darauf werden wir im nächsten Beitrag genauer eingehen, da dies eine theoretisch mögliche Methode bleibt, Hot-Fire-Tests für einen modernen NTR durchzuführen.

NRX Ein Reaktor, auf dem PAX basierte, Bild mit freundlicher Genehmigung der NASA

Westinghouse ANL schlug auch ein auf dem NERVA XE basierendes Design vor, das als PAX-Reaktor bezeichnet wird und dessen Kern ersetzt werden sollte, aber dies hat nie die Zeichenbretter verlassen. Auch hier hatte sich der Fokus auf kostengünstigere, leichter zu wartende experimentelle NTR-Teststände verlagert, obwohl dieser viel näher an der Flugkonfiguration war.Dies wäre sehr nützlich gewesen, da der Brennstoff nicht nur einer sehr ähnlichen radiologischen und chemischen Umgebung ausgesetzt wäre, sondern auch die mechanischen Verknüpfungen, die Wasserstoffströmungswege und die daraus resultierenden harmonischen und gasdynamischen Probleme hätten in a prototypische Umgebung. Dieser Reaktor wurde jedoch nie getestet.

Wie wir gesehen haben, waren Hot-Fire-Tests etwas, das den Ingenieuren, die an den Rover- und NERVA-Programmen beteiligt waren, außerordentlich am Herzen lag. Ja, es gab radiologische Freisetzungen in die Umwelt, die weit über das hinausgehen, was heute in Betracht gezogen werden würde, aber im Vergleich zu den Freisetzungen aus den in unmittelbarer Nähe stattfindenden Atomwaffentests im Freien waren sie winzig.

Heute wären diese Veröffentlichungen jedoch inakzeptabel. Im nächsten Blogbeitrag werden wir uns also die Optionen und Einschränkungen für eine moderne Testanlage für NTR-Heißbrand ansehen, einschließlich eines Blicks auf die Vorschläge im Laufe der Jahre und den aktuellen Plan der NASA für NTR-Tests. Dazu gehören das Abgasfiltersystem des Kernofens, ein komplexeres (aber auch effektiveres) Filtersystem, das für den SNTP-Kieselbettreaktor (TimberWind) vorgeschlagen wird, ein geologisches Filterkonzept namens SAFE und ein vollständiges Abgasabscheidungs- und Verbrennungssystem, das in der aktuellen Raketentestanlage der NASA im Stennis Space Center installiert werden.

Dieser Beitrag ist bereits gestartet und ich hoffe, dass er in den nächsten Wochen veröffentlicht wird. Ich freue mich auf Ihr Feedback und wenn ich weitere Ressourcen zu diesem Thema vermisse, teilen Sie diese bitte in den Kommentaren unten mit!

Stätte von Los Alamos Pajarito

Los Alamos Critical Assemblies Facility, LA-8762-MS, von R. E. Malenfant,
https://www.osti.gov/servlets/purl/6463833

A History of Critical Experiments at Pajarito Site, LA-9685-H, von R.E. Malenfan, 1983

Berichte über Umweltauswirkungen und radiologische Freisetzung

NRDS Nuclear Rocket Effluent Program, 1959-1970 NERC-LV-539-6, von Bernhardt et al., 1974

Offsite-Überwachungsbericht für NRX-A2 1965

Strahlungsmessungen des Abwassers aus dem Kiwi-TNT-Experiment LA-3395-MS, von Henderson et al, 1966

Umweltauswirkungen des KIWI-TNT-Abwassers: A Review and Evaluation LA-3449, von R.V.Fultyn, 1968

Technologische Entwicklung und nichtnukleare Tests

Ein Überblick über die Entwicklung von Brennelementen für nukleare Raketentriebwerke LA-5931 von J. M. Taub

Rover Nuclear Rocket Engine Program: Überblick über die Rover-Triebwerkstests N92-15117, von J.L. Finseth, 1992

Kernofen 1 Testbericht LA-5189-MS, W.L. Kirk, 1973

KIWI-Transienter Nukleartest LA-3325-MS, 1965

Kiwi-TNT Explosion LA-3551 von Roy Reider, 1965

Eine Analyse des KIWI-TNT-Experiments mit dem MARS Code Journal of Nuclear Science and Technology, Hirakawa et al. 1968

Verschiedene Ressourcen

Sicherheits-Neutronik für Rover-Reaktoren LA-3558-MS, Los Alamos Scientific Laboratory, 1965

Das Verhalten von Spaltprodukten bei Kernreaktortests LA-UR-90-3544, von Bokor et al, 1996


Was waren die Funktionsprinzipien des japanischen MITI in den 1950er und 60er Jahren? - Geschichte

New Yorker Juden? . Der Kongress fand in Wisconsin statt.“ [in MACDONALD, 1998, S. 72]

"Das Problem ist aufgetreten", sagt Arthur Liebman,

„zu den Mitteln, um das Ziel der Amerikanisierung einer im Wesentlichen jüdischen und europäischen sozialistischen Bewegung zu erreichen. [LIEBMAN, A., 1986, S. 340] Die relative Abwesenheit von Nichtjuden und amerikanischen Ureinwohnern beunruhigte viele ihrer Führer, Juden und Nichtjuden gleichermaßen.Die Kommunistische Partei zum Beispiel bestand in den 1920er Jahren fast ausschließlich aus Juden und im Ausland geborenen Personen, von denen die meisten eine Fremdsprache hatten Allein die Juden machten in den 1930er und 1940er Jahren etwa 40 bis 50 Prozent der Mitglieder der Kommunistischen Partei aus." [LIEBMAN, A.,|
1986, s. 339]

Nathaniel Weyl stellt fest, dass:

„Obwohl die kommunistischen Führer normalerweise wortkarg über das Ausmaß waren

nur neun "Amerikaner". Auf der Grundlage einer Überprüfung der Nachnamen kam Glazer zu dem Schluss, dass alle kommunistischen Lehrer, die 1932 von der Lehrergewerkschaft vor Gericht gestellt wurden, Juden waren.“ [WEYL., N., 1968, S. 118-119]

Die populäre Verbindung der Juden mit dem Kommunismus", bemerkt Peter Novick, "datiert aus der bolschewistischen Revolution. Die meisten der 'außerirdischen Agitatoren', die während des Roten Schreckens nach dem Ersten Weltkrieg aus den Vereinigten Staaten deportiert wurden, waren Juden.“ [NOVICK, P., 1999, S. 92] Zu den wichtigsten amerikanischen Gerichtsverfahren des 20. Jahrhunderts gehörten die von Charles Schenck, General Sekretär der Socialist Party, der 1919 wegen Volksverhetzung verhaftet wurde: „Der Fall war das erste Mal, dass der Oberste Gerichtshof darüber entschied, inwieweit die US-Regierung die Rede einschränken darf.“ [KNAPPMAN, E., 1995, S. 61, 60] Ebenso bestätigte der Oberste Gerichtshof 1927 „die Verurteilung des Sozialisten Benjamin Gitlow nach einem Gesetz des Staates New York wegen Befürwortung krimineller Anarchie.“ [KNAPPMAN, E., 1995, S. 63]

Peter Pulzer bemerkte einmal, dass in den deutschen sozialistischen Reihen des frühen 20. Debatten der Partei." [WEISBERGER, A., 1997, p. 93] Arthur Liebman stellt den Hintergrund der Wahl von Morris Hillquit zum Vorsitzenden der American Socialist Party im Jahr 1932 fest:

"Hilquit wiederum rückte in einer emotionalen Rede das Unaussprechliche in den Mittelpunkt und erklärte: 'Ich entschuldige mich dafür, dass ich im Ausland geboren wurde, Jude bin und in New York City lebe.' Hilquits schräger Hinweis auf den Antisemitismus sicherte ihm den Sieg. Wie Thomas [Hilquits Gegner für den Vorsitz] später kommentierte: "Sobald die antisemitische Frage angesprochen wurde, wenn auch zu Unrecht, war ich geneigt, es für das Beste zu halten, dass Hillquit gewann." Die Sozialistische Partei wollte nicht riskieren, als antisemitisch abgestempelt zu werden." [LIEBMAN, A., 1986, p. 341]

Einige Schätzungen gehen davon aus, dass 60% der Führung der radikalen SDS (Students for a Democratic Society) der 60er Jahre Juden waren (bekannte Radikale waren unter anderem Kathy Boudin, Bettina Aptheker und viele andere). [PRAGER, p. 61] Von 1960 bis 1970 waren fünf der neun wechselnden Präsidenten der Organisation jüdische Männer (Al Haber, Todd Gitlin und die letzten drei für das Jahrzehnt: Mike Spiegel, Mike Klonsky und Mark Rudd). [SALE, K., 1973, p. 663] "Vielleicht 50 Prozent der revolutionären Studenten für eine Demokratische Gesellschaft", sagt Milton Plesur, "und sogar 50 bis 75 Prozent derjenigen, die Ende der 1960er Jahre radikale Aktivitäten auf dem Campus hatten, waren Juden." [PLESUR, M., 1982, p. 137] Wie Stanley Rothman und S. Robert Lichter bemerken:

„Der frühe SDS war sowohl in seiner Führung als auch in seinen aktivistischen Kadern stark jüdisch. Zu den wichtigsten SDS-Führern gehörten Richard Flacks, der eine wichtige Rolle bei seiner Entstehung und seinem Wachstum spielte, sowie Al Haber, Robb Ross, Steve Max, Mike Spiegel, Mike Klonsky, Todd Gitlin, Mark Rudd und andere. Tatsächlich wurde SDS in den ersten Jahren größtenteils von der League for Industrial Democracy finanziert, einer stark jüdisch-sozialistischen (aber antikommunistischen) Organisation. Die ersten Erfolge von SDS waren an Elite-Universitäten mit eine beträchtliche Zahl jüdischer Studenten und sympathischer jüdischer Fakultäten, darunter die University of Wisconsin in Madison, Brandeis, Oberlin und die University of California. In Berkeley waren sich die SDS-Führungskräfte ihrer Wurzeln nicht unbewusst Unversity of Wisconsin in den frühen 1960er Jahren ". Mein Eindruck ist, dass die Linke in Madison nicht nur eine neue Linke ist, sondern eine Wiederbelebung der alten mit allen damit verbundenen Problemen. Ich bin beeindruckt von dem Mangel an Wisconsin n-Geborene [im Madison-Gebiet links] und das massive Übergewicht der New Yorker Juden. Die Situation an der University of Minnesota ist ähnlich'. [Forscher] Berns und seine Mitarbeiter fanden heraus, dass 83 Prozent einer kleinen Stichprobe radikaler Aktivisten, die Anfang der 1970er Jahre an der University of California studiert hatte, jüdischer Herkunft waren.“ [ROTHMAN/LICHTER, 1982, S. 61]

Susan Stern gehörte zu denen, die sich an die gewalttätige Untergrundorganisation Weatherman wandten. Ted Gold, ein weiteres Mitglied von Weatherman, starb, als eine Bombe, die er selbst herstellte, in seinen Händen explodierte. [ROTHMAN/LICHTER, 1982, p. 61] In einem ikonischen Vorfall im Jahr 1970 waren drei der vier Studenten, die bei einer berühmten Demonstration der Kent State University von Nationalgardisten erschossen wurden, Juden. [BYARD, K., 5-5-00]

Eine Studie von Joseph Adelson von der University of Michigan, einer der amerikanischen Brutstätten des Aktivismus der 1960er-Jahre, ergab, dass 90% der an dieser Schule als politisch "radikalen Studenten" definierten Studenten Juden waren. [PRAGER, p. 61, 66] Und "als zum Beispiel das Queens College SDS vor einigen Jahren ein Sit-in in einem Einführungszentrum abhielt", schrieb Gabriel Ende, "beschlossen sie, Weihnachtslieder zu singen, um ihre Aktivitäten zu dramatisieren, obwohl der Vorsitzende und fast alle Mitglieder waren Juden." [ENDE, G., 1971, p. 61]

„In Elite-Institutionen wie der University of Chicago waren 63 Prozent der radikalen Studenten jüdisch jüdischer Herkunft" und national waren 60 Prozent der SDS-Mitglieder jüdisch. Wie mein ehemaliger Freund Paul Breines über meine eigene Alma Mater an der University of Wisconsin schrieb, "war der wahre Hefepilz in der ganzen Szene gewesen".
die New Yorker jüdischen Studenten in Wisconsin'. Noch 1946 hatte ein Drittel der amerikanischen Juden eine positive Einstellung zur Sowjetunion.“ [RADOSH, R., 5.6.01]

Beachten Sie vor Jahrzehnten Rothman und Lichter:

„Die American Student Union, die prominenteste radikale Studentengruppe in den 1930er Jahren, konzentrierte sich stark auf New Yorker Colleges und Universitäten mit großen jüdischen Einschreibungen.
wie der University of Illinois waren wesentliche Teile ihrer begrenzten Mitgliederzahl Studenten jüdischer Herkunft aus New York City.“ [ROTHMAN/LICHTER, 1982, S. 101]