Informatikforschung in Deutschland
Bernd Reuse ∙ Roland Vollmar Herausgeber
Informatikforschung in Deutschland Mit Beiträgen von Manfred Broy, Andreas Dengel, Peter Deussen, Rüdiger Dillmann, José Luis Encarnação, Gerhard Goos, Stefan Jähnichen, Thomas Lengauer, Wolfram Menzel, Günter Merbeth, Hans-Hellmut Nagel, Wolfgang Paul, Dieter Rombach, Werner von Seelen, Jörg Siekmann, Peter Struss, Rudi Studer, Max Syrbe, Ulrich Trottenberg, Wolfgang Wahlster
123
Prof. Dr. Bernd Reuse Am Kirchberg 29 53604 Bad Honnef
[email protected]
ISBN 978-3-540-76549-3
Prof. Dr. Roland Vollmar Universität Karlsruhe Fakultät für Informatik Am Fasanengarten 5 76128 Karlsruhe
[email protected]
e-ISBN 978-3-540-76550-9
DOI 10.1007/978-3-540-76550-9 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2008 Springer-Verlag Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten waren und daher von jedermann benutzt werden dürften. Redaktion/Layout: Silke Natzeck, Karin Siemers Einbandgestaltung: KünkelLopka Werbeagentur, Heidelberg Gedruckt auf säurefreiem Papier 987654321 springer.com
Grußwort
Es war eine gute Idee von Seiten der Universität Karlsruhe, den neuen Professorenkollegen Bernd Reuse, der während seiner vielfältigen Tätigkeiten im Bundesforschungsministerium die Informatikforschung in Deutschland von Anfang an mitgestaltet und sie in den letzten 15 Jahren wie kaum ein anderer geprägt und seine nachhaltigen Spuren hinterlassen hat, zu bitten, seine Erfahrungen zunächst in eine Vorlesung einzubringen und sie dann in einem Fachbuch für die Nachwelt zu dokumentieren. Es spricht für ihn und seine Anerkennung in der Fachwelt, dass er sich dabei für den Weg entschieden hat und es ihm gelungen ist, zwanzig namhafte Forscherpersönlichkeiten in seine Arbeit einzubinden. Das von ihm gewählte zweistufige Konzept erleichtert wesentlich den Zugang für den Leser: Der erste Teil entspricht der Führung einer Besuchergruppe durch ein Geschichtsmuseum, bei der der fachlich speziell interessierte Besucher bei jedem Thema Gelegenheit hat, einen anwesenden Experten ergänzend zu befragen. Der zweite Teil bietet umfangreiches wissenschaftliches Material, das die Besucher mit nach Hause nehmen und in Ruhe genießen können. Dies ist ein Eigenstellungsmerkmal dieses Buches im Vergleich zu reinen Fachbüchern und zu reinen Abhandlungen über die Geschichte der Informatik. Wer Herrn Reuse wie ich persönlich gut kennt, weiß, dass er sehr informativ und dabei lebendig schreibt, und deshalb ist dieses Buch zwar ein ausführlicher sachlicher Bericht, aber eine Freude zum Lesen. Das Buch richtet sich primär an Wissenschaftler und Forscher im Bereich der Informatik, aber auch an alle damit verbundenen technischen und wirtschaftlichen Berufe, sowohl auf der Fachebene wie auf der Führungsebene, und nicht zuletzt an Personen, die sich für die Technikhistorie interessieren. Es wird die Basis für Vorlesungen über die Geschichte der Informatik in Deutschland erheblich verbreitern und seinen Platz in allen einschlägigen Instituten und Bibliotheken finden. Ich wünsche diesem Buch viele interessierte Leser. Prof. Dr. Matthias Jarke Präsident der Gesellschaft für Informatik v
Vorwort
Das vorliegende Buch basiert auf einer Vorlesung, die Herr Prof. Dr. Bernd Reuse im Sommersemester 2007 an der Fakultät für Informatik der Universität Karlsruhe (TH) unter Einbeziehung einer Reihe von auswärtigen und Karlsruher Kollegen hielt. Als er meine Einladung zu solch einer Veranstaltung annahm, hatte er allerdings wohl kaum mit dem Ausufern der Arbeit in dem dann aufgetretenen Umfang gerechnet. Nicht nur, dass er den Stoff sammeln, aufbereiten und für eine Präsentation kondensieren musste, sondern er war daneben engagiert beim Gewinnen von Experten, die fachliche Ergänzungen zu den entsprechenden Programmen und Projekten beisteuerten. Wer die Terminkalender von Professoren dieses Ranges kennt, wird ermessen können, wie erstaunlich es war, dass sie zu dem von ihm gegebenen Termin nach Karlsruhe kamen. Daraus kann man die Wertschätzung ermessen, die Herrn Reuse für seine jahrzehntelange Tätigkeit der Förderung der Informatikforschung in der Bundesrepublik Deutschland entgegengebracht wird. Der Erfolg der Vorlesungen übertraf alle Erwartungen: Hörer kamen auch aus größeren Entfernungen, und der Zuspruch durch Angehörige unserer Universität war beachtlich und nahm im Verlauf der Vorlesungsreihe zu – ganz im Gegensatz zum üblichen Muster. Der Anklang, den die Veranstaltung fand, veranlasste Herrn Reuse, eine Publikation ins Auge zu fassen. Dass sich diese in solch kurzer Zeit realisieren ließ, ist dem Einsatz vieler geschuldet: Herr Reuse konnte nicht nur die an der Vorlesung Beteiligten dazu bewegen, ihre Beiträge sehr schnell fertig zu stellen, sondern gewann darüber hinaus noch eine Reihe weiterer Experten als Autoren, während er zugleich sein eigenes Manuskript überarbeitete. Herr Dr. Engesser vom Springer-Verlag stimmte in „unbürokratischer Weise“ einer Veröffentlichung zu. Frau Natzeck, an unserer Fakultät für die Pressearbeit verantwortlich, stürzte sich mit Elan in die redaktionelle Aufbereitung. Allen Beteiligten sei herzlich gedankt für ihr ungewöhnliches Engagement, das nun belohnt wird mit dem erstmaligen Vorliegen eines Überblicks über 40 Jahre Förderung der Informatikforschung.
vii
viii
Vorwort
Dass dieser aus der Feder von Herrn Reuse stammt, der für einen Großteil der Programme und Projekte (mit)verantwortlich war, und von zahlreichen beteiligten Experten aus fachlicher Sicht kommentiert wird, macht ihn zu etwas Besonderem. Prof. Dr.-Ing. Roland Vollmar Dekan der Fakultät für Informatik
Vorwort
Als mich die Kollegen Prof. Dr. Roland Vollmar und Prof. Dr. Hans-Hellmut Nagel beim Festkolloquium zur Emeritierung von Prof. Dr. Gerhard Goos im November letzten Jahres fragten, ob ich bereit wäre, anlässlich des 35-jährigen Jubiläums der Fakultät für Informatik an der Universität Karlsruhe im Sommersemester 2007 eine Vorlesung über die Entwicklung der Informatikforschung in Deutschland zu halten, und sie dies mit dem ermutigend gemeinten Hinweis verbanden, ich sei einer der wenigen verbliebenen Zeitzeugen und möglicherweise der Letzte, der das alles noch für die Nachwelt dokumentieren kann, habe ich mich einerseits über diese Ehre gefreut, dann aber zunächst gezögert, ob ich dem Anspruch gerecht werden kann. Ich wurde zwar im September letzten Jahres, nach meinem Abschied vom Bundesministerium für Bildung und Forschung (BMBF), vom saarländischen Wissenschaftsminister Jürgen Schreier noch zum Professor ernannt, fühle mich aber als Generalist und Forschungsmanager und nicht als Informatikwissenschaftler. Ich habe mich dann aber, nachdem ich eine Reihe von fachlich in den verschiedensten Forschungsrichtungen der Informatik anerkannten Kollegen angesprochen hatte und ohne Zögern deren Zusage zur Beteiligung erhielt, an den Spruch eines früheren Vorgesetzten erinnert, der lautete „Wenn man der Einzige ist, der ein Problem lösen kann und man löst es nicht, ist man selbst das Problem“, und dann zugesagt. Beim Konzept für die Vorlesung und für das darauf basierende Fachbuch musste ich selbstverständlich Abgrenzungen treffen, einerseits, weil es nicht die erste Arbeit ist und nicht die letzte sein wird, die in diesem Rahmen entstanden ist oder noch entstehen wird, andererseits, weil ich als verantwortlicher Referent (70er Jahre) oder Referatsleiter (90er und 2000er Jahre) im Bundesministerium für Bildung und Forschung für die Informatikforschung in Deutschland wohl einen qualifizierten Überblick über die gesamte einschlägige Forschungslandschaft in Deutschland haben musste, jedoch, etwa bezüglich der DFG oder der MPG oder der reinen Industrieforschung nur die Themen überschauen konnte, bei denen Verbindungen zur Forschungsförderung des Bundes bestanden. Dies war allerdings seit etwa Mitte der 80er Jahre in der Verbundforschung durchaus der Fall. Insoweit gehe ich davon aus, hier zusammen mit meinen Mitautoren die wichtigsten Themen der Informatikforschung in Deutschland in vier Jahrzehnten, vom ix
x
Vorwort
Ersten DV-Programm bis zum Förderprogramm IT-2006, zu beschreiben. Für reine erkenntnisorientierte Grundlagenforschungsarbeiten im Rahmen der DFG und für deren Themen der Theoretischen Informatik gilt das nicht oder nur eingeschränkt. Desgleichen habe ich die Informatikforschung in der DDR bis zur Deutschen Einheit nicht beschrieben, weil sie inzwischen fachlich gut dokumentiert ist. Hervorheben möchte ich an dieser Stelle noch, dass das, was in der normalen Forschungsförderung praktisch nicht möglich ist – die Überprüfung der Nachhaltigkeit der Forschungsarbeiten, auch noch Jahrzehnte danach –, im Zentrum meines Interesses stand. Alle Beiträge, insbesondere die der Forschungsexperten, haben die gleiche Grundstruktur: die Beschreibung des Forschungsstandes zu Beginn der Forschungsarbeiten, deren Ziele, die Forschungspartner, die Ergebnisse der Forschung und deren Nachhaltigkeit bis heute. Das wird neutral dargestellt und nicht kommentiert. Es wird dem Leser überlassen, sich ein eigenes Urteil zu bilden. Ich bin aber zuversichtlich, dass er zum Ergebnis kommen wird, dass hier eine recht erfolgreiche Zeit für die Informatikforschung in Deutschland beschrieben wird. Dank sagen muss ich an dieser Stelle als erstes meinen Mitautoren, die mich mit ihrer eigenen Arbeit an diesem Buch unterstützt und ihm damit die nötige wissenschaftliche Tiefe gegeben haben – dazu gehört noch ein Dank an Prof. Dr. Wilfried Brauer, der mir erheblich geholfen hat. Dank sagen möchte ich als zweites meinen Vorgesetzten und Kollegen aus den 70er und aus den 80er Jahren, Herrn Prof. Dr. Fritz-Rudolf Güntsch, damals mein Abteilungsleiter, Herrn Dr. Hartmut Grunau, damals mein Referatsleiter, Herrn Dr. Günter Marx, in den 80er Jahren der zuständige Referatsleiter, und Herrn Dieter Abendroth, in den 80er Jahren zuständiger Referent. Bei den 80er Jahren, als ich in der Energie- und in der Verkehrsforschung tätig war, hätte ich ohne deren Rat erhebliche Schwierigkeiten mit der Vorlesung und dem Buch gehabt. Dank sagen möchte ich dann noch meinen Mitarbeitern im Referat und beim Projektträger aus den 90er und den 2000er Jahren, Herrn Dr. Helge Kahler, Frau Dr. Ursula Grote, Herrn Dr. Rüdiger Krahl und Herrn Dr. Ralph Schmidt, für ihre wertvolle Hilfe. Meine Anerkennung zollen möchte ich noch den Bibliotheken im BMBF und in der ehemaligen GMD und natürlich der „Technischen Informationsbibliothek Deutsche Forschungsberichte“ (TIB) in Hannover, die zusammen keinen Wunsch nach Fachberichten offen gelassen haben. Bad Honnef, im September 2007
Prof. Dr. Bernd Reuse
Inhaltsverzeichnis
Teil I 1
2
3
Chronologie aus Sicht des Forschungsmanagements
Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren .................................................................................. Bernd Reuse Vorbemerkung .......................................................................................... 1.1 Die forschungspolitische Situation im DV-Bereich ...................... 1.2 Schwerpunkte der Informatikforschung ........................................ 1.2.1 Überregionales Forschungsprogramm Informatik ........... 1.2.2 Begleitende Aktivitäten des BMFT zum Forschungsprogramm Informatik............................. Literatur und Quellen................................................................................ Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren .................................................................................. Bernd Reuse 2.1 Die forschungspolitische Situation im DV/IT-Bereich.................. 2.2 Schwerpunkte der Informatikforschung ........................................ 2.2.1 Aufbau der KI-Forschung in Deutschland ....................... 2.2.2 Software-Produktionsumgebungen .................................. 2.2.3 Praktische Informatik, GMD............................................ 2.2.4 Neue Rechnertechnologien, Rechnernetze....................... 2.2.5 Entwicklung fehlerfreier Software mit formalen Methoden ......................................................................... 2.2.6 Aufbau der Neuroinformatik............................................ Literatur und Quellen................................................................................ Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren .................................................................................. Bernd Reuse 3.1 Die forschungspolitische Situation im IT-Bereich in den 90er Jahren..........................................................................
3 3 4 5 5 19 26 27 27 28 28 42 46 49 55 57 60 61 61 xi
xii
Inhaltsverzeichnis
3.2
Schwerpunkte der Informatikforschung ........................................ 62 3.2.1 Entwicklung der Forschung zur Künstlichen Intelligenz in den 90er Jahren ............................................................ 62 3.2.2 Bioinformatik................................................................... 73 3.2.3 Softwaretechnologie......................................................... 80 3.2.4 Höchstleistungsrechnen, Unicore..................................... 90 3.2.5 Sprachverarbeitung .......................................................... 94 Literatur und Quellen................................................................................ 100 4
Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006 ................................................................... Bernd Reuse 4.1 Die forschungspolitische Situation im IT-Bereich ........................ 4.2 Schwerpunkte der Informatikforschung ........................................ 4.2.1 Mensch-Technik-Interaktion............................................ 4.2.2 Virtuelle und Erweiterte Realität, Ideenwettbewerb, Kompetenznetzwerk......................................................... 4.2.3 Brain-Computer Interface: Computersteuerung mit Gedankenkraft ........................... 4.2.4 Software Engineering....................................................... Literatur und Quellen................................................................................
101 101 102 102 114 117 119 129
Teil II Ausführliche wissenschaftliche Berichte und Einblicke 1
Die 70er Jahre ......................................................................................... 1.1 Informatik in den 70er Jahren........................................................ Gerhard Goos 1.1.1 Einleitung......................................................................... 1.1.2 Die Karlsruher Informatik ab 1970 .................................. 1.1.3 Das Überregionale Forschungsprogramm Informatik...... 1.1.4 Informatikforschung in Deutschland in den 70er Jahren ....................................................................... Literatur ......................................................................................... 1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren.......................................................................... Max Syrbe 1.2.1 Ausgangslage ................................................................... 1.2.2 DV-Förderung, das Projekt PDV: Prozesslenkung mit DV-Anlagen..................................... 1.2.3 Forschungs- und Entwicklungsergebnisse ....................... 1.2.4 Anstrengungen zu einem Innovationsschub, Nachhaltigkeit .................................................................. Literatur .........................................................................................
133 133 133 135 138 139 141 143 143 145 147 149 149
Inhaltsverzeichnis
2
Die 80er Jahre ......................................................................................... 2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994) .................................................................................. Hans-Hellmut Nagel 2.1.1 Zur Einführung................................................................. 2.1.2 Zum zeitgeschichtlichen Umfeld des Prometheus-Projektes ................................................ 2.1.3 Zur Vorgeschichte sichtsystemgestützter Fahrzeugführung .............................................................. 2.1.4 Zur Vorgeschichte des Prometheus-Projektes in Deutschland ................................................................. 2.1.5 Schritte auf dem Wege zum Prometheus-Projekt............. 2.1.6 Zur Umsetzung der Prometheus-Konzeption ................... 2.1.7 Zur Weiterwirkung der durch Prometheus konkretisierten Ansätze.................................................... 2.1.8 Nachhaltigkeit .................................................................. Literatur ......................................................................................... 2.2 Wissensbasierte Systeme: Verbundprojekt INDIA ....................... Peter Struss 2.2.1 Von „Expertensystemen“ zu modellbasierten Systemen .......................................................................... 2.2.2 Von der Theorie zu Anwendungsprototypen ................... 2.2.3 Grundlagen modellbasierter Problemlöser....................... 2.2.4 Industrielle Anwendung von wissensbasierten Systemen .......................................................................... 2.2.5 Die Evolution von „Expertensystemen“ bis heute ........... Literatur ......................................................................................... 2.3 Das Superrechnerprojekt SUPRENUM (1984–1989) ................... Ulrich Trottenberg 2.3.1 Hintergrund und Ziele des Projekts.................................. 2.3.2 Essentielle konzeptionelle und technische Entscheidungen ................................................................ 2.3.3 Projektpartner................................................................... 2.3.4 Projektergebnisse ............................................................. 2.3.5 Resümee: Weitere Entwicklungen und die Folgen des Projekts, Nachhaltigkeit............................................. Literatur ......................................................................................... 2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)............................................. Wolfram Menzel 2.4.1 Ausgangssituation ............................................................ 2.4.2 Das Konzept..................................................................... 2.4.3 Die Logik ......................................................................... 2.4.4 PPL...................................................................................
xiii
151 151 151 152 155 156 157 159 162 164 165 167 167 169 170 172 173 175 176 176 178 181 181 184 186 188 188 189 190 190
xiv
Inhaltsverzeichnis
2.5
3
2.4.5 Einzelne in KIV realisierte Methoden.............................. 2.4.6 KIV ab Beginn der neunziger Jahre ................................. Literatur ......................................................................................... Informationsverarbeitung in Neuronaler Architektur, INA (1988–1990) .................................................................................. Werner von Seelen 2.5.1 Einführung ....................................................................... 2.5.2 Randbedingungen und Ziele des Projektes ...................... 2.5.3 Ergebnisse des Projektes.................................................. 2.5.4 Bewertung, Nachhaltigkeit............................................... 2.5.5 Zur Entwicklung des geförderten Fachgebietes ...............
Die 90er Jahre ......................................................................................... 3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD (1995–2003)........................................................... Andreas Dengel 3.1.1 Einleitung......................................................................... 3.1.2 Rahmendaten und Zielsetzung ......................................... 3.1.3 Exemplarische inhaltliche Ergebnisse.............................. 3.1.4 Projektmanagement.......................................................... 3.1.5 Ausblick und Nachhaltigkeit............................................ Literatur ......................................................................................... 3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997) ........ Thomas Lengauer 3.2.1 Einleitung......................................................................... 3.2.2 Das Strategiekonzept „Molekulare Bioinformatik“ ......... 3.2.3 Ein Beispiel aus der geförderten Forschung: Verbundprojekt RELIWE ................................................ 3.2.4 Die Konsequenzen des Strategiekonzepts „Molekulare Bioinformatik“ ............................................ 3.2.5 Gegenwärtiger Stand und Perspektiven ........................... Literatur ......................................................................................... 3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme (1995–1998) .............................................. Stefan Jähnichen, Holger Schlingloff 3.3.1 Einleitung......................................................................... 3.3.2 Ausgangssituation und Projektumfeld ............................. 3.3.3 Projektziele ...................................................................... 3.3.4 Ergebnisse, Verwertung ................................................... 3.3.5 Nachhaltigkeit .................................................................. Literatur ......................................................................................... 3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA (1999–2001) ......................................... Dieter Rombach 3.4.1 Einleitung und Motivation ...............................................
191 193 195 198 198 198 199 201 202 203 203 203 204 207 211 213 215 217 217 218 220 223 224 225 226 226 226 228 230 236 236 238 238
Inhaltsverzeichnis
3.4.2 Zielsetzung des Kobra-Projekts ....................................... 3.4.3 Stand der Forschung......................................................... 3.4.4 Projekt-Ergebnisse ........................................................... 3.4.5 Praktische Anwendungen................................................. 3.4.6 Nachhaltigkeit .................................................................. 3.4.7 Zusammenfassung............................................................ Literatur ......................................................................................... Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo (1991–1994)........................................ Manfred Broy, Oscar Slotosch 3.5.1 Einleitung......................................................................... 3.5.2 Entwicklungsgraphen....................................................... 3.5.3 SPECTRUM .................................................................... 3.5.4 Traverdi............................................................................ 3.5.5 Werkzeuge ....................................................................... 3.5.6 Anwendungen .................................................................. 3.5.7 Bewertung, Nachhaltigkeit............................................... Literatur ......................................................................................... Verification Support Environment (VSE) (entwickelt im Auftrag des BSI von 1991 bis 1999) ..................... Jörg Siekmann, Werner Stephan 3.6.1 Einleitung......................................................................... 3.6.2 Hintergrund und Ausgangspunkt von VSE...................... 3.6.3 VSE-Technologie............................................................. 3.6.4 Architektur ....................................................................... 3.6.5 Logik und Deduktion ....................................................... 3.6.6 Anwendungen von VSE................................................... 3.6.7 VSE heute, Nachhaltigkeit ............................................... Literatur .........................................................................................
239 240 241 244 245 246 246
Die 2000er Jahre bis 2006 ...................................................................... 4.1 Augmented-Reality für industrielle Anwendungen in Entwicklung, Produktion und Service am Beispiel des Leitprojekts ARVIKA (1999–2003)........................................ José Luis Encarnação, Didier Stricker 4.1.1 Einführung ....................................................................... 4.1.2 Ausgangssituation und Vorprojekte ................................. 4.1.3 ARVIKA – Augmented-Reality-Technologien (AR) für Entwicklung, Produktion und Service ........................ 4.1.4 ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications ............ 4.1.5 Nachhaltigkeit der Ergebnisse aus heutiger Sicht in der Wissenschaft und in der Anwendung..................... Literatur .........................................................................................
269
3.5
3.6
4
xv
247 247 248 249 250 250 253 254 255 256 256 257 259 261 262 264 266 268
269 269 271 273 279 281 281
xvi
Inhaltsverzeichnis
4.2
4.3
4.4
4.5
Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588 „Humanoide Roboter“ der DFG (2001–2008) ................................................................... Rüdiger Dillmann 4.2.1 MORPHA – Motivation und Ausgangslage..................... 4.2.2 SFB 588 „Humanoide Roboter“ (2000–2012) ................. 4.2.3 DESIRE – Deutsche Servicerobotik-Initiative (2005–2008)..................................................................... Literatur ......................................................................................... SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)...................................................... Wolfgang Wahlster 4.3.1 Einleitung......................................................................... 4.3.2 Von syntaktischen Suchmaschinen zu semantischen Antwortmaschinen ........................................................... 4.3.3 Die Architektur und die ontologische Infrastruktur von SmartWeb ................................................................. 4.3.4 Neue Formen der Multimodalität für mobile Dialogsysteme.................................................................. 4.3.5 Wissenschaftliche und wirtschaftliche Bilanz des SmartWeb-Projektes .................................................. Danksagung ................................................................................... Literatur ......................................................................................... Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES (2006–2008)................... Rudi Studer, Andreas Abecker 4.4.1 Ausgangssituation des Projekts........................................ 4.4.2 Projektziele ...................................................................... 4.4.3 Projektpartner................................................................... 4.4.4 Ergebnisse (Stand Juli 2007)............................................ 4.4.5 Nachhaltigkeit .................................................................. Danksagung ................................................................................... Literatur ......................................................................................... Beweisen als Ingenieurwissenschaft: Verbundprojekt Verisoft (2003–2007) .................................................................................. Wolfgang Paul, Tom In der Rieden 4.5.1 Ausgangslage ................................................................... 4.5.2 Mission des Verisoft-Projekts .......................................... 4.5.3 Die Partner des Projekts Verisoft..................................... 4.5.4 Ergebnisse ........................................................................ 4.5.5 Nachhaltigkeit .................................................................. Literatur .........................................................................................
283 283 294 295 297 300 300 301 303 305 309 310 311 312 312 314 316 316 318 319 319 321 321 322 323 323 325 325
Inhaltsverzeichnis
xvii
Teil III Anhang A.1 A.2 A.3 A.4
Bundesminister(innen) für Bildung und Forschung ...................... Präsidenten der Gesellschaft für Informatik (GI) .......................... Präsidenten der DFG ..................................................................... Präsidenten der Fraunhofer-Gesellschaft.......................................
329 330 331 332
Teil I Chronologie aus Sicht des Forschungsmanagements
1
Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren Bernd Reuse (Bad Honnef)
Vorbemerkung Zum Verständnis der folgenden Beiträge über die Informatikforschung in Deutschland, vom „Ersten DV-Programm“ bis zum Förderprogramm „IT-Forschung 2006“, womit relativ genau vier Jahrzehnte betrachtet werden, soll vorangestellt werden, dass es eine nach Meinung des Autors hinreichende Zahl von qualifizierten Fachbüchern, Fachartikeln und auch ersten geschichtswissenschaftlichen Berichten zur Entwicklung der Rechnertechnologie und der Programmiersprachen in der Zeit vor und nach dem Zweiten Weltkrieg bis zu den 70er Jahren gibt, die hier nicht wiederholt, aber durch Literaturhinweise erwähnt werden sollen [1, 2, 3, 4]. Auch in Bezug auf die DDR gibt es mittlerweile eine beachtliche Zahl qualifizierter und zum Teil sehr ausführlicher Artikel und Bücher zur Entwicklung der Datenverarbeitung und dann der Informatik in dem hier interessierenden Zeitraum vom Ende der 60er Jahre bis zur Deutschen Einheit im Jahr 1990. Sie sollen hier nicht wiederholt, aber auch auf sie soll ausdrücklich verwiesen werden [5, 6]. Das Ziel dieses Fachbands ist die Darstellung der Entwicklung der Informatikforschung in Deutschland, die mit dem Ersten DV-Programm der Bundesregierung im Zeitraum 1967 bis 1971 einen enormen Schub bekam, der weltweit beachtet wurde und noch heute nachhaltige Wirkungen zeigt. Dabei soll auch erreicht werden, dass sich der fachlich interessierte Leser anhand von ausgewählten wissenschaftlichen Beispielen, die von bekannten Experten geschrieben wurden, einen präzisen Einblick in den jeweiligen Stand der Wissenschaft und Forschung in der Informatik in den vier Jahrzehnten bilden kann. Diese Einblicke sind im ersten, chronologischen Teil des Fachbands in Form von kurzen zusammenfassenden Darstellungen in „Zeitfenstern“ sichtbar. Im zweiten Teil des Fachbands befinden sich die ausführlichen Berichte der Experten zum jeweiligen Stand der Forschung am Beispiel ausgewählter Forschungsprojekte des Bundes, der DFG, der EU und von EUREKA. 3
4
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
1.1 Die forschungspolitische Situation im DV-Bereich Forschungsminister in dem hier betrachteten Zeitraum von Mitte der 60er Jahre bis Ende der 70er Jahre waren Dr. Gerhard Stoltenberg, von Oktober 1965 bis Oktober 1969, Prof. Dr.-Ing. Hans Leussink, von Oktober 1969 bis März 1972, Dr. Klaus von Dohnanyi, von März 1972 bis Dezember 1972, Prof. Dr. Horst Ehmke, von Dezember 1972 bis Mai 1974, Hans Matthöfer, von Mai 1974 bis Februar 1978, und Dr. Volker Hauff, von Februar 1978 bis November 1980 (s. a. Anhang). Die schwerwiegendste strukturelle Maßnahme in dieser Zeit war die Trennung des bisherigen Ministeriums für Bildung und Wissenschaft, in dem die Forschung zwar nicht explizit im Namen vorkam, aber darin sehr gut aufgehoben war, und in deren Verbindung gerade die wichtigsten Maßnahmen, wie das Überregionale Forschungsprogramm Informatik, entstehen konnten, in ein Bundesministerium für Bildung und Wissenschaft (BMBW), in dem ab jetzt nur noch die Bildungszuständigkeiten verankert waren, und ein Bundesministerium für Forschung und Technologie (BMFT), in dem man die Forschungsaufgaben, die Forschungszentren, neue Technologien und Teilaufgaben des Ministeriums für das Post- und Fernmeldewesen zusammenfasste (Dezember 1972). Das entsprach damals einem Trend in den Ländern. Selbstverständlich hat diese Trennung von Kollegen und Aufgaben, die bis dahin eng verflochten waren, zu einem jahrelangen Prozess der Unruhe geführt, der dann leider erst im Jahr 1994 wieder beendet wurde. Die zweite wichtigste infrastrukturelle Maßnahme war die Gründung der Gesellschaft für Mathematik und Datenverarbeitung GMD mbH in Bonn (Schloss Birlinghoven) im April 1968 als erste und einzige Großforschungseinrichtung auf dem Gebiet der Datenverarbeitung, der 1973 das Deutsche Rechenzentrum in Darmstadt angegliedert wurde. Eine dramatische Begleitung für die DV-Forschung und ihre Förderung gab die Entwicklung der Rechnerindustrie in Deutschland in dieser Zeit, die sich laufend zunächst innerhalb Deutschlands, dann innerhalb Europas und schließlich weltweit umorganisierte und dabei im Endeffekt doch nur in wenigen Fällen ihre Ziele erreichte. Das galt insbesondere für den in den 60er Jahren mit viel Erwartung und zunächst Erfolg, auch durch beeindruckende Alleinstellungsmerkmale im Vergleich mit Konkurrenzsystemen, gestarteten TELEFUNKEN-Rechner TR 440, dessen Nachfolgerechner (TR 540) dann in den 70er Jahren nicht weiterentwickelt wurde, wodurch sein Ende besiegelt war, obwohl er im Hochschulbereich gut vertreten war, wenn auch etwas mit Hilfe einer Besonderheit in den DV-Programmen der 70er Jahre, auf die im nächsten Absatz noch kurz eingegangen wird. Die DV-Industriepolitik steht nicht im Zentrum dieses Fachbands, deshalb soll an dieser Stelle nur auf die sorgfältige und ausführliche Darstellung in der Literaturstelle [1] verwiesen werden. Eine Begleitmaßnahme zur Industriepolitik, die im Dritten DV-Programm für das „Programm zur Errichtung Regionaler Rechenzentren“ an den Hochschulen explizit erwähnt wird, war eine vorher und später nicht mehr verwendete
1.2 Schwerpunkte der Informatikforschung
5
„Beschaffungsklausel“. Dort wurde festgehalten, dass „besondere Priorität“ bei der Finanzierung von Rechensystemen oder Rechnernetzen „solchen Installationen zukam, welche zur Stärkung des Potentials von DV-Herstellern mit Basis in Europa führten. Hier waren die Projekte hervorzuheben, welche den Transfer von Hardware- und Software-Technologie sowie von Erfahrungen begünstigten und die zu gemeinsamen Forschungs- und Entwicklungsvorhaben zwischen Hochschulen und den europäischen Herstellern führten“. Es gab in dem hier betrachteten Zeitraum drei DV-Förderprogramme, das „Erste DV-Programm“, von 1967 bis 1971, das „Zweite DV-Programm“, von 1972 bis 1975, und das „Dritte DV-Programm“, von 1976 bis 1979. Schwerpunkte der Förderung waren: • DV-Technologien, DV-Systeme, DV-Komponenten DV-Strukturen und Sprachen, Schaltkreise, Systemaufbau und -Verbindungen, Speichertechnologien, Technologien für Ein-/Ausgabegeräte, Fortgeschrittene DV-Systeme • DV-Anwendungen Datenbanksoftware, Integrierte Informations- und Managementsysteme, Datenverarbeitung im Bildungswesen, Datenverarbeitung in der Medizin, Rechnergestütztes Entwickeln und Konstruieren (CAD), Prozesslenkung mit DV-Anlagen • Maßnahmen im Hochschulbereich, Ausbildung Überregionales Forschungsprogramm Informatik, Programm zur Errichtung Regionaler Rechenzentren, DV-Bildungszentren
1.2 Schwerpunkte der Informatikforschung Über die Schwerpunkte der vom Bund geförderten Informatikforschung in Deutschland und damit zusammenhängender anderer Maßnahmen in dem hier genannten Zeitraum wird im Folgenden ausführlich berichtet.
1.2.1 Überregionales Forschungsprogramm Informatik 1.2.1.1 Die politischen Vorbereitungen In der zweiten Hälfte der 60er Jahre zeigte sich mehr und mehr, dass die deutsche Wirtschaft qualifiziert ausgebildete DV-Fachkräfte benötigte und nicht mehr in der Lage war, diese Ausbildung nach der Einstellung neuer Mitarbeiter selbst vorzunehmen. Es war bis dahin üblich, dass Hochschul-Absolventen beim Eintritt in das Berufsleben zunächst längere Zeit in Datenverarbeitung ausgebildet wurden, ehe sie dem eigentlichen Einstellungszweck zugeführt werden konnten. Das war nicht nur eine große finanzielle Belastung für die DV-Hersteller und DV-Anwender,
6
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
sondern es hatte auch für die Auszubildenden Nachteile wegen der notwendigerweise begrenzten und zweckorientierten Ausbildungsinhalte. In dieser Situation gab der damalige „Fachbeirat für Datenverarbeitung“ des Bundesministers für wissenschaftliche Forschung (BMwF) im November 1967 ein erstes klares Signal, dass der Bund aktiv werden sollte. Er setzte einen (Ad-hoc-) Ausschuss „DV-Lehrstühle und -Ausbildung“ ein, der sich mit Fragen der Ausbildung von DV-Fachkräften an den Hochschulen befassen sollte. In Anlehnung an eine Entwicklung in den USA sollte in Deutschland ein eigener Hochschul-Studiengang für DV-Fachkräfte, der Studiengang Informatik, eingerichtet werden, um den eben dargestellten Problemen zu begegnen. Dabei bestand Einigkeit, dass der erforderliche schnelle Aufbau der Informatikforschung und -lehre an den Hochschulen nur vom Bund und den Ländern gemeinsam getragen werden konnte. Der Handlungsrahmen für die Vorbereitung des „Überregionalen Forschungsprogramms Informatik“ kam vom ersten „Programm für die Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung“, kurz dem „Ersten DV-Programm“ der Bundesregierung. Federführender Minister war der Bundesminister für wissenschaftliche Forschung (BMwF), Herr Dr. Gerhard Stoltenberg. Das erste DV-Programm wurde am 26.04.1967 mit einer Laufzeit von 1967 bis 1971 und einem Mittelumfang von 230 Mio. DM für „Technologien und Systemprogrammierung von DV-Anlagen“, aus dem ab 1970 auch erste Mittel für das Forschungsprogramm Informatik bereitgestellt wurden, von einem Ausschuss des Bundeskabinetts verabschiedet. Im BMwF wurde die ganze Vorbereitung des Forschungsprogramms Informatik im Zeitraum 1967 bis 1969 quasi im Alleingang vom damaligen Referatsleiter für die Datenverarbeitung, Herrn Hans Donth*, durchgeführt, der dabei von bedeutenden Forscherpersönlichkeiten, namentlich von den Herren Robert Piloty, Ludwig Bauer, Wolfgang Händler, Karl-Heinrich Weise, Kurt Fränz und Heinz Unger beraten wurde. Diese Namen sind in nahezu allen vorbereitenden Beratungsgremien des BMwF, deren Namen und Funktionen ständig wechselten, konstant vertreten. Herr Donth hat das später alles ausführlich dokumentiert [7] und zum Teil veröffentlicht [8]. Dort können auch weitere Beteiligte, wie u. a. die Professoren Wolfgang Giloi, Walter Knödel, Klaus Samelson, Günter Hotz und Bodo Schlender, nachgelesen werden. Er hat in seiner Dokumentation insgesamt 29 schwierige und mutige Schritte aufgeführt, die im Endeffekt zur Verwirklichung des Forschungsprogramms Informatik geführt haben. Davon sollen hier der Kürze wegen aber nur die wichtigsten Schritte wiederholt werden. Der erste wichtige Schritt zur Vorbereitung des Forschungsprogramms Informatik erfolgte gleich in der ersten Sitzung des bereits erwähnten Ad-hoc-Ausschusses des Fachbeirats für Datenverarbeitung am 19.01.1968 unter Vorsitz von Herrn Robert Piloty. Das Ergebnis dieser Sitzung lässt sich wie folgt zusammenfassen [8]:
*
im August 2005 leider verstorben.
1.2 Schwerpunkte der Informatikforschung
7
1. An einigen geeigneten Hochschulen, vorzugsweise an solchen, die sowohl über elektrotechnische als auch mathematische Fakultäten bzw. Abteilungen verfügen, sollte die Einrichtung eines Studiengangs „Informatik“ gefördert werden. 2. Dieser Studiengang sollte etwa der US-Ausbildung in Computer Science entsprechen, neun Semester umfassen und mit einem akademischen Grad (z. B. Diplom-Informatiker) abgeschlossen werden. 3. Auf längere Sicht erschien es zweckmäßig, die Lehrstühle für diese Studienrichtung in einem interfakultativen Institut zusammenzufassen. Diese Vorschläge waren u. a. auch deshalb so beachtlich, weil sich bis dahin, und je nach Ort auch noch Jahre später, Mathematiker wie Elektroingenieure in den wichtigsten deutschen Universitäten um die Integration der Informatik in ihre eigene Disziplin als Nebenfach bemühten. Die Mehrzahl der Experten war damals der Meinung, dieses Gebiet komme nur als Nebenfach oder Aufbaustudium in Frage. Der zweite wichtige Schritt war eine Bestätigung und Präzisierung der Empfehlungen des Ad-hoc-Ausschusses durch den Fachbeirat für Datenverarbeitung und die Übersendung der Empfehlungen durch Minister Stoltenberg am 20. Juni 1968 an den Präsidenten der Kultusministerkonferenz, an den Vorsitzenden des Wissenschaftsrates und an den Präsidenten der Westdeutschen Rektorenkonferenz. Die Empfehlungen gewannen nun ein nicht mehr zu bremsendes Eigenleben. Der dritte wichtige Schritt war, dass Ende 1968/69 der Fachausschuss „Informationsverarbeitung“ der Gesellschaft für Angewandte Mathematik und Mechanik (GAMM) und der Ausschuss 6 der Nachrichtentechnischen Gesellschaft (NTG) ein Studienmodell für die Informatik an Hochschulen entwickelten. Dies wurde von den Vorsitzenden beider Ausschüsse, Ludwig Bauer und Wolfgang Händler, am 20.06.1969 an die Kultusministerkonferenz und an die Westdeutsche Rektorenkonferenz gesandt. Der vierte wichtige Schritt war, dass ein Fachausschuss der Kultusministerkonferenz im September 1969 eine „Rahmenordnung für die Diplomprüfung in Informatik“ verabschiedete, wobei die GAMM/NTG-Stellungnahme als Grundlage gedient hatte. Die Rahmenordnung wurde von der Kommission für Prüfungs- und Studienordnungen der Kultusministerkonferenz am 24.10.1969 verabschiedet und den Fakultäten zur Stellungnahme zugesandt. Lange danach, erst am 1. Februar 1973, erfolgte die offizielle Verabschiedung durch die Kultusministerkonferenz. Darauf und auf andere langwierige Prozesse hat man im BMwF aber nicht gewartet, vielmehr wurden bereits im September 1968 Kontakte zum Bundesfinanzminister und zu den Kultusministern der Länder aufgenommen, um die Aufbauphase für die Forschung und Lehre der Informatik an einigen deutschen Hochschulen anteilig vom Bund zu fördern. Die anschließenden Verhandlungen zeigten dann sehr rasch die Randbedingungen für Fördermaßnahmen des Bundes auf. Artikel 91b des Grundgesetzes, den der Deutsche Bundestag später am 12.05.1969 verabschiedet hat, war schon in Beratung. Er ließ eine Beteiligung des Bundes nur an den Personal- und Sachkosten für die Einrichtungen und Vorhaben der wissenschaftlichen Forschung von überregionaler Bedeutung zu, nicht aber für die Lehre.
8
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Mit diesen Randbedingungen wurde vom inzwischen gebildeten Bundesministerium für Bildung und Wissenschaft (BMBW) schließlich als fünfter und letzter entscheidender Schritt am 27. November 1969 der „Entwurf einer Vereinbarung zwischen Bund und Ländern zur Förderung der Informatik“ nach Artikel 91b des Grundgesetzes erarbeitet, der danach von einer Arbeitsgruppe „Informatik“ der Kultusministerkonferenz und des BMBW, wenn auch nicht verabschiedet, so doch so positiv behandelt wurde, dass die Länder auf dieser Basis ab 1970 Förderanträge an den Bund stellten und die ersten Bescheide ab April 1970 erteilt wurden. Wesentliche Elemente des „praktischen“ Einvernehmens zwischen Bund und Ländern war die Förderung von Forschungsgruppen mit begutachtungsfähigen Forschungszielen, die das Rückgrat für den von den Ländern allein aufzubauenden Studiengang Informatik sein sollten. Mit einer 70%igen Beteiligung des Bundes an den Ausgaben für das Forschungsprogramm Informatik sollte die auf 5 Jahre konzipierte, besonders teure Aufbauphase an 12 bis 15 Hochschulen mit zusammen etwa 120 Forschungsgruppen überwunden werden. Anschließend sollte das Programm allein von den Ländern weitergeführt werden. Gefördert wurden Personalund Sachausgaben und die Anmietung von eigenen Informatikrechnern. 1.2.1.2 Die Inhalte und Maßnahmen im „Überregionalen Forschungsprogramm Informatik“ Die inhaltliche Grundlage für die Förderung des Forschungsprogramms Informatik ab 1970 war die sog. Anlage 1 zum Entwurf der Bund-Länder-Vereinbarung, das „Überregionale Forschungsprogramm Informatik“, welches am 27.11.1969 in einer ersten Version vorlag und dann bis zum 13. April 1972 ergänzt wurde. Es definierte insgesamt 13 Forschungsgebiete, in denen theoretische, praktische, technische und anwendungsorientierte Themen enthalten waren. Etwas ab- oder aufwertend, je nachdem zu welcher Gruppe man gehörte, wurden später hin und wieder die ersten Themengruppen als Kerninformatik und die letzten vier salopp als Bindestrichinformatik bezeichnet. 1. Automatentheorie und formale Sprachen Untersuchung von abstrakten Modellen für diskrete Prozesse (Automaten), Programmiertechniken und von Systemen zur syntaktischen Beschreibung von Programmiersprachen. 2. Programm- und Dialogsprachen sowie ihre Übersetzer Entwicklung von benutzerorientierten, möglichst maschinenunabhängigen Programmiersprachen und Übersetzern, besonders für den Dialogverkehr, der die schrittweise Behandlung von Aufgaben mit ständiger Eingriffsmöglichkeit des Benutzers erlaubt.
1.2 Schwerpunkte der Informatikforschung
9
3. Rechnerorganisation und Schaltwerke Neue Systemkonzepte und Systemkonfigurationen, Kommunikationsprobleme in Teilnehmer- und Verbundsystemen, Entwurfsautomatisierung bei Rechenanlagen und Schaltwerken. 4. Betriebssysteme Programmsysteme zur Steuerung des Betriebsablaufs in DVA mit dem Ziel einer optimalen Ausnutzung der eingesetzten Betriebsmittel. 5. Systeme zur Informationsverwaltung Allgemeine Verfahren zur Speicherung und Bearbeitung strukturierter Datenbestände in DV-Anlagen, insbesondere Regeln zur Kennzeichnung und Anordnung von Daten in technischen Speichern. Darauf abgestimmte Algorithmen für Aufruf, Fortschreibung, Löschung und Ergänzung von Daten des Bestandes. Implementierung von benutzerorientierten Sprachen zur Programmierung dieser Bearbeitungsvorgänge. 6. Verfahren zur digitalen Verarbeitung kontinuierlicher Signale Verarbeitung zeitlich oder räumlich veränderlicher Signale durch den Rechner, insbesondere im Zusammenhang mit der Mustererkennung und der Überwachung und Steuerung physikalischer, chemischer, biologischer und technischer Prozesse. Entwicklung passender Verfahren und Einrichtungen zur Wandlung und Interpretation dieser Signale. 7. Rechnertechnologie Nutzbarmachung der aktuellen Möglichkeiten der Bauelemente-Technologie und Gerätetechnik für die Weiterentwicklung von DV-Anlagen, Erforschung und Entwicklung neuer Technologien und Konstruktionen aus den Bedürfnissen der DVSysteme. Verfahren zur Automatisierung der Entwicklung und Fertigung. 8. Automatisierung technischer Prozesse mit Digitalrechnern Erforschung von Methoden und Verfahren zur Automatisierung technischer Prozesse im industriellen Produktionsbereich (Verfahrens- und Fertigungstechnik), im Transport- und Verkehrswesen, in der Energieverteilung, der Versuchsfeld- und Laborarbeit und der Haustechnik durch digitale Prozessrechensysteme. 9. Rechnerunterstütztes Planen, Entwerfen und Konstruieren Erforschung der Einsatzmöglichkeiten von DV-Systemen zur Rationalisierung der Planungs- und Entwurfsprozesse in komplexen technischen Systemen, wie sie etwa im Bauwesen, im Maschinenbau, in der Energie- und Nachrichtentechnik usw. auftreten. Entwicklung und Implementierung von rechnerunterstützenden Bearbeitungsverfahren.
10
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
10. Methoden zur Anwendung der Datenverarbeitung in der Medizin Erforschung von Grundlagen und Methoden für Anwendungen der Informationsverarbeitung in der Medizin, die besondere gerätetechnische, programmiertechnische oder systemorganisatorische Anforderungen stellen. 11. Methoden zur Anwendung der Datenverarbeitung im pädagogischen Bereich Erforschung von Methoden und Verfahren der Informatik (einschließlich Programmiersprachen) als Hilfsmittel des Lehrens, des Lernens, der Unterrichtsforschung und der Unterrichtsorganisation im Kontext der Ausbildung an Schulen, Hochschulen sowie berufsbildenden Institutionen. 12. Betriebswirtschaftliche Anwendungen der Datenverarbeitung Forschung auf dem Gebiet der rechnerunterstützten Anwendungssysteme für betriebswirtschaftliche Aufgaben. Entwicklung von ökonomischen Methoden zur Unterstützung der Einsatzvorbereitung und des Betriebs von Datenverarbeitungssystemen. 13. Methoden zur Anwendung der Datenverarbeitung in Recht und öffentlicher Verwaltung Erforschung der Einsatzmöglichkeiten der Datenverarbeitung in Recht und öffentlicher Verwaltung. 1.2.1.3 Die Durchführungsphase des Forschungsprogramms Informatik durch Bund und Länder Die eigentliche Durchführungsphase des Forschungsprogramms Informatik war finanziell und politisch durch das „Zweite Datenverarbeitungsprogramm der Bundesregierung“ markiert, in welchem das Informatikprogramm erstmals als eigener Förderschwerpunkt dargestellt wurde und Bundesmittel im Umfang von 190 Mio. DM für den Zeitraum von 1971 bis 1975 angekündigt wurden. Federführender Minister zum Zeitpunkt der Verabschiedung des 2. DV-Programms war der Bundesminister für Bildung und Wissenschaft, Herr Prof. Dr.-Ing. Hans Leussink. Zur Begutachtung und Steuerung des Programms auf Bundesseite wurde (zunächst ein Ad-hoc-Ausschuss, dann) ein Sachverständigenkreis „Überregionales Forschungsprogramm Informatik“ eingerichtet, in den alle beteiligten Hochschulen einen Vertreter delegierten und der vom BMBW mit Experten aus der Wirtschaft und Verwaltung ergänzt wurde. Den Vorsitz übernahm nach einer kurzen Übergangszeit mit Robert Piloty gegen Ende des Jahres 1970 Gerhard Goos von der Universität Karlsruhe, der den Sachverständigenkreis bis zu seiner Verabschiedung im Jahr 1978 in enger Abstimmung mit den Vertretern des Ministeriums souverän leitete. Der Sachverständigenkreis nahm im Wesentlichen folgende Aufgaben wahr:
1.2 Schwerpunkte der Informatikforschung
11
• Konkretisierung des 2. DV-Programms im Bereich des Überregionalen Forschungsprogramms Informatik an Hochschulen • Beobachtung und Beurteilung der wissenschaftlichen und technischen Entwicklung • Erarbeitung von Kriterien für die Beurteilung einschlägiger Förderungsanträge • Abgabe von Empfehlungen über in der nächsten Zeit zu fördernde FuE-Projekte • Mitwirkung bei der Projektbeteiligung Eine Übersicht zu den Mitgliedern des Sachverständigenkreises gibt Tabelle 1.1. Der Aufbau des Informatikprogramms wurde dann zu Beginn der 70er Jahre von allen Stellen zügig vorangetrieben. Das BMBW stellte ab 1970 für die Informatikgruppen Mittel bereit, die in den nachfolgenden Jahren hohe Steigerungsraten aufwiesen. Es übernahm unter enger fachlicher Beratung durch den Sachverständigenkreis die erforderliche Führungs- und Koordinierungsfunktion für das Informatikprogramm gegenüber den beteiligten Hochschulen und Ländern. Die Tabelle 1.1 Sachverständigenkreis Forschungsprogramm Informatik im Jahr 1974 [9] Mitglieder
Einrichtung
Prof. Friedrich Bauer Rüdiger Bernhardt Prof. Günter Bertram Prof. Karl-Heinz Böhling Prof. Wilfried Brauer/ Prof. Hans-Helmut Nagel Dr. Herbert Donner/ Dr. Gerhard Bretschneider Dipl.-Ing. Albert Endres Prof. Gerhard Goos, Vorsitzender Prof. Wolfgang Händler Prof. Walter Knödel Prof. Hans Langmaack/ Prof. Günther Hotz Prof. Hans-Otto Leilich Prof. Bernd Reusch Prof. Fritz Reutter/ Prof. Walter Ameling Prof. Sigram Schindler/ Prof. Bleicke Eggers Prof. Bodo Schlender Dipl.-Math. Peter Schnell Dr. Hans-Jürgen Siegert Dr. Ernst Vöge Prof. Hartmut Wedekind/ Prof. H.-J. Hoffmann Prof. Hans-W. Wippermann
Technische Universität München ZMD, Frankfurt Technische Universität Hannover Universität Bonn Universität Hamburg Siemens AG, München IBM-Deutschland, Sindelfingen Universität Karlsruhe Universität Erlangen-Nürnberg Universität Stuttgart Universität des Saarlandes Technische Universität Braunschweig Universität Dortmund Technische Hochschule Aachen Technische Universität Berlin Universität Kiel Software AG, Darmstadt Telefunken-Computer, Konstanz Volkswagenwerk, Wolfsburg Technische Hochschule Darmstadt Universität Kaiserslautern-Trier
12
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Tabelle 1.2 Zwischenstand des Informatikprogramms im Jahr 1974 [10] Jahr
1970
1971
1972
1973
1974
Bundesmittel Mio. DM Forschungsgruppen Studenten Informatik Hauptfach
5,4 41 1100
6,9 66 1700
19,4 82 2100
35,2 94 3500
44,9 110 4800
Hochschulen bauten das Informatik-Lehrangebot und die Informatik-Studienplätze nahezu parallel zu der Ausstattung mit Forschungsgruppen auf. Gegen Ende des Jahres 1974 war die Aufbauphase des Programms mit 14 beteiligten Hochschulen, 110 Forschungsgruppen, 4800 Studenten mit Informatik als Hauptfach und etwa gleichviel Studenten mit Informatik als Nebenfach im Wesentlichen abgeschlossen und eine verstärkte Forschungsarbeit begann. Dies war auch der Zeitraum, in dem das inzwischen zuständige Bundesministerium für Forschung und Technologie (BMFT) durch die Gründung und jährliche Einberufung von Koordinierungs-Seminaren in den einzelnen Fachgebieten des Informatikprogramms dafür sorgte, dass die Forschungsarbeiten aller Gruppen untereinander abgestimmt wurden – die damaligen Informatik-Professoren kamen aus den verschiedensten Fachgebieten – und deren Ergebnisse allgemein verfügbar wurden. Die folgende Tabelle 1.3 zeigt die Koordinatoren in den einzelnen Fachgebieten des Informatikprogramms zum Ende des Jahres 1974. Das folgende Zeitfenster von Gerhard Goos und sein ausführlicher Bericht im Teil II beschreiben die Entwicklung der Informatikforschung in den 70er Jahren in wissenschaftlicher Hinsicht [9, 10, 11]. Tabelle 1.3 Koordinatoren im Informatikprogramm im Jahr 1974 [10] Fachgebiet
Koordinator
Automatentheorie und formale Sprachen Programm-, Dialogsprachen, Übersetzer Rechnerorganisation und Schaltwerke Betriebssysteme Systeme zur Informationsverwaltung Verfahren zur digitalen Verarbeitung kontinuierlicher Signale Rechnertechnologie Automatisierung technischer Prozesse Rechnergestütztes Planen, Entwerfen und Konstruieren Methoden zur Anwendung der DV im pädagogischen Bereich
Prof. Deussen, Uni Karlsruhe Prof. Schneider, Uni Erlangen Prof. Schecher, TU München Prof. Weise, Uni Kiel Prof. Stiege, TU Braunschweig Prof. Musmann, TU Braunschweig/ TU Hannover Prof. Hilbert, TH Darmstadt Prof. Färber, TU München Dr. Grieger, Uni Stuttgart Prof. Brunnstein, Uni Hamburg
1.2 Schwerpunkte der Informatikforschung
13
1.2.1.4 Überführung des Informatikprogramms in die reine Länderfinanzierung Die Beendigung der gemeinsamen Förderung des Informatikprogramms durch Bund und Länder erfolgte im Rahmen des „Dritten DV-Programms“, welches von 1976 bis 1979 lief, unter dem Bundesminister für Forschung und Technologie, Herrn Hans Matthöfer. Ausgehend von den Analysen zu Bedarf und Angebot an DV-Fachkräften des Ad-hoc-Ausschusses „Ausbildung von DV-Fachkräften“ und dessen Empfehlungen, auf die im nächsten Kapitel näher eingegangen wird, kam der BMFT im Dritten DV-Programm zu dem Ergebnis, das Forschungsprogramm Informatik bis Ende 1978 stufenweise abzubauen. Der BMFT beteiligte sich also noch bis einschließlich 1976 in voller Höhe an der Finanzierung des Forschungsprogramms Informatik, danach begann die schrittweise Überführung des Programms in die alleinige Finanzierung durch die Länder, die Ende 1978, in einigen Fällen erst im Jahr 1979 abgeschlossen wurde. Diese Überführung stellte die Länder durchaus vor erhebliche finanzielle Probleme, allerdings haben alle am Programm beteiligten Bundesländer diese Aufgaben gelöst. Der BMFT erleichterte den Ländern dabei noch die Weiterfinanzierung des Programms, indem er für eine Reduzierung der Folgekosten durch anteiligen Restkauf der Informatikrechner, mit denen alle 14 beteiligten Hochschulen ausgestattet waren, sorgte. Hierfür wurden in den Jahren 1977 bis 1979 allein 27 Mio. DM Bundesmittel bereitgestellt. Über Bewilligungsauflagen wurde sichergestellt, dass diese Rechner auch nach Auslaufen der Bundesförderung bei den Informatikgruppen verblieben. Das folgende Diagramm (Abb. 1.1) zeigt die Bundesmittel vom Anfang bis zum Ende der Förderung und die entsprechenden komplementären Landesmittel, auch in der Übergangsphase des Forschungsprogramms Informatik:
Abb. 1.1 Bundes- und Landesmittel (pro Jahr) für das Forschungsprogramm Informatik [11]
14
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Zeitfenster Informatikforschung in Deutschland in den 70er Jahren Gerhard Goos Um 1970 gab es im deutschsprachigen Raum die Arbeitsgruppen von Friedrich L. Bauer und Klaus Samelson an der TU München, Wolfgang Giloi an der TU Berlin, Wolfgang Händler an der Universität Erlangen-Nürnberg, Karl Steinbuch an der Universität Karlsruhe und die durchaus nennenswerten Forschungsaktivitäten von Robert Piloty in Darmstadt, Johannes Dörr zusammen mit dem damals frisch berufenen Günter Hotz in Saarbrücken, Heinz Rutishauser und dem 1968 berufenen Niklaus Wirth an der ETH Zürich und schließlich des weltbekannten IBM Labors Wien, das in den 60er Jahren die Vienna Definition Language als Grundlage einer formalen Beschreibung von PL/1 und später die Vienna Definition Method zur Systembeschreibung hervorgebracht hatte und Heimstatt zahlreicher Informatikprofessoren an deutschen Universitäten war. Und dann gab es, als Institutsleiter in der GMD, noch den Solitär Carl-Adam Petri, der zwar mit seiner Darmstädter Dissertation 1962 international große Wirkung erzielt hatte, aber in den 70er Jahren außerhalb der GMD kaum in Erscheinung trat. Alle diese Herren waren Mathematiker oder Elektrotechniker. Die Meinungen dieser beiden Gruppen prallten in der GAMM/NTG-Kommission zur Definition der Rahmenprüfungsordnung Informatik hart aufeinander, wobei sich im Abschluss 1969 die mathematische Fraktion behauptete. Neben dem IBM Labor in Wien war zweifellos die TU München das produktivste Zentrum der Informatikforschung. Die DFG hatte das bereits 1967 mit der Vergabe von 6 Forschungsstellen honoriert, wodurch auch ich zu meinen ersten Mitarbeitern im Übersetzerbau gelangte. Daran schloss sich die Gründung des SFB 49 „Programmiertechnik“ an, der ab 1969 in einer ganzen Reihe von Informatikgebieten von der Automatentheorie über Übersetzerbau, Betriebssysteme und Rechnergraphik bis zur Hardwarekonstruktion erfolgreich war. Er war für viele Jahre der einzige Sonderforschungsbereich der DFG im Fachgebiet Informatik. Die international interessantesten Leistungen des SFB erbrachte das Teilvorhaben „Breitbandsprachen und Programmtransformationen“ unter Leitung von Herrn F. L. Bauer und des leider zu früh verstorbenen K. Samelson, das sich der Grundlegung der Programmentwicklung durch funktionale Spezifikationen mit anschließenden Programmtransformationen widmete. Zum internationalen Ansehen trugen natürlich vor allem auch die Garmisch-Konferenz 1968, die den Begriff Software Engineering etablierte, sowie die beiden Kurse über Software Engineering und Übersetzerbau in München bei. Besonders hervorzuheben sind die Sommerschulen in Marktoberdorf, die seit 1970 stattfinden, mit den bedeutendsten internationalen Vortragenden besetzt waren und wesentlich den Durchbruch der Methodik des Strukturierten Programmierens bewirkten, bevor sie sich theoretischeren Themen zuwandten. Zu den Leistungen der Hardwaregruppen von Herrn Giloi und Herrn Händler gehörten die Entwicklung von Parallelrechnern für spezielle Anwendungszwecke. Insbesondere führten die Arbeiten von Giloi später zur Gründung der Darmstädter Rechnergraphikinstitute
1.2 Schwerpunkte der Informatikforschung
unter seinem Schüler Encarnação, deren größter Erfolg in den 70er Jahren die Entwicklung des graphischen Kernsystems GKS war, das zum amerikanischen und ISO-Standard wurde. In Braunschweig betrieb Herr Leilich, insbesondere aber auch sein Mitarbeiter und Kollege Gliem, seit 1969 sehr erfolgreich die Entwicklung von Rechnern und Messapparaturen aus gehärteten Bausteinen für den Einsatz im Weltraum. Im Bereich Betriebssysteme gab es mehrere Entwicklungen wie z. B. das Karlsruher Betriebssystem HYDRA für die Electrologica X8 und das Münchner Betriebssystem BSM, für den TR 440, die es aber alle nicht schafften, wesentlichen Einfluss im internationalen Umfeld zu gewinnen. Dies gelang einzig dem EUMEL-Betriebssystem von Jochen Liedtke, das 1979 und danach als Laufzeitsystem für die Programmiersprache ELAN an der Universität Bielefeld entstand und den Ausgangspunkt der heutigen Mikrokernbetriebssysteme darstellt. Liedtke arbeitete später bei der GMD, bei IBM Research in Yorktown Heights und dann bis zu seinem frühen Tod als Professor in Karlsruhe. Im Bereich Übersetzerbau produzierten die TU München und die Universität Karlsruhe Softwarebaukästen, um Teile der Analysephase von Übersetzern aus formalen Spezifikationen zu erzeugen, von denen Stücke in weiterentwickelter Form auch heute noch im internationalen Einsatz sind. Besonders hervorzuheben sind die Karlsruher Grundlagenarbeiten zu geordneten und partitionierten attributierten Grammatiken. In Karlsruhe gab es mit finanzieller Unterstützung durch den BMFT seit 1976 ein Projekt, um den französischen Übersetzer für die Programmiersprache LIS von Iris80-Maschinen auf das BS2000 zu übertragen. Daraus entwickelte sich Ende der 70er Jahre das Karlsruher Ada-Projekt, das dann von Projektmitarbeitern kommerzialisiert wurde und wegen seiner Anpassungsfähigkeit an neue Prozessorarchitekturen auch in Amerika viele Jahre lang hochgeschätzt war. Im Grundlagenbereich sind zunächst die Arbeiten von Hans-Jürgen Schneider in Erlangen zu nennen, der das Arbeitsgebiet Graphgrammatiken und Graphtransformationen begründete, auf dem heute weltweit viele Wissenschaftler theoretisch und praktisch arbeiten. Die Herren Hartmut Ehrig und Bernd Mahr bauten an der TU Berlin eine sehr leistungsfähige theoretische Informatik auf; das gleiche gilt für Wilfried Brauer an der Universität Hamburg. Hans Langmaack, aus München kommend, befasste sich zuerst in Saarbrücken und dann an der Universität Kiel mit formalen Eigenschaften von Programmiersprachen, baute aber dann auch wieder Übersetzer, wie er das in den 60er Jahren in München schon gemacht hatte. Der Aufstieg der Saarbrücker Informatik zu einem weltweit bekannten Zentrum der Algorithmik begann 1975 mit der Berufung von Kurt Mehlhorn. Auch die Künstliche Intelligenz kam Mitte der 70er Jahre mit Arbeiten von Wolfgang Bibel wieder auf die Beine, wenn auch zuerst nur sehr holprig. Die Gruppen von Rudolf Bayer an der TU München, Peter C. Lockemann in Karlsruhe und Jochen W. Schmidt in Hamburg waren in den 70er Jahren führend in der Welt der Datenbanksysteme. R. Bayer erfand die B-Bäume, die dann zum Implementierungsstandard relationaler Datenbanksysteme wurden. Herr Lockemann beschäftigte sich insbesondere mit Methodenbanken, einem Vorläufer der heutigen Wissensmanagementsysteme. Herr Schmidt integrierte Relationen in mehrere Programmiersprachen. Bemerkenswerte Wirkung auf die Datenbankwelt der 80er und 90er Jahre hatten auch die Arbeiten von Albert Blaser, IBM Forschungszentrum Heidelberg, und Erich Neuhold, Stuttgart (s. a. ausführlichen Bericht in Teil II).
15
16
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Die Spitzenausgaben von Bund und Ländern für das Informatikprogramm betrugen im Zeitraum 1975/1976 zusammen jährlich etwa 77 Mio. DM. Durch den Rechner-Restkauf und durch geringe Einsparungen konnte das Programm von den Ländern jedoch mit jährlich etwa 57 Mio. DM weitergeführt werden. Es gab bei der Überführung an einigen Universitäten Personalreduzierungen, die jedoch bezüglich des Erhalts der aufgebauten Informatikforschung und -lehre an den beteiligten 14 Hochschulen nicht kritisch waren. Über den Endstand des Forschungsprogramms Informatik wurde vom Autor dieses Artikels auf der siebten Jahrestagung der Gesellschaft für Informatik am 26. September 1977 in Nürnberg ausführlich berichtet [11]. Tabelle 1.4 zeigt eine summarische Übersicht über die beteiligten Hochschulen, deren Forschungsgruppen, Wissenschaftler und Informatikstudenten (Hauptfach). Dazu noch folgende Erläuterungen: Eine Detailbetrachtung ergab einen etwa planmäßigen Ausbau des Informatikprogramms mit Forschungsgruppen in den ersten neun Fachgebieten, also den sog. Kerninformatikgebieten, und einen nicht planmäßigen Ausbau in den vier Anwendungsgebieten, also DV in der Medizin, im pädagogischen Bereich, in der Betriebswirtschaft und in Recht und öffentlicher Verwaltung. Hier gab es aber zumindest in den ersten drei der vier Anwendungsgebiete bereits nennenswerte Forschungsaktivitäten in Deutschland außerhalb des Forschungsprogramms Informatik aus der intensiven Anwendungsförderung des BMFT. Die Zahl der gemeinsam finanzierten Forschungsgruppen Mitte des Jahres 1976 betrug 112, sieben Forschungsgruppen wurden bei der Überführung in die Länder-Finanzierung im Jahr 1977 gestrichen, sieben neue Forschungsgruppen außerhalb des Informatikprogramms jedoch aufgebaut (Klammerwerte in der Tabelle 1.4). Es gab an den am Programm beteiligten Hochschulen 550 Stellen für Wissenschaftler und 320 Stellen für nicht-wissenschaftliches Personal, die in die Länderfinanzierung übernommen wurden. Neben den in der letzten Spalte der Tabelle 1.4 dargestellten Studenten mit Informatik als Hauptfach gab es Ende 1976 an den am ÜRF beteiligten Hochschulen noch etwa 5050 Studenten mit Informatik als Nebenfach (s. Abb. 1.2). Dazu kamen – gerade bei den Nebenfachzahlen – zu der Zeit aber schon verstärkt noch Studenten von einigen Hochschulen, die nicht mehr am Informatikprogramm beteiligt werden konnten. An den Hochschulen Duisburg, Frankfurt, Hannover, Köln und Hagen war die Informatik als Nebenfach inzwischen eingeführt. Neue Hauptfach-Studiengänge wurden an der Bundeswehrhochschule in München und an der Universität Bremen vorbereitet.
Beginn Förderung
Juli 1970 April 1970 Juni 1970 Juni 1970 Juli 1970 Juli 1970 April 1970 Juli 1970 Juli 1970 Januar 1971 Januar 1971 Januar 1971 April 1973 Juni 1973
Hochschule
TU Berlin TH Darmstadt Uni Karlsruhe Uni Saarbrücken Uni Bonn Uni Kiel Uni Hamburg TU Braunschweig Uni Stuttgart TH Aachen TU München Uni Erlangen Uni Dortmund Uni Kaiserslautern Summe
036,1 018,0 033,2 008,0 006,0 011,9 015,7 007,6 031,3 026,0 036,8 023,4 003,5 005,8 263,3
Bundesmittel Summen Mio. DM IBM 370/158 S 7748 S 7755 TR 440 AEG 80-60 S 7755 PDP 1050 PRIME 300 TR 440 TR 440 TR 440 CDC 172 S 7738 S 7730
Informatikrechner
007 008 (+ 1) 014 007 006 005 006 (+ 1) 007 011 008 (+ 1) 012 007 (+ 1) 003 (+ 3) 004 105 (+ 7)
Forschungsgruppen
0200 0172 0160 0043 0060 0030 0078 0058 0085 0035 0185 0190 0158 0050 1504
InformatikStudienplätze pro Jahr 1010 0482 0708 0211 0399 0180 0360 0185 0325 0262 0588 0401 0581 0115 5807
Informatikstudenten Summe Dez 76
1.2 Schwerpunkte der Informatikforschung
Tabelle 1.4 Endstand des Forschungsprogramms Informatik im Jahr 1977
17
18
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Die folgenden beiden Abbildungen zeigen die Entwicklung der Zahlen der Informatikstudenten im Zeitraum des ÜRF und danach, bis zum Ende des Jahrhunderts.
Abb. 1.2 Informatik-Studenten an den am ÜRF beteiligten Hochschulen [11]
Abb. 1.3 Entwicklung der Informatikstudenten (Diplom) nach dem ÜRF [6, 11]
1.2 Schwerpunkte der Informatikforschung
19
An dieser Stelle soll noch über eine erste erfolgreiche Transfermaßnahme der DV-Forschungsförderung in die Wirtschaft berichtet werden, die aus den Fördermaßnahmen der Anwendung der DV in der Prozesslenkung resultiert und die noch heute nachhaltig sichtbar ist. Das Zeitfenster von Max Syrbe auf der folgenden Seite und der ausführliche Bericht im Teil II gehen darauf ein.
1.2.2 Begleitende Aktivitäten des BMFT zum Forschungsprogramm Informatik 1.2.2.1 IFIP-Reisen, DAAD-Stipendien Neben den Koordinierungs-Seminaren hat das BMFT im Rahmen der DV-Programme einige Förderungsmaßnahmen eingeleitet, die als unterstützende Aktivitäten für das Informatikprogramm gedacht waren. Zu nennen sind die Förderung von wissenschaftlichen Tagungen auf dem Gebiet der Informatik (GI-Tagungen, Advanced Courses u. a.), die Förderung von Reisen deutscher DV-Experten zu Arbeitssitzungen der IFIP und die Förderung von Aufenthalten deutscher Informatik-Studenten und -Wissenschaftler im Ausland im Rahmen des DAAD-Informatikprogramms. Die wichtigste unterstützende Aktivität bestand in den Bemühungen und Erfolgen des BMFT, die Zusammenarbeit der Informatikgruppen an deutschen Hochschulen mit der DV-Industrie und mit den DV-Anwendern zu initiieren und zu intensivieren. Zum Ende des Informatikprogramms liefen immerhin 21 Kooperationsprojekte von Informatikgruppen an den Hochschulen des ÜRF mit der deutschen DV-Industrie, die anteilig vom BMFT und anteilig von der Industrie finanziert wurden, und eine große Zahl von Projekten, die in Zusammenarbeit mit DV-Anwendern durchgeführt wurden. Damit erfolgte ein gerade in der Aufbauphase wichtiger Rückfluss zum Praxisbezug der DV-Ausbildung an den Hochschulen. Es soll in diesem Abschnitt nicht unerwähnt bleiben, dass die Gesellschaft für Informatik, die ja am 16.09.1969 im Bundesministerium für wissenschaftliche Forschung am Rande einer Sitzung des damaligen „Ad-hoc-Ausschusses Überregionales Forschungsprogramm Informatik“ gegründet wurde [3], den Start und den Verlauf des Forschungsprogramms Informatik und seiner Begleitmaßnahmen intensiv und sehr konstruktiv unterstützt hat. Hier müssen insbesondere die ersten Präsidenten der GI (s. a. Anhang), die Professoren Günter Hotz, Manfred Paul, Heinz Gumin und Wilfried Brauer, erwähnt werden. Letzterer hat besonders die schwierige Übergangsphase in die Länderfinanzierung erfolgreich mitgestaltet.
20
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Zeitfenster Prozesslenkung mit DV-Anlagen Ein Innovationsschub der 70er Jahre Max Syrbe Zu Beginn der 70er Jahre war die Aufbauleistung der deutschen Industrie nach dem Desaster des Zweiten Weltkrieges erbracht und die erste Belastung durch die erste Rezession des Jahres 1967 überstanden. Die Aufbauphase war mit Hilfe neuer technischer Funktionen, insbesondere auch der Mess-, Steuerungs- und Regelungstechnik, erfolgreich. Diese Funktionsbereiche hatten als Gerätebasis mehrere Bauelemente-Technologien durchlaufen: elektromotorischbasierte (wie Drehspul-, Wälzsektor- und Verstärkermaschinen-Geräte) sowie magnetverstärker-, röhren- und transistorbasierte Technologien. Für Letztere lagen in Form von Geräten mit Einzelbauelementen Anwendungserfahrungen vor. Mit jedem Technologieschritt wuchs die Möglichkeit, theoretisch begründete Funktionen immer genauer und vollständiger zu realisieren. Der Griff nach dem Rechner, der DV-Anlage, war konsequent der nächste Schritt. Im Vorwort des Tagungsbandes der INTERKAMA 1977 stand: „Ein integrierter elektronischer Halbleiter-Baustein mit 12 000 Transistoren kostet heute weniger als vor 12 Jahren ein einzelner Transistor. Eine Million Bauelemente je Halbleiter-Baustein werden für 1980 prognostiziert.“ Aber dieser Schritt war ein besonders risikoreicher, denn mit ihm verbunden war: • der Übergang von analogen Signalen und Algorithmen zu diskreten bzw. digitalen, • die Realisierung eines Realzeitverhaltens der Rechner, • neuartige Leitstände mit Bildschirmgeräten als Mensch-Maschine-Schnittstelle und nicht zuletzt • die Erhöhung der Systemzuverlässigkeit wegen wachsender Komplexität und großer, neuartiger Bauteilmengen. Für die Hersteller und Anwender galt es, jeweils gestützt auf die Wissenschaft, ihren Weg zu finden, die Chancen zu nutzen, aber Rückschläge zu vermeiden. Hierbei halfen die Förderungsmaßnahmen der Bundesregierung in den drei DV-Programmen von 1967 bis 1979 mit erheblichen Mitteln wesentlich: Sie brachten die maßgeblichen Wissenschaftler, Hersteller und Anwender zusammen und erzeugten als Erstes eine gemeinsame Meinung, als Zweites ein akzeptiertes Vorgehen zur Nutzung der Chancen und Minimierung der Risiken dieses großen Technologieschrittes und schließlich den damit möglichen Innovationsschub. Die Unterstützung dieses Innovationsschubes, hervorgerufen durch Prozesslenkung mit DV-Anlagen (kurz PDV), erfolgte mit dem 2. Programm, das für PDV im Zeitraum 1971 bis 1975 eine Fördersumme von 80 Mio. DM vorsah, die zu 65% für die Entwicklung allgemeiner, übertragbarer Hilfsmittel und Verfahren eingesetzt wurden und zu 35% für die rechnergeführte Automatisierung und die Entwicklung anwendersystem-bezogener Hilfsmittel und Verfahren. Das BMFT delegierte, nach Vorbereitung 1971, die Programmplanung und -durchführung für den Förderbereich PDV als erste von mehreren erfolgreichen Projektträgerschaften ab 01.01.1972 mit einem neuen Gesellschaftsvertrag an die Gesellschaft für Kernforschung in Karlsruhe (GFK) und die Beratung und Kontrolle an einen Sachverständigenkreis unter meiner Leitung. Es arbeiteten in dem Zeitraum 1972–1975 insgesamt 25 Wirtschaftsunternehmen und 25 Institute aus Universitäten und Forschungseinrichtungen in rund 125 Projekten
1.2 Schwerpunkte der Informatikforschung
21
in diesem Programm PDV mit, und sie erreichten die für den Innovationsschub notwendigen Forschungs- und Entwicklungsergebnisse, wie: • Robuste elektronische Geräte zur Binärsignalein- und -ausgabe, zur Analog-DigitalSignalwandlung und zur Eingabe sowie zur Digital-Analog-Signalwandlung. • Signalübertragungen über Sammelleitungs(Bus)systeme, mit geeigneter Steuerung und hoher Geschwindigkeit und Zuverlässigkeit. • Prozessrechner hierfür mit Realzeitbetriebssystemen, die einen schritthaltenden Betrieb und einen quasisimultanen Lauf unterbrechbarer Tasks (priorisierbares Multitasking) erlaubten und eine entsprechende Taskverwaltung besaßen. • Hohe Produktivität der Anwendungsprogrammierer durch portable, rechnerunabhängige Softwareproduktionssysteme, gestützt auf die gemeinsam entwickelte Echtzeitprogrammiersprache PEARL. • Anthropotechnisch optimierte Ein-/Ausgabe-Farbbildschirmsysteme für Leitstände. • Rechnergestützte Entwurfs- und Simulationssysteme. Eine weitgehend vollständige Implementierung und Piloterprobung der Ergebnisse erfolgte mit dem RDC-System (Really Distributed Control System) des Fraunhofer-Instituts IITB in Karlsruhe, bei Thyssen in Duisburg und bei Daimler-Benz in Bremen (s. a. ausführlichen Bericht im Teil II).
1.2.2.2 Ad-hoc-Ausschuss „Ausbildung von DV-Fachkräften“ Um ein Urteil über die Fortsetzung der umfangreichen Fördermaßnahmen im DV-Ausbildungsbereich nach Auslaufen des Zweiten DV-Programms bilden zu können – neben dem Informatikprogramm war das vor allen Dingen die Förderung von DV-Berufsbildungszentren –, wurde vom BMFT im Frühjahr 1973 ein Ad-hoc-Ausschuss „Ausbildung von Datenverarbeitungsfachkräften“ einberufen. Zur Unterstützung seiner Arbeit ließ das Ministerium mehrere Erhebungen durchführen. Die bekannteste war eine Studie der Firma Diebold „Der Bedarf an ADVFachkräften bis 1978“ [12]. Diebold ermittelte darin auf der Basis einer Trendextrapolation des Bestandes an Universalrechnern und Prozessrechnern bei DV-Anwendern und DV-Herstellern (in insgesamt sieben Rechnerklassen) und einer angenommenen Zuordnung von DV-Berufstypen, die für das Management, den Betrieb, die Wartung und insbesondere die Nutzung der verschiedenen DV-Systeme erforderlich waren, den Zusatzbedarf an DV-Fachkräften in der Zukunft. Von Diebold wurde durch Anwender- und Hersteller-Befragung für jeden DV-Berufstyp dann auch noch die gewünschte Ausbildungs-Soll-Verteilung ermittelt. Damit ließ sich neben dem Bedarf an DV-Berufen auch ein Ausbildungsbedarf für die nächsten Jahre in den drei Ausbildungsebenen Hochschulen, Fachhochschulen und Berufliche Bildung prognostizieren.
22
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
Eine quasi komplementäre Studie des WEMA-Instituts ermittelte das vorhandene und prognostizierte „Ausbildungsangebot auf dem Sektor der Datenverarbeitung“ (Ergebnisse in [13]) an den deutschen Hochschulen, Fachhochschulen und Berufsbildungs-Lehranstalten. Im Vorlauf zum 3. DV-Programm konnte dann vom Ad-hoc-Ausschuss die folgende Gegenüberstellung von Angebot an und Nachfrage nach DV-Fachkräften der drei Ausbildungsebenen erstellt, analysiert und begutachtet werden:
Tabelle 1.5 Bedarf und Angebot an DV-Fachkräften 1973–1978 [13] Ausbildungsebene
Durch Ausbildungsstätten zu deckende Nachfrage 1973–1978
Ausbildungsangebot 1973–1978
Jährliches Ausbildungsangebot nach 1978
Hochschulen Fachhochschulen Bereiche außerhalb der Hoch- und Fachhochschulen Gesamtsummen
023 500 026 000 099 500
0 6500 0 3000 79 700
0 2600 00 900 15 200
149 000
89 200
18 700
Dies führte schließlich im Dezember 1975 zu den „Empfehlungen für den Ausbau der DV-Ausbildung“ des Ad-hoc-Ausschusses [13], deren für die Vorbereitung der Fördermaßnahmen im 3. DV-Programm wichtigste Feststellungen und Empfehlungen sich wie folgt zusammenfassen lassen: • Im Hochschulbereich haben die Fördermaßnahmen des 2. DV-Programms zu einer quantitativ im Wesentlichen ausreichenden Ausbildungskapazität für Hauptfachinformatiker geführt. Der weitere Ausbau sollte sich auf die anwendungsorientierte Informatik und auf die Vermittlung von DV-Zusatzqualifikationen für andere Fachrichtungen konzentrieren. • Für den Bereich der Fachhochschulen wird ein starker Ausbau der Ausbildungskapazitäten, bei Beibehaltung der praxisorientierten hoch qualifizierten Ausbildung, gefordert. • Für den Bereich der beruflichen Bildung wird vor allen Dingen die Entwicklung eines Systems einheitlicher Ausbildungsmodule empfohlen, bei Kompatibilität und Kombinierbarkeit von Fort- und Weiterbildung mit der Erstausbildung in DV.
1.2 Schwerpunkte der Informatikforschung
23
Beim Votum für die Hochschulen spielte eine Rolle, dass eine Sättigung des Nachholbedarfs an Informatikern von Anfang bis Mitte der 80er Jahre erwartet wurde, die mit dem Beginn des Vollausstoßes der Hochschulen an Diplom-Informatikern zusammenfallen würde. Die Mitglieder dieses für die Weichenstellungen zum Forschungsprogramm Informatik im Dritten DV-Programm wichtigen Ausschusses sind aus Tabelle 1.6 ersichtlich.
Tabelle 1.6 Ad-hoc-Ausschuss Ausbildung von DV-Fachkräften im Jahr 1974 [9] Mitglieder
Einrichtung
Dr. Olaf Abeln Prof. Wilfried Brauer Dipl.-Ing. Werner Dostal Dipl.-Ing. Dieter Dropmann Dr. Wolfgang Fassbender Prof. Herbert Fenger Prof. Johann Löhn Prof. Rudolf Herschel Prof. Burkart Lutz Vorsitzender Ernst Graf Matuschka Greiffenclau Oberstudienrat Reinhold Neuber Prof. Detlef Schmid Prof. Hans Herbert Schulze Dipl.-Kaufm. Reinhold Stroh Dipl.-Voksw. Karl-Heinz Voll Dipl.-Math. Klaus Wenke Dr. Günther Widdel
Firma BBC AG, Mannheim Universität Hamburg Bundesanstalt für Arbeit, Nürnberg Siemens AG, München DEMAG, Duisburg Bundesanstalt für Arbeit, Erlangen Fachhochschule Furtwangen Fachhochschule Ulm Institut für Sozialwissenschaftliche Forschung e. V., München IBM Deutschland, Stuttgart Bundesinstitut für Berufsbildungsforschung, Berlin Universität Karlsruhe (TH) ADL-Verband für Informationsverarbeitung, München DGB-Berufsfortbildungswerk, Hochdahl Nixdorf Computer AG, Paderborn Martin Brinkmann AG, Bremen ADV/ORGA Unternehmensberatung, Wilhelmshaven
Die Bedarfs- und Angebotszahlen an DV-Fachkräften, insbesondere für den Fachhochschulbereich, wurden im Jahr 1977 im Rahmen der Arbeit des Unterausschusses „Fachhochschulen“ des Fachausschusses „Ausbildung“ der Gesellschaft für Informatik überprüft und in der Prognose auf das Jahr 1980 verlängert, denn inzwischen hatte eine Konjunkturkrise im Zeitraum 1974/75 für Unsicherheit gesorgt. Die Bedarfszahlen aus dem 3. DV-Programm wurden dabei aber nur geringfügig reduziert [14].
24
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
1.2.2.3 Das Programm zur Errichtung Regionaler Rechenzentren Ab dem Jahr 1969 beteiligte sich das jeweilige Bundesministerium für Forschung mit 85% an den Beschaffungskosten für DV-Systeme, die den Rechenbedarf einer Hochschulregion (mehrere Hochschulen) abdeckten. Ziel der Förderung war eine im internationalen Vergleich ausreichende Rechnerausstattung der Hochschulen, denn nur so schien es möglich, die gewünschte große Zahl von Studenten aus Anwendungsgebieten mit Fachwissen auf dem Gebiet der Informatik auszubilden. Damit bestand neben dem Normalprogramm zur Rechnerausstattung der Hochschulen, dem Hochschulbau-Förderungsgesetz (HBFG), auch auf dieser für die breite DV-Ausbildung an deutschen Hochschulen wichtigen Aufgabe eine Sondermaßnahme von Bund und Ländern im DV-Bereich. Die Länder stellten auch hier Förderanträge für Rechenzentren mit regionaler Bedeutung an den Bund. Diese wurden, wie auch die Ausbauanträge im HBFG, fachlich von der Kommission für Rechenanlagen der DFG beraten und bei positivem Votum vom BMFT gefördert. Ausgehend von den technischen Möglichkeiten gegen Ende der 60er Jahre wurden die ersten Regionalen Rechenzentren mit einem leistungsfähigen Rechner an der größten Hochschule einer Region ausgestattet, den die umliegenden Hochschulen über das Versenden von Kartenstapeln mitbenutzen konnten. Ab 1972/73 wurde der Zugriff anderer Hochschulen zu den Regionalzentren über Remote Job Entry (RJE)-Stationen (Übertragungsleistung bis 9,6 Kb/s) und Dialogstationen verbessert. Ab Mitte der 70er Jahre wurden auch Rechnerkopplungen zwischen den Regionalen Rechenzentren und angeschlossenen Hochschulrechenzentren installiert. Hier konnten etwa im Fall der Rechnerkopplung zwischen den Universitäten Heidelberg und Mannheim gegen Ende der 70er Jahre Übertragungsleistungen von 40,8 Kb/s erreicht werden. Der Funktionsumfang beinhaltete, dass beide Rechner gleichberechtigt/symmetrisch (NJE – Network Job Entry) Rechnerleistungen abrufen, bzw. Jobs delegieren sowie den Terminalbetrieb des Partners emulieren konnten. Zum Ende des 2. DV-Programms im Jahr 1975 waren insgesamt 12 Regionale Rechenzentren errichtet. Die bis dahin bereitgestellten Bundesmittel betrugen 213 Mio. DM. Im 3. DV-Programm (Zeitraum 1976–1979) wurden nochmals 139 Mio. DM Bundesmittel für das Programm zur Errichtung Regionaler Rechenzentren bereitgestellt. Damit wurde die Leistungsfähigkeit der bestehenden Zentren qualitativ und quantitativ verbessert, einige neue Regionale Rechenzentren errichtet, und es wurden insbesondere lokale, regionale und überregionale Verbundsysteme ausgebaut. Eine Übersicht über das Regionalprogramm zum Ende des Dritten DV-Programms im Jahr 1979 zeigt die folgende Abbildung. Dabei sind Rechner-RechnerKopplungen durch fette schwarze Linien gekennzeichnet:
1.2 Schwerpunkte der Informatikforschung
25
Abb. 1.4 Programm zu Errichtung Regionaler Rechenzentren im Jahr 1979
Die Bilanz des Regionalprogramms am Ende des 3. DV-Programms war beachtlich. Etwa 2/3 der Universalrechnerbeschaffungen im Hochschulbereich entfielen, gemessen am Wert, auf das Regionalprogramm. Insgesamt 26 Hochschulen erhielten ihre zentrale DV-Versorgung aus dem Programm, weitere 50 Fachhochschulen oder größere wissenschaftliche Einrichtungen waren über Datenstationen
26
1 Schwerpunkte der Informatikforschung in Deutschland in den 70er Jahren
und dezentrale Erfassungs- bzw. Verarbeitungsrechner an die Regionalen Rechenzentren angeschlossen, die im Übrigen auch untereinander weitgehend vernetzt waren. Die Rechnerausstattung deutscher Hochschulen war quantitativ und qualitativ im internationalen Vergleich, insbesondere im oft herangezogenen Vergleich mit den USA, gut bis sehr gut. Das war ein Erfolg, welcher ohne das Regionalprogramm nicht denkbar gewesen wäre [15, 16]. Für den BMFT hat diese Bilanz Ende der 70er Jahre zu der Entscheidung geführt, das Regionalprogramm in den Jahren 1980 bis 1982 mit der Lösung einiger Restprobleme auslaufen zu lassen. Ab diesem Zeitraum wurde die notwendige Rechnerausstattung der Hochschulen allein im Rahmen des dafür vorgesehenen Hochschulbauförderungsgesetzes realisiert.
Literatur und Quellen [1] Güntsch, F.R.: Geschichte der Informationstechnik; Band 1 und 2, Universität Karlsruhe, Vorlesungsmanuskript Wintersemester 1990/91 [2] Bauer, F.L.: Kurze Geschichte der Informatik; Heinz Nixdorf MuseumsForum, Wilhelm Fink Verlag, München 2007 [3] Krückeberg, F.: Die Geschichte der GI; Sonderdruck der GI, 2. Auflage, Bonn, Dezember 2002 [4] Vollmar, R.: Seit wann gibt es Informatik? Abhandlungen der Braunschweigischen Wissenschaftlichen Gesellschaft, Band LI, J. Cramer Verlag, Braunschweig 2002 [5] Naumann, F., Schade, G.: Informatik in der DDR – eine Bilanz; GI-Edition, Lecture Notes in Informatics, Gesellschaft für Informatik, Bonn, 2006 [6] Görke, W.: 25 Jahre Fakultätentag Informatik, 1973–1998, Sonderdruck, Karlsruhe, Dezember 2000 [7] Donth, H.H.: Dokumentation, Einführung eines neuen Studiengangs Informatik, Überregionales Forschungsprogramm Informatik, BMBF, Bibliothek, Bonn 1984 [8] Donth, H.H.: Der Aufbau der Informatik an Deutschen Hochschulen, Elektronische Rechenanlagen, 26. Jahrgang, Heft 5, 1984 [9] Beratungsplan des BMFT, 70er Jahre, BMBF-Bibliothek [10] BMFT-Mitteilungen 3/75, Forschungsprogramm Informatik – Zwischenbilanz (Autor: Reuse, B.), Bonn, März 1975 [11] Reuse, B.: Vortrag auf der 7. Jahrestagung der Gesellschaft für Informatik, Nürnberg, September 1977 [12] Forschungsbericht des BMFT DV 75 – 02, Der Bedarf an ADV-Fachkräften bis 1978, Diebold GmbH, IAB, Frankfurt, Nürnberg, Juni 1975 [13] Forschungsbericht des BMFT DV 75 – 07, Empfehlungen für den Ausbau der DV-Ausbildung, Bonn, Oktober 1975 [14] Auerbach, Böhme, Ehling, Löhn, Reuse: Empfehlungen für den Ausbau von InformatikStudiengängen an Fachhochschulen, Mitteilungen der Gesellschaft für Informatik, Springer, Heidelberg 1978 [15] Reuse, B.: Grußwort des BMFT zur Einweihung des Rechenzentrums der Universität Konstanz, Konstanz, Juni 1976 [16] Reuse, B.: Grußwort des BMFT zur Einweihung des Regionalen Rechenzentrums MarburgGießen, Gießen, Oktober 1980
2
Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren Bernd Reuse (Bad Honnef)
2.1 Die forschungspolitische Situation im DV/IT-Bereich Forschungsminister in dem hier genannten Jahrzehnt waren Dr. Volker Hauff, von Februar 1978 bis November 1980, Dr. Andreas von Bülow, vom November 1980 bis Oktober 1982, und Dr. Heinz Riesenhuber, von Oktober 1982 bis Januar 1993. Die wichtigsten strukturellen Maßnahmen resultierten aus der Jobkillerdiskussion in Bezug auf die Mikroprozessoren gegen Ende der 70er Jahre, die u. a. zum Resultat hatte, dass die Förderung der Großindustrie politisch zurückgefahren wurde und dafür eine breite KMU-orientierte Förderung im Aufbau mit DV-Systemen und -Komponenten eingeleitet wurde. Die Aufbauphase für die Informatiklehre und -forschung im Hochschulbereich war inzwischen abgeschlossen, die Studentenzahlen stiegen erheblich über die in den 70er Jahren prognostizierten und von einigen Experten als Überschussangebote befürchteten Zahlen (s. Kap. 1.2.1). An Gründungen neuer Forschungseinrichtungen ist die des „FZI Forschungszentrum Informatik“ in Karlsruhe im Jahr 1985 zu vermelden. In der Begriffsbildung ging man von der Datenverarbeitung zur Informationstechnik über, in der Förderung von den DV-Programmen zu den IT-Programmen. Verbundprojekte zwischen der Industrie und der Forschung in den Hochschulen und Forschungseinrichtungen wurden nach einer Pause von einigen Jahren – sie wurden erstmals im Überregionalen Forschungsprogramm Informatik eingeführt (s. Kap. 1.2.1) – ab den Jahren 1983/84 in aller Breite neu gestartet und bis heute beibehalten. Es gab in den 80er Jahren drei IT-Förderprogramme: das „Programm zur Förderung von Forschung und Entwicklung auf dem Gebiet der Informationstechnik“, von 1980 bis 1983, die „Konzeption der Bundesregierung zur Förderung der Entwicklung der Mikroelektronik, der Informations- und Kommunikationstechniken“, kurz das Programm „Informationstechnik“, von 1984 bis 1988, und das „Zukunftskonzept Informationstechnik“, welches von 1989 bis 1992 lief. Schwerpunkte der Förderung in den 80er Jahren waren:
27
28
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
• IT-Technologie, IT-Infrastrukur, Grundlagenforschung Aufbau des Deutschen Forschungsnetzes DFN, Unterstützung der optischen Nachrichtentechnik in der Telekommunikation, Verstärkung der breiten Grundlagenforschungsprogramme der Deutschen Forschungsgemeinschaft auf dem Gebiet der Informationstechnik mit Sondermitteln des BMFT • Elektronische Bauelemente Übergang der Förderung der Herstellung von Mikroelektronik zu deren Anwendung – Sonderprogramm Anwendung der Mikroelektronik, Rechnergestützter Entwurf (CAD) für integrierte Schaltungen, mikroelektronische Schlüsselkomponenten, Submikrontechnologie • Elektronische Datenverarbeitung, Informationsverarbeitung Rechnergestützter Entwurf für Computer und Software, neue Rechnerstrukturen, Wissensverarbeitung und Mustererkennung, Spracherkennung, MenschMaschine-Schnittstelle, Software
2.2 Schwerpunkte der Informatikforschung Über die Schwerpunkte der vom Bund geförderten und damit zusammenhängenden Informatikforschung in diesem Jahrzehnt, die sich in den Förderprogrammen bis 1988 noch unter dem Begriff der Elektronischen Datenverarbeitung vereinen und dann zur Informationsverarbeitung übergingen, wird im Folgenden ausführlich berichtet.
2.2.1 Aufbau der KI-Forschung in Deutschland Hier soll zunächst einmal auf die Frage eingegangen werden, warum das Forschungsthema der Künstlichen Intelligenz nicht Bestandteil des Überregionalen Forschungsprogramms Informatik geworden ist. Es gab doch zu der Zeit, als die ÜRF-Themen in Deutschland definiert wurden, also Ende der 60er Jahre, in den USA hinreichend lange laufende und wohl auch von anerkannten Wissenschaftlern wie Minsky (Dartmouth-Konferenz 1956), Weizenbaum (ELIZA 1966), Feigenbaum (Dendral 1967) und anderen getragene Entwicklungen auf dem Gebiet der Artificial Intelligence, über die zuletzt im Beisein von Marvin Minsky auf der internationalen Konferenz „50 Years of AI“ im Juni 2006 in Bremen berichtet wurde [1]. Der Eröffnungsvortrag des Autors dieses Artikels auf der gleichen Konferenz in Bremen hingegen hieß nur „30 Years of Support of AI in Germany“ [2], und er beschrieb die Anfänge der KI in der Förderung der Mustererkennung und der Sprachverarbeitung ab Mitte der 70er Jahre bis heute, wo die KI in praktisch alle Informatikaktivitäten integriert ist und wo inzwischen auch in Deutschland weltweit beachtete Durchbrüche auf diesem Gebiet erzielt wurden, über die in den Folgekapiteln noch ausführlich berichtet wird.
2.2 Schwerpunkte der Informatikforschung
29
Die Antwort kann vom Autor dieses Artikels nicht direkt gegeben werden, denn er kam erst nach dem Start des Überregionalen Forschungsprogramms Informatik, Anfang der 70er Jahre, zu seiner Aufgabe im BMBW bzw. BMFT. Eine Befragung aller noch ansprechbaren früheren Kollegen innerhalb und außerhalb des Ministeriums ergab dann aber das folgende relativ einheitliche Bild: Die Vertreter der Künstlichen Intelligenz hatten in den 50er und 60er Jahren zu früh zu hohe Erwartungen an die Erfolge in der Anwendung der KI geweckt, und in Deutschland gab es Ende der 60er Jahre noch keine international anerkannten Experten auf diesem Gebiet, die die KI in die Diskussionen um das Überregionale Forschungsprogramm Informatik hätten einbringen können. Am ehesten hätte wohl Karl Steinbuch diese Rolle übernehmen können, aber der Kollege Goos geht in seinem Beitrag auf die Gründe ein, warum dies nicht geschah. Im Überregionalen Forschungsprogramm Informatik haben in den 70er Jahren zuerst Hans-Hellmut Nagel an der Universität Hamburg im Bereich „Verfahren zur digitalen Verarbeitung kontinuierlicher Signale“ und Heinrich Niemann von der Universität Erlangen-Nürnberg an Themen der Mustererkennung und an kognitiven Systemen gearbeitet. Sie wurden in den 70er Jahren aber nicht als KI-Themen bezeichnet. Den eigentlichen Anstoß für den breiten Start der Förderung der Themen der KI in Deutschland ab Anfang der 80er Jahre gaben dann sicher die ab Ende der 70er Jahre bekannten Vorbereitungen und dann der Start des „5th Generation Program“ in Japan im Jahr 1982. Allerdings wurden die folgenden nennenswerten Forschungsarbeiten in Deutschland in der Sprachverarbeitung, der Bildverarbeitung und später der Wissensverarbeitung/Expertensysteme, auf die in den nächsten Kapiteln eingegangen wird, in den Förderprogrammen des BMFT bis Mitte der 80er Jahre noch nicht als KI-Themen ausgewiesen. Auch als die Gesellschaft für Informatik 1981/82 die Fachbereichsstruktur einführte, gab es Probleme mit dem Fach der Künstlichen Intelligenz. Es wurde heftig diskutiert, ob die KI, die seit 1975 als Fachgruppe „Methoden der Künstlichen Intelligenz“ aktiv war, weiter in der GI verbleiben sollte und wenn ja, in welchem Fachbereich sie angesiedelt werden sollte. Schließlich machte Wilfried Brauer (GI-Präsidiumsmitglied) den Vorschlag, dass die KI im Range eines Fachausschusses (1.2) mit dem Fachausschuss 1.1 „Grundlagen der Informatik“ gemeinsam den Fachbereich 1 bilden sollte (mit Wilfried Brauer als FB-Sprecher), der dann auch vom GI-Präsidium akzeptiert wurde. Erst im Jahr 1989 gelang es den Vertretern der KI, den Fachbereich 1 mit seinen beiden praktisch unabhängig agierenden Fachausschüssen 1.1 und 1.2 (sowohl was das vertretene Gebiet, als auch was die Mitgliederstruktur betraf) in zwei eigenständige Fachbereiche zu teilen. Die Auseinandersetzungen im GI-Präsidium dauerten dabei ein gutes halbes Jahr, bis die Spaltung des Fachbereichs 1 und die Anhebung des Fachausschusses KI zu einem Fachbereich durch eine Kampfabstimmung mit knapper Mehrheit vollzogen wurde [3]. Bezeichnend ist ein Artikel von Wilfried Brauer, immerhin aus dem Jahr 1993, mit dem Titel „KI auf dem Weg in die Normalität“, worin er noch darauf hinweist, dass es zu jenem Zeitpunkt in der deutschen KI-Gemeinde (noch) umstritten war,
30
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
ob man öffentlich über die Situation der KI diskutieren sollte oder ob das nicht nur den Gegnern und Konkurrenten der KI nütz(t)e [4]. 2.2.1.1 Sprachverarbeitung Bereits Mitte der 60er Jahre wurde in Saarbrücken eine Forschungsgruppe der Deutschen Forschungsgemeinschaft (DFG) um den Linguisten Hans Eggers und den Mathematiker Johannes Dörr eingerichtet, die sich mit der automatischen Textübersetzung Russisch-Deutsch beschäftigte. Aus dieser Kooperation entwickelte sich dann der Sonderforschungsbereich 100 „Elektronische Sprachforschung“ der DFG, der ab 1972 gefördert wurde. Die im SFB 100 unter Günter Hotz entworfene Programmiersprache für die Linguistische Datenverarbeitung, die unter dem Namen COMSKEE von 1973–1985 entwickelt wurde, hatte spezielle dynamische Datentypen für die maschinelle Sprachverarbeitung wie string, set und sentence und war lange Zeit die Grundlage für die Spin-off-Firma DIaLOGIKa (seit 1982 im Markt tätig). Auch das Saarbrücker Textübersetzungssystem SUSY (entwickelt 1972–1986) wurde im Rahmen des SFB 100 für die Übersetzung von Deutsch nach Englisch und Russisch nach Deutsch entwickelt. Der SFB 100 war die Keimzelle für den heutigen Studiengang Computerlinguistik an der Universität des Saarlandes und für das international anerkannte Kompetenzzentrum für Sprachtechnologie am DFKI in Saarbrücken [5]. In den 70er Jahren verstärkten sich die Forschungsarbeiten zur Sprachverarbeitung, auch dank des Überregionalen Forschungsprogramms Informatik, an einigen weiteren Universitäten, wie Hamburg und Erlangen und in der Industrie, namentlich bei Siemens und Philips. Eine erste Übersicht über diese Arbeiten ergibt ein Bericht über einen „Workshop Sprachverarbeitung“ am 08. Dezember 1982 in der GMD [6], welcher im Auftrag des BMFT stattgefunden hat. Dabei fällt auf, dass sich die Industrie schwerpunktmäßig den Themen der Spracherkennung (hier Erkennung aus dem Sprachsignal) widmete – die Wortschatzgrößen lagen bei der sprecherunabhängigen Worterkennung über Telefon bei unter hundert Wörtern –, während im Hochschulbereich – zumindest zu diesem Zeitpunkt – das Verstehen geschriebener Sprache mit linguistischen Methoden am weitesten fortgeschritten war. Beachtlich war u. a. das Projekt HAM-ANS – Hamburger Anwendungsorientiertes Natürlichsprachliches System (1977–1985), dessen Vorläufer „Hamburg Dialogue Partner Model“ (HAM-RPM) bis Mitte 1977 unter der Leitung von Walter von Hahn zunächst als reines Hochschulprojekt an der Universität Hamburg lief. HAM-ANS wurde dann von November 1977 bis Dezember 1980 von der DFG gefördert und von Juli 1981 bis Februar 1985 vom BMFT; eine seltene Karriere eines Forschungsprojekts, über welches auf dem GMD-Workshop ausführlich berichtet wurde. HAM-ANS war eines der ersten wissensbasierten natürlichsprachlichen Systeme, das dem Benutzer über schriftliche Dialoge in deutscher Alltagssprache
2.2 Schwerpunkte der Informatikforschung
31
exemplarische Dialoge in drei verschiedenen Anwendungsszenarien ermöglichte, darunter ein Hotelreservierungssystem und ein bildverstehendes System aus dem Verkehrsbereich. Man konnte (schriftliche) Fragen, Rückfragen, Aufforderungen eingeben, wobei die Systemreaktionen Antworten oder Klärungsrückfragen sein konnten. Am Ende des Projekts hatte HAM-ANS einen Lexikonumfang von 1530 Wörtern, und man konnte in Beispieldialogen ein ausführliches „Gespräch“ mit einem Hotelreservierungssystem führen, das mit der Buchung eines Zimmers und der Bestellung von Getränken endete [7]. Wenn später auf ähnliche Demos in Verbmobil hingewiesen wird, so ist im Vergleich zu HAM-ANS neben dem bei Verbmobil erheblich größeren Vokabular und der Übersetzung vor allen Dingen zu berücksichtigen, dass es sich bei Verbmobil um die Erkennung gesprochener Sprache handelte, wo in den erkannten Sätzen alle möglichen Fehler und Phänomene auftreten können, die eine robuste Weiterverarbeitung, z. B. durch statistische Methoden, erfordern. Bei HAM-ANS wurden hingegen korrekt geschriebene Texteingaben erwartet. Ein wichtiges Vorhaben, welches die Spracherkennung in den 80er Jahren deutlich vorangebracht hat, war das Verbundvorhaben SPICOS – Spracherkennung (1984–1987). Es wurde zunächst von den Partnern Siemens AG (Harald Höge), Philips Communications AG (Herman Ney) und der AEG AG (Helmut Mangold) durchgeführt. Deren Forschungsarbeiten wurden dann (als SPICOS II) in einem größeren Rahmen in das Verbundprojekt „Sprachverstehende Systeme“ eingebracht, an dem noch Alcatel SEL, die DaimlerChrysler AG, die Universitäten Erlangen-Nürnberg, Bochum, Regensburg, Berlin (TU) und München (LMU) beteiligt waren. Das Projekt „Sprachverstehende Systeme“ lief von 1988 bis 1990. In diesem bedeutenden Projekt entwickelten die beteiligten Laboratorien mit Erfahrung in der automatischen Spracherkennung und der Computerlinguistik gemeinsam erste Verfahren zur Erkennung und zum Verstehen fließend gesprochener Sprache und beendeten die bis dahin üblichen kommandohaften, auf akustische Wortgrenzen achtende Spracheingaben. Selbstverständlich bezog sich das noch auf die Erkennung von einfachen Fragesätzen und Befehlen aus einem bestimmten Anwendungsgebiet mit einem begrenzten Wortschatz. Die potenziellen Anwendungsgebiete waren Datenbankzugriffe, Auskunftssysteme, Textverarbeitungssysteme, Prüfsysteme und Telekommunikationsdienste. Im Jahr 1989 erreichte das System SPICOS II eine Wortschatzgröße von 1200, es war sprecheradaptiv, die Dialogstruktur ging über einfache Frage-Antwortsysteme hinaus und ließ Klärungsdialoge und Folgefragen zu. Die Systemantwortzeiten auf einem Minicomputer lagen bei 5 bis 20facher Echtzeit [8]. Von den in den 80er Jahren durchgeführten geförderten wichtigen Verbundprojekten zur Sprachverarbeitung in Deutschland soll noch das Projekt VESPRA – Erkennung und Verarbeitung von gesprochener Sprache mit einfacher Syntax und Semantik für Informations- und Leitsysteme (1987–1990) – erwähnt werden, welches unter der Leitung von der DaimlerChrysler AG zusammen mit der Siemens
32
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Nixdorf AG und Alcatel SEL lief. In ihm wurden erste Anwendungen im Kraftfahrzeug mit seiner Besonderheit der Störgeräuschunterdrückung vorbereitet. Nicht gefördert, aber dennoch sehr nachhaltig wirkend war das Projekt LILOG – Linguistische und logische Methoden zum maschinellen Verstehen des Deutschen (1986–1991) –, welches in Zusammenarbeit von IBM Deutschland (Otthein Herzog) und den Universitäten Hamburg, Osnabrück, Saarbrücken, Stuttgart, Trier und Bielefeld durchgeführt wurde. Darin ging es nicht nur um Computerlinguistik, sondern auch um KI-Methoden, wie die Wissensakquisition und die Wissensrepräsentation [9]. Die Drittmittelfinanzierung (30 Mio. DM) kam insgesamt von IBM. IBM wurde dann ab 1993 Partner im Leitprojekt Verbmobil-Phase 1 und brachte die Ergebnisse von LILOG dort mit ein (s. Kap. 3.2.5.1). 2.2.1.2 Mustererkennung Erste Fördermaßnahmen zur Mustererkennung (Erkennung von Grauwertmustern) gab es schon Ende der 60er Jahre im Bundesministerium der Verteidigung (BMVg). Auf die Forschungsarbeiten zur Mustererkennung in den 70er Jahren im Zweiten DV-Programm im Rahmen des Überregionalen Forschungsprogramms Informatik wurde bereits eingegangen. Mit dem Dritten DV-Programm wurden dann breite Fördermaßnahmen zur Mustererkennung angekündigt und ab Anfang der 80er Jahre durchgeführt, vor allem im Bereich Sprachsignalanalysen, Bildanalysen, Lesegeräte für Texte u. a. Das wichtigste und nachhaltigste Fördervorhaben der 80er Jahre auf dem Gebiet der Mustererkennung war ganz sicher das EUREKA-Forschungsprogramm Prometheus, auf das im Folgenden eingegangen wird. EUREKA-Forschungsprogramm Prometheus Prometheus war ein von Deutschland initiiertes und mit der europäischen Automobilindustrie im EUREKA-Rahmen federführend durchgeführtes Forschungsprogramm, in dem Konzepte und Lösungen erarbeitet wurden, die den Straßenverkehr in Europa in allen seinen Leistungsmerkmalen verbessern, d. h. sicherer, wirtschaftlicher, umweltfreundlicher und komfortabler machen sollten. Prometheus stand für „Program for a European Traffic with Highest Efficiency and Unprecedented Safety“. Die Arbeit an Prometheus begann im Oktober 1986 mit der Definitionsphase, der sich eine Startphase anschloss, die bis Dezember 1988 lief. Im Januar 1989 begann die Hauptphase des Forschungsprogramms, die bis Ende 1994 dauerte. Das Konsortium aus konkurrierenden Unternehmen hat so lange reibungslos gehalten, was beachtlich ist. In Deutschland beteiligten sich an Prometheus alle großen Kraftfahrzeughersteller: BMW, Daimler-Benz, Ford, MAN-Nutzfahrzeuge, Opel, Porsche und Volkswagen, mit jeweils spezifischen Themen. Insgesamt gab es in Deutschland
2.2 Schwerpunkte der Informatikforschung
33
47 direkt beteiligte Firmen (Automobilhersteller, Elektronik- und Zulieferindustrie) und Forschungsinstitute; etwa die gleiche Zahl war noch im Rahmen von Unteraufträgen beteiligt. In Frankreich waren von den großen Unternehmen insbesondere Matra, Peugeot-Citroen und Renault vertreten. Aus Italien kam noch Fiat dazu, aus Großbritannien Jaguar, aus Schweden Volvo und Saab. In Europa waren über 200 Forschungspartner in das Programm eingebunden. Bei einer so beeindruckenden Zahl im Markt konkurrierender Unternehmen muss es gute Gründe gegeben haben, sich im vorwettbewerblichen Feld so reibungslos zusammenzuschließen. Die Hersteller hatten aber erkannt, dass die ständig wachsende Verkehrsdichte in der Zukunft und damit Probleme in der Attraktivität ihrer Produkte nur durch kraftfahrzeugseitige Entwicklungen – die sie wohl meistern konnten – und parallele zugehörige Verkehrsinfrastukturmaßnahmen zu lösen waren. Dafür waren aber die nationalen Verkehrsbehörden zuständig, und diese sollten und wurden in die Begleitung und Förderung der Forschungsvorhaben einbezogen. Das gleiche galt für die EU, ohne die grenzüberschreitende Verkehrsinfrastukturmaßnahmen nicht realisierbar waren. Dabei ging es um intelligente Maßnahmen der Verkehrstelematik und nicht etwa um Bauvorhaben, denn ein Straßenausbau, der dem Wachstum des Verkehrs hätte mithalten können, erschien nicht realisierbar. Der EU kam hier eine besonders wichtige Rolle zu, die sie etwas zögernd, wenn nicht ungern, übernommen hatte, weil sie ja eigentlich in den EUREKA-Initiativen eine Konkurrenz sah und noch heute sieht. Es gab viele lange, schwierige Diskussionen zu diesem Thema mit der EU und mit dem Europäischen Parlament, an denen der Autor dieses Artikels zusammen mit einem sehr hilfreichen Kollegen auf Seiten der EU, Herrn Roland Hüber, Direktor des Forschungsförderungsprogramms DRIVE der EU, beteiligt war. Ihm kommt hier ein großes Verdienst zu. Die von allen Seiten schließlich anerkannten Gründe zum Start von Prometheus lassen sich wie folgt zusammenfassen: • Die volkswirtschaftlichen Verluste durch Suchfahrten, nicht optimale Streckenwahlen und Behinderungen wurden für Europa auf ca. 40 Mrd. DM p. a. geschätzt. • Im Jahr 1989 ereigneten sich in der Bundesrepublik Deutschland 343 500 Unfälle mit Personenschäden, 7991 Personen wurden getötet. Die zugehörigen volkswirtschaftlichen Verluste wurden auf ca. 50 Mrd. DM p. a. geschätzt. • Der Anteil des Straßenverkehrs an den Schadstoffemissionen in der Bundesrepublik Deutschland im Jahr 1986 betrug bei Kohlenmonoxid 71%, bei den Stickoxiden 52% und bei den Kohlenwasserstoffen 49%. Daraus entwickelten sich die folgenden Ziele für Prometheus: • Verbesserung in der Verkehrssicherheit durch neue Systeme zur Unfallvermeidung, die kritische Situationen bereits im Entstehen erkennen und den Fahrer bei der Bewältigung von Gefahrensituationen unterstützen, • Verbesserung in der Umweltverträglichkeit des Kraftfahrzeugverkehrs durch Maßnahmen, die den Verkehrsfluss, insbesondere durch Vermeidung von Staus, gleichmäßig gestalten und unnötigen Verkehr reduzieren,
34
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
• Erhöhung der Leistungsfähigkeit und Wirtschaftlichkeit des Verkehrs, durch kooperative fahrzeug- und straßenseitige Systeme zur Verbesserung der Verkehrsorganisation und zur optimalen Nutzung des vorhandenen Verkehrsraums. Der Grundgedanke für die technischen Lösungsansätze von Prometheus war die Zusammenführung bisher getrennter Sicherheitsphilosophien für das Kraftfahrzeug und für die Verkehrsinfrastruktur in einem integralen Verkehrssystemansatz. Im Einzelnen zielten die Entwicklungen auf: • Warnsysteme, die den Fahrer rechtzeitig auf Gefahren wie Glatteis, Nebel, Unfälle hinweisen, auch wenn sie außerhalb seines Sichtbereichs liegen, • Assistenzsysteme, die den Fahrer in kritischen Situationen in seiner Reaktionsfähigkeit unterstützen, bzw. ihn in der Gefahr schneller und richtiger reagieren lassen, • Notfallsysteme, die bei Unfällen automatisch über Funk einen Notruf vom Fahrzeug aus an die nächstgelegene Rettungsleitstelle absetzen und gleichzeitig die nachfolgenden Fahrzeuge auf die vor ihnen liegende Gefahr hinweisen und • Verkehrsleitsysteme, die bei jeder Verkehrssituation zur optimalen Streckenentscheidung beitragen können, insbesondere satellitengestützte Verkehrsleitsysteme für den Güterverkehr, mit den Komponenten Fahrzeugortung, Fahrtroutenoptimierung und der Kommunikation zwischen Fahrzeugen und Einsatzleitzentralen. Das war natürlich mehr als in dem Sechs-Jahres-Projekt geleistet werden konnte, aber der erste Anspruch und die Initiative zu diesen Forschungsarbeiten, die die Dimension einer Grand Challange hatten, stammt von Prometheus. Im Juni 1990 wurden die bis dahin erreichten Zwischenergebnisse von Prometheus öffentlich zur Diskussion gestellt und im Anschluss daran wurde eine Reevaluierung der Forschungsziele vorgenommen. Erste Demonstratoren konnten gezeigt werden für die: • • • •
Sichtverbesserung bei Dunkelheit, Regen, Schnee und Nebel, Abstands-Messung und -Warnung, Verkehrslenkung und Zielführung, Satellitenkommunikation zwecks Optimierung des Nutzfahrzeugverkehrs.
Im Jahr 1999 hat der damals beim Projektträger des BMFT (TÜV Rheinland) für Prometheus zuständige Mitarbeiter, Peter Rüenaufer, folgende Bilanz der Forschungsergebnisse von Prometheus gezogen [10]: „Rund 4 Jahre nach Abschluss des Programms waren einige der in Prometheus untersuchten und entwickelten Telematik-Komponenten und -Systeme bereits eingeführt. Dazu zählten satellitengestützte Flottenmanagementsysteme für Nutzfahrzeuge, die autonome Routenführung mit elektronischem Atlas und Positionsbestimmungen über Satelliten (GPS) sowie Verkehrsinformationsdienste für den Autobahnbereich, mit aktuellen, digitalisierten Meldungen über den Verkehrsfunkkanal TMC des Radio-Datensystems RDS im UKW-Rundfunk oder im Mobilfunknetz GSM (D1/D2). Des Weiteren waren Fahrzeuggeräte zur dynamischen
2.2 Schwerpunkte der Informatikforschung
35
Routenführung, die die autonome Routenführung an die aktuelle Verkehrssituation mittels RDS/TMC- oder GSM-Verkehrsdaten anpassen, und Systeme zur „Automatischen Abstands- und Geschwindigkeitsregelung (ACC)“ für Autobahnen, gerade in der Einführung im Markt.“ Dass das Prometheus-Programm auch international Maßstäbe gesetzt hatte, zeigte sich an Nachahmungen in den USA und in Japan, aber hier war die europäische Automobil- und Zulieferindustrie schneller und nachhaltiger. Für das Prometheus-Programm wurden die europäischen Gesamtkosten (Eigenmittel und Fördermittel) auf rund 1,5 Mrd. DM geschätzt, davon entfiel der Hauptanteil von etwa 40% auf Deutschland. Im folgenden Zeitfenster wird das im Informatikbereich des BMFT angesiedelte Teilprojekt von Prometheus zur Künstlichen Intelligenz PRO-ART vorgestellt. Die anderen sechs Teilprojekte waren in der Verkehrsforschung angesiedelt.
Zeitfenster Stand der Autonomie und Mustererkennung am Beispiel des EUREKA-Projekts Prometheus PRO-ART (1986–1994) Hans-Hellmut Nagel Durch das „Überregionale Forschungsprogramm Informatik“ (ÜRF) war in den siebziger Jahren in der Bundesrepublik Deutschland eine breit angelegte und wissenschaftlich solide verankerte Informatik-Forschung und -Lehre entstanden. Im Zusammenhang mit dem hier vorgestellten Teilthema EUREKA Prometheus PRO-ART (PROmetheus ARTificial intelligence) seien insbesondere zwei Aspekte hervorgehoben, nämlich einerseits die Verbindung zwischen Informatik und Signalauswertung durch den Schwerpunkt „Digitale Verarbeitung kontinuierlicher Signale“ des ÜRF und andererseits die Verankerung des sich international entwickelnden Teilgebietes „Wissensverarbeitung und Künstliche Intelligenz“ in der Informatik-Forschung und -Lehre. Beide Entwicklungen trugen dazu bei, dass sich neu entstandene Informatik-Forschungsgruppen Anfang der achtziger Jahre in einem aus Anregungen von Informatikern hervorgegangenen DFG-Schwerpunktprogramm Modelle und Strukturen bei der Auswertung von Bild- und Sprachsignalen mit Forschungsgruppen aus anderen, seit langem etablierten Disziplinen – insbesondere der Nachrichtentechnik und der Angewandten Physik – zusammenfanden. Diese Gruppen studierten die Interpretation von Signalen anhand explizierter Repräsentationen von Wissen u. a. für die Verfolgung und Beschreibung bewegter Körper. Obwohl Mitte der achtziger Jahre bereits weltweit über erste Experimente mit einer sichtsystemgestützten Führung mobiler Roboter berichtet worden war, erlaubten die damals verfügbaren Rechner und Verfahren noch keine für einen praktischen Einsatz im Straßenverkehr hinreichend schnell, flexibel und sicher erscheinenden Lösungsansätze. Innerhalb des Prometheus-Projektes war dem Teilprojekt PRO-ART die Aufgabe übertragen worden, in der Grundlagenforschung untersuchte Verfahrensansätze auf den Gebieten Signalverarbeitung, Meß- und Regelungstechnik, Künstliche Intelligenz sowie der Mensch-Maschine-Kommunikation zu sichten, zu erproben und für einen Einsatz zur Steigerung der Sicherheit und Effizienz des Straßenverkehrs aufzubereiten. Entsprechend der europäischen Ausrichtung von Prometheus arbeiteten in PRO-ART universitäre und außeruniversitäre Forschungseinrichtungen in Deutschland, England, Frankreich, Italien und Schweden zusammen, mit einem nationalen PRO-ART-Koordinator sowie mit Unterstützung der jeweiligen nationalen Automobilhersteller und Zulieferer.
36
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Am deutschen PRO-ART-Teilprojekt wirkten unter der Konsortialführung des Fraunhofer IITB (Hans-Hellmut Nagel) die folgenden Forschungsgruppen mit: Graphikon GmbH Berlin, Universität Münster – Institut für Allgemeine und Angewandte Psychologie, Universität der Bundeswehr München – Institut für Systemdynamik und Flugmechanik – Institut für Messtechnik – Institut für Programmiersprachen und Programmentwicklung, Universität Dortmund – Institut für Roboterforschung, Technische Universität Braunschweig – Institut für Regelungstechnik, Fraunhofer-Institut für Informations- und Datenverarbeitung (IITB) Karlsruhe, Forschungszentrum Informatik (FZI) Karlsruhe und Ruhr-Universität Bochum – Institut für Neuroinformatik. Bezüglich der umfangreichen und nachhaltigen Ergebnisse des Projekts soll zunächst die Forschungsgruppe der Universität der Bundeswehr um E. D. Dickmanns und V. Graefe erwähnt werden, die erstmalig nachweisen konnte, dass eine durch Spezialprozessoren unterstützte sehr schnelle Kantenelement-Extraktion in hinreichend präzise platzierten Testfenstern um das Abbild von Fahrspurbegrenzungen in Kombination mit einem ausgefeilten regelungstechnischen Ansatz zur Prädiktion und Aktualisierung des Fahrzeugzustands eine sichtsystemgestützte automatische Fahrt auf Autobahnen bis zur Höchstgeschwindigkeit (ca. 100 km/h) des ursprünglich verwendeten Testfahrzeugs erlaubte. Als exemplarische Teilaufgabe für den komplexeren Fall einer Fahrerunterstützung im Innenstadtbereich erarbeitete das IITB eine prototypische Lösung zur sichtsystembasierten Erkennung einer ampelfreien innerstädtischen Kreuzung und studierte mit dazu speziell ausgerüsteten, für eine sichtsystembasierte Fahrzeugführung entwickelten Testfahrzeugen einen maschinellen Kopiloten, der bei zu schneller Annäherung an eine Kreuzung auf einer nicht vorfahrtsberechtigten Straße in einer an den Fahrer adaptierten Weise warnte. Diese explizit angeführten Teilergebnisse wurden ergänzt durch eine breite Palette von Ergebnissen zu spezielleren Fragen, beispielsweise zur Hindernisdetektion (u. a. Uni Bochum, W. von Seelen und Mitarbeiter), zu automatisch durchgeführten Ausweichmanövern bei drohenden Kollisionen oder zur Gestaltung komplexerer Bedienoberflächen bei Fahrerunterstützungssystemen. Zusammenfassend lässt sich festhalten, dass sichtsystembasierte Fahrerunterstützungssysteme im Kraftfahrzeug gegen Ende des Prometheus-Projektes in der Automobilindustrie als zukünftig praktikable Lösungsansätze akzeptiert wurden. Der rasch sichtbar werdende Erfolg der europaweiten Prometheus-Kooperation stimulierte zahlreiche Folgeprojekte. Prometheus wirkte u. a. auf die Grundlagenforschung zurück mit dem 2006 durch die DFG gestarteten Sonderforschungsbereich „Kognitive Automobile“ (Transregio Karlsruhe-München, Koordination durch Ch. Stiller, Universität Karlsruhe). Mit starker Industriebeteiligung entstanden das BMBF-Projekt „Innovativer Verkehr und Neue Technik“ (INVENT) und die EU-Projekte „Dedicated Road Infrastructure for Vehicle safety and Efficiency“ (DRIVE), „Advanced Transport Telematics“ (ATT) sowie „Preventive and active safety applications“ (PReVENT), wobei hier insbesondere die PReVENT-Teilprojekte RESPONSE I–III erwähnt werden sollen. In diesen RESPONSEProjekten hat sich die europäische Automobilhersteller- und Zulieferer-Industrie in weltweit führender Weise der bereits in PRO-ART aufgegriffenen Problematik der Fahrer-FahrzeugWechselwirkung einschließlich der damit eng verknüpften Einführung von Fahrerunterstützungssystemen in einen geeignet vorzubereitenden Markt gewidmet (s. a. ausführlichen Bericht im Teil II).
2.2 Schwerpunkte der Informatikforschung
37
2.2.1.3 Expertensysteme Expertensysteme waren eines der großen Forschungsthemen der 80er Jahre. Immerhin zeigte sich in deren zweiter Hälfte nach etwa 20-jähriger weltweiter Forschung ein erster Durchbruch in deren kommerziellem Einsatz. Der BMFT förderte in den 80er Jahren insgesamt neun größere Verbundprojekte auf diesem Gebiet. Die bekanntesten waren die Projekte WEREX, WISBER, WISDOM, LERNER und drei Verbünde TEX-I, TEX-K und TEX-B, über die auf dem „2. Internationalen GI-Kongress über Wissensbasierte Systeme“ im Oktober 1987 in München [12] und in einer BMFT-Broschüre aus dem Jahr 1988 [13] ausführlich berichtet wurde. • WEREX – Koordiniertes System von Werkzeugen für die Konstruktion und den Betrieb vom Expertensystemen (1985–1989) Acht Verbundprojektpartner unter der Koordination der GMD (Thomas Christaller). Forschungspartner weiterhin: Universitäten Erlangen-Nürnberg und München (LMU), ZGDV. Industriepartner: ADV/Orga AG, PCS GmbH, Siemens AG und DANET. In WEREX ging es darum, für verschiedene UNIX-Rechner (UNCLE) und MS-DOS-Systeme ein offenes Werkzeugsystem zum Aufbau von Expertensystemen zu entwickeln, welches in Verbindung mit dem Babylon System der GMD stand. Babylon war in der genannten Zeit die erste in Deutschland bis zur Produktreife entwickelte offene und portable Entwicklungsumgebung für Expertensysteme (KI-Werkbank) [14]. • WISBER – Wissensbasierter Beratungsdialog (1985–1989) Fünf Verbundprojektpartner unter der Koordination der Universität Hamburg (Bernd Neumann). Weiterer Forschungspartner: Universität des Saarlandes (Wolfgang Wahlster). Industriepartner: Siemens AG, SNI AG, SCS GmbH.
Abb. 2.1 Entwicklung im Einsatz von Expertensystemen (Quelle [11])
38
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
In WISBER ging es um die Entwicklung eines wissensbasierten Beratungssystems mit angemessen breiten und robusten Analyse- und Generierungskomponenten für geschriebene deutsche Sprache, die auf ein Partnermodell zurückgreifen. • WISDOM – Wissensbasierte Systeme zur Bürokommunikation-Dokumentenbearbeitung, Organisation, Mensch-Computer-Kommunikation (1984–1989) Sechs Verbundprojektpartner unter der Koordination der TA Triumph-Adler AG (Rainer Lutze). Forschungspartner: Universitäten Stuttgart, München (TU), GMD, Fraunhofer IAO. Industriepartner weiterhin: Berner und Mattner GmbH. WISDOM hatte das Ziel, Wissen über die Aufbau- und Ablauforganisation im Büro formal zu repräsentieren. Projektschwerpunkte lagen auf der Erstellung und Bearbeitung zum Teil multimedialer Dokumente. Dazu kamen Techniken der Benutzermodellierung, der aktiven und passiven Hilfesysteme und der objektorientierten Wissensrepräsentation. • LERNER – Wissenserwerb und Lernen zum Einsatz von Dienstleistungs-Expertensystemen (1985–1989) Drei Verbundprojektpartner unter der Koordination der Nixdorf Computer AG (S. Savory). Forschungspartner: TU Berlin. Industriepartner weiterhin: Stollmann GmbH In Lerner ging es schwerpunktmäßig um die Lösung des Problems des Wissenserwerbs, denn man hatte erkannt, dass der Erwerb, die Modellierung und die Übertragung des Wissens durch den Menschen, durch sog. „Knowlegde Engineers“, zu schwierig und zu fehleranfällig war, um zu einsatzfähigen Expertensystemen zu kommen. Entwickelt wurden daher „automatisierte Methoden zum Erwerb von regelhaftem Wissen für Expertensysteme“, die man auch als Methoden des „Maschinellen Lernens“ (eine der heute noch wichtigsten Aufgaben der KI) bezeichnen kann. Die neuen Methoden wurden an Hand von Anwendungsbeispielen wie der Expertensystem-Shell TWAICE von Nixdorf erprobt. Die drei Verbundvorhaben TEX (1985–1990) behandelten je eine in sich geschlossene technische Thematik und berücksichtigten dabei den Umstand, dass Expertensysteme damaliger Ausprägung nur auf eng begrenzten und klar umrissenen Problemfeldern effektiv arbeiten konnten. Bei TEX-I, Federführer Siemens AG (R. Schulze), ging es um die „Diagnose und Prozessführung von technischen Systemen“, bei TEX-K, Federführer Philips GmbH (Helmut Strecker), um die Planung und Konfiguration von technisch-wissenschaftlichen Anwendungen und bei TEX-B, Federführer Fraunhofer IITB (Hans Werner Früchtenicht), um Schlussfolgerungsverfahren und Wissensrepräsentationen für physikalisch-technische Systeme. Aus den hier genannten Vorhaben der Expertensysteme, insbesondere aus dem Projekt TEX-K und einigen Folgeprojekten vom Anfang der 90er Jahre, wie BEHAVIOR und PROKON, entwickelten sich später noch heute im Markt tätige Spin-off-Unternehmen und -Produkte. Darüber und über die Evolution der damaligen Entwicklungen von Expertensystemen bis heute wird im folgenden Zeitfenster und im ausführlichen Bericht zu INDIA berichtet.
2.2 Schwerpunkte der Informatikforschung
Zeitfenster Wissensbasierte Systeme Das Verbundprojekt INDIA (1995–1999) Peter Struss Bereits Anfang der 80er Jahre wurden die Grenzen der traditionellen Expertensysteme deutlich. Vor allem in industriellen Anwendungen, z. B. bei der automatischen Diagnose technischer Anlagen und Systeme, sind Regeln als empirische Assoziationen als (alleinige) Wissensgrundlage für die Problemlösung nicht wirksam. Stattdessen gilt es, in der Wissensbasis „1st Principles“, d. h. systematisches naturwissenschaftliches und Ingenieurwissen zu repräsentieren. Konkret bedeutet dies, Verhaltensmodelle von relevanten Systembausteinen in algorithmischen Problemlösern automatisch zu verarbeiten. Die Notwendigkeit und das Potential solcher modellbasierter Systeme wurden auch in Deutschland erkannt und motivierten, auf Initiative von P. Raulefs von der Universität Kaiserslautern, zum Verbundprojekt TEX-B (1985–1989), in dem an Grundlagen der Modellierung physikalisch-technischer Systeme gearbeitet wurde. Auf den Ergebnissen setzte das Projekt BEHAVIOR (1991–1994) auf. Hier wurden Theorien und Algorithmen für die automatische modellbasierte Diagnose entwickelt und z. B. auf die Fehlerlokalisierung in Ballastwassertanksystemen angewendet. Während in diesen beiden Projekten erfolgreich die Anfang der 80er Jahre bestehenden Rückstände gegenüber der Forschung in den USA aufgeholt und etliche wichtige Beiträge zur internationalen Forschung geleistet wurden, verschaffte das spätere INDIA-Projekt einen Vorsprung im Hinblick auf die Umsetzung der Forschungsergebnisse. Die Ziele von INDIA waren: • Transfer der Technologie in reale industrielle Anwendungen, • Fokussierung der Forschung auf die dabei auftretenden Probleme und • Entwicklung übertragbarer Verfahren. Grundlage aller im Projekt untersuchten Lösungsansätze war die modellbasierte Diagnose: Grundlage des Verfahrens sind eine Modellbibliothek und eine Strukturbeschreibung des Systems. Die Modellbibliothek enthält Verhaltensbeschreibungen der Komponenten eines Systems. Aus diesen beiden Elementen wird automatisch ein Struktur- und Verhaltensmodell des konkreten Systems generiert, das dann automatisch analysiert werden kann, um computergestützte Diagnosen zu generieren. Es wurden in INDIA drei sehr unterschiedliche Anwendungen bearbeitet und deren Anforderungen und Lösungsansätze im projektinternen Austausch abgeglichen. Jede dieser drei Säulen bestand jeweils aus einem Anwender für das konkrete Problem, einer Forschungsinstitution für die theoretischen Grundlagen und prinzipiellen Verfahren und einem Systemhaus für den Brückenschlag zwischen Theorie und Praxis, also für die Umsetzung der Verfahren in industriell einsetzbare Systeme: • Flurförderzeuge (Gabelstapler) mit den Partnern STILL GmbH, Hamburg, ServiceXpert GmbH, Hamburg, und LKI Labor für Künstliche Intelligenz, Universität Hamburg • Anlagenbau (Färbereianlage) mit THEN Maschinen- und Apparatebau, Schwäbisch Hall, R.O.S.E. Informatik GmbH, Heidenheim, und Fraunhofer-Institut für Informations- und Datenverarbeitung IITB, Karlsruhe • Mechatronische Kfz-Systeme mit der Robert Bosch GmbH, Stuttgart und der TU München, Model-Based Systems & Qualitative Reasoning Group (MQM). Aus INDIA gingen eine Reihe von Dissertationen und Publikationen hervor, vor allem aber Anstöße zu weiteren industriellen Projekten und zur (Weiter-) Entwicklung von kommerziellen Werkzeugen für die Erstellung modellbasierter Systeme, die bis heute zu den avanciertesten gehören, wie rodon (damals von R.O.S.E Informatik entwickelt und heute von Sörman vermarktet) und RAZ’R (OCC’M Software).
39
40
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
In der Folge von INDIA wurde die Technologie in verschiedenen Projekten, vor allem im Automobilsektor, weiterentwickelt. In VMBD (Vehicle Model-based Diagnosis), wurde von der Robert Bosch GmbH, der MQM-Group der TU München und OCC’M Software GmbH ein modellbasiertes System für die Realzeit-On-Board-Diagnose entwickelt und auf einem Volvo-Versuchsfahrzeug erprobt, das auch auf der IJCAI 1999 in Stockholm demonstriert wurde. IDD (Integrating Diagnosis in the Design of Automotive Systems) produzierte modellbasierte Werkzeuge für den Entwurfs- und Entwicklungsprozess von On-Board-Software. Benchmarks für modellbasierte On-Board-Diagnose wurden von BMW und Volkswagen durchgeführt, in letzterem Fall erstmals auf Prozessoren, wie sie als Steuergeräte auf Serienfahrzeugen eingesetzt werden. Auch bei den Lkw-Herstellern wird derzeit an der Einführung modellbasierter Technologien gearbeitet, etwa bei Scania und Volvo/Renault. Modellbasierte Systeme teilen mit den Expertensystemen der 1. Generation die Zielsetzung, Expertenwissen in deklarativer Weise zu repräsentieren und generische Inferenzalgorithmen darauf anzuwenden. Systematisch gesehen ist in modellbasierten Systemen das Gebietswissen in allgemeinerer Form dargestellt als in regelbasierten Systemen, insbesondere unabhängig von der jeweiligen Aufgabe. Die spezifischen Aufgaben, wie Entwurf, Failure-modes-and-effects Anaylsis (FMEA), Diagnose, Testen, prägen dafür speziellere Inferenzmechanismen, wie etwa logisch fundierte Diagnoseverfahren. Deren Basis beinhaltet aber als Kern dieselben Elemente, nämlich Verhaltensvorhersage und Konsistenzprüfung, und können daher auch aus einem Fundus grundlegender Operationen und Funktionen realisiert werden. Sie alle stützen sich letztlich auf dieselbe Modellbibliothek. Damit ist Wiederverwendung des repräsentierten Wissens nicht nur für unterschiedliche Varianten einer Aufgabenklasse möglich, sondern auch für verschiedene Aufgaben während des gesamten Produktlebenszyklus. Dies liefert einen Beitrag zu einer weiteren Herausforderung industrieller Anwendungen: dem Wissensmanagement und der horizontalen Integration von Arbeitsprozessen. Jenseits von terminologischen Diskussionen zeigt sich also, dass Expertensysteme einen wichtigen Beitrag zur Entwicklung der KI-Forschung geleistet haben und sich wissenschaftliche Anstrengungen und materielle Investitionen heute auszahlen in Fortschritten bei der Lösung anspruchsvoller Aufgaben in industriellen Anwendungen (s. a. ausführlichen Beitrag im Teil II).
2.2.1.4 Sonderprogramme der Deutschen Forschungsgemeinschaft, SFB 314 Im Rahmen des eingangs erwähnten Forschungsprogramms „Informationstechnik“ (1984–1988) beschloss die Bundesregierung, „der Deutschen Forschungsgemeinschaft zweckgebunden auf fünf Jahre insgesamt bis zu 100 Mio. DM zur Verstärkung der Grundlagenforschung auf dem Gebiet der Informationstechnik zur Verfügung zu stellen unter der Voraussetzung, dass auch die DFG ihr Engagement auf diesem Gebiet weiter ausbaut“. In einem so genannten „Werkstattbericht Informationstechnik“ des BMFT aus dem Jahr 1988 wird dies weiter fortgeschrieben und präzisiert [15], indem die Mittel für die Bereiche Elektronik, Fertigungstechnik, Informationsverarbeitung, Technische Kommunikation und Mikroperipherik präzisiert werden. Mittel aus dieser Sondermaßnahme des BMFT und etwa gleich große Mittel der DFG wurden dann etwas zeitverzögert bis Anfang der 90er Jahre bereitgestellt. Die im folgenden Zeitfenster SFB 314 dargestellte Maßnahme im Bereich der Künstlichen Intelligenz gehört zu diesem Rahmen.
2.2 Schwerpunkte der Informatikforschung
Zeitfenster SFB 314 „Künstliche Intelligenz – Wissensbasierte Systeme“ (1985–1995) Peter Deussen Anfang bis Mitte der 80er Jahre stellte sich die Frage, wie man dem international immer wichtiger werdenden Gebiet der Künstlichen Intelligenz auch in der Bundesrepublik Deutschland eine gute Basis verschaffen konnte. Es hatten sich hierzulande bereits sehr erfolgreiche Gruppen in Mustererkennung und Bildverstehen (H. H. Nagel) sowie in der Sprachverarbeitung (G. Hotz mit dem SFB 100 „Elektronische Sprachforschung“, O. Herzog mit LILOG, u. a.) etabliert, die man alle der Künstlichen Intelligenz zurechnete. Da sich an den Universitäten Karlsruhe, Kaiserslautern und Saarbrücken Expertise in der Künstlichen Intelligenz angesammelt hatte und da ferner von Seiten der Forschungsförderung Bereitschaft zur Unterstützung dieses Gebiets signalisiert wurde, lag es nahe, die Kräfte dieser Orte zu bündeln, und es wurde die Idee geboren, einen Sonderforschungsbereich zu beantragen. Nach fast zweijähriger Vorbereitung konnte dann schließlich am 1. Januar 1985 der SFB 314 „Künstliche Intelligenz – Wissensbasierte Systeme“ seine Arbeit aufnehmen. Herr Thomas Leppin von der Geschäftsstelle der DFG muss in diesem Zusammenhang dankend erwähnt werden. Die satzungsgemäße Aufgabe des SFB 314 war es, das Wissen über den informatikspezifischen Teil der „Künstlichen Intelligenz“ auszubauen und in Pilotprojekten zur Anwendung zu bringen. Mit dieser Aufgabenstellung hat sich der SFB 314 von vornherein für die sogenannte „Schwache KI“, gegen die „Starke KI“ entschieden. An dem SFB 314 beteiligten sich die Universitäten Karlsruhe (Sprecherhochschule), Kaiserslautern und Saarbrücken sowie das Fraunhofer-Institut IITB in Karlsruhe. Das war ein Novum, gab es doch das Konzept der SFB/TR noch nicht. Ein weiteres Novum war, dass sich der SFB über drei verschiedene Bundesländer hinweg erstreckte. Bis zum Jahr 1995 erhielt der SFB 314 Fördermittel in Höhe von knapp 40 Mio. DM (wovon ein Teil durch den BMFT bereitgestellt wurde), die eine Ausstattung an Rechnern, Robotern, sonstigen Geräten und den zugehörigen Personalmitteln ermöglichten, die unseren Projektgruppen selbst nach Maßstäben amerikanischer Spitzeneinrichtungen hervorragende Arbeitsmöglichkeiten schafften. Auch die drei beteiligten Länder Baden-Württemberg, Rheinland-Pfalz und das Saarland unterstützten den SFB 314 mit ergänzenden Personal- und Sachmitteln. Der SFB 314 zerfiel in sechs Projektbereiche, die unterschiedlich viele Projekte inhaltlich und methodisch zusammenfassten. Der Projektbereich Deduktionssysteme stand am Anfang der Entwicklung. Seine zentralen Projekte befassten sich mit dem automatischen Beweisen und einigen seiner Anwendungen, deren herausragendste die Verifikation von Software war. Die Expertensysteme erschienen eine Zeit lang als die Problemlöser schlechthin, haben sich dann jedoch gewissermaßen gesund geschrumpft, und es scheint, dass ein entscheidender Platz für sie im tutoriellen Bereich lag. Im SFB 314 wurden Expertensysteme sowohl zur Diagnose technischer Systeme wie auch zum Lernen und zur Planung untersucht. Für die Einbettung in bestehende Systeme war die untersuchte Frage wichtig, wie aus technischen Datenbanken Wissen für Expertensysteme extrahiert werden kann. Die Überführung unterschiedlicher Wissensarten, wie Fallsammlungen, kausale und heuristische Regeln ineinander überführt werden können, war und ist für die Wissensakquisition wichtig. Die Robotik stellte eine Querschnittsanwendung dar. Der Karlsruher mobile Roboter KAMRO war das Ergebnis großer Bemühungen und hatte mit seinen Fähigkeiten zur Navigation und zur Koordinierung der Tätigkeit zweier Arme international großen Erfolg.
41
42
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Die Software für die Wissensverarbeitung wurde nach anfänglich breiter angelegten Bemühungen bald auf das Programmieren in Logik eingeschränkt: die Sprache PROLOG wurde in verschiedener Hinsicht erweitert, um aus ihr ein für die Konstruktion großer Programme nützliches Werkzeug zu machen. Im Bereich Bildverstehen ging es darum, durch Abstraktionsschritte systematisch vom elektrischen Bildsignal zu den im Bild oder gar in ganzen Bildfolgen angesprochenen Begriffen zu gelangen. So ergab sich die Möglichkeit, aus bewegten Szenen Teile herauszugreifen und mit sprachlichen Begriffen zu beschreiben. Damit ergab sich ein enger Kontakt zum Bereich Natürlichsprachliche Systeme, in welchem eine Bildbeschreibung in Sätze der deutschen Sprache umgesetzt wurde. Ferner wurde hier die Frage behandelt, wie ein natürlichsprachliches Dialogsystem flexibel in verschiedenen Dialogsituationen agieren kann und wie die Techniken zur Analyse und Synthese natürlicher Sprache dabei eingesetzt werden können. Viele der Forschungsergebnisse fanden Eingang in die weitere Entwicklung der Informatik, insbesondere in die der automatischen Spracherkennung und Sprachübersetzung an der Universität Karlsruhe und der Universität des Saarlandes. Wesentlicher Nutzer ist ferner die Fortentwicklung der Roboter, speziell der humanoiden Roboter an der Universität Karlsruhe. Die Initiative des SFB 314, verbunden mit der nunmehr exzellenten Forschung und Lehre auf diesem Gebiet, bildeten schließlich die Voraussetzungen dafür, dass das mittlerweile international geschätzte Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das vom Bundesminister für Forschung und Technologie an den Standorten Kaiserslautern und Saarbrücken initiiert wurde, 1988 dort seine ungemein erfolgreiche Arbeit aufnehmen konnte. (Weitere Informationen über die Projekte aus dem SFB 314 in: Informatik – Forschung und Entwicklung, Band 11 (1996) pp. 1–34, 53–68, Springer Verlag)
2.2.2 Software-Produktionsumgebungen Die Notwendigkeit zur Förderung von Projekten zu Softwareproduktionsumgebungen (SPU) in den IT-Programmen in den 80er Jahren ließ sich mit der ersten allgemein so empfundenen „Software-Krise“ begründen. Dieses Schlagwort für die unzulängliche methodische Unterstützung des Gestaltungsprozesses komplexer Software-Produkte gab es zwar schon länger, und es wurde auch später immer wieder gebraucht, wenn auch in anderem Zusammenhang. Aber Anfang der 80er Jahre wurde besonders deutlich, dass neue, in eine einheitliche Umgebung integrierte Methoden, Verfahren und Werkzeuge erforderlich waren, um die bei Softwareherstellern wie im Forschungsbereich bis dahin entwickelten – zum großen Teil durchaus praxiserprobten – Einzelelemente zur Rationalisierung des Software-Gestaltungsprozesses methodisch neu zu ordnen und modular zusammenzuführen. Angeregt durch eine Japanreise des Vorstandes der Fachgemeinschaft Büround Informationstechnik (BIT) im Verband Deutscher Maschinen- und Anlagenbau e. V. (VDMA) wurde der Arbeitskreis (AK) „Software Tools“ gegründet. Ziel des AK war es, durch gemeinsame Arbeit
2.2 Schwerpunkte der Informatikforschung
43
• die bei den einzelnen Mitgliedsfirmen verfügbaren Tools zur Softwareentwicklung in ein Gesamtsystem zu integrieren, • durch arbeitsteilige Vorgehensweise im Bereich der Entwicklungssysteme eine schnelle und kostengünstige Realisierung zu erzielen und • durch allmähliche Anpassung der bei den einzelnen Mitgliedsfirmen eingerichteten Entwicklungssysteme an eine einheitliche Basis die Plattform für gemeinsame Neuentwicklungen zu schaffen. Das war ein durchaus beachtlicher unternehmensübergreifender Ansatz, der ohne gemeinsame Förderung undenkbar gewesen wäre. Übergreifende Zielsetzungen von SPU-Systemen Die übergeordnete Aufgabenstellung für die zu fördernden Projekte war es, eine Verbesserung der unbefriedigenden Software-Situation durch anspruchsvolle Software-Produktionsumgebungen zu erreichen. Die entstehenden Produkte sollten dabei weitestgehend offene Systeme sein, das heißt, dass die Schnittstellen zwischen den Komponenten von allen Partnern einheitlich definiert werden sollten, damit die Systeme verschiedener Hersteller jederzeit um weitere Methoden, Verfahren und Werkzeuge ergänzt werden konnten, gleichgültig, ob diese Komponenten von den Softwareherstellern oder von späteren Anwendern stammen. Es ging also um die • Integration neuer Werkzeuge für die Phasen der Anforderungsanalyse, des Entwurfs sowie der Implementierung, die die Produktivität und Qualität des Software-Entwicklungsprozesses erhöhten (wie z. B. neue Spezifikationstechniken), der Output eines Werkzeuges sollte ohne Transformationsschritt als Input eines anderen Werkzeuges verwertbar sein, • verbesserte Beherrschung organisatorischer Aspekte der Software-Gestaltung (Software-Management), von der Angebotserstellung über das Projektmanagement bis zur Konfigurierung, • Unterstützung der Erstellung und Verwaltung aller für die Software-Entwicklung relevanten Dokumente und der zwischen ihnen bestehenden inhaltlichen Abhängigkeiten, • für alle integrierten Werkzeuge semantisch einheitliche, menschengerechte, schnelle, interaktive Benutzeroberfläche auf Basis modernster Techniken (Objektidentifikationen, Position Areas, Dragging, usw.), • Bereitstellung einer Datenbank, die den speziellen Anforderungen der Software-Entwicklung gerecht wird. Es mussten dabei strukturierte Objekte mit ihren Attributen verarbeitet werden können. Und schließlich ging es um die • Unterstützung der Kommunikation zwischen Entwicklungs- und Zielrechnern, um die Umgebung auf den Zielrechnern zur Validation der auf den Entwicklungsrechnern erstellten Anwendungssoftware zu benutzen.
44
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Abb. 2.2 Grobarchitektur eines SPU-Systems am Beispiel POINTE (Quelle G. Merbeth)
Zeitfenster Softwareproduktionsumgebungen (SPU) am Beispiel des Verbundprojekts POINTE (1984–1988) Günter Merbeth Die Integration von Werkzeugen ist ein Thema, das Software-Techniker in den letzten Jahrzehnten intensiv beschäftigt hat. Diese lange Zeit lässt darauf schließen, dass es sich dabei um kein einfach zu bewältigendes Vorhaben handelt. Bereits Mitte der 80er Jahre (Laufzeit von 1984 bis 1988) haben sich in Deutschland mehrere Firmen unter der Schirmherrschaft des VDMA (in Teilen Vorgängerorganisation des heutigen Verbandes BITKOM) zu einem vom BMFT geförderten Projekt Pointe (Portables Integriertes Entwicklungssystem auf der Basis verfügbarer Softwaretools) zusammengeschlossen, um ihre individuell entwickelten Werkzeuge und Basistechnologien in einem integrierten Entwicklungssystem verfügbar zu machen. Dabei handelte es sich um die Firmen: • • • • • • • •
IBM Deutschland GmbH Mannesmann Kienzle GmbH Nixdorf AG Philips Kommunikations-Industrie AG PSI Gesellschaft für Prozesssteuerungs- und Informationssysteme GmbH SCS Technische Automation und Systeme GmbH Triumph-Adler AG und um die Firma Softlab GmbH,
bei der ich damals tätig war und von wo aus ich dieses Verbundprojekt koordiniert habe. Mehrere dieser Firmen existieren heute nicht mehr oder sind nicht mehr mit der Entwicklung von Software-Engineering-Werkzeugen befasst. Es lohnt sich dennoch, einen kurzen Blick auf dieses Projekt zu werfen. Die Zielstellungen waren richtungweisend, wenn auch für die damalige Zeit sehr ambitioniert (s. Abb. 2.2). Alle drei aus heutiger Sicht relevanten Integrationsaspekte (Datenintegration, Prozessintegration und Benutzerintegration) wurden durch POINTE bereits adressiert, wobei die Prozessintegration durch die Werkzeugschnittstelle nur rudimentär behandelt wurde.
2.2 Schwerpunkte der Informatikforschung
Das Gesamtprojekt gliederte sich in drei Hauptaktivitäten: • Spezifikation (insbesondere Schnittstellen) und Implementierung der Mensch-Maschine-Schnittstelle (MMS), mit der eigentlichen Benutzer-Schnittstelle und den Schnittstellen zum Werkzeugaufruf und zur Werkzeugkommunikation, • Spezifikation (insbesondere Schnittstellen) und Implementierung des Produkt-Verwaltungs-Systems (PVS), • Anpassung von verfügbaren Werkzeugen der Partner an die definierten Schnittstellen von MMS und PVS sowie Integration in das Gesamtsystem. Technische Basis des gesamten Systems war Unix, zur damaligen Zeit durchaus noch eine mutige Entscheidung. Werkzeuge zur Unterstützung von C, PASCAL und COBOL wurden als erste integriert. Der in dem Projekt entwickelte Prototyp der MMS basierte auf dem Editor EMACS, der auf Unix zur Verfügung stand und bereits eine ganze Reihe der geforderten Funktionalitäten mitbrachte. Auf diese Weise war es möglich, schnell zu einem funktionsfähigen Prototypen zu gelangen. Das PVS basierte im Wesentlichen auf Erfahrungen, die bei Softlab mit dessen am Markt verfügbaren Software-Engineering-Produkten Maestro, CAMIC und PAPICS gesammelt wurden, und auf Komponenten dieser Produkte. Das PVS kann als Etappe auf dem Weg von schlichten Projektbibliotheken hin zu Repositories gesehen werden. Viele der heutigen Funktionalitäten von Repositories wurden im PVS vermutlich erstmals zusammenhängend realisiert. Dazu gehören insbesondere: • die Behandlung von einfachen und komplexen Objekten, die sich rekursiv aus anderen Objekten bilden lassen, • das Verwalten von Beziehungen zwischen beliebigen Objekten (einfachen und komplexen), • das Verwalten von Versionen beliebiger Objekte (einfacher und komplexer) und • die Behandlung langer (Design-)Transaktionen. MMS und PVS bildeten den Rahmen für die Integration von Werkzeugen. Die Schnittstellen zu beiden Komponenten wurden in einem Buch veröffentlicht (POINTE – Software-Tools, Forschungsbericht über die Software-Entwicklungsumgebung des VDMA, Maschinenbau-Verlag, Frankfurt a. M., 1986). In diesen Rahmen wurden Werkzeuge der Firmen Softlab, SCS, PSI, Mannesmann-Kienzle und Triumph-Adler integriert. Heute (20 Jahre später) spielen diese Werkzeuge verständlicherweise keine Rolle mehr. Auch die Unix-basierte MMS wurde durch Fenster- und Graphik-basierte Benutzerschnittstellen abgelöst. Ergebnisse aus POINTE wirken dennoch bis heute nach. Dies gilt insbesondere für das damals bei Softlab entwickelte PVS. Durch Weiterentwicklungen dieses PVS entstand das Repository der SPU Maestro II. Dieses Produkt wurde durch Softlab weltweit erfolgreich vermarktet und ist noch heute bei vielen großen Unternehmen, insbesondere bei Banken und Versicherungen, weltweit im Einsatz. Das Repository von Maestro II wurde in den 90er Jahren von Softlab weiterentwickelt und als separates Produkt „Enabler“ verfügbar gemacht. Im Zuge der Fokussierung auf das Dienstleistungsgeschäft hat Softlab das Produkt Enabler später an den japanischen IT-Konzern Fujitsu verkauft. Enabler ist heute in mehrere Fujitsu-Produkte sowie in Produkte mehrerer Partnerunternehmen integriert. Es wird von einem Fujitsu-Entwicklungszentrum in München weiterentwickelt, welches im Zuge der Akquisition von Enabler durch Fujitsu gegründet wurde. Die mit POINTE verfolgten Ideen einer SPU sind auch heute noch gültig. Allerdings hat sich die Idee einer totalen Integration aller Werkzeuge auf ein Repository (PVS in POINTE) als nicht realisierbar erwiesen. Heute werden eher föderale Ansätze realisiert, bei denen Werkzeuggruppen mit jeweils eigenen Repositories miteinander kooperieren.
45
46
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Der übergreifende Ansatz für SPU-Systeme Die Konzeption und Realisierung derartiger Hilfsmittel wurde in insgesamt vier Verbundprojekten, „PROSYS“, „RASOP“, „UNIBASE“ und „POINTE“, durchgeführt. Die übergreifenden konzeptionellen Ziele in den vier Verbundvorhaben waren weitgehend identisch, Unterschiede bestanden bzgl. der jeweils vorgesehenen Anwendungsgebiete der Systeme [16]: • Im Projekt „PROSYS“ – Integriertes Entwurfs- und Softwareproduktionssystem für verteilbare Realzeitrechnersysteme in der Technik (1985–1988), unter der Federführung des FhG-Instituts IITB (Hartwig Steusloff), wurde ein System für Hardware und Software von verteilten Realzeitsystemen entwickelt. • Das Projekt „RASOP“ – Rationelle Softwareproduktion (1984–1989), unter der Federführung des VDI-Technologiezentrums Informationstechnik (Mario Schneider), arbeitete an einer Umgebung für Mikrorechnersoftware. • Im Projekt „UNIBASE“ – UNIX-basierte Software-Produktionsumgebung (1985–1989), unter der Federführung der GMD (Gerhard Goos), wurde ein System für kommerzielle Anwendungssoftware realisiert. Insgesamt beteiligten sich im Zeitraum 1984 bis 1989 ca. 30 Hard- und Softwarehersteller sowie 12 Universitäten und Forschungseinrichtungen an den vier Verbundprojekten. Bei RASOP allein waren das 26 Forschungspartner – ein für die Anfänge der Verbundprojektförderung beachtliches und managementmäßig durchaus kritisches Potenzial. Die vier Verbundprojekte haben die Softwarelandschaft in Deutschland seinerzeit nachhaltig geprägt. Die genannten deutschen Projekte zu Softwareproduktionsumgebungen haben entscheidend dazu beigetragen, dass das EUREKA-Projekt ESF – Software Factory (1986–1994) als eines der ersten großen europäischen Projekte auf dem Gebiete der Softwareentwicklung, mit allein aus Deutschland 18 Partnern unter der Koordination vom Fraunhofer ISST (Herbert Weber) durchgeführt wurde. Es hatte die Verbesserung der Grundlagen der industriellen Softwareherstellung, insbesondere unter dem Aspekt der räumlich verteilten Entwicklung und der Wiederverwendbarkeit von Software und deren Standardisierung im europäischen Rahmen zum Ziel und war damit eindeutig ein Pilotvorhaben für viele nachfolgende und noch heute hoch aktuelle Fragestellungen und Forschungsprojekte in diesem Bereich [15].
2.2.3 Praktische Informatik, GMD Die 80er Jahre waren eine Zeit der Konsolidierung der in den 70er Jahren schnell aufgebauten Informatikforschung und -lehre und zugleich eine Zeit der ersten größeren Forschungsprojekte. Darüber informiert der Beitrag von Gerhard Goos im Zeitfenster „Praktische Informatik, GMD“ auf der folgenden Seite. Selbstverständlich gab es im gleichen Zeitraum auch nachhaltige Forschungsergebnisse auf
2.2 Schwerpunkte der Informatikforschung
47
dem Gebiet der Theoretischen Informatik, jedoch sind diese schwerer an bekannten Themen oder Ereignissen festzumachen, und es war im Rahmen dieser Arbeit nicht möglich, dies alles angemessen zu recherchieren und zu präsentieren; eine noch verbleibende Aufgabe.
Zeitfenster Praktische Informatik und die GMD in den 80er Jahren Gerhard Goos Zu Beginn der 80er Jahre war Betriebssystemkonstruktion und Übersetzerbau, namentlich für die BS2000-Systeme von Siemens, noch ein weithin interessantes Thema. Mit dem Aufkommen der PCs, der UNIX-Systeme und der Programmiersprache C verlagerte sich dann das Interesse. Bei IBM Deutschland, PCS und Siemens wurde weiterhin Betriebssystementwicklung betrieben, meist jedoch in Form von Anpassungen von UNIX an Firmengegebenheiten. Die Übersetzer kamen aus den USA. Im akademischen Umfeld blieben im Betriebssystembereich nur die Entwicklung des EUMEL- und dann des L3-Systems von Jochen Liedtke in der GMD sowie das BirliXProjekt der GMD. Das EUMEL-System war ursprünglich eine virtuelle Maschine, die als Basis für ein Mehrbenutzersystem auf einem Z80 diente. Es konnte im Einsatz an Schulen bis zu 4 „dumme“ Bildschirmgeräte und die Programmiersprache ELAN unterstützen. Bemerkenswert war nicht nur die Verwendung des doch sehr leistungsschwachen Z80 als Server, sondern die Realisierung virtuellen Speichers durch Software. L3 war die Übertragung von EUMEL auf die 80 × 86-Architektur, jetzt unter Verwendung des seit dem 80386 angebotenen hardwareseitigen virtuellen Speichers. BirliX war der Neuentwurf eines Betriebssystems mit UNIX-Schnittstelle, das in seinen Sicherheitsanforderungen und seiner modularen Struktur dem damaligen Stand der Technik durchaus überlegen war. Das EUMEL-System wurde von der GMD in Japan mehr als 2000-mal verkauft, wohingegen der Versuch der Kommerzialisierung in Deutschland scheiterte. Was blieb, waren die Weiterentwicklung von L3 zu dem Mikrokernsystem L4, das sich auf die Prozessorvergabe, die Interprozesskommunikation und die Verwaltung des virtuellen Speichers beschränkte und sich in den 90er Jahren dem an der Carnegie-Mellon University entwickelten MACHSystem eindeutig überlegen zeigte. Diese Mikrokernsysteme sind heute die Basis der kommerziellen virtuellen Maschinen und laufen auf allen Prozessortypen. Im Übersetzerbau gab es in den 80er Jahren beachtliche wissenschaftliche Arbeiten aus München, Karlsruhe, Paderborn und Saarbrücken. Praktisch erfolgreich war in jedem Fall das Karlsruher ADA-Projekt, das zuerst an der Universität und dann an der GMD-Forschungsstelle Karlsruhe betrieben und danach von der „Systeam Dr. Winterstein KG“ kommerzialisiert wurde. Durch seine Modularisierung und durch die verhältnismäßig leichte Anpassbarkeit an neue Prozessorenarchitekturen, namentlich im Bereich eingebetteter Systeme, erwarb es sich international bis weit in die 90er Jahre einen sehr guten Ruf. Im Bereich Informationssysteme gab es in Braunschweig (Datenbankmaschinen, Günther Stiege), GMD Darmstadt (Publikationssysteme, Erich Neuhold), Frankfurt und Hamburg (Joachim W. Schmidt), FU Hagen (Transaktionssysteme, Gunter Schlageter), Wissenschaftliches Zentrum der IBM in Heidelberg (natürlichsprachlicher DB-Zugriff, Albrecht Blaser), Karlsruhe (Datenbankkonstruktion, Peter C. Lockemann) und TU München (Indexierungstechniken, Rudolf Bayer) eine ganze Reihe international sehr renommierter Forschungsarbeiten, wie man auch an zahlreichen internationalen Funktionen und Ehrenämtern der genannten Experten ablesen kann. Allerdings gab es, abgesehen von
48
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
ADABAS von der Software AG, keine deutschen Datenbankentwicklungen, die international Bedeutung erlangten. In der GMD nahm Norbert Szyperski 1981 seine Vorstandstätigkeit auf. Sie führte zu einer nachhaltigen Veränderung und Erweiterung der Perspektiven und Ziele der GMD: Durch gemeinsame Berufung von Institutsleitern mit nahen Hochschulen und ähnliche Maßnahmen wurde die Zusammenarbeit mit Universitäten gestärkt. Wissenschaftliche Profilierung erhielt Vorrang vor Dienstleistungsaufgaben. Durch Angliederung weiterer Institute in Berlin, Darmstadt, Karlsruhe und Köln wurde die Leistungsfähigkeit für größere und heterogenere Aufgaben gestärkt. Unter Mitarbeit seiner Schüler Hartmann Genrich und Kurt Lautenbach sowie später Eike Best, Wolfgang Reisig und vielen anderen, konnte Carl-Adam Petri seinen Netzen in vielen verschiedenen Formen und Anwendungen internationale Aufmerksamkeit sichern. Auch erwies sich, dass Herrn Petris Institut anfangs der 80er Jahre der eigentliche wissenschaftliche Kern der GMD war. Im Jahr 1986 übernahmen Gerhard Seegmüller und Gerhard Goos die Aufgaben von Herrn Szyperski im GMD-Vorstand. Sie waren Mitgründer des Höchstleistungsrechenzentrums (zusammen mit der KFA Jülich) und von ERCIM (European Research Consortium for Informatics and Mathematics, zusammen mit INRIA und dem niederländischen CWI). Die Zusammenarbeit mit Universitäten wurde weiter ausgebaut. Im Zeitraum 1983–89 wurde mit Unterstützung des BMFT sehr erfolgreich das E.I.S.Projekt (Entwicklung integrierter Schaltungen) durchgeführt, das Informatik- und Elektrotechnikstudenten an zahlreichen deutschen Universitäten die Möglichkeit gab, eigene VLSI-Entwürfe anzufertigen und produziert zu bekommen. Das Projekt beruhte auf der von Carver und Mead vorgeschlagenen Trennung von VLSI-Entwurf und VLSI-Implementierungstechnologie und wurde initial von den führenden technologieorientierten Lehrstühlen stark angefeindet. In der Softwaretechnik übernahm die GMD 1984–88 die Leitung des BMFT-Projekts Unibase zur Konstruktion einer Softwareproduktionsumgebung für kommerzielle Anwendungen. Daran beteiligt waren noch weitere drei Forschungseinrichtungen und vier Softwarehäuser. Verglichen mit den heute international reüssierenden Programmierumgebungen wie Eclipse, der von IBM getragenen open-source-Umgebung für Java, litten die damaligen Projekte an zu hohen und zu allgemeinen Zielsetzungen. Immerhin gab es neben mehreren firmenintern wichtigen Werkzeugen mit der Benutzerschnittstelle Theseus von der ZGDV, dem Konfigurationsverwaltungssystem Shape der TU Berlin und dem Datenbanksystem Damokles des FZI Karlsruhe drei größere Produkte, die bis weit in die 90er Jahre benutzt und weiterentwickelt wurden. FIRST, unter der Leitung von Wolfgang Giloi, war das erste von drei in den 80er Jahren neu gegründeten bzw. neu in die GMD eingegliederten Instituten. Die beiden anderen waren das aus der früheren GID (Gesellschaft für Information und Dokumentation) hervorgegangene IPSI unter Leitung von Erich Neuhold in Darmstadt und das Institut FOCUS (Karl Zander, Radu Popescu-Zeletin), das aus dem Hahn-Meitner-Institut herausgelöst wurde und insbesondere im Rahmen des BERKOM-Projekts wesentliche Arbeit für die Breitbandvernetzung in Deutschland leistete.
2.2 Schwerpunkte der Informatikforschung
49
2.2.4 Neue Rechnertechnologien, Rechnernetze 2.2.4.1 Suprenum Die Förderung auf dem Gebiet neuartiger Rechnerstrukturen zu Anfang der 80er Jahre war darauf angelegt, neue, insbesondere parallele (auch massiv-parallele, dem damaligen Stand der Hirnforschung angelehnte) Konzepte, die von der Wissenschaft vorgeschlagen waren, auszuloten und ihre Tragfähigkeit zu demonstrieren. In einer nach wie vor rasch und dynamisch voranschreitenden Technologie wie der Rechnertechnologie kam es insbesondere auch in der hier interessierenden Zeit darauf an, Ideen und Vorstellungen, die abseits der eingefahrenen Entwicklungswege neue Impulse versprachen, so schnell wie möglich reifen zu lassen, damit sie von der Industrie aufgegriffen werden konnten. Dabei war absehbar, dass die bisherige Universalrechnertechnologie, aber auch die Vektorrechnertechnologie, in eine Leistungssättigung oberhalb des GFlops-Bereichs tangierten (s. Abb. 2.3) [17]. In der GMD waren unter der Leitung von Ulrich Trottenberg Anfang der 80er Jahre sehr leistungsfähige Verfahren zur Lösung von partiellen Differentialgleichungen (sog. Mehrgitterverfahren) und entsprechende Softwarekonzepte entwickelt worden. Eine Anwendung war neben vielen anderen die Innenströmung in Kfz-Motoren. Die Forschungsgruppe stieß schon bald an die Grenzen der Leistungsfähigkeit der verfügbaren Computer. Damit erhob sich die Frage, ob es eine neue Rechnerarchitektur geben könnte, die für möglichst viele Aufgaben der numerischen Simulation geeignet wäre und Mehrgitterverfahren besonders gut unterstützen könnte und die darüber hinaus das Potenzial zu sehr viel größeren Leistungen hätte.
Abb. 2.3 Entwicklung und Prognose zur Leistung der Supercomputer in den 80er Jahren
50
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Anfang 1984 trafen sich dann mehrere Forschungsgruppen aus der deutschen Informatik in der GMD und diskutierten Vorschläge für eine neue Architektur für einen Superrechner für numerische Aufgaben, der für die Lösung gekoppelter partieller Differentialgleichungen besonders gut geeignet sein sollte. Typischer Vertreter der Supercomputer war seinerzeit die CRAY-1, wie ihre Nachfolger vom Typ der Vektorrechner. Vektorrechner haben bei bestimmten Aufgaben eine wesentlich größere Leistung als Universalrechner, jedoch ist ihr Leistungspotenzial nach oben hin durch die Bauelementetechnologie und die Impulsgeschwindigkeit begrenzt. Grundsätzlich anders würden sich Parallelrechner verhalten. Deren Leistung steigt (bei geeigneten Problemen) mit der Zahl der Prozessoren, und die Zahl der Prozessoren ist nach oben nicht prinzipiell beschränkt. Gesucht wurde deshalb ein neues Rechnerarchitekturkonzept, welches • ein möglichst großes Leistungspotenzial haben sollte, • dessen Forschungsrisiko dennoch überschaubar sein sollte und das • in wenigen Jahren realisierbar erschien. Der entscheidende Vorschlag kam dann ebenfalls aus der GMD, und zwar von Wolfgang Giloi (Forschungsstelle FIRST). Hier gab es also den glücklichen Umstand, dass eine weltweit mitführende Softwaregruppe und eine weltweit mitführende Hardwaregruppe in der gleichen deutschen Forschungseinrichtung waren, wenn auch die eine in Birlinghoven und die andere in Berlin. Das Prinzip der Parallelverarbeitung war damals wohl grundsätzlich bekannt, auch bei den Universalrechnern und in den Vektorrechnern arbeiteten bereits mehrere Prozessoren parallel, wegen des Zugriffs der Prozessoren auf ein und denselben Speicher ergaben sich jedoch Engpassprobleme. Ein höherer Parallelisierungsgrad erforderte drei grundlegende Änderungen in der Struktur: • Jeder Prozessor musste einen eigenen Speicher erhalten. • Die Prozessoren mussten durch ein außerordentlich leistungsfähiges Netzwerk verbunden werden. • Es musste ein Nachrichtensystem geschaffen werden, über das sich die Prozessoren untereinander verständigen konnten. Ziel des Forschungsprojekts Suprenum (Superrechner für numerische Anwendungen) war es dann, den Hochleistungsrechenbereich zu erschließen, der bis dahin den Vektorrechnern vorbehalten war, und diesen natürlich zu übertreffen. In Suprenum sollten bis zu 256 Prozessoren parallel arbeiten und dabei eine Leistung erreichen, die etwa zwei bis drei Maschinen vom Typ Cray-2 oder einer Cray-Y-MP entsprach. Insgesamt wurden für Suprenum 5 GFlops Rechenpeakleistung bei 2 GByte Hauptspeicher und 35 GByte Festplattenspeicher im Hochleistungskern angestrebt. Jeweils 16 Prozessoren sollten als ein sog. Cluster in einem Schrank untergebracht werden, und bis zu 16 solcher Cluster sollten zusammenschaltbar sein. Gleichzeitig sollten in dem Projekt die Grundlagen für die Programmiertechnik
2.2 Schwerpunkte der Informatikforschung
51
von Hochleistungs-Parallelrechnern geschaffen und Softwarepakete für wissenschaftlich-technische Aufgaben entwickelt werden. Das Forschungsprojekt Suprenum startete dann mit einer Definitionsphase im Zeitraum 1984/85, an die sich die eigentliche Hauptphase der Forschung anschloss. Sie verlief von Mai 1985 bis Dezember 1989. An der Hauptphase der Forschungsarbeiten waren insgesamt 14 Partner beteiligt, und zwar: • vier Großforschungseinrichtungen (GMD, KfA, KfK, DLR), • fünf Hochschulen (Darmstadt, Bonn, Braunschweig, Düsseldorf, ErlangenNürnberg), • zwei industrielle Anwender (Dornier und Kraftwerk Union), • zwei kleine und mittlere Unternehmen (Suprenum GmbH und Stollmann GmbH) und die • Krupp Atlas Elektronik GmbH. Für das Management des Forschungsprojekts gründeten die Partner eine eigene Firma, die Suprenum GmbH in Bonn. Ihre Haupt-Gesellschafter waren die GMD, die Krupp Atlas Elektronik GmbH und die Stollmann GmbH. Das Suprenum Hardwarekonzept war ein „Multiple Instruction Multiple Data Stream“ (MIMD)-System, mit lokalen Speichereinheiten und einem zweistufigen Verbindungssystem. Jeder Suprenum-Knotenrechner bestand u. a. aus einem zentralen Prozessor, einer Vektorprozessoreinheit, einem eigenen Kommunikationsprozessor für den Datenaustausch zwischen Knotenrechner und einem 8 MByte großen Speicher. Jeweils 16 dieser Knotenrechner waren über einen doppelt ausgelegten 64-Datenbit-parallelen Hochgeschwindigkeitsbus in einem Cluster verbunden. Zusätzlich gehörten zu jedem Cluster ein Plattenanschlussknoten für ca. 2 GByte Festplattenspeicher, ein Spezialknoten für Monitoring und Diagnose sowie zwei Kommunikationsknoten zur Anbindung an ein Bus-System, das ein „Gitter“ von Clustern toroidförmig in jede Richtung verband. Die Standardkonfiguration umfasste 16 Cluster als 4 × 4-Matrix, das entsprach 256 Rechenknoten. Das Cluster-System bildete den sog. Hochleistungskern, der über einen Front-endRechner oder ein Front-end-Rechnersystem dem Benutzer zugänglich war. Das Suprenum-Softwarekonzept war auf die Architektur abgestimmt. Es basierte auf einer abstrakten Sicht der Rechnerarchitektur (Abstrakte Maschine) und sah eine verteilte Anwendung (ein paralleles Programm) als dynamisches System von Prozessen in beliebiger Topologie. Die Prozesse liefen in der Regel auf verschiedenen Prozessoren simultan ab, hatten Zugriff nur auf einen geschützten, lokalen Datenraum (den lokalen Speicher) und versendeten nach Bedarf Nachrichten, d. h. beliebige Datenobjekte, direkt an andere Prozesse (Message-Passing-Prinzip). Jeder Prozess konnte jederzeit neue Prozesse erzeugen, die dann gewünschte Programmteile abarbeiteten. Ein initialer Prozess auf dem Front-end initiierte die gesamte Anwendung und beendete sie, wenn sie terminiert war.
52
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Zeitfenster Höchstleistungsrechnen am Beispiel des Superrechnerprojekts SUPRENUM (1984–1989) Ulrich Trottenberg Anfang der 80er Jahre begannen in Deutschland politische und wissenschaftliche Diskussionen über die Möglichkeit, eine Superrechnerentwicklung zu initiieren. Hintergründe für diese Diskussionen waren (i) die Erkenntnis, dass die numerische Simulation auf Superrechnern zu einem wissenschaftlichen und wirtschaftlichen Erfolgsfaktor geworden war, (ii) das Bewusstsein für die Gefahr, in eine Abhängigkeit insbesondere von US-amerikanischen und japanischen Herstellern zu geraten und nicht zuletzt (iii) die Tatsache, dass in Deutschland exzellente Hardware- und Software-Experten vorhanden waren, die sich eine solche Entwicklung zutrauten. Konkret wurde im Jahr 1983 im Rahmen einer Umfrage in der HGF (damals AGF) über die wichtigsten Forschungsthemen festgestellt, dass für nahezu alle Zentren die Verfügbarkeit und gegebenenfalls Eigenentwicklung von Höchstleistungsrechnern und die Entwicklung von besonders schnellen Algorithmen für die numerische Simulation von größter Bedeutung waren. Ziel des im Jahr 1984 zunächst mit einer Definitionsphase gestarteten Projekts SUPRENUM war es dann, den Prototyp eines parallelen Superrechners für numerische Anwendungen zu entwickeln. Dabei sollten auch alle Software- und Hardwareschichten in die Entwicklung mit einbezogen werden, die für die effektive Nutzung eines parallelen Superrechners benötigt werden Im Verlauf der Definitionsphase wurde die Entscheidung getroffen, als SUPRENUMPrototypen ein 256-Prozessorsystem nach dem MIMD-Prinzip mit verteiltem Speicher und Vektorverarbeitung auf jedem Prozessor (nominal je 20 MFlops) zu bauen. Die zweistufige Architektur sah eine Cluster-Struktur vor (16 Cluster mit je 16 Prozessor-Knoten). Für die Kommunikation wurde softwareseitig ein Konzept kommunizierender Prozesse zugrunde gelegt. Algorithmisch sollten durch die Architektur auch die schnellsten bekannten numerischen Verfahren unterstützt werden. Es sollte exemplarisch eine Vielzahl anspruchsvoller Anwendungen für das System in die Entwicklung mit einbezogen werden. Das Projekt wurde dann von Mai 1985 bis Dezember 1989 vom BMFT in der Hauptphase gefördert. Im Jahr 1986 wurde die SUPRENUM GmbH für die Koordination und Verwertung der Projektergebnisse gegründet. Unter ihrer Federführung arbeiteten im Projekt die folgenden Institute und Industriefirmen zusammen: GMD-FIRST, GMD-SCAI, KFA-ZAM, DLR, KfK; Universität Erlangen, TU Braunschweig, TH Darmstadt, Universität Bonn, Universität Düsseldorf; Krupp-Atlas Elektronik GmbH, Stollmann GmbH, Dornier GmbH, KWU AG, SUPRENUM GmbH. Die Gesamtprojektleitung lag beim Autor dieses Berichts (GMD-SCAI und SUPRENUM GmbH), für die System-Konzeption und -Realisierung war Wolfgang Giloi (GMD-FIRST) verantwortlich. Der Haupt-Industriepartner war die Krupp-Atlas-Elektronik GmbH. Insgesamt wirkten mehr als 200 Wissenschaftler an der Entwicklung mit, davon in der Schlussphase des Projekts rund 40 Mitarbeiter allein in der SUPRENUM GmbH. Viele Wissenschaftlerpersönlichkeiten und damals noch wenig bekannte Nachwuchswissenschaftler, die heute bedeutende Positionen in Wissenschaft oder Wirtschaft einnehmen, waren mit ihrer Kompetenz in das Projekt eingebunden. Das Projekt verlief wissenschaftlich insgesamt sehr erfolgreich. Bereits auf der Hannover-Messe 1989 wurde ein 2-Cluster-System vorgestellt, mit einer beeindruckenden gemessenen Rechenleistung von rd. 360 MFlops für die Matrixmultiplikation. Der Aufbau des Gesamtsystems verzögerte sich, da die torusartige 4 × 4-Verbindung der 16 Cluster durch den im Projekt entwickelten SUPRENUM-Bus sich zunächst als nicht stabil erwies. Das
2.2 Schwerpunkte der Informatikforschung
53
große System wurde dann im Jahre 1990 erfolgreich abgenommen. Dieses SUPRENUMSystem war mit einer gemessenen Leistung von nahezu 2,8 GFlops (Matrixmultiplikation) bis zum Erscheinen der Connection Machine CM5 (der Firma Thinking Machines) im Jahre 1991 der weltweit schnellste MIMD-Parallelrechner. Herausragend und von nachhaltiger Bedeutung waren die Ergebnisse auf der Softwareseite. Auf der Basis eines abstrakten Prozesskonzepts für die Kommunikation („abstrakte SUPRENUM-Architektur“) entstanden im Projekt Werkzeuge für die portable Programmierung – zum Beispiel die Kommunikationsbibliothek COMLIB, eine Mapping Library zur Abbildung der Prozesse (Software) auf die Prozessoren (Hardware) und schließlich die Realisierung des Message-Passing-Prinzips durch PARMACS, einem Vorläufer von MPI. Algorithmisch wurde eine Vielzahl von gitter-, partikel- und matrixbasierten numerischen Verfahren nach dem Grid-Partitioning-Prinzip mit hoher Effizienz parallelisiert. Für die besonders schnellen, aber algorithmisch anspruchsvollen (z. B. nicht skalierbaren!) Mehrgitter- und Multiscale-Verfahren ergab sich – theoretisch und praktisch – eine optimale parallele Effizienz (E(P,N) → 1) für hinreichend große Probleme (N → ∞) bei fester Anzahl P von Prozessoren. Diese Ergebnisse wurden im Projekt für viele realistische Anwendungen (z. B. aus der Strömungs- und Strukturmechanik), aber auch von externen Anwendern außerhalb des Projekts erzielt. Die im Projekt getroffenen Architekturentscheidungen (MIMD-Rechner mit verteiltem Speicher, Hochleistungsprozessoren mit Vektorverarbeitung, Cluster-Struktur mit zweistufigem bus-basiertem Verbindungssystem) waren zu Beginn des Projektes äußerst umstritten und wurden teilweise heftig bekämpft. Heute, im Nachhinein, erscheinen sie als geradezu Epoche machend. Heutige Superrechner sind durchweg MIMD-Rechner mit verteiltem Speicher, Vektorverarbeitung ist immer eine Option, und hierarchische busbasierte Strukturen haben sich durchaus bewährt. Das kommerzielle Ziel von SUPRENUM, eine langfristige Superrechnerentwicklung in Deutschland zu etablieren, wurde nicht erreicht. Die Gründe dafür werden in der ausführlichen Fassung dieses Berichts erläutert. Sie lagen im Wesentlichen in der Tatsache, dass ein potenter Industriepartner, der in die Entwicklung eines parallelen Superrechners (z. B. im Sinn einer zweiten SUPRENUM-Generation) eingestiegen wäre, in Deutschland und in Europa nicht gefunden werden konnte. Mit der Gründung der PALLAS GmbH im Jahre 1990/1991 durch den Autor gelang es jedoch, die Softwareentwicklungen von SUPRENUM weiterzuführen (s. ausführlichen Bericht im Teil II).
Der Programmierer dachte also lediglich in kooperierenden Prozessen statt sich um Prozessoren, Verbindungskanäle, Clusterstrukturen und viele andere systemspezifische Details kümmern zu müssen. Das herausragende wissenschaftlich-technische Ziel von Suprenum, die Realisierung eines massiv parallelen Rechensystems im Gflops-Bereich, mit 16 Clustern und 256 Prozessoren, wurde, wenn auch mit im Endeffekt etwa einjähriger Verzögerung, Ende 1990, also ein Jahr nach Projektende, in der GMD erreicht. Dabei lag die nachgewiesene Anwendungs-Maximalleistung bei 2,8 GFlops für eine Matrixmultiplikation. Der Suprenum-Rechner bot damit eine weltweit mit führende Rechenleistung. Das F+E-Ziel wurde auch dadurch erreicht, dass der Nachweis der Programmierbarkeit hochparalleler Rechner erbracht wurde, dass voll-parallele Systemsoftware (Betriebssystem Peace) entwickelt und implementiert wurde sowie eine große Zahl von Anwendungslösungen und -Programmen für hochparallele Rechner.
54
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Letztere lagen schwerpunktmäßig auf dem Gebiet der partiellen Differentialgleichungen, insbesondere für die Strömungsmechanik. Das kommerzielle Ziel von Suprenum, die marktkonforme Weiterentwicklung des Systems durch die beteiligten Unternehmen und dessen Vermarktung wurde leider nicht erreicht. Ausschlaggebend waren im Wesentlichen drei Gründe: Der erste Grund lag in dem Zeitverzug der Entwicklung um etwa ein Jahr und in der Tatsache, dass genau in dieser Zeit eine Unsicherheit über die langfristige Marktentwicklung im Superrechnerbereich eine große Rolle spielte und erste Konkurrenzsysteme amerikanischer Hersteller angekündigt wurden. Der zweite Grund lag darin, dass sich eine Preis/Leistungsdominanz der Intelprozessoren gegenüber den im Projekt verwendeten Prozessoren abzeichnete. Ein erwogener Umstieg auf die Inteltechnologie in der zweiten Generation von Suprenum wurde dann aber wegen großer technischer Schwierigkeiten und zu großer finanzieller Aufwendungen nicht mehr realisiert. Der dritte Grund lag in der fehlenden Vermarktungsperspektive für die ersten Systeme von Suprenum, die nur im öffentlichen Bereich liegen konnte. Die beteiligten Industriepartner verwiesen hier auf die Vorteile in den USA (und Japan), wo die NASA oder andere öffentliche Stellen normalerweise den Ersteinsatz neuer Systeme absichern. Positiv vermerkt werden muss hier aber, dass zur Vermarktung einiger Entwicklungen aus dem Softwarebereich von Suprenum Anfang 1991 von Ulrich Trottenberg in Bonn die Firma Pallas GmbH als Spin-off der Suprenum-Forschungsarbeiten gegründet wurde. Diese Firma hat in den Folgejahren auch international beachtliche Erfolge in der weiteren Erforschung, Entwicklung und Vermarktung von softwareseitigen Supercomputerlösungen erzielt. Ein Teil der Firma wurde im Jahr 2003 erfolgreich von Intel akquiriert. Weiterhin positiv vermerkt werden muss auch noch, dass die Projektpartner von Suprenum, namentlich die GMD und die Firma Pallas, später die Federführer in einer Reihe von EU-Projekten zur Softwareentwicklung für Superrechner wurden. Das bedeutendste war das „Genesis Projekt“. Im nationalen Rahmen schloss sich ab 1993 ein breites Förderprogramm zur „Anwendung des parallelen Höchstleistungsrechnens“ an, welches von den ehemaligen Suprenum-Projektpartnern stark geprägt wurde, und mit welchem eine noch heute geltende deutsche weltweite Mitführerschaft auf dem Gebiet der Softwareentwicklungen für Superrechner gestartet wurde. Die für Suprenum bereitgestellten Gesamtkosten, inklusive Eigenmittel der Industrie, lagen bei etwa 200 Mio. DM. Nach Abschluss des Projekts wurden im BMFT (vom Autor dieses Artikels, der aber erst nach dem Ende des Projekts Suprenum in das dafür zuständige Referat kam) ausführliche kritische Analysen durchgeführt, um daraus Lerneffekte für die Zukunft zu erzielen. Das ist sicher gelungen. 2.2.4.2 Deutsches Forschungsnetz DFN Im Jahr 1984 startete der BMFT ein für Lehre und Forschung in Deutschland bedeutendes Projekt, das „Deutsche Forschungsnetz“ (DFN). Hierbei beschritt er
2.2 Schwerpunkte der Informatikforschung
55
einen neuen, sehr beachtenswerten Weg der Projektvergabe: Diejenigen, die später einmal die Nutzer des DFN sein würden – nämlich die Hochschulen und Forschungseinrichtungen in Deutschland – beauftragte er mit der Durchführung des Projekts. Hierzu gründeten die künftigen Nutzer einen gemeinnützigen Verein, den „Verein zur Förderung eines Deutschen Forschungsnetzes“, abgekürzt „DFNVerein“. Eng verbunden mit der Konzipierung des Projektes DFN und mit der Gründung des Vereins sind die Namen Eike Jessen, Norbert Szyperski und Karl Zander. Das Projekt Deutsches Forschungsnetz wurde zu einem Erfolg, nicht zuletzt durch das zielgerichtete und umsichtige Management der beiden Geschäftsführer Klaus Ullmann und Klaus-Eckart Maass. Heute ist das DFN ein fester, nicht mehr wegzudenkender Bestandteil der deutschen Forschungslandschaft mit hervorragender internationaler Reputation. Es finanziert sich – wie 1984 vom BMFT geplant – vollständig aus Entgelten der Nutzergemeinschaft. Den Vorsitz im Vorstand führt derzeit Wilfried Juling.
2.2.4.3 Supercomputerkonferenzen ISC Ein mutiges Vorgehen in den 80er Jahren, dessen Bedeutung bis heute kontinuierlich zugenommen hat und den Standort Deutschland im Supercomputing unterstreicht, der trotz fehlender eigener Rechnerentwicklung inzwischen einer der weltweit ersten Standorte in der Anwendung des Supercomputing ist, war der Start der Supercomputer-Konferenzen im Juni 1986 als ‚Supercomputer Seminar‘ an der Universität Mannheim unter der Leitung von Hans Meuer, Lutz Richter und Hans-Martin Wacker mit 81 Teilnehmern. Das Mannheimer Supercomputer-Seminar hat sich bald zur „International Supercomputing Conference ISC“ entwickelt, der in Europa größten und bedeutendsten Supercomputing-Veranstaltung und im weltweiten Maßstab, nach den SC Conferences in USA – die aber erst zwei Jahre später im Jahr 1988 starteten –, zweitgrößten Veranstaltung auf dem Gebiet des Supercomputing. Im Juni 2007 fand in Dresden die 22. ISC-Konferenz in Folge statt, mit über 1000 Teilnehmern und über 90 Ausstellern aus der ganzen Welt. Die Konferenz und die in diesem Rahmen mit entwickelte TOP 500-Liste ist inzwischen zum Aushängeschild der deutschen HPC-Community geworden.
2.2.5 Entwicklung fehlerfreier Software mit formalen Methoden Über die Forschung zur Entwicklung fehlerfreier Software mit formalen Methoden wird im Rahmen dieses Fachbands noch mehrfach berichtet. Viele der später zitierten Arbeiten und auch Forscherpersönlichkeiten basieren auf dem „Karlsruhe Interactive Verifier“ (KIV), welcher im folgenden Zeitfenster kurz und im Teil II ausführlich vorgestellt wird.
56
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Zeitfenster KIV – Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989) Wolfram Menzel KIV, der „Karlsruhe Interactive Verifier“, ist ein Rahmensystem – eine „shell“ – zur Verifikation und Entwicklung imperativer Programme, d. h. Programmen wie seinerzeit etwa in PASCAL. In der zweiten Hälfte der achtziger Jahre wurde KIV von der DFG gefördert und gewann dabei seine erste, überzeugende Gestalt. Ausgangspunkt war eine genauere Analyse der Hoare-Logik (Hoare 1969). Hier werden im Rahmen der Prädikatenlogik erster Ordnung und für die Programme einer einfachen While-Sprache Aussagen partieller Korrektheit betrachtet. Schrittweise werden in ihnen die Programme eliminiert, mit Zuweisungen als den „Atomen“, wobei der Benutzer freilich noch Schleifeninvarianten beizusteuern hat. Die dann verbleibenden Korrektheitsbedingungen, Formeln erster Ordnung, können „im Prinzip“ einem automatischen Beweiser übergeben werden. Jedoch sind solche Beweiser mit der immensen Menge anfallender Korrektheitsbedingungen sehr rasch hoffnungslos überfordert. Zusammen mit einer Reihe weiterer Gründe – Unvollständigkeitsergebnissen in Abhängigkeit vom Datentyp, dem „Verdecken“ beweisstrukturierender Informationen durch ein Kodieren in Arithmetik – führte dies dazu, dass eine stärkere und für den gegebenen Zweck spezifische Logik verwendet werden sollte und die Beweiskonstruktion interaktiv erfolgen sollte. Beim interaktiven Beweisen ist der Benutzer im Dialog mit dem System gestaltend in die Beweisführung einbezogen. Er kontrolliert die Grobstruktur und er trifft steuernde Entscheidungen in Fällen von Wahlmöglichkeiten, umgekehrt wird er seinerseits vom System geführt. Ferner kann beim Aufbau des Systems fortgesetzt an einer Ausweitung der automatischen Komponente gearbeitet werden. Als Basislogik wurde die (auf Pratt 1976 zurückgehende) Dynamische Logik gewählt. Ihre Formeln sind wie prädikatenlogische erster Ordnung aufgebaut, jedoch lassen sich über einen zusätzlichen Operator Programme der betrachteten Programmiersprache in die Formeln einbringen. Einen vollständigen Kalkül für die allgemeingültigen Formeln kann es hier nicht geben, doch lässt sich über eine infinitäre Regel eine Art „Pseudovollständigkeit“ erzielen. Im Gegensatz zur Hoare-Logik ist die Dynamische Logik imstande, auch totale Korrektheit, insbesondere Terminierung, auszudrücken. Auf dieser Basis wurde KIV ab Mitte der achtziger Jahre realisiert. Zentrale Leitlinien waren das symbolische Ausführen der Programme sowie, seitens der Logik, ein weitestgehend uninterpretiertes Schließen, das vom Datentyp abstrahiert. Die Programme der betrachteten Sprache waren aus Zuweisungen und Konstanten durch Komposition, Verzweigung, Schleifen, lokale Variable und beliebig wechselseitig rekursive Prozeduren aufgebaut. Um die Einheitlichkeit des gesamten Vorgehens zu gewährleisten, wurde die Metasprache PPL (Proof Programming Language) geschaffen. PPL ist eine funktionale Sprache, ihre Programme arbeiten auf Beweisbäumen als der zentralen Datenstruktur: lokalen „Unterbeweisen“, die sich schließlich zum Gesamtbeweis zusammenfügen. An der Wurzel steht das (lokale) Beweisziel, an den Blättern können entweder Axiome oder – später noch zu rechtfertigende – Prämissen stehen. Der hierarchischen Strukturierung des Beweisgeschehens dienen abgeleitete Regeln, Taktiken und Strategien. Ende der achtziger Jahre war KIV in diesem Sinne weitgehend realisiert und hatte sich als leistungsfähig und erfolgreich erwiesen. Ein starker vollautomatischer Kern ermöglichte auch große Beweise. In der Literatur vorhandene Vorgehensweisen waren in KIV implementiert, so der Hoare-Kalkül, ein Vorgehen zum Nachweis von Programminklusionen, die (auf Burstall zurückgehende) Methode der symbolischen Ausführung mit Induktion.
2.2 Schwerpunkte der Informatikforschung
57
Für die betrachtete Programmiersprache war inzwischen auch die Axiomatisierung eines sehr weit reichenden Prozedurkonzepts – mit Prozedurparametern – gelungen, so dass hierauf Induktionsbeweise fußen konnten. Um auch große Programme zu verifizieren bzw. in sicherer Weise zu entwickeln, bedarf es der hierarchischen Komposition aus kleineren Einheiten, der Modularisierung. Wesentlich ist, dass beim Zusammensetzen die Korrektheit erhalten bleibt. Es wurde ein Konzept entwickelt und in KIV verwirklicht, das dieses garantierte. KIV wurde in den späten achtziger und frühen neunziger Jahren an vielen Beispielen unterschiedlicher Größe – bis zu etwa 8000 Zeilen Code – erprobt und seine Leistungsfähigkeit unter Beweis gestellt. Zwischen 5 und 25% der Beweisschritte waren Interaktionen. Im Jahr 1990, nach Auslaufen der Erstförderung durch die DFG, wurde die Arbeit an KIV in zwei Verbundprojekten fortgesetzt. Im Vorhaben KORSO, gefördert vom BMFT, wurde KIV in den größeren Zusammenhang von Gruppen in Deutschland eingebracht, die an ähnlichen Fragen arbeiteten. In VSE (Verification Support Environment), gefördert vom BSI, wurde gemeinsam mit universitären und industriellen Partnern an Prototypen für große, sichere Programme gearbeitet. KIV wurde von den anfangs beteiligten Karlsruher Kollegen Werner Stephan am DFKI und Wolfgang Reif an der Universität Augsburg weiterentwickelt. In Karlsruhe wurden im Rahmen des DFG-Schwerpunkts „Deduktion“ wichtige verbliebene Grundlagenfragen aufgearbeitet. Die weitere Entwicklung war durch die Zusammenarbeit mit der Gruppe von Peter H. Schmitt gekennzeichnet, die den TableauxBeweiser 3TAP erstellt hatte. Auf der Basis des in KIV und 3TAP Erreichten entstand das System KeY. Es widmet sich der Verifikation und Synthese von JAVA-Programmen und ist in kommerzielle Softwareentwicklungswerkzeuge eingebunden. KeY wird heute unter Leitung von Peter Schmitt (Karlsruhe), Reiner Hähnle (Göteborg) und Bernhard Beckert (Koblenz) intensiv weiter ausgestaltet (s. ausführlichen Bericht im Teil II).
2.2.6 Aufbau der Neuroinformatik Die massiv-parallele Verarbeitung von Informationen durch Netzwerke künstlicher Neuronen erschließt eine neue Qualität der Informationsverarbeitung, die sich am Bau des menschlichen Gehirns orientiert. Von besonderem Interesse sind die Assoziations- und Lernfähigkeiten derartiger künstlicher neuronaler Systeme. Die Forschungsgebiete der Neuroinformatik konzentrierten sich anfangs auf die technische Darstellung neuronaler Architekturen, die Flexibilität derartiger Strukturen, ihre Fähigkeit zur Selbstorganisation und die Darstellung des notwendigen Umwelt- und Fachwissens. Diese Grundlagen wurden dann an ersten Anwendungsbeispielen aus den Bereichen Bildverarbeitung, Spracherkennung und Steuerung (Bewegungs-Koordination von Robotern) erfolgreich demonstriert. Forschungsarbeiten in diesem Bereich haben in Deutschland eine lange Tradition und gehen zurück bis auf Karl Steinbuch aus Karlsruhe. Ein richtiger Durchbruch in eine breite nationale Initiative gelang aber erst in der zweiten Hälfte der 80er Jahre im Zusammenhang mit einem mutigen Schritt der Nordrhein-Westfälischen Landesregierung, die fast gleichzeitig vier Lehrstühle in diesem Gebiet an den Hochschulen Bielefeld (Helge Ritter), Bochum (Werner von Seelen und
58
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
Christoph von der Malsburg) und Düsseldorf, später Bonn (Rolf Eckmiller) einrichtete. Auf Bundesseite wurde dann Anfang des Jahres 1988 ein großes grundlagenorientiertes Pilotprojekt zur interdisziplinären Verknüpfung der Forschungskapazitäten im Bereich der Biowissenschaften mit denen der Informatik und der Mathematik und zur Umsetzung biologischer Grundprinzipien in technischen Systemen gestartet, das Verbundprojekt INA – Informationsverarbeitung in neuronaler Architektur, über das im folgenden Zeitfenster kurz und im Teil 2 des Fachbands ausführlich berichtet wird.
Zeitfenster Neuroinformatik am Beispiel des Projekts Informationsverarbeitung in Neuronaler Architektur INA (1988–1990) Werner von Seelen Technische Systeme zur Informationsverarbeitung und neuronale Systeme haben überlappende Aufgabenfelder. Darüber hinaus gibt es Aufgaben, bei denen neuronale Systeme begriffs- und strukturbildend sind und ihre Lösungen den Weg weisen für angestrebte technische Systeme mit vergleichbaren Eigenschaften. Selbstorganisation, Lernen und Intelligenz sind derartige Systemfähigkeiten. Hinzu kommt ein prinzipieller Unterschied: während technische Systeme bisher weitgehend in geschlossenen Welten operieren, agieren biologische Systeme vom Grunde ihrer Entstehung her in natürlichen Umwelten, sie sind definitorisch offene Systeme. Überlappung und Komplexität beider Systemarten legen nahe, sie in ihren Eigenschaften einander ergänzen zu lassen, zumal technische Systeme vermehrt die Anwendungsdomänen biologischer Systeme durchdringen. Angesichts dieser Situation hat der BMFT ab Ende der achtziger Jahre in verschiedenen, aber aufeinander aufbauenden Programmen die Analyse und die Applikation neuronaler Systeme gefördert. Diese Projekte umfassten jeweils mehrere führende Gruppen aus Universitäten, Forschungsinstituten und der Industrie. Das erste große Startprojekt dieser Art war INA – Informationsverarbeitung in Neuronaler Architektur (1988–1990). Es folgten erste autonome Roboter, wie NAMOS (1991–1994) und NEUROS (1995–1999), und später LOKI (2000–2003), MORPHA (1999–2003) sowie das gegenwärtig laufende ServiceRoboter-Projekt DESIRE. Am Projekt INA waren unter der Gesamtleitung von Werner von Seelen und Christoph von der Malsburg folgende Partner beteiligt: Universität Mainz – Fachbereich Zoologie, Technische Hochschule Darmstadt – Fachbereich Elektrotechnik und Informationstechnik (2×), Universität Göttingen – Fakultät für Physik, Universität Paderborn – Fakultät für Informatik, Universität Düsseldorf – Institut für Physikalische Biologie und Institut für Hirnforschung, Technische Universität München – Physik-Department, Max-Planck-Gesellschaft – Institut für Hirnforschung, Universität Bochum – Institut für Neuroinformatik (2×), GMD – Institut für Informationstechnische Infrastrukturen und die Fa. Kratzer Automatisierung GmbH. Das Projekt INA war von der Vorstellung bestimmt, in technisch strukturierten Problemen Elemente aus neuronalen Systemen zu übernehmen. Eine konkrete Zielsetzung bezog sich auf die Untersuchung visueller Informationsverarbeitung in natürlichen Umwelten mittels neuronaler Architekturprinzipien. Als Applikationsbereiche galten 3-D-taugliche Sehsysteme für Roboter und autonom agierende Fahrzeuge sowie verschiedene Automatisierungsprobleme. Diese Systeme sollten aktives Sehen ermöglichen, d. h. den Perzeptionsprozess autonom gestalten und hinreichend schnelle Algorithmen für die Steuerung dieses Prozesses und die folgende Bildverarbeitung zur Verfügung stellen. Die Lernfähigkeit derartiger Systeme war Programm.
2.2 Schwerpunkte der Informatikforschung
59
Ergebnisse waren u. a: ein neuronaler Instruktionssatz, bestehend aus Operatoren, die es erlaubten, verschiedene Teilprobleme auf unterschiedliche Weise zu dekomponieren (in einem späteren Projekt wurde daraus der Chip SEE der Firma Siemens, später Infineon). Zu den Operationen zählten die ortsvariante Informationsverarbeitung, die zur Fovealisierung und – mit der später weltweit genutzten inversperspektiven Kartierung – zur Hindernisvermeidung eingesetzt wurden. Diskrete parametrische neuronale Repräsentationen und spärlich kodierende Assoziativspeicher wurden – zu komplexen Bildverarbeitungssystemen kombiniert – für die visuelle Navigation von Robotern und die Gesichtserkennung eingesetzt. Dabei ließ sich das Konzept des „Active VISION“ mit echtzeitfähigem Tracking und disparitätsbasierter Stereobildverarbeitung überzeugend demonstrieren. Wichtige Teile der heute üblichen Verfahren zur Roboternavigation nutzen Ergebnisse des Projektes, das gilt insbesondere für verschiedene Lernverfahren und deren strukturelle Einbettung. Neben dem Erreichen der konkreten Arbeitsziele erwiesen sich der konzeptuelle und methodische Fortschritt in INA als gleich gewichtig. So wurde die Lerntheorie weiter vorangetrieben, die Probleme der natürlichen Umwelt spezifiziert und es zeigte sich, dass die Flexibilität von Systemen die entscheidende Schlüsseleigenschaft ist, mit der man Robustheit und Komplexität der Systeme potentiell in den Griff bekommen kann. Spätere Projekte haben sich diesen Aufgaben gewidmet. Es zeigten sich im Verlauf von INA aber auch Schwächen des naturgemäß zunächst begrenzten Ansatzes. So wurde deutlich, dass die isolierte Übernahme biologischer Verfahren in technisch konzipierte Systemstrukturen einen Teil der Vorteile verspielte, die mit einer sich über größere Systemteile erstreckenden konsequent neuronalen Architektur erreichbar erschienen. Spätere Projekte haben dem Rechnung getragen. Versucht man die Konsequenzen von INA auf die Entwicklung späterer Forschungsarbeiten zu überblicken, so sind vor allem zwei Bereiche nachhaltig beeinflusst und geformt worden: die Roboterentwicklung, vor allem in Richtung auf Service-Roboter, und die Flexibilität moderner Steuerungssysteme. Die autonome Navigation von Robotern, deren Nutzerinteraktion und Kontrollprinzipien gelöst wurden, fanden vielfache kommerzielle Anwendung, z. B. in der Reinigung, in Kliniken und im Haushalt. Weniger spektakulär, aber letztlich tiefgreifender erwiesen sich die Arbeiten zur Flexibilität der Systeme durch Selbstorganisation. Sie wirkten bahnbrechend für Systeme in natürlicher Umwelt, für variable Kontrollprobleme und die konstruktive Möglichkeit, Robustheit und Komplexität in einer Balance zu halten. INA hat die Basis zur heutigen deutschen Mitführerschaft auf dem Gebiet der Servicerobotik geschaffen. Große kommerzielle Dimensionen gab es in den 90er Jahren noch für die Anwendungen von Neuro-Fuzzy-Systemen auf dem Gebiet der Prozesssteuerung von Walzstraßen, von Papierfabriken und industriellen Kläranlagen. Hier war z. B. die Firma Siemens sehr aktiv (s. ausführlichen Bericht im Teil II).
Mit dem Projekt INA, welches Ende des Jahres 1990 erfolgreich abgeschlossen wurde, wurde die breite wissenschaftliche Forschungslandschaft in Deutschland auf dem Gebiet der Neuroinformatik nicht zuletzt durch die Gründung einer Reihe von Lehrstühlen an deutschen Universitäten aufgebaut, und es wurden bei dieser Gelegenheit in den USA arbeitende deutsche Spitzenwissenschaftler auf diesem Gebiet zurückgewonnen. Erste Anwendungserfolge wurden in der Entwicklung von intelligenten und autonomen Robotersystemen, der neuronalen Gesichtserkennung und der neuronalen Regelung und Steuerung von Großanlagen erzielt, wodurch frühzeitig Ergebnisse aus der Forschung für die langfristige Wettbewerbsfähigkeit deutscher Unternehmen
60
2 Schwerpunkte der Informatikforschung in Deutschland in den 80er Jahren
auf dem Weltmarkt, z. B. in der Verkehrstechnik, der Prozess- und Anlagensteuerung, der Robotik und in den Kommunikationsnetz-Infrastrukturen umgesetzt wurden. Auf den mit INA erzielten Ergebnissen baute die zweite Phase der Förderung der Neuroinformatik durch den BMFT auf, die im Zeitraum 1991 bis 1995 in elf Verbundprojekten insgesamt 43 Forschungsgruppen, davon sechs aus den Neuen Bundesländern und acht aus der Wirtschaft vereinte. Die Schwerpunkte lagen jetzt mehr in anwendungsorientierten Fragestellungen. Über die gesamten Forschungsarbeiten informiert ein Statusbericht aus dem Jahr 1992 [18].
Literatur und Quellen [1] Bibel, W., The Beginnings of AI in Germany, Gesellschaft für Informatik, Künstliche Intelligenz, Heft 4/2006 [2] Reuse, B., 30 Years of Funding for Research into Artificial Intelligence in Germany, Gesellschaft für Informatik, Künstliche Intelligenz, Heft 1/2007 [3] Brauer, W., persönliche Information [4] Brauer, W., KI auf dem Weg in die Normalität, Gesellschaft für Informatik, Künstliche Intelligenz, Sonderheft 8/1993 [5] Wahlster, W., persönliche Information [6] Workshop Sprachverarbeitung, Gesellschaft für Mathematik und Datenverarbeitung mbH, Bonn, Dezember 1982 [7] Hahn von, W., Wahlster, W., HAM-ANS, Hamburger anwendungsorientiertes natürlichsprachliches System, Schlussbericht, Forschungsstelle für Informationswissenschaft und Künstliche Intelligenz der Universität Hamburg 1985 [8] Höge, H., SPICOS II – Ein sprachverstehendes Dialogsystem, AEÜ Archiv für Elektronik und Übertragungstechnik, Band 43, Heft 5, Oktober 1989 [9] Herzog, O., Rollinger, C.-R., Text Understanding in LILOG, Integrating Computational Linguistics and Artificial Intelligence, Lecture Notes in Artificial Intelligence 546, SpringerVerlag 1991 [10] Rüenaufer, P., persönliche Mitteilung [11] Mertens, P., Borkowski, V., Geis, W., Betriebliche Expertensystem-Anwendungen, 3. Auflage, Springer-Verlag, Berlin 1993 [12] Brauer, W., Wahlster, W., KI Informatik-Fachberichte 155, Springer-Verlag, Heidelberg, Oktober 1987 [13] BMFT-Broschüre, Künstliche Intelligenz: Wissensverarbeitung und Mustererkennung, Bonn 1988 [14] Christaller, Th., Di Primio, F., Voss, A., Die KI-Werkbank Babylon, Addison Wesley, Reihe Künstliche Intelligenz, Sankt Augustin, Februar 1989 [15] Werkstattbericht Informationstechnik, Bundesminister für Forschung und Technologie, Bonn, 1988 [16] Abendroth, D., Niederau, G., Steusloff, H., et al, Software Engineering Verbundprojekte, Sonderdruck aus dem Computer Magazin, Oktober 1986 [17] BMFT-Pressereferat, Informationsservice, Suprenum – Parallelrechner für Supraleistung, Bonn, März 1989 [18] Bericht zur Statustagung des BMFT „Neuroinformatik“ in Schloss Maurach, Projektträger des BMFT für Informationstechnik (DLR e.V.), Berlin, Oktober 1992
3
Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren Bernd Reuse (Bad Honnef)
3.1 Die forschungspolitische Situation im IT-Bereich in den 90er Jahren Forschungsminister in dem hier genannten Jahrzehnt war zuerst Herr Dr. Heinz Riesenhuber, von Oktober 1982 bis Januar 1993; das ist die mit Abstand längste Periode in den vier Jahrzehnten, über die hier berichtet wird. Es folgte der Minister mit der kürzesten Amtszeit, Herr Matthias Wissmann, von Januar 1993 bis Mai 1993; er wurde nach Meinung vieler BMFT-Kollegen leider zu früh zum Verkehrsminister wegberufen. Herr Dr. Paul Krüger war von Mai 1993 bis November 1994 Forschungsminister. Es folgte schließlich Herr Dr. Jürgen Rüttgers im neuen, nun auch wieder vereinten Bundesministerium für Bildung und Forschung (die Trennung in die Bundesministerien für Bildung und Wissenschaft, BMBW, und Forschung und Technologie, BMFT, erfolgte im Jahr 1972, s. Kap. 1), von November 1994 bis Oktober 1998, und Frau Ministerin Edelgard Bulmahn, von Oktober 1998 bis November 2005. Insgesamt war das eine unruhige Zeit für die Kollegen im BMBF und in der Forschungswelt. Die wichtigsten strukturellen Maßnahmen in diesem Jahrzehnt resultierten aus der Einbindung der neuen Bundesländer in die Forschungsförderung im Zeitraum 1990 bis 1991. Es gab und gibt seitdem eine ganze Anzahl von Fördermaßnahmen, die speziell auf die neuen Bundesländer zugeschnitten waren bzw. sind. Eines der bekanntesten war das „InnoRegio-Programm“, welches im Jahr 1999 gestartet wurde. Aktuell gibt es die „BMBF-Innovationsinitiative Neue Länder – Unternehmen Region“ (http://www.unternehmen-region.de). Ein deutlich sichtbares Zeichen, dass wieder Bewegung in die software-orientierte Informatiklandschaft kam, war zunächst die Gründung des neuen Instituts für Informatik der Max-Planck-Gesellschaft (MPII) in Saarbrücken im Jahr 1990, über dessen erfolgreiche, schnelle Aufbauphase das „LEDA-Buch“ [1] ein in jeder Beziehung beeindruckendes Zeugnis gibt. Es folgte die Gründung des „Oldenburger Forschungsund Entwicklungsinstituts für Informatik-Werkzeuge und -Systeme“ (OFFIS), in 61
62
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Oldenburg, im Jahr 1991. Dies setzte sich im Jahr 1996 bei der Fraunhofer Gesellschaft mit der Gründung des „Instituts für Experimentelles Software Engineering“ (IESE) in Kaiserslautern fort. An dieser Stelle soll die Gründung von Projektträgerschaften im IT-Bereich im Jahr 1991 nicht vergessen werden, speziell im Bereich der Informatikförderung im DLR in Berlin-Adlershof, weil nur durch diese personelle Vergrößerungsmaßnahme die Ausweitung der Förderung in die Breite der im Wesentlichen kleinen und mittleren Software-entwickelnden Unternehmen möglich war, die dann auch erfolgte. Es gab in den 90er Jahren drei IT-Förderprogramme, das „Zukunftskonzept Informationstechnik“, von 1989 bis 1992, das „Förderkonzept Informationstechnik“, von 1993 bis 1996, und schließlich das Programm „Innovationen für die Wissensgesellschaft“, im Zeitraum 1997 bis 2001. Schwerpunkte der Förderung in den 90er Jahren im IT-Bereich waren: • Innovative Dienstleistungen durch Multimedia Telekooperation, Telepräsenz, Deutsches Forschungsnetz und Multimedia • Informatiksysteme Intelligente Systeme, Sprachtechnologie, Softwaretechnologie, Bioinformatik • ITK-Basistechnologien Optoelektronik, Bioelektronik, Systemtechniken für neue Kommunikationsnetze • Mikroelektronik Chip-Produktionstechniken, neue Funktionsprinzipien und neue Systemanwendungen in der Halbleitertechnologie, 300 mm-Siliziumwafer-Technologie
3.2 Schwerpunkte der Informatikforschung Über die Schwerpunkte der vom Bund geförderten Informatikforschung in Deutschland und damit verbundener anderer Maßnahmen in dem hier genannten Zeitraum der 90er Jahre wird im Folgenden ausführlich berichtet.
3.2.1 Entwicklung der Forschung zur Künstlichen Intelligenz in den 90er Jahren 3.2.1.1 Gründung der Arbeitsgemeinschaft der deutschen KI-Institute (AKI) Gegen Ende der 80er Jahre gab es ganz offensichtlich eine Art KI-Euphorie in Deutschland und damit einen vollen Umschwung zu dem im vorigen Kapitel beschriebenen zögerlichen Umgang mit dem Begriff der Künstlichen Intelligenz, der noch im Förderkonzept Informationstechnik der Bundesregierung, welches im Zeitraum 1984–1988 lief, nicht erwähnt wurde – es wurde nur von Mustererkennung und Wissensverarbeitung gesprochen. Dafür gab der BMFT aber im Jahr
3.2 Schwerpunkte der Informatikforschung
63
1988 eine Sonderbroschüre „Künstliche Intelligenz“ [2] heraus, in der die Bedeutung der KI und ihre bisherige Entwicklung im nationalen und internationalen Rahmen beschrieben wurde. Im gleichen Zeitraum, also 1987–1988, wurden in Deutschland dann auch gleich fünf KI-Institute gegründet [3, 4], und zwar: • im Juli 1987: Das Forschungsnetz „Anwendungen der Künstlichen Intelligenz Nordrhein-Westfalen“ (KI-NRW) in Bonn, unter der Leitung von Armin B. Cremers, • im November 1987: Das „Forschungsinstitut für anwendungsorientierte Wissensverarbeitung“ (FAW) in Ulm, unter der Leitung von Franz-Josef Radermacher, • im Juli 1988: Das „Deutsche Forschungszentrum für Künstliche Intelligenz“ (DFKI) in Kaiserslautern und Saarbrücken, unter der Leitung von Gerhard Barth, • im September 1988: Das „Bayerische Forschungszentrum für Wissensbasierte Systeme“ (FORWISS) in Erlangen, unter der Leitung von Bernd Radig und • im Oktober 1988: Das Labor für Künstliche Intelligenz (LKI) in Hamburg, unter der Leitung von Bernd Neumann. Die finanzielle Grundlage dieser Zentren stellte, bis auf das FAW, welches die Rechtsform einer Stiftung hatte, im Wesentlichen die Projektakquisition dar. Diese fünf neuen Zentren gründeten am 11. Oktober 1990 unter Einbindung des schon seit Oktober 1982 bestehenden • Fachbereichs Künstliche Intelligenz der GMD in Birlinghoven, unter Leitung von Thomas Christaller, die „Arbeitsgemeinschaft der deutschen KI-Institute“ (AKI). Die Mitglieder „betrachteten die Künstliche Intelligenz als eine Schlüsseltechnologie, deren Wirkung weit in das nächste Jahrhundert reichen wird“, womit sie aus heutiger Sicht recht hatten (s. aber Kap. 3.2.1.3). Die Ziele der AKI waren: • Ergebnisse wissenschaftlicher Forschung aus dem Bereich der KI für Anwender nutzbar machen, • Ansprechpartner für alle gesellschaftlichen Gruppen sein, um in gemeinschaftlichen Strategiediskussionen KI-Forschung zu gestalten, • Mitwirkung bei der Formulierung nationaler/internationaler Forschungsprogramme, • Forschungsarbeit durch gegenseitige Koordinierung, Erfahrungsaustausch, Wiederverwendung von Softwarewerkzeugen usw. optimieren. Die AKI-Institute wollten sich in ihrer Arbeit auf den Schwerpunkt der anwendungsnahen Forschung konzentrieren und dabei den wirtschaftlichen Einsatz von KI-Technologien schnell ermöglichen. In den AKI-Instituten waren im Zeitraum der Gründung im Jahr 1990 etwa 260 Wissenschaftler tätig. Bundespolitische Bedeutung erlangten in den Folgejahren vor allem das FAW in Ulm mit seinem Forschungsschwerpunkt der Servicerobotik
64
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
und das DFKI, welches im nächsten Kapitel beschrieben wird. Das DFKI ist auch das letzte noch heute in der Gründungsform existierende Institut. Die anderen wurden inzwischen entweder in andere Forschungsstrukturen integriert oder, wie das FAW, im Jahr 2004 aufgelöst. Allerdings hat sich danach ein kleines Folgeinstitut FAW/n in Ulm konstituiert, das von der Wirtschaft finanziert wird und sich mit Fragen der Globalisierung u. a. beschäftigt. 3.2.1.2 Aufbau des Deutschen Forschungszentrums für Künstliche Intelligenz als Private-Public-Partnership-Modell Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), mit Standorten in Kaiserslautern und Saarbrücken (ab 2006 zusätzlich Bremen), wurde 1988 von namhaften Unternehmen der Wirtschaft und zwei Forschungseinrichtungen gegründet, um die Forschung der Künstlichen Intelligenz in Deutschland mit zu etablieren und deren Anwendung voranzubringen. Das DFKI hat sich auf seinem Forschungsgebiet der anwendungsorientierten Grundlagenforschung im Bereich der ingenieurmäßigen Wissensverarbeitung von Anfang an vorzüglich entwickelt. Es gilt seit vielen Jahren als weltweit anerkanntes „Center of Excellence“ in seinen Kerngebieten des Wissensmanagements, der intelligenten Visualisierungs- und Simulationssysteme, des Bildverstehens und der Mustererkennung, der Deduktions- und Multiagententechnologie, der Sprachtechnologie und der intelligenten Benutzerschnittstellen. Am Standort Bremen kommen ab 2006 die beiden Gebiete der Servicerobotik und der Sicherheit von kognitiven Systemen hinzu. Das DFKI ist heute das weltweit größte und bedeutendste Forschungszentrum auf dem interdisziplinären Teilgebiet der Künstlichen Intelligenz der Informatik. Dies wird durch das Interesse von Marktführern wie SAP, DaimlerChrysler, Deutsche Telekom, Deutsche Post AG, Bertelsmann, Microsoft, EADS u. a. und deren Mitgliedschaft im Gesellschafterkreis deutlich. In vielen Ländern rund um die Welt wird derzeit versucht, das DFKI-Modell zu kopieren. In Deutschland geschah dies bereits im Jahr 2005 mit der Gründung des „CNT Fraunhofer Center Nanoelektronische Technologien“ in Dresden. Das DFKI ist eine privatrechtliche gemeinnützige GmbH mit derzeit über 250 Mitarbeitern. Es hat keinerlei Grundfinanzierung, sondern wird in einer Art Basisfinanzierung zu je einem Drittel von den drei Partnern Bund, Länder (Saarland, Rheinland-Pfalz, ab 2006 plus Bremen) und industrielle Gesellschafter im jährlichen Umfang von jeweils 2,5 Mio. €, zusammen also etwa 7,5 Mio. € (ab 2008 wegen Bremen leicht erhöht), in Projekten gefördert. Das DFKI bindet auf dieser Grundlage nochmals fast den doppelten Betrag im freien Wettbewerb bei der EU, beim BMBF, beim BMWi, bei der Wirtschaft usw. ein. Der Bund fördert im DFKI-Modell die Vorlaufforschung in Grundlagenforschungsprojekten. Die Länder fördern landesbezogene Transferprojekte, und die Gesellschafter geben Entwicklungsaufträge.
3.2 Schwerpunkte der Informatikforschung
65
Die Vorteile des Modells für die Gesellschafter liegen auf der Hand: • direkter Zugang zu den Kompetenzen eines international führenden Centers of Excellence auf dem Gebiet der Künstlichen Intelligenz bzw. Wissensverarbeitung, • Mitgestaltung der strategischen Ausrichtung der DFKI-Forschungsschwerpunkte über einen Aufsichtsratssitz, • Wissenstransfer über Köpfe und Mitarbeiterförderung durch Abordnung von Industrieforschern in DFKI-Projekte, • Image-Gewinn durch enge Kooperation mit einem Spitzenforschungsinstitut und • Auflösbarkeit des Instituts durch die Gesellschafter, wenn sie mit dessen Arbeit nicht mehr zufrieden sind. Wichtige Vorteile des Modells für die Leitung des DFKI ergeben sich aus Folgendem: • Unabhängigkeit vom BAT oder anderen tariflichen Bindungen, dadurch keine Probleme mit befristeten Stellen, Möglichkeit, attraktive Gehälter zu zahlen bzw. besondere Leistungen durch Zulagen zu vergüten, • Flexibilität gegenüber Veränderungen im Forschungsprogramm, kein Verwaltungsaufwand mit Programmbudgets, FuE-Plänen u. a., • Durchschnittsalter der Wissenschaftler nur 36 Jahre. Im Abstand von jeweils 5 Jahren erfolgt durch die drei Partner Bund, Länder, Gesellschafter eine Evaluation der Gesamtperformanz hinsichtlich wissenschaftlicher und wirtschaftlicher Kriterien und Ergebnisse, und es wird mit Absichtserklärungen entschieden, ob die Partner das DFKI in den nächsten 5 Jahren weiter unterstützen wollen. Die letzte Übereinkunft dieser Art fand im Dezember 2004 statt. Darin wurde die Förderung im Zeitraum von 2008–2012 abgestimmt. Eine Übersicht über die Entwicklung des DFKI seit seiner Gründung zeigt Tabelle 3.1. 3.2.1.3 Evaluierung des Förderschwerpunkts der KI durch ADL Die noch Ende der 80er Jahre zu beobachtende Euphorie in Deutschland in Bezug auf die Künstliche Intelligenz war bereits Anfang der 90er Jahre, je nach Ansprechpartner im Wissenschaftsbereich, in eine gewisse Zurückhaltung, Unsicherheit oder konkrete Infragestellung übergegangen. Die Gründe lagen wohl in der internationalen Entwicklung. In Japan wurde im Jahr 1992 das „Fifth Generation Computer Systems“-Programm (s. Kap. 2.2.1) erfolglos beendet und bei der EU wurde gerade die Förderung der KI eingestellt, u. a., nachdem das große Sprachverarbeitungsprojekt EUROTRA der EU völlig erfolglos beendet werden musste. Im BMFT führte dies im Jahr 1993 zu der Entscheidung, die Effektivität der bisherigen Forschungsaktivitäten zur Künstlichen Intelligenz in Deutschland von einem externen Beratungsunternehmen in einer Studie bewerten und Handlungsempfehlungen zur künftigen Strategie in diesem Bereich geben zu lassen. Im April
66
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Tabelle 3.1 Entwicklung des DFKI von der Gründung bis heute Thema
Zeitraum 1988/89
Zeitraum 2006
Standorte
Kaiserslautern, Saarbrücken
Gesellschafter
ADV/ORGA F. A. Meyer Aktiengesellschaft AEG Aktiengesellschaft Allgemein Deutsche Philips Industrie GmbH Fraunhofer-Gesellschaft
Kaiserslautern, Saarbrücken, Bremen (plus Berlin ab 07/2007) Daimler Chrysler AG
GMD mbH IBM Deutschland GmbH INSIDERS Gesellschaft für angewandte KI mbH Krupp Atlas Elektronik GmbH Mannesmann Kienzle GmbH Nixdorf Computer AG Siemens AG
F&E Gebiete
Daten Laufende Projekte Auftrags-Volumen Professorenstellen Mitarbeiterstellen Stud. Mitarbeiter Quelle DFKI Juni 2007
Intellig. Benutzerschnittstellen Dokumentanalyse und Bürokommunikation Computerlinguistik Intelligente Ingenieursysteme
7 1 167 698 € 3 13 9
Fraunhofer-Gesellschaft IDS Scheer AG KIBG-Künstliche Intelligenz Beteiligungen GmbH SAP AG BMW Forschung und Technik GmbH Technische Universität Kaiserslautern Universität des Saarlandes T-Venture Holding GmbH Empolis GmbH Microsoft Deutschland GmbH Deutsche Post Beteiligungen Holding GmbH Deutsche Messe Beteiligungsgesellschaft mbH Astrium GmbH Bildverstehen, Mustererkennung Wissensmanagement Deduktion, Multiagentensysteme Sprachtechnologie Intelligente Benutzerschnittstellen Wirtschaftsinformatik Robotik Sichere Kognitive Systeme Mensch-Maschine-Interaktion Human-Centered Visualization 110 28 042 782 € 10 259 223
3.2 Schwerpunkte der Informatikforschung
67
1993 wurde dieser Auftrag an die Firma Arthur D. Little (ADL) gegeben. Die Studie lag Anfang 1994 vor und hatte folgende Ergebnisse [5]: „Die Förderung des BMFT hatte nach Einschätzung von ADL im internationalen Vergleich zwar zu einer exzellenten Position Deutschlands in Forschung und Entwicklung auf dem Gebiet der KI geführt und wissenschaftliche Zielsetzungen der bisherigen Forschungsmaßnahmen in diesem Bereich wurden überdurchschnittlich erreicht, transfer- und anwendungsorientierte Ziele dagegen nur unterdurchschnittlich. Die Anwendungsorientierung der bis dahin durchgeführten Projekte wurde als unbefriedigend und der Technologietransfer zugunsten kleiner und mittlerer Unternehmen als unzureichend empfunden. Nach der bis dahin erfolgten stark grundlagenorientierten Förderung, die zum Aufbau einer wissenschaftlichen Basis notwendig war, sollte zukünftig eine Verlagerung zu einer stärkeren Anwendungsorientierung der Forschungsarbeiten erfolgen. Dem BMFT wurde eine Neuausrichtung des Förderschwerpunktes KI mit einer Konzentration auf die Förderung von Fragen der Anwendung und der Verbesserung des Know-how-Transfers vorgeschlagen. Dabei sollten in kleineren Verbünden mit strafferem Projektmanagement interdisziplinäre Systemlösungen unter Einbindung von Methoden der Künstlichen Intelligenz, der Neuroinformatik und der Fuzzy-Logic gefördert werden.“ Die Vorschläge von ADL wurden dann in zwei Fachgesprächen mit einer großen Anzahl von Experten diskutiert, und sie führten dazu, dass ab 1994 für die Informatikförderung des BMBF folgende Randbedingungen für die Auswahl der Projekte und deren Steuerung und Kontrolle herangezogen wurden: • problemorientierter, systembezogener, statt methodenorientierter Ansatz, • konkrete Fragestellung aus Anwendungsfeldern, davon abgeleitete FuE für KI, ggf. NI, Fuzzy, Einbindung von Ingenieurdisziplinen, • keine Verbundforschungsprojekte ohne Anwender, die die Ergebnisse der Forschung in Produkte umsetzen können, fachliche Federführung möglichst bei Anwendern, • Konzept zur Know-how-Akquisition während und zum -Transfer nach Projektende als Bestandteil des Projekts, Aufgabe für Partner aus Forschungszentren, • mit geringen, ergänzenden FuE-Maßnahmen in kleinen, zeitlich kurzen Verbünden mit KMU, schneller Transfer neuer Grundlagenforschungs-Ergebnisse und schließlich • Ideenwettbewerbe, Skizzen als erste Antragsstufe zur Reduktion des Aufwands zur Antragserstellung. Später wurden diese Randbedingungen, auch unter Beachtung der Lerneffekte von Suprenum (s. Kap. 2.2.4.1), erweitert um die Hinweise: • Die Projekte sollten ein hohes Produktpotenzial haben, aber keine Produktentwicklungen beinhalten und • sie sollten Grundlagenforschung bis anwendungsorientierte Forschung überbrücken und diese nicht etwa zeitlich stufen.
68
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Mit diesen Fördermechanismen wurden bis zum Ende des Förderprogramms IT 2006 im Bereich Informatik/Softwaresysteme des BMBF alle etwa 500 Verbundprojekte (2500 Einzelprojekte) ohne jeden Ausfall erfolgreich zu Ende geführt. Dies ist durchaus mit ein nachhaltiges Ergebnis der Studie von ADL. 3.2.1.4 Neuorientierung der KI/NI-Förderung in Intelligenten Systemen Inhaltlich wurde der von ADL vorgeschlagene Übergang von der bis dahin erfolgten methoden- und dabei grundlagenorientierten Förderung der Künstlichen Intelligenz, der Neuroinformatik und der Fuzzy Logic in getrennten Korridoren zur anwendungs- und dabei systemorientierten und integrierten Förderung schnell vollzogen. Schon im Oktober 1994 erfolgte eine Ausschreibung des BMFT zu einem neuen Förderschwerpunkt „Intelligente Systeme“, die folgende Merkmale aufweisen sollten.
Abb. 3.1 Merkmale Intelligente Systeme (Quelle [6])
3.2 Schwerpunkte der Informatikforschung
69
Die FuE-Themen sollten ab jetzt von konkreten Problemen aus der Wirtschaft abgeleitet werden, in deren Lösung sollten aber dennoch theoretisch fundierte Grundlagenarbeiten mit einbezogen werden, und sie sollten auch in langfristige Szenarien integrierbar sein. Die wichtigsten Anwendungsszenarien wurden in intelligenten Robotern für Serviceaufgaben oder für Arbeiten in gefährlichen Umgebungen, in Prozesssteuerungen, in der Assistenz für den Menschen sowie in der Dokumentanalyse gesehen. Es wurden dann im Zeitraum von 1995–1999 insgesamt 11 Verbundprojekte gestartet und im Zeitraum bis 2003 nochmals vier weitere Verbünde. Das erste dieser Projekte entsprach einem Vorschlag des FAW in Ulm, der bereits vor der ADL-Studie eingereicht war und welcher dann auch bereits von 1994 bis 1997 gefördert wurde, das Verbundprojekt • AMOS – Durchgängige Integration von symbolischer und subsymbolischer Informationsverarbeitung am Beispiel autonomer Systeme (1993–1997). Vier Projektpartner unter der Koordination des FAW Ulm (Manfred Knick). Drei Partner aus der Wirtschaft (KMU). AMOS war eines der ersten Projekte, das neuronale Wissenskodierungsmechanismen mit solchen symbolischer Art im Bereich der Künstlichen Intelligenz und mit Methoden im Bereich komplexer mathematischer Modelle und Berechnungsmethoden verband. AMOS war ein wichtiger Input für eine ganze Reihe von Projekten am FAW, die auch zu Ausgründungen geführt haben. AMOS bildete einen wichtigen Hintergrund für den in Ulm etablierten Sonderforschungsbereich SFB 527 „Integration symbolischer und subsymbolischer Informationsverarbeitung in adaptiven sensomotorischen Systemen“ [7]. Ein weiteres für die Integration der Methoden Neuronaler Netze und der Künstlichen Intelligenz und der Anwendungsorientierung typisches Projekt war das Verbundprojekt • DEMON – Automatisierung von Demontageprozessen am Beispiel von Altautos (1996–1999). Fünf Projektpartner unter der Konsortialführung des TZN Unterlüß GmbH (K. D. Wien), Forschungspartner: Universitäten Paderborn, Bonn, Dortmund. Industriepartner: Ein weiteres KMU. In DEMON ging es um die Entwicklung einer flexiblen Roboterzelle, die in der Lage sein sollte, Demontageaufgaben an Altautos weitgehend autonom auszuführen, konkret um die Demontage von Vorderrädern. Beherrscht werden sollten individuelle Räder mit verschiedenen Raddurchmessern und Gewichten, nur grob bekannte Radpositionen und Radorientierungen (Lenkradeinschlag, Radsturz) und Schrauben mit und ohne Diebstahlsicherung. Diese Aufgabe besaß eine „natürliche“ Variabilität, die eine programmierte Roboterführung ausschloss und stattdessen ein selbstlernendes, adaptives System erforderte. Die Demontageobjekte (Räder) bzw. ihre Teile (z. B. Radmuttern) wurden mit Neuronalen Netzen ganzheitlich gelernt und erkannt. Das Wissen über die Relationen zwischen den Objekten wurde in einer wissensbasierten Komponente des hybriden Neuro-KI-Systems modelliert. Das Projekt hat sein Ziel erreicht und wurde auf der unten genannten Statustagung erfolgreich demonstriert.
70
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Ein weiteres sehr erfolgreiches und nachhaltiges Projekt aus der Förderrunde zu den Intelligenten Systemen ist das Projekt READ, über welches im Zeitfenster READ/AdREAD auf der folgenden Seite und im Teil II des Fachbands berichtet wird. Es wurden noch die folgenden Themen (inkl. Verbünde und Koordinatoren) bearbeitet: • Neuronale Skills intelligenter Roboter (NEUROS, Daimler-Aerospace, Eike Schmidt) • Intelligente Serviceumgebung (INSERVUM, Siemens AG, Gisbert Lawitzky) • Verfahren und Methoden zur wissensbasierten Entwicklung zuverlässiger Leitsysteme (VERMEIL, Elpro GmbH, Dietrich Balzer) • Anwendung und Entwicklung neuronaler Verfahren zur autonomen ProzessSteuerung (AENEAS, Siemens AG, Volker Tresp) • Intelligente Diagnose und Anwendung (INDIA, Bosch GmbH, Reinhard Weber) • Adaptive Modellbildung für Anwendungen in der Fahrzeugentwicklung (ACON, Kratzer Automatisierung GmbH, Klaus Eder) • Intelligentes kooperatives Assistenzsystem zur Dispositionsunterstützung in Produktions- und Steuerungssystemen (INKAD, infor GmbH, Christian Hestermann) Alle Verbundprojekte der ersten Förderrunde zu den intelligenten Systemen wurden im Dezember 1998 in Neu-Ulm der interessierten Öffentlichkeit in einer Statustagung präsentiert [8]. 3.2.1.5 Autonome Kooperierende Agenten Erste Forschungsarbeiten im Bereich der Agentenmodellierung waren zunächst im reinen Grundlagenbereich an der Universität Karlsruhe seit Mitte der 70er Jahre unter der Leitung von Peter Raulefs, damals Mitarbeiter bei Wolfram Menzel, begonnen worden – in etwa zeitgleich mit den Arbeiten von Carl Hewitt in den USA, MIT. In der ersten Hälfte der 90er Jahre bekamen diese Arbeiten auch größere Bedeutung als allgemeine Software-Technologie und sie wurden zu einem Schwerpunkt in der Aufbauphase des DFKI. Dabei wurden im Rahmen der Basisförderung des DFKI (s. Kap. 3.2.1.2) im Zeitraum 1989 bis 1994 unter der wissenschaftlichen Leitung von Jörg Siekmann vier große grundlagenorientierte Einzelprojekte zu autonom kooperierenden Agenten gestartet: WINO, Wissensrepräsentation und Inferenzmechanismen, AKA-TACOS (Autonom kooperierende Agenten, Taxonomien und Alltagswissen), AKA-MOD (Grundlagen, Anwendungen und Implementierung von verteilten KI-Systemen: Modellierung kooperierender Agenten) und DISCO (Dialogsysteme für kooperative Agenten) [9, 10, 11]. In diesen Projekten wurde eine eigene Architektur für Multiagenten-Systeme entwickelt, und es wurden systematisch die Fähigkeiten der Kommunikation, über die kooperierende Agenten verfügen müssen, um ihrer Aufgabe gerecht zu werden, entwickelt.
3.2 Schwerpunkte der Informatikforschung
Zeitfenster Stand der wissensbasierten Dokumentanalyse am Beispiel der Verbundvorhaben READ und AdREAD (1995–2003) Andreas Dengel Viele Informationsbedürfnisse sind getrieben durch individuelle Aufgaben, Rollen oder Interessen, die ganz spezifische Aspekte von Dokumentinhalten adressieren. Vor dem Hintergrund der wachsenden Informationsflut erweisen sich daher Fähigkeiten der effektiven und effizienten Extraktion, Integration und Verdichtung von Information aus Emails, Geschäftsbriefen, Web Sites oder Archiven immer mehr als unabdingbar, ja als unternehmerischer Wettbewerbsfaktor, der sich zunehmend auf die Fähigkeiten von computergestützten Verfahren stützt. So müssen etwa in der Buchhaltung Werte zu bestimmten Attributen, wie etwa Rechnungssteller, Rechnungspositionen, Beträge, Zahlungsziele, etc. aus einem eingehenden Fax möglichst automatisch ausgelesen und in ein ERP-System (Enterprise Resource Planning), wie SAP R/3 übernommen werden. Solche Problemstellungen sind typisch für die wissensbasierte Dokumentanalyse, bei der gerade die Künstliche Intelligenz (KI) mit ihren maschinellen Lernverfahren und symbolischen Wissenstechnologien in Verbindung mit den Kognitionswissenschaften und der Mustererkennung ein ideales Einsatzgebiet findet. In den beiden Förderprojekten READ und AdaptiveREAD (AdREAD) arbeiteten im Zeitraum 1995–1998 (READ) und 1999–2003 (AdREAD) unter meiner Konsortialführung die Unternehmen: • • • • • • • •
AB+M, CGK Computergesellschaft Konstanz (später: OCE Document Technologies), DaimlerChrysler, Graphikon, Insiders Information Management, Janich & Klass Computertechnik und Siemens Electrocom mit den Universitäten Duisburg, Magdeburg und Stuttgart
als Forschungspartner zusammen. Ziel war es, die Wettbewerbssituation der deutschen Wirtschaft im Bereich adaptiver Erkennungstechnologien zu steigern und nachhaltig zu sichern. Beim letzen Projekt AdREAD ging es insbesondere um die Erarbeitung und prototypische Umsetzung eines querschnittlichen und umfassenden Konzeptes zur Lernfähigkeit von Lesesystemen, die sich mit den in der Einleitung skizzierten Problemstellungen befassen. Die Motivation für solche Systeme liegt auf der Hand: Einerseits unterliegen sie nicht, wie bisherige Systeme, dem „Gesetz der fortschreitenden Fehleranpassung“, indem sie immer die gleichen Fehler wiederholen, andererseits binden sie wesentlich weniger EngineeringLeistung für ihre Pflege. Beim Kreislauf des Lernprozesses für ein Lesesystem werden unterschiedliche Wissensquellen genutzt, um aus dem Strom der Dokumentbilddaten die für die spezielle Anwendung relevanten Informationen abzuleiten. Diese wiederum werden genutzt, um die Wissensquellen an die speziellen Aufgabenbedingungen anzupassen. Die F+E-Arbeiten lassen sich zu den folgenden Punkten zusammenfassen: • Adaption: Entwicklung von Verfahren zur effizienten Belehrbarkeit von Lesesystemen auf unterschiedliche Aufgabenstellungen. Entwicklung von Verfahren zum Lernen während des Betriebs, insbesondere zum automatischen Erstellen von Lernstichproben. • Komponenten: Entwicklung einer komponentenbasierten Architektur zur einfachen Konfiguration von Algorithmen zu einer Gesamtlösung.
71
72
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
• Erkennungsverfahren: Verbesserung und Weiterentwicklung ausgewählter Erkennungsverfahren, wie Handschrifterkennung. • Wissens- und Informationsmanagement: Verwaltung der Dokumentdaten zur nachfolgenden Nutzung, beispielsweise, um automatisch gekennzeichnete Stichproben zu erstellen. Die neuartigen, adaptiven Verfahren sind von den Projektmitgliedern in mehr als 80 referierten, internationalen Zeitschriften- und Konferenzpapieren publiziert. Aus AdREAD allein sind insgesamt 20 Patente, Schutzrechte und Erfindungsanmeldungen der beteiligten Industrieunternehmen entstanden. Darüber hinaus entstand eine stattliche Anzahl von Spinoff-Arbeitsplätzen mit 20 Spin-off-Produkten, darunter neue Rechnungs- und Formularleser, Webservices für Erkennungsdienste, vertikale Suchmaschinen oder Peer2Peer-Suchdienste, mit denen die am Projekt beteiligten deutschen Firmen oder Ausgründungen zum Teil weltweit führend sind. Mehr als 50% der privaten Krankenversicherungsunternehmen, die eine elektronische Dokumentenverarbeitung einsetzen, arbeiten bereits heute mit „AdREAD“-Systemen, wie sie von einigen der beteiligten Industrieunternehmen entwickelt und vertrieben werden (s. a. ausführlichen Beitrag in Teil II).
Die Agenten müssen Wissen repräsentieren und daraus die nötigen Schlussfolgerungen ziehen können. Dieses Wissen lässt sich grob in drei Klassen einteilen: • allgemeines Weltwissen, soweit es für den jeweiligen Anwendungsfall von Bedeutung ist, mit statischen, dynamischen und unscharfen Anteilen, • Wissen über die momentane Situation und deren Vorgeschichte, dieses Wissen ist (fast immer) dynamisch und enthält die Fakten über die aktuelle Umgebung und schließlich • ein Modell vom Wissen der anderen Agenten wie auch über das eigene Wissen, z. B. über das, was er nicht weiß und wonach er seine Partner fragen könnte. Die Agenten müssen Aktionen (gemeinsam) planen und ausführen können. Dazu gehört: • die eigene Wissensbasis eines Agenten muss verändert und der gegebenen Situation angepasst werden können, • Aktionen müssen geplant werden, dazu gehört monotones und nicht monotones Schließen, unvollständige Information und Nachfragen, Aktionen anderer Agenten in den Plan einbeziehen, • ein Plan muss kontrolliert und dynamisch ausführbar sein, das heißt, während der Ausführung muss der Plan geändert werden können und • die Agenten müssen untereinander kommunizieren können, möglichst für den Menschen nachvollziehbar, etwa in einer der Situation angemessenen Hochsprache. Autonom kooperierende Agenten wurden in den großen Verbundforschungsprojekten der Informatik, etwa in den Projekten zur Mensch-Technik-Interaktion (s. Abschn. 4.2.1), intensiv weiterentwickelt und ab Anfang des neuen Jahrhunderts
3.2 Schwerpunkte der Informatikforschung
73
findet man sie in aller Breite in Forschungsprojekten und in großen industriellen Anwendungen der verschiedensten Fachdisziplinen.
3.2.2 Bioinformatik Der Begriff der „Bioinformatik“, zusammengesetzt aus „Biologie“ und „Informatik“, bezeichnete zu Anfang der neunziger Jahre zwei Ausrichtungen der Verbindung der Biologie mit der Informatik. Zum einen ging es um die Anwendung neuester Methoden der Informationstechnik bei der Lösung von Aufgaben in den Bereichen der Genomforschung, der Neurowissenschaften, der Biochemie, des Biomoleküldesigns und der Wirkstoffforschung. Zum anderen ging es (quasi umgekehrt) um die Nutzung biologischer Erkenntnisse und Mechanismen für die Entwicklung neuartiger informationsverarbeitender Systeme. Inzwischen hat sich der Begriff der Bioinformatik allein für den ersten Teil der Forschung etabliert. Für den zweiten Teil wird der Begriff der „Informationsverarbeitung nach biologischen Prinzipien“ verwandt. 3.2.2.1 Informatik in den Biowissenschaften, Molekulare Bioinformatik Im Jahre 1992 wurde vom BMFT ein Förderschwerpunkt Molekulare Bioinformatik eingerichtet, dessen Hauptziel darin bestand, die auf dem Gebiet der Informationstechnik erreichten Forschungsergebnisse, insbesondere zur Simulation, zum Höchstleistungsrechnen und zur Wissensverarbeitung, für biomolekulare, biochemische und medizinische Fragestellungen einzusetzen und sie speziell dafür weiterzuentwickeln. Insbesondere sollten Grundlagen für die Analyse von Proteinen und ihrer Wechselwirkungen mit biologischen und chemischen Umgebungen entwickelt werden. Der Umfang molekularbiologischer Daten wuchs (schon) damals stark an. Im Zuge des laufenden Humangenomprojektes war gegen Ende des Jahrzehnts sogar ein explosionsartiges Wachstum zu erwarten. Das galt vor allem für die Primärstruktur von Nukleinsäuren und Proteinen (Nukleotidsequenzen, Aminosäuresequenzen). Deshalb setzten die Forscher seinerzeit besonders auf die sich etablierenden neuen Superrechner mit massiv parallelen Strukturen – und deren damals schon prognostizierte Leistungssteigerung um drei Größenordnungen bis in den Tera-Flops-Bereich – in Verbindung mit hochauflösenden Grafiksystemen. So sollte neben der interaktiven Simulation mit Echtzeitvisualisierung dynamischer Prozesse auch die Darstellung und Bearbeitung der Struktur komplexer biologischer Makromoleküle (Molecular Modelling) ermöglicht werden. Dies würde dann speziell das „Protein Design“, das den Umbau oder die Neukonstruktion von Proteinen für spezifische biotechnologische Anwendungen umfasst, sowie das „Drug Design“, das den Entwurf spezifischer Wirkstoffe für die Behandlung von Krankheiten umfasst, ermöglichen.
74
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Die Anwendungspotenziale der Struktur- und Funktionseigenschaften von Biomolekülen (vor allem Proteinen), die gezielt mit neuen Eigenschaften ausgestattet werden, waren damals und sind heute nicht hoch genug einzuschätzen. Hier sei nur an die Entwicklung von Bioreaktoren, den Abbau von Schadstoffen sowie Biosensoren oder Werkstoffe mit völlig neuartigen Materialeigenschaften erinnert. Auch die Anwendungspotenziale der Wirkstoffentwicklung für Pharmaprodukte und für den Pflanzenschutz waren damals und sind heute von enormer Bedeutung. Gegenüber dem alten Konzept, neue Substanzen von bekannten abzuleiten und weitläufigen Laborexperimenten zu unterziehen, versprach die molekulare Bioinformatik durch die Möglichkeit einer systematischen Herangehensweise an die Wirkstoffsuche und den Ausschluss vieler Kandidaten im Computer wirtschaftlich und ethisch einen Quantensprung in der Entwicklung. Gefördert wurden dann in einer ersten Runde im Zeitraum 1993 bis 1997 acht große Pilotprojekte, die in einer Statustagung des BMBF im November 1995 in Braunschweig öffentlich präsentiert und in einem entsprechenden Bericht des Projektträgers DLR des BMBF nachgelesen werden können [12]. Sie hatten folgende Schwerpunkte: • Proteine, deren Sequenzen, Strukturen und Evolution (PROTAL, GMD, Thomas Lengauer), • Berechnung und Vorhersage von Rezeptor-Ligand-Wechselwirkungen (RELIWE, GMD, Thomas Lengauer), • Weiterentwicklung verteilter heterogener Datenbanksysteme und ihrer Anwendung in der Genomforschung (HEDAGE, Uni Stuttgart, Andreas Reuter), • Ähnlichkeitsanalyse biologisch aktiver Verbindungen unter Einsatz genetischer Algorithmen und Neuronaler Netze (AEBAV, TU München, J. Gasteiger), • Vergleichende Analyse und Erkennung genregulatorischer NukleinsäureSequenzen (GENUS, GBF, Edgar Wingender), • Biomolekulare Wechselwirkungen von Proteinen (BIOWEPRO, GBF, Dietmar Schomburg), • Design therapeutischer Peptid- und RNA-Moleküle (DETHEMO, FU Berlin, G. Erdmann) und • Neuronale und genetische Algorithmen auf Parallelrechnern in der Genomforschung (NEUROGEN, DKFZ, Sandor Suhai). Am Beispiel des Projekts RELIWE wird exemplarisch gezeigt, welche wichtigen neuen Forschungsarbeiten seinerzeit durchgeführt wurden und welche nachhaltigen Wirkungen diese Pilotprojekte der Bioinformatik in Deutschland bereits hatten.
3.2 Schwerpunkte der Informatikforschung
Zeitfenster Bioinformatik am Beispiel des Verbundprojekts RELIWE (1993–1997) Thomas Lengauer Die Biologie der neunziger Jahre war international geprägt durch das Großprojekt, das zum Ziel hatte, das gesamte humane Genom zu sequenzieren. Der BMBF hat in weitsichtiger Weise schon früh in den neunziger Jahren erkannt, dass damit die Biologie in eine quantitative Disziplin verwandelt wird, in der die Bioinformatik sowohl bei der Planung von Experimenten als auch bei der Interpretation der generierten Daten eine zentrale Rolle spielt. Daher legte er die Strategieinitiative „Molekulare Bioinformatik“ auf, in der acht Verbundprojekte gefördert wurden. In einem der Projekte, dem RELIWE-Projekt, ging es um die Entwicklung von Methoden und Datenbanken zur Analyse und Vorhersage von Wechselwirkungen zwischen niedermolekularen Liganden (insbesondere Medikamenten) und ihren Zielmolekülen (Proteinen). Das Ziel war, durch neuartige Software die Suche nach neuen Medikamenten effektiv zu unterstützen. Dieses Thema war von so hohem Interesse für die pharmazeutische Industrie, dass sich die Firmen BASF AG und E. Merck KGaA als industrielle Partner des RELIWE-Projektes engagierten. Die Projektpartner waren: • • • • •
Thomas Lengauer, GMD-SCAI, Sankt Augustin, Chris Sander, European Molecular Biology Laboratory, Heidelberg, Gerhard Barnickel, E. Merck KGaA, Darmstadt, Gerhard Klebe, BASF Ludwigshafen und Erich Neuhold, GMD-IPSI, Darmstadt.
Das RELIWE-Projekt brachte zwei wesentliche Resultate hervor. Zum einen wurde das Docking-Programm FlexX entwickelt, das die Bindung von Liganden an Proteine berechnet. Dabei konnte zum ersten Mal bei wenigen Minuten Rechenzeit pro Probleminstanz der Ligand in seiner vollen dreidimensionalen Flexibilität berücksichtigt werden. Dadurch konnten tausende von Liganden in einigen Stunden auf einem damals gängigen Arbeitsplatzrechner auf ihre Tauglichkeit als Ausgangspunkte für die Medikamentenentwicklung geprüft werden. Das ermöglichte die Verlagerung eines beträchtlichen Teils der Vorauswahl von Kandidatenmolekülen für Medikamente vom Labor in den Rechner, was mit erheblicher Kostenersparnis verbunden ist. Das zweite Resultat des RELIWE-Projekts war die Relibase, eine neuartige Datenbank mit Informationen über Wechselwirkungen zwischen Proteinen und Liganden. Die Förderung des RELIWE-Projekts hat die internationale Stellung der beteiligten Informatikforscher im Bereich des rechnergestützten Wirkstoffentwurfs begründet und in der entsprechenden Wissenschaftsgemeinde zu einem nachhaltigen Ruck geführt. FlexX wurde ein weltweiter Erfolg in der akademischen Szene und der pharmazeutischen Industrie. Die Forschung führte zu vielzitierten Veröffentlichungen, wurde mit mehreren Preisen bedacht und war Anlass für die Gründung der BioSolveIT GmbH, Sankt Augustin im Jahre 2001. Die Relibase wurde ebenfalls ein weltweiter Erfolg. Die Datenbank wird heute über das Cambridge Crystallographic Data Center (CCDC) vermarktet und wird weltweit genutzt (s. a. Bericht in Teil II).
75
76
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
3.2.2.2 Informationsverarbeitung nach biologischen Prinzipien, Evolutionäre Algorithmen Bei der „Informationsverarbeitung nach biologischen Prinzipien“ bildet man Informationsverarbeitungsmechanismen organischer Substanzen, lebender Organismen und makrobiologischer Systeme in informationstechnischen Systemen nach. Das besondere Interesse gilt dabei der biologischen Selbstorganisation, der verteilten Intelligenz, der kollektiven Entscheidungsfindung, dem Prinzip des Immunsystems und weiterhin den Prinzipien der Evolution. Als erste Lösungswege hatten sich Anfang der 90er Jahre die Ansätze der „Evolutionären Algorithmen“ entwickelt. Der Natur gelang es, unter Billiarden potenziell möglicher Eiweißmoleküle gerade diejenigen herauszufinden, die als Enzyme bestimmte molekulare Reaktionen beschleunigen und dadurch Leben ermöglichten. Nach diesem Vorbild sollten Algorithmen zur Lösung von Optimierungsaufgaben im Software- wie im Hardwarebereich entwickelt werden, insbesondere für Entwurfsaufgaben in der Konstruktion, für Planungs- und Steuerungsaufgaben in der Fertigung und im Betrieb sowie für Optimierungsaufgaben in praktisch allen Wissenschaftsdisziplinen, die über Simulationsmodelle verfügen. Evolutionäre Algorithmen können besonders in Fällen der Anwendung helfen, bei denen herkömmliche mathematische und technische Verfahren ineffizient oder unbrauchbar sind. Dies ist z. B. dann der Fall, wenn die Zielfunktionen so kompliziert sind, dass sie nur durch unbeherrschbar komplexe Modelle ermittelt werden können oder wenn sie überhaupt nicht analytisch modelliert und programmiert werden können, etwa bei Instabilitäten des mit dem Modell abgebildeten realen Objekts oder beim Übergang von einem Verhaltensbereich eines Systems zu einem anderen (z. B. laminare zu turbulenten Strömungen). Evolutionsstrategien und Genetische Algorithmen arbeiten mit einer Population von Individuen, die Punkte im hochkomplexen Suchraum der Entscheidungsvariablen (binär, ganzzahlig, reell und vor allem auch gemischt diskret/reell) darstellen. Mittels Replikation, Rekombination, Mutation und Selektion als wichtigsten Operatoren findet eine Population schrittweise immer bessere Lösungen, ohne den Suchraum vollständig zu durchmustern, aber auch ohne an suboptimalen Positionen aufzugeben. Wie bei der Evolution erfolgen dabei kollektive Lernprozesse mit Speicherung erfolgreicher und Vergessen erfolgloser Innovationen. Die hohe Rechengeschwindigkeit damaliger (und heute verfügbarer) Computer ermöglichte es, derartige Probleme zu bearbeiten, indem eine Vielzahl von Lösungen rückgekoppelt, bewertet und neu berechnet wurde. Für die natürliche Evolution gilt dabei, dass nur in Grenzfällen das absolute Optimum angestrebt wird. Sehr häufig ist die Flexibilität des evolvierten Systems entscheidend, so dass in vielen, auch technisch interessanten Fällen, eine Balance zwischen Lösungsgüte und Anpassungsfähigkeit angestrebt wird. Heute ist Letzteres das wichtigere Problem. Die folgenden Prinzipien aus der Evolution können in Computerprogramme umgesetzt und zur Suche und Optimierung des Lösungswegs eingesetzt werden:
3.2 Schwerpunkte der Informatikforschung
77
• Replikation: Kopieren genetischer Information als (zeitlich begrenztes) Konzept der Informationsspeicherung, • Rekombination: Mischen elterlicher genetischer Information bei der Zeugung von Nachkommen, • Mutation: Auftreten von (meist geringfügigen, teilweise reparierbaren) Störungen bei der Weitergabe genetischer Information an die nächste Generation, • Selektion: Der Umwelt „besser“ angepasste Individuen (Träger genetischer Information) „überleben“, d. h. geben ihre genetische Information weiter, „schlechter“ angepasste „sterben aus“ und schließlich • Isolation/Migration: Verschiedene, z. B. räumlich getrennte Teilpopulationen mit unterschiedlicher, charakteristischer genetischer Information tauschen durch gelegentliche Wanderungsbewegungen Informationen aus (längerfristig). Der Förderschwerpunkt Evolutionäre Algorithmen wurde dann 1993 gestartet. Gefördert wurden in einer ersten Phase im Zeitraum 1994 bis 1997 vier Verbundprojekte, in denen zunächst die Grundlagen der Evolutionären Algorithmen untersucht wurden. Auch diese Projekte wurden auf der o. g. Statustagung Bioinformatik in Braunschweig präsentiert, und über sie wird im bereits erwähnten Bericht des Projektträgers DLR informiert. Es handelt sich um folgende Themen: • Grundlagen und Anwendung Evolutionärer Algorithmen (EVOALG, ICD Dortmund, Hans-Paul Schwefel), • Einsatz der Evolutionsstrategie in Wissenschaft und Technik (EVOTECH, TU Berlin, Ingo Rechenberg) und • Anwendung genetischer paralleler Algorithmen in der kombinatorischen Optimierung (HYBRID, GMD, Heinz Mühlenbein); und um das Verbundprojekt SONN, welches exemplarisch vorgestellt werden soll. • SONN – Strukturoptimierung Neuronaler Netze (1994–1999) Zwei Verbundprojektpartner unter der Koordination der Universität Bochum (Werner von Seelen). Weiterer Forschungspartner: GFal Der Entwurf von Systemen setzt die Vorgabe ihrer Basisstruktur voraus (Elemente). Die Evolution vermag auf der Grundlage der Elemente optimale funktionsbezogene Strukturen zu finden (Problemdekomposition). In SONN wurden u. a. derartige Strukturen analysiert, z. B. für das Erlernen mehrerer Zielfunktionen oder für Netze mit hoher Lerngeschwindigkeit. Beides fand Anwendung in Systemen zur automatischen Fahrzeugführung. Auch für die sehr schwierige Optimierung strömungstechnischer Probleme (Navier–StokesGleichung) wurden die Grundlagen erarbeitet. Sie fanden später Anwendung bei der Verbesserung von Turbinenschaufeln. Aufbauend auf den Fortschritten auf dem Gebiet der Evolutionären Algorithmen in der ersten Förderphase wurden im Rahmen des „Zukunftskonzepts Informationstechnik“ des BMBF ab 1998 in einer zweiten Förderstufe in fünf mehr anwendungsorientierten Verbundprojekten weitere Prinzipien der Natur für informationstechnische Anwendungen erschlossen. Besonders innovativ war ein
78
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Projekt, in dem versucht wurde, Genetische Algorithmen zum Programmieren zu verwenden. • GEPROG – Genetisches Programmieren für Modellierung und Regelung dynamischer Systeme (1998–2001) Drei Verbundpartner unter der Koordination der DaimlerChrysler AG (Frieder Lohnert). Weitere Forschungspartner waren die Universitäten Dortmund und Berlin (TU). Beim genetischen Programmieren geht es um Software Engineering, welches auf der Basis der Prozesse der Evolution, insbesondere der Mutation und der Selektion, mit vorhandenen Bausteinen zu Softwarelösungen kommen will. Dies wurde in GEPROG in ersten Anwendungssystemen beim PKW- und Nutzkraftfahrzeug-Bau sowie bei Flugregelungssystemen erfolgreich erprobt. Genetisches Programmieren gilt heute als ein Verfahren „unter anderen“ und ist für Spezialfälle geeignet, etwa wenn eine Abbildungsmöglichkeit auf hierarchische Baumstrukturen besteht, wenn variable Repräsentationslängen gewünscht sind und wenn genügend Vorwissen zu integrieren ist. Andererseits sind große Populationen mit Programmsegmenten notwendig und Repräsentationen sollten nicht vorgegeben, sondern optimierend gesucht werden [13]. Anwendungserfolge mit naturanalogen Lern- und Optimierungsverfahren wurden in der zweiten Förderstufe der Informationsverarbeitung nach biologischen Prinzipien u. a. noch in Themenstellungen erzielt wie • Optimierungsstrategien für die Schiffsabfertigungssteuerung (NETRALOG, HHLA, Dirk Steenken) und • Optimierung der Betriebsweise von Verbrennungsmotoren mit evolutionären Algorithmen (MOTOP, Universität Tübingen, Andreas Zell). 3.2.2.3 Neurotechnologie Die für die Forschung besonders interessante Berührungsstelle zwischen mikroelektronischen Bauteilen und biologischen Substanzen betrifft auch Fragen der Implantierbarkeit mikroelektronischer Hardware in natürliches, biologisches Gewebe und deren Bioverträglichkeit. Dahinter steht die Vision intelligenter Neuroimplantate, an denen Wissenschaftler aus den informationstechnischen Bereichen wie der Neuroinformatik, der Mikroelektronik und der Mikrosystemtechnik gemeinsam mit Experten der Neurobiologie und der Neuromedizin weltweit seit Anfang der 90er Jahre arbeiten. Es handelt sich dabei um Grundlagenforschung, die nach heutigem Kenntnisstand in einigen speziellen medizinischen Fragestellungen, wie dem Retina-Implantat und dem Cochlea-Implantat, durchaus Erfolg versprechende Perspektiven hat [14]. Im Zeitraum 1993/1994 wurden zunächst ausführliche Studien durchgeführt, die die grundsätzlichen Fragestellungen der Neurotechnologie betrafen, und diese wurden in mehreren wissenschaftlichen Fachgesprächen breit diskutiert. Da die Ergebnisse dieser Diskussionen im Wesentlichen positiv waren, begann der BMBF
3.2 Schwerpunkte der Informatikforschung
79
im Jahr 1995 mit der Förderung von zwei Verbundprojekten zur Erforschung der Grundlagen von Funktionsmustern einer Sehprothese (Retina-Implantat) für Patienten, die bei sonst intaktem Sehsystem an einer erblichen und bisher unheilbaren Netzhautdegeneration (z. B. Retinitis pigmentosa) leiden. Mit der Förderung dieser neurotechnologischen Forschungsarbeiten wurde ein weltweit beachteter erster Schritt zur Etablierung dieses neuen interdisziplinären Wissenschaftsgebietes getan. Ende des Jahres 1999 fand in Bonn eine große Statustagung zu den Projekten statt. Vorgestellt wurden die Arbeiten im Verbundprojekt „EPI-RET“, welches unter der Federführung der Universität Bonn (Rolf Eckmiller) mit acht weiteren Forschungspartnern (Universitäten Marburg, Duisburg, Köln und Münster, RWTH
Abb. 3.2 Retina-Implantat mit elektromagnetischer Signal- und Energieübertragung (Quelle: Rolf Eckmiller, 2007). Prinzip einer lernfähigen Sehprothese. Links: Brillengestell mit integrierten Modulen zur Bildaufnahme (CMOS-Kamera), lernfähigem Retina Encoder (RE) zur vom Menschen individuell verstellbaren Simulation der retinalen Informationsverarbeitung und einem Sendermodul zur drahtlosen (s. als Wellenlinie angedeutete Signalübertragung von einer Senderspule zu einer Empfängerspule) Signal- und Energieübertragung von der externen Komponente zur implantierten Komponente. Mitte und rechts: Schnitt durch ein menschliches Auge mit einem implantierten Empfangsmodul an Stelle der Augenlinse, einem Mikrokabel und einem biokompatibel gekapselten Retina Stimulator (RS). RS umfasst ein Mikroelektrodenarray und die zugehörige mikrominiaturisierte Stimulationselektronik zur elektrischen, epiretinalen Stimulation von Nervenzellen in der dem einfallenden Licht zugewandten Ganglienzellschicht der Retina (Netzhaut)
80
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Aachen, FhG IBMT und FhG IMS) im Zeitraum 1995 bis 2000 durchgeführt wurde. In EPI-RET ging es um einen auf der Basis lernfähiger neuronaler Algorithmen beruhenden, mehr informationstechnischen Ansatz, sensorische Lichtsignale in noch arbeitsfähige Ganglienzellen des sonst geschädigten Auges einzubringen. In einem mehr medizinisch orientierten Verbundprojekt „MPD-Array“ unter Federführung der Augenklinik der Universität Tübingen (Eberhart Zrenner), mit drei weiteren Forschungspartnern (Universität Stuttgart, NMI, IMS), wurde im gleichen Zeitraum ein subretinales Augenimplantat entwickelt. Ein international besetzter Beirat hat die Ergebnisse der beiden Projekte im Jahr 1999 bewertet und bestätigte insbesondere in technischen Fragen eine erfolgreiche Arbeit, wies aber darauf hin, dass eine Reihe medizinischer und physiologischer Fragen noch nicht geklärt seien. Inzwischen wurden Teilarbeiten der beiden Projekte unter mehr medizinischen Aspekten weiter vorangebracht, und es gab die ersten Spin-off-Firmen, die in die Weiterentwicklung von „Sehchips“ erhebliche eigene Mittel investierten. Patienten, die heute subretinale Chips implantiert bekommen, sind inzwischen in der Lage, Muster zu erkennen. Neue Forschungsarbeiten zu dem Themenbereich wurden im Jahr 2005 mit dem Verbundprojekt Retina-Implantat III aufgenommen.
3.2.3 Softwaretechnologie Die Bedeutung der Softwaretechnologie, also des ingenieurmäßigen Softwareentwickelns, stieg bis Anfang der 90er Jahre im nationalen und internationalen Rahmen stetig an. Ihr kam immer mehr die Rolle einer übergreifenden Querschnittstechnologie zu, die mit vielfältigen strukturellen Innovationen in andere Wirtschaftszweige hineinwirkte und die Qualität von Investitions- und Konsumgütern ebenso beeinflusste wie die Effizienz und insbesondere die Eigenstellungsmerkmale von Produktionsverfahren. Anfang der 90er Jahre meldeten sich dann die IT-Verbände und die GI zu Wort und forderten eine Neubewertung der politischen Bedeutung der Software, öffentliche Bekanntmachungen von breiten Förderprogrammen und die Einbeziehung von KMU in diese Maßnahmen. Die wichtigsten Impulse dieser Art waren: Im Positionspapier des ZVEI und VDMA „Technologien im 21. Jahrhundert – Nationale Initiative Software-Technologie“ empfahlen beide Verbände die Bildung einer nationalen Initiative zur Bearbeitung der dringlichsten Fragestellungen im Softwaretechnologie-Bereich: Wiederverwendung, Zuverlässigkeit und Sicherheit von Softwaresystemen sowie Modellierung und Simulation im Bereich der Anwendungen. Die Softwaretechnologie sei mittlerweile zum kostenbestimmenden und vor allem wettbewerbsentscheidenden Faktor geworden und gehöre damit zu den wesentlichen technologischen Gebieten, die verstärkt voran gebracht werden sollten, um die Innovationskraft der deutschen Wirtschaft zu erhalten.
3.2 Schwerpunkte der Informatikforschung
81
In einem weiteren Artikel des VDMA „Informatik für die Fabrik der Zukunft“ wurde die tragende Rolle der Software in Produkten wie auch in Produktionssystemen unterstrichen. Insbesondere wurde die ingenieurgemäße Erstellung von Software nach bewährten Regeln der Konstruktionslehre gefordert. In einer Studie der Gesellschaft für Informatik „Handlungs- und Verbundprojekt-Vorschläge zur Förderung von Forschung und Entwicklung in der Softwaretechnologie“ wurde mit Nachdruck auf die Bedeutung der Softwaretechnologie hingewiesen, und die Hauptrichtungen für zukünftige Forschungsvorhaben in Deutschland wurden aufgezeigt. Die Wettbewerbsfähigkeit der Volkswirtschaft hing nach Einschätzung der GI „zunehmend von der wachsenden Durchdringung moderner Industrieprodukte mit Software und der Beherrschung der steigenden Komplexität von Softwaresystemen zur Unterstützung moderner Organisationen ab“. Zur Lösung dieser Problematik existiere in Deutschland eine gute Ausgangsbasis, die vor allem bei den „Methoden und Werkzeugen für die Entwicklung, Anpassung und Nutzung von komplexer, meist vernetzter Anwendungssoftware mit hohen Anforderungen an Qualität, Sicherheit und Verfügbarkeit“ lag. Diese Einschätzungen deutscher Verbände zur Bedeutung der Softwaretechnologie, d. h. des Übergangs von der intuitiven und kreativen Programmerstellung in den ersten Jahren der Informatik zur ingenieurmäßigen Entwicklung und Qualitätsprüfung von Software spiegelte sich auch in den USA in den „US National Critical Technologies“ und in Japan in den Empfehlungen des „Japanischen Rats für Forschung und Technologie“ wider. 3.2.3.1 KMU-orientierte Software-Initiative In dieser Situation startete der BMFT im August 1994 eine breite „Initiative zur Förderung der Softwaretechnologie in Wirtschaft, Wissenschaft und Technik“. Mit ihr wurde das Ziel verfolgt, das hochqualifizierte Potenzial im Forschungsbereich der Software-Technologie in Deutschland zu erhalten und insbesondere für die wichtige Aufgabe des Know-how-Transfers zwischen Wissenschaft und Wirtschaft einzusetzen. Ferner sollte die theoretische und praktische Basis für die ingenieurmäßige Konstruktion von Anwendungssoftware ausgebaut werden. Als Förderkriterien dienten, wie auch schon in der Bekanntmachung zu den Intelligenten Systemen (Abschn. 3.2.1.4), die nach der ADL-Studie entwickelten Mechanismen, die mit zeitlich kurzen und kleinen Verbünden insbesondere auch für KMU geeignet waren. Die Förderung sollte sich auf drei Themengruppen erstrecken, die sich in den Diskussionen mit den Wirtschaftsverbänden und mit der GI als besonders dringlich herausgestellt hatten: • Entwicklung von Techniken zur Modellierung organisatorischer und technischer Systeme und Prozesse sowie zur Definition von branchen- und produkttypischen Anwendungsarchitekturen, einschließlich der zugehörigen Bausteinbibliotheken,
82
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
• Weiterentwicklung und Erprobung von Methoden und Werkzeugen für die Pflege und Wiederverwendbarkeit von Anwendungssoftware-Systemen und die • Weiterentwicklung der Softwaretechnologie zur Verbesserung der Sicherheit und Zuverlässigkeit komplexer Informationssysteme. Das Echo auf diese Bekanntmachung war sehr groß. Aus den eingegangenen Projektvorschlägen wurden dann gutachterlich 27 Verbünde mit 95 Partnern ausgewählt und im Zeitraum 1995 bis 1998 gefördert. Sie waren im Wesentlichen auf KMU zugeschnittene Transferprojekte und verliefen alle erfolgreich. In zwei Statustagungen des Projektträgers IT des BMFT im März 1996 in Berlin und im März 1998 in Bonn wurden alle Projekte öffentlich vorgestellt und in den entsprechenden Berichten des PT können ihre Ergebnisse nachgelesen werden [15, 16]. Adressiert wurde insbesondere das Gebiet der Geschäftsprozessmodellierung. Es gab aber auch im dritten Schwerpunkt der Fehlerfreiheit und Sicherheit von Software und von Embedded Systems innovative wissenschaftliche Fragestellungen und Ergebnisse. Über ein solches, besonders komplexes Projekt (ESPRESS), welches die Sicherheit eingebetteter Systeme betrifft, wird im zugehörigen Zeitfenster berichtet. Im Jahr 1998 schloss sich eine kleinere zweite Förderstufe für die Softwaretechnologie im Rahmen des Förderprogramms „Innovationen für die Wissensgesellschaft“ an, in der nochmals sieben Verbundprojekte mit 22 Partnern in den Gebieten „Kooperative verteilte Softwareentwicklung“, „Komponentenbasierte Anwendungssoftware-Entwicklung“ und „Real-Time Embedded Software Systems“ gefördert wurden. Über eines dieser Projekte (KOBRA) wird im zugehörigen Zeitfenster berichtet. Tabelle 3.2 Übersicht KMU-orientierte Software-Initiative aus den 90er Jahren [17] Ziele
Fördermaßnahmen
Forschungsgruppen Anzahl Mittel
Gemeinsam vom BMBF und der Wirtschaft (ZVEI und VDMA) getragene nationale Initiative zur Förderung der SW-Technologie zum Erhalt und zum Ausbau der Wettbewerbsfähigkeit der deutschen Wissenschaft und Industrie auf diesem Gebiet. • Modellierung organisatorischer und technischer Systeme und Prozesse • Pflege und Wiederverwendung von Anwendungs-SoftwareSystemen • Formale Methoden zur Sicherheit und Zuverlässigkeit komplexer Softwaresysteme GU KMU FE HS Summe 21 40 4 30 95 Fördermittel: 34,2 Mio. €; Gesamtmittel: 59,0 Mio. €
3.2 Schwerpunkte der Informatikforschung
Zeitfenster zum Stand sicherheitsrelevanter eingebetteter Systeme am Beispiel des Verbundprojekts ESPRESS (1995–1998) Stefan Jähnichen, Holger Schlingloff ESPRESS war ein besonders erfolgreiches Projekt im Rahmen der Initiative zur Förderung der Software-Technologie in Wirtschaft, Wissenschaft und Technik des BMBF vom August 1994. Im Projektantrag waren die folgenden Aufgabenstellungen genannt, die an mehreren Fallstudien demonstriert werden sollten: • Verbesserung der Entwicklungsproduktivität und Steigerung der Verlässlichkeit komplexer eingebetteter Steuergeräte, • Methodik zur Entwicklung sicherheitsrelevanter eingebetteter Systeme, • Spezifikations-, Verifikations- und Testverfahren, Modularisierung, Wiederverwendung und • durchgängige Werkzeugunterstützung. In dem Projekt ESPRESS arbeiteten folgende Forschungspartner mit folgenden Aufgabengebieten mit: • Daimler Benz AG Forschung Systemtechnik, Konsortialführer: Fallstudie Kfz-Elektronik, Sicherheitsanalyse • Robert Bosch GmbH Forschung: Risikoabschätzung, rechtliche Randbedingungen • Fraunhofer ISST: Spezifikation von Prozessen • GMD FIRST: Werkzeugentwicklung • TU Berlin: Formale Methoden, Beweisverfahren, algebraische Spezifikationen Ein wesentliches Problem jeder Software-Entwicklung ist die Frage nach der Definition und Dokumentation der Prozesse. In ESPRESS wurde hierfür der Begriff der SoftwareAgenda definiert: Das ist eine Liste von Schritten, die durchgeführt werden müssen, um eine bestimmte Software-Entwicklungsaktivität in einem bestimmten Kontext effektiv durchzuführen. Zu jedem Schritt wird außerdem eine Validierungsbedingung angegeben, die die semantische Grundlage zur Überprüfung der korrekten Durchführung dieses Schrittes bildet. Die Verifikation erfolgt unmittelbar im Anschluss an den Schritt. Dies bewirkt insgesamt eine Effizienz- und Effektivitätssteigerung der Entwicklung. Inzwischen verwenden viele Firmen Architektur- und Entwurfsmuster für die Software-Entwicklung („design patterns“). Die in ESPRESS durchgeführten Arbeiten haben dazu beigetragen, die Vorteile solcher Vorgehensweisen aufzuzeigen. Nach wie vor ist bei der Entwicklung sicherheitsrelevanter Systeme eines der zentralen Probleme, die Anforderungen so zu spezifizieren, dass mit ihnen auch ein Nachweis über die Erfüllung der Sicherheitseigenschaften erbracht werden kann. In ESPRESS wurden zu diesem Zweck funktionale und sicherheitserforderliche Anforderungen von Anfang an konsequent getrennt. Dadurch können bereits während der Entwicklung gezielt Maßnahmen eingeplant werden, die Barrieren für die Fehlerauswirkungen darstellen. Im Bereich der Sicherheitstechnik haben sich seither branchenspezifisch unterschiedliche Sichtweisen und Vorgehensweisen durchgesetzt, für die die ESPRESS-Methodik die Grundlagen geschaffen hat.
83
84
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Bereits seit den 1970er Jahren werden in der Informatik mathematische Verfahren zur Programmkonstruktion untersucht. Das Projekt ESPRESS baute auf zwei dieser formalen Methoden auf, nämlich StateCharts und der Sprache Z. In ESPRESS wurde eine semantische Integration („SZ“) der beiden Sprachen StateCharts und Z vorgenommen. Viele der dabei untersuchten Konzepte haben später in die Unified Modeling Language (UML) Eingang gefunden. Systematisches Testen war und ist die hauptsächliche Maßnahme zur Qualitätssicherung eingebetteter Systeme. In ESPRESS wurde ein spezifikationsbasierter Testansatz verfolgt: Aus den Z-Spezifikationen sollten automatisch Testfälle abgeleitet werden, die dann interaktiv um weitere für die Validation relevante Testaspekte erweitert werden. Im Projektverlauf stellte sich jedoch die vollautomatische Testfallerzeugung als außerordentlich schwierige Aufgabe heraus. Als Alternative wurde daher im Projekt eine interaktive Lösung erarbeitet, bei der die Klassifikationsbaum-Methode zur Testfallermittlung mit den formalen Z-Spezifikationsverfahren verknüpft wurde. Inzwischen liegt die Dissertation eines ehemaligen ESPRESS-Mitarbeiters vor, in der gezeigt wird, wie Testfälle automatisch aus Statecharts abgeleitet werden können und wie damit der Testprozess vor allem auch für asynchrones Systemverhalten automatisiert werden kann. Die entwickelte Methodik wurde in ESPRESS durch eine systematische Werkzeugentwicklung unterstützt: Aufbauend auf Standardwerkzeugen wie XEmacs und StateMate Magnum wurde eine interaktive Verifikations- und Testgenerierungsumgebung für die untersuchten Formalismen konstruiert, mit denen die Fallstudien und später auch industrielle Anwendungen erfolgreich bearbeitet werden konnten. Im Projekt ESPRESS wurden u. a. folgende wissenschaftliche bzw. kommerziell verwendbare Resultate erzielt: • • • •
7 Diplomarbeiten, 4 Dissertationen, 11 Publikationen, 29 Beiträge auf internationalen Tagungen und Workshops 4 Berufungen (Heisel, Heckel, Santen, Chakravarty) 2 Demonstratoren (Fallstudie Fahrgeschwindigkeitskonstanter und Lichtsignalanlage) (s. a. ausführlichen Bericht in Teil II)
Zeitfenster Stand der Komponenten-basierten Softwareentwicklung am Beispiel des Verbundprojekts KOBRA (1999–2001) Dieter Rombach Professionelle Softwareentwicklung erfordert Wiederverwendung geprüfter Komponenten. Nur auf diese Weise können Qualität auf hohem Niveau garantiert sowie Entwicklungskosten und -zeit wettbewerbsförderlich reduziert werden. Softwaresysteme ändern sich über die Zeit (Releases) oder den Ort (Varianten). Effiziente Wiederverwendung geprüfter Komponenten in neuen Releases oder Varianten erfordert eine stabile bzw. änderungsfreundliche Referenzarchitektur. Wir sprechen hier von Produktlinienarchitekturen.
3.2 Schwerpunkte der Informatikforschung
In den späten 90er Jahren (1999–2001) haben sich in Deutschland die folgenden Partner – unter Leitung des Fraunhofer IESE in Kaiserslautern (Leitung: Colin Atkinson) – im Projekt KOBRA (Komponentenbasierte Anwendungsentwicklung – eine Umgebung zur Entwicklung und Anwendung domänenspezifischer Frameworks) zusammengeschlossen: • • • •
Fraunhofer IESE GMD FIRST PSIPENTA Software Systems GmbH Softlab GmbH
Ziel des hier vorgestellten Projektes war es, die Konstruktion sowie die Verwendung von Frameworks zum Erstellen von Anwendungen methodisch und technisch zu unterstützen sowie dies anhand eines konkreten Fallbeispieles auszuführen. Das Projekt gliederte sich in vier Hauptaktivitäten: 1.
2. 3. 4.
Entwicklung einer Umgebung, in der das Framework sowie Aktualisierungen und Anpassungen leicht an die Anwender ausgeliefert werden können. Der Einarbeitungsaufwand für Anwendungsentwickler sollte reduziert werden und die Hemmschwelle, ein komplexes Framework aufzubauen, sollte sinken. Umfassende methodische und technische Unterstützung des Framework-Entwicklungsprozesses und der sich daraus ableitenden Entwicklung von Anwendungen. Geeignete Bereitstellung von Konfigurations- und Versionsmanagement zur Plan- und Kontrollierbarkeit der Erweiterung und Anpassung von Standardsoftware. Prozess-, Architektur- und Qualitätsmodelle als Grundlage zur Charakterisierung und Bewertung von Domänen und von erstellten Frameworks.
Wesentliche wissenschaftliche Beiträge werden wie folgt zusammengefasst: Frameworks bilden die Rahmen der komponentenbasierten Softwareentwicklung. Sie stellen Bausteine zur Verfügung, mit denen sowohl Standardprodukte als auch individuelle Kundenlösungen implementiert werden können. Anhand der von den Industriepartnern ausgewählten Anwendungsdomänen sollte gezeigt werden, auf welche Weise die Erstellung eines Frameworks für diese Anwendungsdomänen durch eine auf einem Repository basierende Entwicklungsumgebung unterstützt werden kann. Dabei umfasst die Erstellung des Frameworks alle Phasen der Softwareentwicklung, von der Analyse über das Design bis hin zu Implementierung, Test und Integration. Das hier vorgestellte Projekt diente der Unterstützung bei der Konstruktion und Anpassung von Anwendungssystemen, die auf die Anforderungen der Kunden zugeschnitten sind. Dabei sollten Frameworks verwendet werden, mit denen maßgeschneiderte Anwendungen aus einzelnen Komponenten zusammengesetzt werden können. Individualsoftware sollte nur für solche Bereiche erstellt werden, die vom Framework nicht abgedeckt werden. In KOBRA wurde anhand ausgewählter praxisrelevanter Fallbeispiele der Firma PSIPENTA gezeigt, in welcher Form die Konstruktion eines Anwendungssystems unter Verwendung eines Frameworks durch eine Entwicklungsumgebung unterstützt werden kann. Die Herstellung von Frameworks und darauf basierenden kundenspezifischen Lösungen stellt ein sehr komplexes Themenumfeld dar, das sich ohne eine geeignete Workbench (Werkzeug-Unterstützung) nicht rentabel durchführen lässt. Der Softwareentwickler benötigt Hilfsmittel bei der Analyse der Anwendungsdomäne, der Modellierung der dort vorherrschenden Architekturen, Prozesse und Qualitätsfaktoren und schließlich bei der eigentlichen Entwicklung eines domänenspezifischen Frameworks. In diesem Projekt wurde eine
85
86
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
„Werkzeuglandschaft“ definiert und integriert, mit der die Konstruktion von Frameworks und von kundenspezifischen Lösungen überschaubar und profitabel wird. Dabei wurde besonders auf die Wiederverwendbarkeit von Komponenten Wert gelegt. Ein Schwerpunkt dieses Projektes lag auch auf der Integration bereits verfügbarer Standardwerkzeuge und Methoden. Dabei wurden Methoden und Notationen wie z. B. OMT/UML sowie Standards wie z. B. COM+, CORBA und Java RMI berücksichtigt. In den Bereichen, in denen es keine verfügbaren Lösungen gibt, wurden Eigenentwicklungen durchgeführt. Eine umfangreiche Entwicklungsumgebung, wie sie die Workbench darstellt, kann nur dann bei Softwareentwicklern Akzeptanz finden, wenn alle Informationen – sowohl über das Framework als auch über die zu erstellende Anwendung – jederzeit online und vollständig verfügbar sind. Dies wurde erreicht durch Abspeicherung aller für den kompletten SW-Entwicklungsprozess erforderlichen Informationen in einem zentralen Repository. In diesem Projekt wurde eine Vielzahl grundlegender Repository-Dienste bereitgestellt, um den speziellen Ansprüchen für die Entwicklung von Frameworks und darauf basierenden Anwendungen zu genügen. Diese beinhalten Schnittstellen zu Werkzeugen, die Abbildung von Architektur-, Prozess-, Qualitäts- und Komponentenmodellen sowie Versionierung und Konfigurationsverwaltung von Komponenten. Das Projekt KOBRA hat wesentlich zum Fundament für den praktischen Durchbruch komponenten-basierter Softwareentwicklung im Kontext von Produktlinienarchitekturen beigetragen. In parallel und nachfolgend laufenden ITEA-Projekten sind die KOBRA-Ergebnisse in Produktlinien-Engineering integriert (ESAPS, 1999–2001) und auf eingebettete Realzeitsysteme angewendet (EMPRESS, 2002–2004) worden (s. a. ausführlichen Bericht in Teil II).
3.2.3.2 Verifikation, Projekte KorSo/KorSys und BSI-Projekt VSE Die Entwicklung fehlerfreier Software mit formalen Methoden, über deren erste größere Forschungsarbeiten und Erfolge bereits in den 80er Jahren berichtet wurde (s. KIV, Abschn. 2.2.5), stand auch in den 90er Jahren im Zentrum des Interesses des BMFT/BMBF wie auch der DFG. Über ein besonders großes und nachhaltig erfolgreiches Verbundprojekt (KorSo), welches noch vor der eben vorgestellten Software-Initiative gestartet wurde, wird im Zeitfenster Verifikation (KorSo) berichtet. In den 90er Jahren gelang dann auch ein erster weltweit beachteter Anwendungserfolg im Rahmen einer Auftragsentwicklung für das Bundesamt für Sicherheit in der Informationstechnik (BSI), über den das Zeitfenster (VSE) Auskunft gibt.
3.2 Schwerpunkte der Informatikforschung
Zeitfenster Verifikation am Beispiel des Verbundprojekts KorSo (1991–1994) Manfred Broy, Oscar Slotosch Korrekte Software auf Basis konsequent formaler Spezifikation und Verifikation erfordert die Beherrschung zweier wichtiger methodischer Aufgaben im Entwicklungsprozess: • Die formale Spezifikation der Aufgabenstellung einschließlich der Validierung und die • formale Verifikation der Implementierung durch die Regeln eines Verifikationskalküls. An diesen Fragen arbeitete im Verbundprojekt KorSo im Zeitraum 01.01.1991 bis 30.06.1994 unter der Konsortialführung von Manfred Broy von der Technischen Universität München ein wissenschaftliches Team, in welchem die damals auf diesem Gebiet in Deutschland führenden 12 Forschungsgruppen und die Firma Siemens, als erster potenzieller Anwender, vertreten waren. Die Partner im Einzelnen: Technische Universität München (Konsortialführung), Technische Universität Berlin (2 Gruppen), Forschungszentrum Informatik (FZI) Karlsruhe, Universität Karlsruhe (2 Gruppen), Universität Passau, Technische Universität Braunschweig, Universität des Saarlandes, Universität Oldenburg, Universität Bremen, Universität Ulm und Siemens Aktiengesellschaft. Hauptaugenmerk in KorSo war die Integration von Verifikationstechniken in den Entwicklungsprozess und die Werkzeugunterstützung dafür. Aus heutiger Sicht haben folgende Arbeiten in KorSo zu Resultaten geführt, die mittlerweile aus Forschung und Entwicklung nicht mehr wegzudenken sind. Beispiele sind Entwicklungsgraphen, die Spezifikationssprachen von der Bauart der Sprache SPECTRUM und der Transformationsansatz Traverdi. Entwicklungsgraphen Die KorSo-Entwicklungsgraphen stellen die Struktur der entwickelten Software dar. Sie enthalten Module als Knoten und unterschiedliche Entwicklungs-Relationen in unterschiedlichen Darstellungsformen (Pfeilarten). Die KorSo-Entwicklungsgraphen werden in Werkzeugen (daVinci und KIV) bis in die heutige Zeit weiterentwickelt und haben sich in zahlreichen Anwendungen bewährt. Die modulare Sicht auf die Strukturen von korrekter Software hat es ermöglicht, große Beweise zu strukturieren und erfolgreich zu führen. Auch in dem so erfolgreichen IsabelleBeweissystem gibt es ein solches Modulkonzept mit einer automatischen Analyse der Abhängigkeiten, um große Beweise bei Änderungen effizient zu entwickeln. Derzeit werden z. B. mit Isabelle im Projekt Verisoft komplette Betriebssysteme als korrekt nachgewiesen. Spezifikationssprachen Die Spezifikationssprache SPECTRUM ist eine algebraische Spezifikationssprache, die mehrere Spezifikationsstile (deskriptiv und operational) integriert. SPECTRUM hat ein mächtiges, polymorphes Typsystem und Operationen zur Strukturierung von Spezifikationen, beispielsweise um Spezifikationen zu inkludieren. SPECTRUM war die Grundlage für das formale Modellierungswerkzeug AutoFOCUS, das sich mit seinen Sprachen und Datentypen sehr an SPECTRUM orientiert hat. Das Werkzeug AutoFOCUS wurde 1999 auf der Weltkonferenz für formale Methoden mit dem ersten Preis ausgezeichnet und wird bis heute in zahlreichen industriellen und Forschungsprojekten eingesetzt und weiterentwickelt. Zum professionellen Support für AutoFOCUS wurde 2000 die Validas AG als Spin-Off der TU München gegründet.
87
88
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Der Transformationsansatz Traverdi Traverdi ist ein System zur Integration von unterschiedlichen Spezifikationsformen für verteilte, kommunizierende Systeme. Es wurde im Rahmen des gemeinsam mit Werner Damm geleiteten KorSo-Teilvorhabens an der Universität Oldenburg als ein prototypisches Werkzeug zur Transformation und Verifikation verteilter Systeme auf der Basis des LAMBDA-Systems erstellt. LAMBDA gehört zur Familie der interaktiven Beweiser, die auf Logik höherer Stufe und der Benutzung von Taktiken basieren. Die von Traverdi unterstützten Spezifikationsformen sind: • Zeitdiagramme: zur graphischen Spezifikation von qualitativen zeitlichen Abhängigkeiten zwischen Ereignissen, beispielsweise nach einer steigenden Flanke des Signals y sinkt der Wert von z auf 0 • Temporale Logik: zur Formalisierung der Zeitdiagramme und zur textuellen Spezifikation von Eigenschaften • Zustandsbasierte Systemspezifikationen mit Übergängen, bestehend aus Pre- und PostConditionen. Das prototypische Traverdi-System hat gezeigt, dass die Integration dieser Spezifikationsformen sinnvoll ist. Damit war die Grundlage gelegt, um formale Verifikationstechniken mit temporaler Logik, Pattern für zeitliche Abhängigkeiten und Zeitdiagramme auf graphische Systembeschreibungen mit Zustandsanteilen und Kommunikation anzuwenden. Genau diese Kombination hat sich als sehr erfolgreich erwiesen, da sich temporale Logik und kommunizierende Zustandsdiagramme zur automatischen Verifikation endlicher Systeme (Model Checking) eignen. Die Konzepte aus dem Traverdi-System sind direkt in die Realisierung der Model Checker der Universität Oldenburg eingegangen, die heute erfolgreich vermarktet werden. Indirekt wurden auch die Verifikationsarbeiten des Werkzeugs AutoFOCUS-Quest beeinflusst, die ebenfalls auf temporaler Logik, Sequenzdiagrammen und kommunizierenden, zustandsbasierten Systemen bestehen. KorSo erschloss das Gebiet der Spezifikation und Verifikation industrieller Anwendungen und setzte erstmals erfolgreich eine wissenschaftliche Methodik ein, bei der anhand von Fallstudien Fragen der Spezifikation und Verifikation von Software in Angriff genommen wurden. Eine Reihe bis dahin unabhängiger Gruppen wurde in dem Projekt KorSo zusammengeführt, so dass sich ein nachhaltiges Forschungsnetzwerk herausbildete, das die Basis für weitere erfolgreiche Verbundprojekte bildete. Die Gruppe bei Siemens entwickelte einen Verifikationsansatz, der später bei Infineon mit großem Erfolg eingesetzt wurde. Es entstanden einige Spin-off-Unternehmen, die heute erfolgreich Verifikationstechniken einsetzen. Mittlerweile haben Verifikationstechniken einen Reifegrad erreicht, dass mit ihnen aktuelle Systeme der Industrie verifiziert werden können. Das Projekt Verisoft, an dem die eigene Forschungsgruppe beteiligt ist, stellt dies unter Beweis (s. ausführlichen Bericht in Teil II).
3.2 Schwerpunkte der Informatikforschung
Zeitfenster Verification Support Environment (entwickelt im Auftrag des BSI 1991–1999) Jörg Siekmann, Werner Stephan Das Verification Support Environment (VSE) ist eine Software-Entwicklungsumgebung, die die formale Softwareentwicklung im Sinne eines CASE-Werkzeugs in umfassender Weise unterstützt. Insbesondere ist das Editieren, Darstellen (Visualisieren) und Verwalten von (formalen) Entwicklungen mit der (interaktiven) Beweisführung eng verzahnt. VSE wendet sich an Endanwender, die formale Techniken im Rahmen von kommerziellen Entwicklungsprozessen einsetzen wollen (oder müssen). Die Entwicklung von VSE geht zurück auf eine Ausschreibung des damals gerade gegründeten Bundesamtes für Sicherheit in der Informationstechnik (BSI). Ziel der Ausschreibung war es, für Software-Entwicklungen, die mit den höchsten (Qualitäts-)Stufen des ebenfalls gerade verabschiedeten „Green Books“ konform sein sollten, ein industriell einsetzbares Werkzeug zur Verfügung zu stellen. Auch nach der inzwischen erfolgten globalen Standardisierung dieser Kriterienwerke – Green-Book (Deutschland), ITSEC (Europa), Common Criteria (weltweit) – ist die Anwendung formaler Methoden bei den höchsten Qualitätsstufen heute zwingend vorgeschrieben. Der Bereich der Entwicklung sicherer IT-Systeme ist damit weiter Vorreiter bei der Durchsetzung dieser innovativen Techniken. Wenn auch langsamer als von den Protagonisten (wie dem BSI) seinerzeit erwartet und erhofft, hat es inzwischen tatsächlich eine ganze Reihe von Systementwicklungen mit formalen Anteilen gegeben, bei denen insbesondere VSE eingesetzt worden ist. Diese Entwicklung wurde in Deutschland auch durch die Initiativen des BMBF in den Bereichen Sicherheit und Formale Methoden ermöglicht. Das VSE-Konsortium, bestehend aus • • • • •
der Dornier AG, der Gesellschaft für Prozessrechnerprogrammierung (GPP), der Universität Karlsruhe, der Universität des Saarlandes/DFKI und der Universität Ulm
hat sich bei dieser Ausschreibung gegen die Mitbewerber durchgesetzt mit der Idee, die aufkommenden formalen Spezifikationssprachen, CASE-Technologie und neue Deduktionstechniken, wie „Taktisches Theorembeweisen“ und Induktionsbeweisen, miteinander zu verbinden. Leitgedanke war es, die Anwendung einer speziellen (formalen) Entwicklungstechnik durchgängig zu unterstützen. Mit Hilfe der von der GPP [P. Göhner (heute Universität Stuttgart) und P. Baur] eingebrachten Techniken zum Editieren, Visualisieren und Verwalten von strukturierten Entwicklungsobjekten wurde die von der Universität Ulm [F. von Henke] und der Universität Karlsruhe [KIV-Gruppe] entwickelte Spezifikationssprache VSE-SL zum Front-End von VSE ausgestaltet. Diese externe und interne Repräsentation der formalen Sprache VSE-SL wurde mit einer Beweiskomponente zur Erzeugung und Verwaltung von Beweisverpflichtungen integriert. Eine wesentliche Komponente dabei war eine entsprechend strukturierte Datenbank mit mathematischen Lemmata und Theoremen und vor allem die Realisierung von Beweistechniken, die speziell auf die Anforderungen des Umgangs mit VSE-SL zugeschnitten waren. Grundlage hierfür bildete das Induktive Theorembeweisen im Rahmen des an der Universität des Saarlandes /DFKI [J. H. Siekmann, D. Hutter] weiterentwickelten INKA-Systems und die interaktiven Verifikationstechniken des KIV-Systems [KIV-Gruppe, W. Menzel, W. Stephan].
89
90
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Die praktische Einsetzbarkeit von VSE wurde im Rahmen des Projekts (1991–1994) an zwei großen, von der Dornier AG [W. Kratschmer, P. Kejwal] als Projektkoordinator zur Verfügung gestellten Fallstudien demonstriert. Diese „frühen“ Fallstudien „ARD-Stern“ und „Perseus“ sind in Größe und Praxisnähe selbst im Vergleich mit den heutigen „Grand Challenges“ durchaus beachtlich. In einer zweiten Phase der VSE Entwicklung (1996–1999) wurde unter Projektleitung des DFKI [J. H. Siekmann, W. Stephan] neben einer stärkeren Integration der verschiedenen Deduktionstechniken vor allem eine neue Komponente zur Behandlung von komplexen zustandsbasierten Systemen im Rahmen einer Temporallogik hinzugefügt. Dabei wurde in Zusammenarbeit mit der Universität Ulm [W. Reif] eine strikt modulare Vorgehensweise nicht nur in Bezug auf die Spezifikation, sondern auch bei der interaktiven Beweisführung realisiert. Die Interaktion zwischen Front-End und Beweiskomponente wurde zusammen mit der neu gegründeten Firma Innovative Software Systeme (IST) [P. Göhner, P. Baur] insbesondere in Bezug auf die Behandlung von Änderungen verbessert. Nach den Fallstudien der zweiten Phase – zu erwähnen ist vor allem das Steuerungssystem für „Robertino“, ein Robot-Manipulator für Mantelsegmente eines geplanten Fusionsreaktors – ist VSE in einer ganzen Reihe von industriellen Entwicklungsprojekten eingesetzt worden. In den meisten Fällen ging es um CC-konforme Entwicklungen mit formalen Anteilen. In einigen Fällen ist VSE dabei ohne Beteiligung des DFKI durch die industriellen Entwickler selbst angewendet worden. Dies zeigt, dass die ursprüngliche Zielsetzung, nämlich die industrienahe Toolentwicklung, wenn auch mit einer gewissen Zeitverzögerung, erreicht werden konnte. Bei den (nicht vertraulichen) Entwicklungen mit Beteiligung des DFKI sind vor allem zu nennen die „Vertrauenswürdige Schnittstellenkomponente“ (VSK) für die Informationsinfrastruktur der Bundeswehr und die (generische) Spezifikation von (Smartcard-)Signaturanwendungen. Aktuell sind mit VSE die (kryptographischen) Protokolle des neuen Reisepasses mit integriertem RFID-Chip verifiziert worden. Vertrauliche Entwicklungen sind mit US-amerikanischen Firmen und im Bereich deutscher Militärtechnologie gelaufen. Die in VSE realisierte Technologie hat nach Abschluss der eigentlichen Entwicklungsarbeiten Anlass zu etlichen vertiefenden Forschungsfragestellungen gegeben, die dann unter anderem in Projekten des DFKI-BMBF Rahmenvertrags weiterverfolgt worden sind. An erster Stelle ist hier vielleicht das Thema Änderungsmanagement (Management of Change) [D. Hutter] zu nennen. VSE ist darüber hinaus in Verisoft weiterentwickelt und zur Verifikation von nebenläufigen Anwenderprogrammen eingesetzt worden (s. ausführlichen Bericht in Teil II).
3.2.4 Höchstleistungsrechnen, Unicore Wie im Kap. 2.4.2 bereits angedeutet, entwickelten sich Anfang der 90er Jahre eine Reihe von Initiativen, um das in Deutschland vorhandene erhebliche Potenzial an erstklassigen Forschern und Forschungsressourcen auf dem Gebiet des wissenschaftlichen Höchstleistungsrechnens zu erhalten und für die Anwendung dieses hochinnovativen Gebiets in der Wirtschaft zu erschließen. Parallelrechner hatten sich nach Suprenum mit rascher Geschwindigkeit von Versuchsobjekten zu praktischen Hilfsmitteln in der Wissenschaft und Technik entwickelt, die aufgrund ihrer außergewöhnlich hohen Leistungsfähigkeit völlig neue Anwendungsperspektiven erschlossen. Insbesondere zeichneten sich für die Wirtschaft enorme Vorteile ab, wenn die Eigenschaften neuer geplanter Produkte nicht mehr durch
3.2 Schwerpunkte der Informatikforschung
91
lange Versuchsreihen mit Prototypen, sondern durch schnelle Simulation ihrer Eigenschaften am Computer ermittelt werden konnten. Die erste Initiative zur „Förderung des parallelen Höchstleistungsrechnens in Wissenschaft und Wirtschaft“ wurde dann 1993 auf der Basis einer von Ullrich Trottenberg erstellten Studie vom BMFT gestartet und im Zeitraum 1993 bis 1997 mit 23 Verbundprojekten und 73 Einzelprojekten gefördert. In ihr wurden mehr grundlagenorientierte Vorarbeiten für die Anwendung durchgeführt, insbesondere Methoden und Werkzeuge zur parallelen Verarbeitung. Eine zweite, anwendungsbezogene Förderphase mit 14 Verbundprojekten und 40 Wirtschafts- und Forschungspartnern schloss sich von 1997 bis 2002 an. Über all diese Projekte wurde in Statustagungen des Projektträgers des BMBF im September 1995 in Jülich, im Februar 1997 in München und im März 1999 in Bonn ausführlich berichtet [18, 19, 20]. Hier sollen die folgenden Projekte exemplarisch vorgestellt werden. • PARALOR – Parallele Algorithmen zur Lösung großer kombinatorischer Optimierungsprobleme (1994–1997) Sechs Verbundprojektpartner unter der Koordination der Universität Paderborn (Burkhard Monien). Forschungspartner weiterhin: Humboldt-Universität Berlin (Hans-Jürgen Prömel), Universität Köln (Achim Bachem). Industriepartner: Lufthansa. In PARALOR ging es primär um anwendungsnahe Verfahren und parallele Algorithmen im Bereich der Flugplanoptimierung und der Tourenplanung und deren Integration in eine gemeinsame Workbench. Neben der Entwicklung von Verfahren für den Einsatz in den zwei Anwendungsbereichen wurden auch allgemein einsetzbare, plattform-unabhängige parallele Programmierwerkzeuge und Bibliotheken zur Lösung allgemeiner kombinatorischer Optimierungsverfahren entwickelt. Durch die besonders intensive Beschäftigung mit Anwendungsproblemen konnte demonstriert werden, dass parallele Rechnersysteme auch für Optimierungsprobleme aus den beiden Anwendungsbereichen kommerziell gewinnbringend eingesetzt werden können. • SEMPA – Software-Engineering-Methoden für parallele Anwendungen im wissenschaftlich-technischen Bereich (1995–1998) Vier Verbundprojektpartner unter der Koordination der TU München (Arndt Bode). Weiterer Forschungspartner: Universität Stuttgart (Gabriel Wittum). Industriepartner: Gridware (Wolfgang Gentzsch), ASC. In SEMPA wurden auf Basis theoretischer Untersuchungen zur Effektivität von Software-Engineering-Methoden für Parallelisierungsverfahren (Objektorientierung, unterschiedliche Sprachen) neue Konzepte abgeleitet, umgesetzt und ihre Effizienz an praktischen Beispielen, wie Strömungsdynamikcodes, nachgewiesen. Die Hoffnung auf eine vollautomatische Parallelisierung großer Anwendungspakete konnte aus Sicht des Projekts zum damaligen Zeitpunkt zwar nicht erfüllt werden, aber in der manuellen Parallelisierung konnten mit objektorientierten Sprachen sehr gute Ergebnisse erzielt werden. Die in SEMPA erzielten Ergebnisse waren vor allem auch im Hinblick auf die parallele Natur künftiger Rechnersysteme durch deren Multicore-Eigenschaft von besonderer Bedeutung.
92
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
• PARPAC – Parallele Partikelcodes für industrielle Anwendungen (1998–2001) Vier Verbundprojektpartner unter der Koordination der Magma Gießereitechnik GmbH (Erwin Flender). Industriepartner weiterhin: Neumag GmbH, Mann+Hummel GmbH. Forschungspartner FhG ITWM (Dieter Prätzel-Wolters). In ParPac wurde eine parallele Simulationssoftware für komplexe 3D-Strömungen mit neuartigen Verfahren aus dem Bereich der Partikelmethoden entwickelt. Damit konnten bis dahin erfolglose oder ineffiziente klassische Methoden zur Simulation von Metallgusstechniken und Filterprozessen durch den Einsatz neuer Codes, die auf parallelen Cluster-Systemen ausgeführt werden konnten, ersetzt werden. Dieses Projekt hatte eine große Bedeutung für industrielle Anwendungen in diesem Bereich. • AUTOBENCH – Integrierte Entwicklungsumgebung für virtuelle AutomobilPrototypen (1999–2001) Elf Verbundprojektpartner unter der Federführung der GMD (Ulrich Trottenberg, Clemens-August Thole). Forschungspartner weiterhin: Universitäten Stuttgart, Erlangen-Nürnberg. Industriepartner: Porsche, BMW, DaimlerChrysler, Karmann, zwei KMU. In diesem Projekt wurde mit benutzerfreundlichen Methoden der Virtuellen Realität eine einheitliche, weitgehend automatisierte Simulationsumgebung für die Fahrzeugentwicklung erstellt, die vom CAD-Entwurf über die Simulation bis zur Ergebnisvisualisierung reichte und damit eine Innovation mit enormer Bedeutung für die Zeit- und Kosteneinsparung beim Fahrzeugbau bedeutete. Auf die beiden großen Verbundprojekte zur Rechnervernetzung UNICORE und UNICORE Plus, Uniformes Interface für Computer-Ressourcen, die von 1997–2002 unter der Koordination des FZ Jülich (Dietmar Erwin) liefen, wird ausführlicher eingegangen. Während die Bedeutung der bisher genannten Projekte mehr in der Anwendung lag, liegen die des Projekts Unicore und seines Folgeprojekts Unicore Plus mehr in der Forschung für das Höchstleistungsrechnen, konkret in seiner Vernetzung, und sie haben darin noch heute die bisher größte internationale Relevanz. Die beiden Projekte beruhten auf einer Initiative von Friedel Hossfeld vom FZ Jülich (Studie VESUZ, Verbund der Supercomputer-Zentren, 1996). Über ihre Ergebnisse wurde im Rahmen eines internationalen Symposium on Grid Computing am 27.11.2002 ein breites Publikum informiert. Der folgende Bericht über dieses Symposium stammt vom seinerzeit zuständigen Mitarbeiter beim Projektträger des BMBF, Rüdiger Krahl. „UNICORE wurde 1997 mit dem Ziel gestartet, einen nahtlosen, sicheren, intuitiven, konsistenten und weitgehend standardisierten Zugang zu verteilten heterogenen Rechenressourcen zu etablieren. Der Anwender sollte von seiner Workstation aus ohne detaillierte Kenntnisse von Hardwarespezifika, lokalen Betriebsmodellen, Sicherheitsfragen usw. einen Job auf einem oder mehreren Rechnern in einem entfernten Supercomputerzentrum starten und steuern können. Im Nachfolgeprojekt UNICORE Plus, welches von 01/2000 bis 12/2002 lief, sollte die in UNICORE
3.2 Schwerpunkte der Informatikforschung
93
entwickelte Softwarelösung funktionell erweitert werden, um sie als Standardzugangssoftware für die deutschen Supercomputerzentren verwenden zu können. Zum Projektende 2002 lag im Ergebnis der Prototyp einer Software für den produktiven Einsatz vor, eine vertikal integrierende Grid Middleware, die eine einfache Nutzung von Grids zur Lösung rechen- und ressourcenintensiver Problemstellungen gewährleistete. An beiden Projekten waren die wichtigsten deutschen Rechen- und Kompetenzzentren, Softwareentwickler und Nutzer im Hochleistungsbereich vertreten: FZ Jülich (Koordinator), HLRS Stuttgart, LRZ München, ZIB Berlin, Rechenzentrum Uni Karlsruhe, TU Dresden, PC2 Paderborn, Deutscher Wetterdienst (DWD) Offenbach, Pallas GmbH Brühl (jetzt Intel) sowie im ersten Projekt die GENIAS GmbH Neutraubling. Ohne Förderung waren die wichtigsten Hersteller von Hochleistungsrechnern in die Arbeiten assoziiert. Wesentliche Funktionalitäten der UNICORE-Lösung sind: • einheitlicher Zugang zu Rechenressourcen über grafische Interfaces, • single-sign-on (einmalige Anmeldung) für alle unterschiedlichen UNICORESites, • integrierte Sicherheitslösung (Autorisierung, Authentisierung, Nachrichtensignierung), • einfaches Erzeugen und interaktives Steuern von Jobs (Workflow-Funktionalität zur Bearbeitung komplexer, verteilt ausführbarer Jobstrukturen), • Hochgeschwindigkeitszugriff auf entfernte Daten und Archive und • Unterstützung für wichtige kommerzielle und wissenschaftliche Simulationscodes, Realisierung von Metacomputinglösungen. UNICORE ist von seinen Partnern, die sich nach Projektende im „UNICOREForum“ organisiert haben (www.unicore.org), in den letzten Jahren intensiv weiterentwickelt worden und hat sich international als leistungsfähige Grid-Middleware etabliert. Sie ist als Open-source-Software auf www.unicore.eu verfügbar und wird u. a. am ZAM (FZ Jülich) als Produktionssystem für den Zugang zu allen Rechenressourcen eingesetzt. Im deutschen D-Grid wird UNICORE neben GLOBUS als Middlewareplattform gepflegt und weiterentwickelt. Unicore ist inzwischen auch in vielen europäischen Projekten eingesetzt und erweitert worden und fungiert als Middlewarebasis für das Projekt DEISA zum Aufbau einer europäischen verteilten Supercomputerinfrastruktur. Nicht zuletzt wird Unicore in der japanischen Grid-Initiative NAREGI verwendet. Die Unicore-Entwicklungen haben die Grid-Standardisierung im Open Grid Forum deutlich beeinflusst. Die nächste Unicore-Version wird die neuen Standards unterstützen.“ In diesem Rahmen soll noch der Sonderforschungsbereich SFB 376 der Deutschen Forschungsgemeinschaft „Massive Parallelität: Algorithmen, Entwurfsmethoden und Anwendungen“ an der Universität Paderborn (Sprecher: Friedhelm Meyer auf der Heide, Burkhard Monien) erwähnt werden, der im Zeitraum 1995–2006 lief. Er startete mit dem Ziel, Methoden und Techniken zur
94
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
optimalen Ausnutzung der Berechnungskapazitäten eines parallelen Rechnersystems zu entwickeln, Entwurfsmethoden für eingebettete bzw. verteilte Systeme zu optimieren und die Nutzbarkeit des Methodenspektrums für eine Vielfalt von Anwendungen zu demonstrieren. Der SFB hat wesentliche Beiträge zu diesen Gebieten gemacht und internationale Anerkennung gefunden. Während der letzten Jahre hat der SFB 376 der wachsenden Bedeutung der Rechner-Netze als Kommunikations- und Informationssysteme Rechnung getragen und seinen Fokus auch in diese Richtung verschoben.
3.2.5 Sprachverarbeitung 3.2.5.1 Leitprojekt Verbmobil Es war im Jahr 1992, als über das Leitprojekt „Verbmobil – Multilinguale Verarbeitung von Spontansprache“ entschieden werden musste – eine ausgesprochen schwierige Frage, ob es möglich sei, ein System zur automatischen Erkennung und Übersetzung im Dialog spontan gesprochener Sprache zu entwickeln, das zudem noch portabel sein sollte. Es hatte bis dahin in der automatischen Erkennung und Übersetzung frei gesprochener Sprache keinerlei nachhaltige Forschungserfolge gegeben, und internationale Projekte zur automatischen Textübersetzung, wie das große EU-Projekt EUROTRA, waren gerade voll gescheitert oder beendet worden, ohne die angestrebten Ziele zu erreichen. Der BMFT hatte in dieser Situation zunächst eine sorgfältige nationale und internationale Analyse aller bisherigen Forschungsprojekte auf dem Gebiet der Sprachverarbeitung durchgeführt und sich dann für ein acht-jähriges grundlagenorientiertes Leitprojekt entschieden, in dem Forschungsgruppen aus den Bereichen der Informatik, Computerlinguistik, Übersetzungswissenschaft, Nachrichtentechnik, Kommunikationswissenschaft und der Künstlichen Intelligenz interdisziplinär mit internationaler Beteiligung zusammenarbeiten sollten. Für dieses herausfordernde Projekt wurde ein Top-down-Ansatz gewählt, der von führenden Wissenschaftlern entwickelt wurde und der wegen der Komplexität der Fragestellung in einem Netzplan mit zeitweise bis zu 135 Arbeitspaketen umgesetzt wurde. Alle wichtigen deutschen Forschungsgruppen auf dem Gebiet der Sprachverarbeitung und Übersetzung (bis zu 30) wurden im Rahmen einer Ausschreibung dieses Netzplans an dem Projekt beteiligt. Er wurde alle sechs Monate auf Zielerreichung überprüft und alle zwei Jahre überarbeitet. Das Ziel von Verbmobil beim Start der Phase I im Jahr 1993 war die Entwicklung eines tragbaren Systems, welches im Jahr 2000 in der Lage sein sollte, spontan gesprochene Sprache (sprecheradaptiv) für eine ausgewählte Domäne im Wortumfang von 10 000 Wörtern für das Sprachpaar Deutsch-Englisch bzw. 2500 Wörtern für das Sprachpaar Deutsch-Japanisch zu übersetzen.
3.2 Schwerpunkte der Informatikforschung
95
Zu Beginn der Phase II des Leitprojekts im Jahr 1997 (Laufzeit bis September 2000) wurde dieses Ziel erweitert um die Entwicklung eines Telefonübersetzungssystems für das Sprachpaar Deutsch-Englisch im Sprachumfang von 10 000 Wörtern und eines Fernwartungssystems für PC im Sprachumfang von 30 000 Wörtern. Mit Verbmobil wurden dann neue wissenschaftliche Wege beschritten, indem zunächst die Beherrschung der Komplexität frei gesprochener Sprache, mit allen Phänomenen, wie Mehrdeutigkeiten, Korrekturen, Häsitationen und Auslassungen, Vorrang vor dem angestrebten Sprachumfang hatte (Lerneffekt von EUROTRA). Wichtige wissenschaftliche Neuheiten waren die Verwendung der in der Prosodie der Sprache vermittelten Informationen und die robuste Verarbeitung auf semantischer Ebene. Des Weiteren wurde von vornherein das für eine Übersetzungsaufgabe notwendige Weltwissen mit eingebunden. Bei Verbmobil waren dies insgesamt 23 000 Regeln für die Übersetzung von 10 000 Wörtern für das Sprachpaar Deutsch-Englisch und von 2500 Wörtern für das Sprachpaar Deutsch-Japanisch. Mit Verbmobil wurden auch neue operationelle Wege beschritten, indem ein absolut dezentral bearbeitetes Großprojekt mit Forschungsgruppen aus den verschiedensten Bereichen und Regionen über neueste Kommunikationsmöglichkeiten durchgeführt und von der wissenschaftlichen Leitung im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken gesteuert wurde. Wenn man das mit den damaligen großen japanischen Forschungsprogrammen vergleicht, die rein zentral abgewickelt wurden, war dies ein durchaus ungewöhnlicher und risikoreicher Weg. Wichtig für die zügige Realisierung von Verbmobil war auch, dass die bereits vorhandenen, bzw. im Projekt neu entwickelten Softwarepakete in den verschiedensten Programmiersprachen (C, C++, Prolog, LISP, FORTRAN) in Verbmobil von einer zentralen Systemgruppe ohne Neuentwicklung integriert wurden. Mit Verbmobil wurden schließlich neue Wege zur Erreichung der Akzeptanz für interaktive Systeme gegangen, indem die bis dahin vorherrschende Frage-Antwort- und die Menütechnik verlassen wurden und zur direkt gesprochenen Befehlseingabe übergegangen wurde. Nicht zuletzt wurde die Zielerreichung des achtjährigen Forschungsprojekts dadurch erhöht, dass zu wissenschaftlich nicht eindeutigen Wegen am Beginn des Projekts mehrere (bis zu vier) alternative Forschungsansätze in den Netzplan eingebaut und im Verlauf des Projekts dann eingegrenzt wurden. Im Endeffekt führte das dann auch dazu, dass alternative Bearbeitungswege für verschiedene typische Spracheingänge im Projekt verblieben und so erheblich zu dessen Erfolg beitrugen. So gab es in der Endauslegung von Verbmobil drei parallele Spracherkenner für das Deutsche, drei verschiedene Parsertypen für die grammatikalische Satzstrukturanalyse, fünf Übersetzungsmaschinen und zwei Sprachsynthesemodule.
96
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Tabelle 3.3 Lenkungsgremien von Verbmobil I Wissenschaftliche Leitung Wolfgang Wahlster, DFKI GmbH (Leiter) Alexander Waibel, Universität Karlsruhe (Stellv. Leiter) Reinhard Karger, M.A., DFKI GmbH (Leitungsreferent) Lenkungskreis Hans Ulrich Block, Siemens AG Peter Bosch, IBM Deutschland GmbH Thomas Eisele, Philips Communications AG Walter v. Hahn, Universität Hamburg Helmut Mangold, DaimlerChrysler AG Christian Rohrer, Universität Stuttgart Volker Steinbiß, Philips Communications AG Wolfgang Wahlster, DFKI GmbH Alexander Waibel, Universität Karlsruhe/CMU Gutachter Susan Armstrong, University of Geneva Harry Bunt, University of Tilburg Stephan Euler, Robert Bosch GmbH Dieter Huber, Chalmers University, Universität Leipzig Martin Kay, Stanford University, PARC Ron Kay, ICSI Herbert Reininger, Johann-Wolfgang-Goethe-Universität Dietrich Wolf, Johann-Wolfgang-Goethe-Universität Quelle DFKI
An der ersten Phase von Verbmobil waren sieben IT-Unternehmen, 23 Universitäten und zwei Forschungseinrichtungen, ferner zwei Forschungspartner aus den USA und einer aus Japan beteiligt, zusammen also 35. In der zweiten Phase haben vier IT-Unternehmen, 15 Universitäten und eine Forschungseinrichtung, ferner wiederum zwei Partner aus den USA und einer aus Japan mitgearbeitet, zusammen also 23. Die Anzahl aktiv beteiligter Wissenschaftler schwankte jeweils zwischen 100 und 130. Die wissenschaftliche Leitung des Projekts hatte Wolfgang Wahlster, Geschäftsführer des DFKI, inne, sein Vertreter war Alexander Waibel von der Universität Karlsruhe/Carnegie Mellon University. Die wissenschaftliche Leitung wurde durch einen Lenkungskreis und ein internationales Gutachtergremium unterstützt (s. Tabelle 3.3). Am Standort des DFKI in Saarbrücken gab es eine Projektmanagementgruppe und eine zentrale Gruppe für die Systemintegration aller dezentralen Zuarbeiten. Alle Teilprojektleiter aus Verbmobil I zeigt die folgende Abb. 3.3:
3.2 Schwerpunkte der Informatikforschung
97
Abb. 3.3 Forschungspartner in Verbmobil, Phase 1 (Quelle DFKI)
Der BMBF stellte für Verbmobil insgesamt 116 Mio. DM bereit. Hinzu kamen etwa 53 Mio. DM Eigenmittel der Industrie. Die in Verbmobil angestrebten Forschungsergebnisse wurden mehr als erreicht. Auf einem internationalen Verbmobil-Symposium am 30.07.2000 in Saarbrücken konnten Übersetzungen für die PC-Fernwartung im Umfang von 30 000 Wörtern gezeigt und ein Telefonübersetzungssystem im Umfang von 10 000 Wörtern demonstriert werden. Das im Jahr 1992 definierte Ziel von Verbmobil, ein tragbares prototypisches Übersetzungssystem für das Sprachpaar Deutsch – Englisch im Jahr 2000, wurde auf der Basis eines Notebooks schon Ende 1999 erreicht. Der genaue Wortumfang für Verbmobil lag bei 10 157 deutschen, 6871 englischen und 2566 japanischen Wörtern (genauer Wortformen). Die Worterkennungsrate lag im Deutschen bei 75% für Spontansprache, die Übersetzungszeit lag bei der 3-fachen Zeit der Eingabelänge und die Übersetzungsrichtigkeit bei 80%. Die Ergebnisse von Verbmobil wurden im Jahr 2000 in einem 700-seitigen Fachbuch des Springer-Verlags veröffentlicht [21]. In Verbmobil entstanden 800 wissenschaftliche Publikationen. Insgesamt etwa 900 hochqualifizierte wissenschaftliche Fachkräfte wurden u. a. als Potenzial für die Industrie ausgebildet. Es wurden dabei 238 Diplomarbeiten, 164 Doktorarbeiten und 16 Habilitationen abgeschlossen, und 20 Mitarbeiter von Verbmobil erhielten Berufungen auf Lehrstühle von Hochschulen. Bei den an Verbmobil beteiligten
98
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Industrieunternehmen wurden bis zum Ende des Projekts 20 Spin-off-Produkte entwickelt, und es gab acht Firmenausgründungen von wissenschaftlichen Mitarbeitern der Hochschulen und der Forschungseinrichtungen im Projekt. Bei den beteiligten Industrieunternehmen und bei den Spin-off-Unternehmen entstanden bis zum Jahr 2000 etwa 245 neue High-Tech-Arbeitsplätze in Deutschland. Ein eigenes Kompetenznetzwerk für die Sprachverarbeitung, in dem die in Verbmobil entstandenen breiten wissenschaftlichen Ergebnisse den potentiellen Anwendern aus der Wirtschaft kompetent zur Verfügung gestellt und weitere Entwicklungen der Forschung eingebunden wurden, stand im Zeitraum 2001 bis 2006 am DFKI in Saarbrücken unter der Leitung von Hans Uszkoreit zur Verfügung (http://collate.dfki.de). Es hat einen stark in Anspruch genommenen, nachhaltigen Transferprozess durchgeführt. Im Jahr 2005 konnten in Deutschland 125 Firmen gezählt werden, die sich mit der Entwicklung, Vermarktung, Beratung und Wartung von Sprachtechnologien befassten. Nahezu alle beruhten direkt oder indirekt auf den Forschungsarbeiten von Verbmobil und/oder seiner dort ausgebildeten Wissenschaftler. Wolfgang Wahlster erhielt im November 2001 für die wissenschaftliche Leitung des Projekts Verbmobil den Deutschen Zukunftspreis des Bundespräsidenten. An einigen Beispielen, die auf der KI-Weltkonferenz IJCAI 2001 in Seattle von Wolfgang Wahlster vorgestellt wurden und dort unter etwa 1000 Zuhörern zunächst zur ungläubigen Frage geführt haben, wann man so etwas denn einmal demonstrieren kann, und dann, nach der Antwort von Herrn Wahlster, dass dies jedermann bei einem Besuch im DFKI sofort gezeigt werden kann, große Bewunderung erzielten, sollen die Ergebnisse von Verbmobil exemplarisch veranschaulicht werden: Beherrschung von Übersetzungsmehrdeutigkeiten Wir fahren nach Stuttgart Wir treffen uns vor dem Hotel Wir treffen uns vor 2 Uhr Wir treffen uns vor dem Frühstück
We will go to Stuttgart We will meet in front of the hotel We will meet before two o’clock We meet before the breakfast (nicht: in front of the breakfast)
Berücksichtigung der Prosodie Wir müssen noch einen Termin ausmachen Wir müssen noch einen Termin ausmachen Wir müssen noch einen Termin ausmachen
We have to arrange an appointment We have to arrange one appointment We have to arrange another appointment
Berücksichtigung von Häsitationen und Selbstkorrekturen Wir treffen uns äh in Mannheim Wir treffen uns in Mannheim äh München Wir treffen uns äh in Mannheim äh München
We will meet in Mannheim We will meet in Munich We will meet in Munich
3.2 Schwerpunkte der Informatikforschung
99
3.2.5.2 C-Star Am Schluss dieses Kapitels soll noch ein Konsortium erwähnt werden, das sich seit Anfang der 90er Jahre lange Zeit ohne jede direkte öffentliche Förderung im internationalen Rahmen zwischen der Wissenschaft und der Industrie etabliert hat, das C-STAR-Konsortium. Es bestand anfangs aus den drei Partnern Carnegie Mellon University/Universität Karlsruhe (Alex Waibel), ATR (Japan) und der Siemens AG (Harald Höge) und entwickelte in der ersten Phase C-STAR-1Sprachübersetzer für die drei Sprachen Deutsch, Englisch, Japanisch für syntaktisch korrekte Sprache (nicht spontan), für kleine bis mittelgroße Vokabularien, bei eingeschränkter Gesprächsdomäne (Konferenzanmeldung). Inzwischen hat sich das Konsortium in der Phase C-STAR-3, die seit dem Jahr 2000 läuft, zu einem großen internationalen Verbund entwickelt (Abb. 3.4), der sich bei sechs Sprachen einer der noch verbliebenen großen Herausforderungen in der Sprachverarbeitung stellt, den uneingeschränkten Gesprächsdomänen, wie z. B. Fernsehnachrichten, Parlamentsdebatten, Vorlesungen u. a. In diesem Rahmen gibt es inzwischen auch eine Reihe von Förderprojekten der NSF, der EU, der Darpa usw.
Abb. 3.4 C-STAR-Konsortium im Jahr 2003 (Quelle Alex Waibel)
100
3 Schwerpunkte der Informatikforschung in Deutschland in den 90er Jahren
Literatur und Quellen [1] LEDA, A Platform for Combinatorial and Geometric Computing, Mehlhorn, K., Näher, S., Cambridge University Press, 1999 [2] BMFT-Broschüre, Künstliche Intelligenz: Wissensverarbeitung und Mustererkennung, Bonn, 1988 [3] Barth, G., Christaller, T., Cremers, A.B., Neumann, B., Radermacher, F.J., Radig, B., Richter, M., Siekmann, J., von Seelen, W., Künstliche Intelligenz: Perspektive einer wissenschaftlichen Disziplin und Realisierungsmöglichkeiten. Informatik-Spektrum 14, No. 4, August 1991 [4] AKI, Arbeitsgemeinschaft der deutschen KI-Institute, Broschüre Oktober 1990 [5] Artur D Little International, Inc., Studie zur Evaluierung des Förderschwerpunkts „Künstliche Intelligenz“ des BMFT, Wiesbaden, April 1994 [6] BMFT, Referat 413, Broschüre Intelligente Systeme, Oktober 1994 [7] Persönliche Information, Franz-Joseph Radermacher, Ulm 2007 [8] Bericht zur Statustagung des BMBF „Intelligente Systeme“ in Neu-Ulm, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, Februar 1999 [9] Abschlussbericht Projekt AKA-WINO, DFKI, Saarbrücken, März 1993 [10] Abschlussbericht, Projekt AKA-MOD, DFKI, Saarbrücken, Mai 1995 [11] Abschlussbericht Projekt AKA-TACOS, DFKI, Saarbrücken, März 1996 [12] Bericht zur Statustagung des BMBF „Bioinformatik“ in Braunschweig, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, November 1995 [13] Persönliche Information Werner von Seelen, Juni 2007 [14] Rizzo, F., Eckmiller, R., Wyatt, J., Zrenner, E., et al, Retinal prosthesis: An encouraging first decade with major challenges ahead, Ophthalmology. 2001, Vol. 108 [15] Bericht zur Statustagung des BMBF „Softwaretechnologie“ in Berlin, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, März 1996 [16] Bericht zur Statustagung des BMBF „Softwaretechnologie“ in Bonn, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, März 1998 [17] Reuse, B., Vortrag auf HNF Forum, Paderborn, März 2005 [18] Bericht zur Statustagung des BMBF „HPSC 95“ in Jülich, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, September 1995 [19] Bericht zur Statustagung des BMBF „HPSC 97“ in München, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, Februar 1997 [20] Bericht zur Statustagung des BMBF „HPSC 99“ in Bonn, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, März 1999 [21] Wahlster, W., Verbmobil: Foundations of Speech-to-Speech Translation, Springer-Verlag, Berlin Heidelberg 2000
4
Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006 Bernd Reuse (Bad Honnef)
4.1 Die forschungspolitische Situation im IT-Bereich Forschungsministerinnen oder genauer Bundesministerinnen für Bildung und Forschung in dem hier genannten Zeitabschnitt waren bzw. sind Frau Edelgard Bulmahn, von Oktober 1998 bis November 2005, und seitdem Frau Dr. Annette Schavan. Die wichtigste strukturelle Maßnahme, die die IT-Landschaft in Deutschland im neuen Jahrhundert verändert hat, war sicher die Integration des GMD-Forschungszentrums Informationstechnik GmbH (früher Gesellschaft für Mathematik und Datenverarbeitung) mit ihren zuletzt acht Instituten in die Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. im Jahr 2001. Sie vereinte eine mittelgroße grundlagenorientierte Forschungseinrichtung mit einer marktnah forschenden großen Institution, und das hat zu einer Reihe von Folgemaßnahmen, wie die Abwanderung von Wissenschaftlern der GMD in andere Einrichtungen, etwa die Max-Planck-Gesellschaft, oder die Zusammenlegung von Instituten geführt, die heute, im Jahr 2007 noch nicht abgeschlossen sind, die aber nicht im Zentrum dieses Buches stehen. Weitere nachhaltige Veränderungen im IT-Bereich waren die Gründung des Max-Planck-Instituts für Softwaresysteme an den beiden Standorten Kaiserslautern und Saarbrücken im November 2004, die Schließung des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung FAW in Ulm im Jahr 2004 (mit der gleichzeitigen Gründung eines kleineren Instituts, FAW/n, welches aber kein Nachfolgeinstitut ist), die Gründung des Fraunhofer Center Nanoelektronische Technologien (CNT) in Dresden im Mai 2005 und nicht zuletzt die Eröffnung eines dritten Standorts für das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Bremen im Jahr 2006. Eine der wichtigsten Maßnahmen für die Informatik in Deutschland im ersten Jahrzehnt des neuen Jahrhunderts war noch das Wissenschaftsjahr 2006, das „Informatikjahr“, mit seinen insgesamt mehr als 1500 Veranstaltungen. 101
102
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Es gab in dem hier betrachteten Zeitraum zwei IT-Förderprogramme. Über das Programm „Innovationen für die Wissensgesellschaft (1997–2001)“ und seine Schwerpunkte wurde im vorigen Kapitel berichtet. Das Förderprogramm „IT-Forschung 2006“, welches vom Jahr 2002 bis einschließlich 2006 lief, hatte die folgenden Forschungsschwerpunkte: • Nanoelektronik und -systeme Technologien und innovative Schaltungen für zukünftige IT-Systeme; Innovative Chipsysteme und Displaytechniken • Softwaresysteme Software Engineering; Mensch-Technik-Interaktion, einschließlich Virtueller und Erweiterter Realität, und Sprachverarbeitung • Basistechnologien für die Kommunikationstechnik Photonische Kommunikationsnetze; Mobile Breitband-Kommunikationssysteme • Internet-Grundlagen und -Dienste Innovative Internettechnologien und -anwendungen; GRID; Wissen im Netz
4.2 Schwerpunkte der Informatikforschung Über die Schwerpunkte der vom Bund geförderten Informatikforschung in Deutschland und damit zusammenhängender anderer Maßnahmen in dem hier genannten Zeitraum des beginnenden neuen Jahrhunderts wird im Folgenden ausführlich berichtet.
4.2.1 Mensch-Technik-Interaktion 4.2.1.1 Erste Phase, Leitprojekte Die technischen Geräte, mit denen wir täglich arbeiten oder die uns im privaten Bereich umgeben, werden immer komplexer und deren Produktbeschreibungen immer schwieriger bzw. unverständlicher, bei der Übersetzung in viele Sprachen sogar oft falsch. Nur innovative Lösungen zum Umgang des Menschen mit der Technik werden zukünftig die nötige Akzeptanz schaffen, damit neue Systeme schneller im Markt umgesetzt werden können [1, 2, 3]. Auf Seiten der Industrie wurde erkannt, dass eine übersichtliche und einfach zu bedienende Benutzerschnittstelle eine wesentliche Voraussetzung für die Vermarktung von Produkten, insbesondere der IT-Branche ist. Bei vielen Produkten war und ist der Entwicklungsaufwand für die Nutzerschnittstelle schon größer als der für die Funktionalität. Hier setzen die interdisziplinären Forschungsarbeiten zur Mensch-Technik-Interaktion (MTI) an, die weltweit seit etwa 25 Jahren durchgeführt werden. Entscheidende Durchbrüche zeigten sich aber erst Mitte der 90er Jahre im Bereich der
4.2 Schwerpunkte der Informatikforschung
103
sprachlichen Interaktion zwischen Mensch und Computer, und gerade hier konnten in Deutschland mit dem Leitprojekt „Verbmobil“, wichtige Erfolge erzielt werden. Auf dieser Grundlage führte das BMBF im Jahre 1998 einen Ideenwettbewerb zu Leitprojekten zur Mensch-Technik-Interaktion durch. Es wurden Lösungen gesucht, die es dem Menschen im privaten wie im beruflichen Umfeld erlauben, Systeme der Informationstechnik mit natürlichen Interaktionsformen zu steuern. Die Technik sollte dem Menschen angepasst werden und nicht umgekehrt, wie das bisher der Fall war. Die Kernidee beim Start des Ideenwettbewerbs war, dass man die in Verbmobil für die Kommunikation und Interaktion des Menschen mit Computern entwickelten Lösungen der Modellierung des Benutzers und seiner Interaktion mit dem Computer über die Sprache zur multimodalen Interaktion zwischen Menschen und IT-Systemen aller Art, also über Sprache, Zeigegesten, Gesichtsausdrücke, Greifoder Druckbewegungen und visuelle Methoden, ausweiten wollte. Die Verbindung mehrerer oder aller Informationen aus den verschiedenen Kanälen der Interaktion würde dann, wie in der Kommunikation von Mensch zu Mensch, sicher zu einem wesentlich besseren Verständnis der Intention des Benutzers führen. Die Ausschreibung des Ideenwettbewerbs gab vor, dass Ergonomie und Benutzerakzeptanz für die neuen Interaktionsformen als entscheidende Kriterien bei der Entwicklung und Bewertung von Prototypen aus den Projekten berücksichtigt werden sollten. Forschungspartner aus der Wissenschaft und der Wirtschaft wurden aufgerufen, in interdisziplinären und strategischen Verbundprojekten nach Lösungen zu suchen, die sowohl eine große wissenschaftliche Attraktivität als auch ein hohes Marktpotenzial haben sollten. Im Rahmen des Ideenwettbewerbs gingen dann insgesamt 89 Projektvorschläge ein, aus denen von einer Jury sechs große Leitprojekte zur Förderung vorgeschlagen wurden. Diese wurden vom Bundesministerium für Bildung und Forschung (fünf)
Abb. 4.1 Multimodalität in der Mensch-Technik-Interaktion
104
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Tabelle 4.1 Mitglieder des internationalen Beirats für die MTI-Leitprojekte [2] Professor Ralph Reichwald, TU München (Vorsitzender) Ulrich Klotz, IG Metall, Frankfurt/M. Michael Bartels, IPmotion GmbH, Marburg Professor Philip Cohen, Oregon Graduate Institute, Beaverton, USA Professor Markus Gross, ETH Zürich, Switzerland Dr. Gerold-B. Hantsch, Deutsches Handwerksinstitut e.V., Karlsruhe Professor Rüdiger Hoffmann, TU Dresden Professor Manfred K. Lang, TU München Professor Susanne Maaß, Universität Bremen Dr. Mark Maybury, MITRE Corporation, Bedford, USA Professor Abbas Ourmazd, Communicant AG, Frankfurt/Oder Dr. Joachim Redmer, Remshalden-Grunbach Professor Gerhard Rigoll, TU München Professor Joachim Sauter, ART+COM AG, Berlin Peter Zoche, Fraunhofer-ISI, Karlsruhe
und vom Bundesministerium für Wirtschaft und Arbeit (eins) ab Mitte 1999 mit insgesamt 102 Projektpartnern und mit einem Gesamtmittelumfang von 152 Mio. € für eine 4-jährige Laufzeit, bis Mitte 2003, gestartet. Ein international besetzter wissenschaftlicher Beirat hat die Projekte während der Laufzeit begleitet und den beiden Ministerien Empfehlungen für deren Steuerung gegeben (s. Tabelle 4.1). Alle Leitprojekte haben die in sie gesteckten Forschungsziele mehr als erreicht. Ihre Ergebnisse wurden im Juni 2003 im Berliner Congress Center der internationalen Fachwelt und der interessierten Öffentlichkeit vorgestellt und demonstriert. Es entstanden insgesamt 117 Patentanmeldungen, dreizehn Spin-off-Unternehmen wurden gegründet und 56 Spin-off-Produkte entwickelt. Daneben wurden etwa 900 wissenschaftliche Artikel und Konferenzbeiträge veröffentlicht und bei den Wissenschaftspartnern 210 Diplomarbeiten, Promotionen und Habilitationen abgeschlossen. Schließlich wurden 16 Forscher aus den Projekten auf Lehrstühle an Hochschulen berufen – ein nennenswerter Anteil an allen einschlägigen Berufungen. Bis zum Ende der Projekte im Juni 2003 entstanden, initiiert durch die Forschungsarbeiten, 154 neue High-Tech-Arbeitsplätze in Deutschland. Im Jahr 2003 erhielt eines der Projekte, das Projekt INVITE, den „European Information Technology Prize“ der EU. Auf der CeBIT 2004 wurden die 30 interessantesten Demonstratoren auf einem von der Deutschen Messe AG bereitgestellten Sonderstand von 900 m2 der fachlich interessierten Öffentlichkeit vorgestellt. Etwa 35 000 Besucher, darunter Bundeskanzler Schröder und Frau Ministerin Bulmahn, sahen die Ausstellung, die die Hauptattraktion in der Forschungshalle 11 der CeBIT war. Diese deutschen Projekte galten und gelten noch heute als weltweit führend auf dem Gebiet der Mensch-Technik-Interaktion. Ihre wissenschaftlichen Ergebnisse prägten die internationalen Fachkongresse in der Zeit danach. Allein der Autor dieses Artikels erhielt insgesamt neun Einladungen zu Vorträgen auf allen weltweit wichtigen internationalen Konferenzen auf diesem Gebiet [4]. Die Themenstellungen wurden danach auch im sechsten Rahmenprogramm der Europäischen Union berücksichtigt, wodurch sich deutsche Partner vorteilhaft beteiligen konnten.
4.2 Schwerpunkte der Informatikforschung
105
Im Folgenden werden die wichtigsten Ergebnisse der sechs MTI-Leitprojekte und ihre Koordinatoren kurz vorgestellt: • SmartKom – Dialogische Mensch-Technik-Interaktion durch koordinierte Analyse und Generierung multipler Modalitäten (1999–2003) Zehn Projektpartner unter der Koordination des Deutschen Forschungszentrums für Künstliche Intelligenz – DFKI (Wolfgang Wahlster). Forschungspartner weiterhin: EML, Universitäten Stuttgart, München (LMU), Erlangen-Nürnberg. Industriepartner aus der Automobilindustrie, Telekommunikation, Unterhaltungselektronik und Sicherheitstechnik. Im Leitprojekt SmartKom ist durch die nahtlose Integration von multimodalen Ein- und Ausgaben eine neue Qualität benutzeradaptiver Schnittstellen für die Interaktion von Mensch und Technik im Dialog entstanden. Dadurch wurde das Verstehen und das Verarbeiten auch von unpräzisen, mehrdeutigen oder unvollständigen Eingaben möglich. Zeigegesten und Gesichtsausdrücke steuerten den Computer. Er erkannte Stirnrunzeln als emotionale Reaktion, interpretierte sie als eine nicht verstandene Nachricht an den Nutzer und machte rasch neue Vorschläge. SmartKom bot dem Nutzer durch die flexible Integration von Funktionen und Geräten einen einfach zu handhabenden Zugang zu unterschiedlichen Anwendungen, zu Hause, auf Reisen oder im Büro (s. a. Teil II, Smartweb). • ARVIKA – Augmented Reality für Entwicklung, Produktion und Service (1999–2003) ARVIKA hat Augmented-Reality-Techniken erfolgreich für industrielle Anwendungen bei der Entwicklung, der Fertigung und dem Service von Flugzeugen, Autos und Werkzeugmaschinen erforscht und prototypisch eingesetzt (s. Zeitfenster ARVIKA und Bericht in Teil II). • MORPHA – Intelligente anthropomorphe Assistenzsysteme (1999–2003) Im Mittelpunkt des Projekts MORPHA standen Serviceroboter im Haushalt und im Produktionsbereich, die den Menschen bei alltäglichen Aufgaben und in gewohnter Umgebung „zur Hand gehen“ sollen (s. Zeitfenster MORPHA und ausführlicher Bericht in Teil II). • MAP – Multimedialer Arbeitsplatz der Zukunft (1999–2003) Fünfzehn Projektpartner; Koordinator: Alcatel SEL AG-Stuttgart (Manfred Weiss); Forschungspartner: Fraunhofer IGD, ZGDV, Universitäten Darmstadt, Dresden, Kassel u. a.; Industriepartner: Siemens AG, Nemetschek AG und Softwarehäuser. Das Projekt MAP setzte mit der Entwicklung neuartiger Architekturen und Software-Komponenten für ein Assistenz- und Delegationssystem Maßstäbe für zukünftige mobile multimediale Arbeitsplätze. Softwareagenten übernahmen die Rolle persönlicher Assistenten, entlasteten den Benutzer von zeitraubenden Routinetätigkeiten und unterstützten mobile Arbeitsprozesse. Kern des Projektes war die Entwicklung und Integration neuer innovativer Methoden in den Bereichen Sicherheitstechnologie, Mensch-Technik-Interaktion, Agententechnologie und Mobilitätsunterstützung.
106
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Die Leistungsfähigkeit und Akzeptanz dieser Technologien wurde in Labor- und Feldtests nachgewiesen. Für drei ausgewählte Anwendungsfelder (Mobiles Büro, Planung im Bauwesen, Facility Management) wurde ein ganzes Spektrum prototypischer Anwendungen erfolgreich getestet (weitere Infos auf www.map21.de). • INVITE – Intuitive Mensch-Technik-Interaktion für die vernetzte Informationswelt der Zukunft (1999–2003) Zwanzig Projektpartner; Konsortialführer: ISA GmbH Stuttgart (Veli Velioglu); Forschungspartner: Fraunhofer IAO, Fraunhofer IPSI, Kuratorium OFFIS, Universität Dortmund. Industriepartner/Anwendungspartner: BMW und DZ Bank sowie KMU mit speziellen Softwarelösungen für den MTIBereich. Ein einfacher, intuitiver und effektiver Umgang mit umfangreichen, komplexen Systemen und Technologien, unabhängig von den Vorkenntnissen und Fähigkeiten des Benutzers, war eines der wichtigsten im Leitprojekt INVITE realisierten Ziele. Die Idee wurde anhand der Schwerpunkte kooperative Exploration, dynamische Visualisierung und multimodale Interaktion verfolgt und in zwei anwendungsorientierten Szenarien anschaulich umgesetzt. So unterstützte INVITE innovative Prozesse in immersiven Umgebungen, indem beispielsweise bei der Produktentwicklung in einem virtuellen Umfeld CAD-Daten so dargestellt wurden, dass eine Begutachtung und Auswertung ohne die Herstellung eines Prototyps ermöglicht wurde – im (räumlich verteilten) Team, an unterschiedlichen Orten mit beliebig bewegbaren visualisierten Objekten (s. www.invite.de). • EMBASSI – Elektronische Multimediale Bedien- und Service-Assistenz (1999–2003) Achtzehn Projektpartner; Federführer: Grundig AG-Nürnberg (Thorsten Herfet). Forschungspartner: Fraunhofer IGD, Fraunhofer IIS, ZGDV, Universitäten Erlangen-Nürnberg, Berlin (Humbold), Köln, Kunst- und Medienwissenschaftliche Institute. Industriepartner: Unternehmen der Unterhaltungselektronik und der I&K-Technik. Das Projekt EMBASSI hatte zum Ziel, die Bedienung der vielfältigen und immer komplexer werdenden elektronischen Geräte und Medien im privaten wie beruflichen Bereich durch die Entwicklung einer menschengerechten, intuitiven und weitgehend einheitlichen Bedienung mit Hilfe intelligenter Assistenzsysteme zu ersetzen. Das „Wohnzimmer der Zukunft“ sollte multimodal bedienbar sein – egal, ob es um Medien- und Inhaltsauswahl, die Funktionssteuerung per Sprache, etwa beim Fernsehen, oder die gezielte bzw. auch automatische Beeinflussung des Umfeldes, z. B. der Beleuchtung und Fensterrollos oder die Stummschaltung bei Anrufen betraf. Es wurde in dem Projekt ein Architekturmodell entwickelt, welches die nächste Generation von Benutzerschnittstellen vorbereitet und die Voraussetzungen für eine Vielzahl neuer Anwendungen geschaffen hat (s. www.embassi.de).
4.2 Schwerpunkte der Informatikforschung
107
Zeitfenster Augmented Reality am Beispiel der Leitprojekte ARVIKA und ARTESAS (1999–2006) José Luis Encarnação, Didier Stricker Computergraphik hat sich als Basistechnologie bei der Gestaltung von Mensch-MaschineSchnittstellen etabliert. Während die neunziger Jahre noch durch die Entwicklung immersiver Ein- und Ausgabegeräte geprägt waren („Virtuelle Realität“), verschmilzt in der „Augmented Reality“ Computergraphik mit Technologien aus den Bereichen „Mobile Computing“ und „Computer Vision“, um neue Formen der Mensch-Maschine-Interaktion zu schaffen. Mit dieser Technologie werden digitale Informationen in Überlagerung mit unserer realen Umgebung dargestellt. Leitprojekt ARVIKA – Augmented-Reality-Technologien (AR) für Entwicklung, Produktion und Service Wachsender Wettbewerbsdruck in der Industrie verursacht steigende Produktkomplexität, eine hohe Anzahl von Produktvarianten und immer kürzer werdende Entwicklungsund Produktionszyklen. Diese erfordern eine maximale Effizienz in Entwicklung, Produktion und Wartung. Bisher wurden die steigende Produktkomplexität mit immer mehr Information und Training für die Mitarbeiter kompensiert. Es ist jedoch absehbar, dass sich die Schere zwischen Produktkomplexität und vorhandenem Wissen der Mechaniker nicht mehr mit diesen konventionellen Methoden schließen lässt. Im BMBF-Leitprojekt ARVIKA wurden im Zeitraum Juli 1999 bis Juni 2003 Augmented-Reality-Technologien zur Unterstützung der Mitarbeiter in den Bereichen Entwicklung, Produktion und Wartung entwickelt. Die insgesamt 23 Verbundprojektpartner unter der wissenschaftlichen Leitung des FhG-IGD (Didier Stricker) waren: Siemens AG, Nürnberg (Konsortialführung, Wolfgang Friedrich), Audi AG, Ingolstadt, EADS Deutschland GmbH, DaimlerChrysler AG, Ulm, Airbus Deutschland GmbH, DS-Technologie, Mönchengladbach, EX-Cell-O GmbH, Eislingen, Ford Forschungszentrum GmbH, Aachen, GÜHRING oHG, Albstadt, Hüller Hille GmbH, Ludwigsburg, INDEX Werke GmbH, Esslingen, Volkswagen AG, Wolfsburg, User Interface Design GmbH, Ludwigsburg, vrcom GmbH, Darmstadt, A.R.T. GmbH, Herrsching, Framatom ANP GmbH, Erlangen, Carl Zeiss Oberkochen, BMW AG, München, RWTH Aachen (2×), FhG-IGD Darmstadt, TU München, ZGDV Darmstadt. Leitinnovation ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications Durch das an ARVIKA im Zeitraum 2004 bis 2006 anschließende Leitprojekt ARTESAS (Projektpartner s. Langfassung) konnte der mit ARVIKA gewonnene deutsche Vorsprung in der Forschung und der Industrie im Umfeld der AR-basierten Technologien weiter gesichert und der Breiteneinsatz im industriellen Umfeld weiter vorbereitet werden. Ziel war es, schwerpunktmäßig neue Technologien für Tracking und AR-Geräte zu erforschen und zu evaluieren. Dabei wurden die folgenden Forschungsergebnisse erzielt: • Instrumentierungsfreies Tracking Das Trackingverfahren ist dafür verantwortlich, dass virtuelle 3D-Modelle in Relation zur realen Umgebung örtlich fixiert werden. Natürliche Merkmale der realen Umgebung werden in den Videobildern registriert und verfolgt. Diese Landmarkenidentifikation basiert auf der Verwendung von Punkt- und Kantendetektoren. Mit Hilfe der identifizierten Landmarken auf den zweidimensionalen Kamerabildern wird die Position der Kamera im dreidimensionalen Raum rekonstruiert.
108
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
• Augmented-Reality-Display Da bisher keine kommerziell erhältliche Datenbrille („Head Worn Display – HWD“) eine nach ergonomischen Gesichtspunkten zufrieden stellende Lösung darstellt, musste ein völlig neuartiger HWD-Ansatz herausgearbeitet und verfolgt werden. Die Geräte bestehen aus einem seitlich an einem Brillengestell angebrachten „Projektor“, dessen Licht über einen vor dem Auge bzw. Brillenglas angeordneten Strahlkombinierer in das Auge eingespiegelt wird. Dieses Konzept vereinigt durch die hauptsächlich seitliche Anbringung die Vorteile der guten, weit hinten liegenden Schwerpunktslage mit einer beinahe uneingeschränkten Sicht in die Umgebung. Mit den Forschungsprojekten ARVIKA und ARTESAS wurden die wesentlichen Grundlagen für die Verwertung von Augmented-Reality-Technologien geschaffen. Um die Forschungs- und Verwertungsinitiativen über diese BMBF-Projekte hinaus voranzubringen, haben sich ARVIKA-Unternehmen, aber auch Unternehmen, die bislang nicht an den BMBF-Projekten beteiligt waren, im „Industriekreis Augmented-Reality“ zusammengeschlossen. Auch aus wissenschaftlicher Sicht konnten durch die Projekte ARVIKA und ARTESAS wesentliche Ergebnisse erzielt werden, die neue Forschungslinien initiiert haben. Denn die Verschmelzung von Computer-Vision, Datenerfassung und Computergraphik zur kontextbezogenen Informationsvisualisierung konnte im Paradigma der „Ambient Intelligence“ verallgemeinert werden: An die Stelle von Computer-Vision-Verfahren, durch die die Situationen und die Aktionen des Benutzers erfasst werden, treten hier multimodale Sensornetzwerke, und anstelle des Augmented-Reality-Displays gibt es hier vernetzte Ausgabegeräte. Diese Verallgemeinerung kann das Potential für die Entwicklung von Mensch-Maschine-Schnittstellen maßgeblich erweitern, und sie wird unsere Zukunft nachhaltig beeinflussen (s. a. ausführlichen Bericht in Teil II).
Zeitfenster Stand der Servicerobotik am Beispiel des Leitprojekts „Intelligente anthropomorphe Assistenzsysteme“ MORPHA (1999–2003) Rüdiger Dillmann Die Entwicklung der Servicerobotik seit Mitte der neunziger Jahre des 20. Jh. ist bis heute geprägt durch weltweite Anstrengungen, Roboter aus ihren eingeschränkten Einsatzfeldern in der Industrie für flexible Alltagsumgebungen tauglich zu machen. Insbesondere waren dazu fundamentale Verbesserungen der Mensch-Roboter-Schnittstelle notwendig. Die Leitidee des Verbundvorhabens MORPHA war es, intelligente mechatronische Systeme, insbesondere Robotersysteme, mit leistungsstarken Kommunikations-, Interaktions- und Verhaltensmechanismen auszustatten. Diese sollten die Systeme befähigen, mit dem menschlichen Benutzer unter dessen Anleitung und Kontrolle zu kooperieren und ihm zu assistieren. Ausgehend von zwei konkreten Anwendungsszenarien (Produktions- und Heimassistent) wurden technisch-wissenschaftliche Fragestellungen als Querschnittsthemen intuitiver Mensch-Maschine-Interaktion definiert. Die Erarbeitung dieser technischwissenschaftlichen Fragestellungen und die Demonstration gewonnener Verfahren und Methoden erfolgten in einem Konsortium aus Industrieunternehmen, Forschungsinstituten und Universitäten.
4.2 Schwerpunkte der Informatikforschung
109
Neben der Sprache stellte die visuelle Kommunikation, beispielsweise über Gesten, ein wichtiges Thema des Vorhabens dar. Diese Form der Kommunikation wird die Kontrolle und Kommandierung sowie die „Belehrung“ und „Programmierung“ der Assistenzsysteme erleichtern. Ein weiterer menschlicher Sinn, der in die Interaktion zwischen Mensch und Maschine mit einbezogen werden sollte, ist das „Fühlen“, also das Wahrnehmen und Reagieren auf Kräfte. Das MORPHA-Konsortium bestand aus siebzehn Partnern aus Universitäten und Industrie. Die Projektleitung wurde von der Delmia GmbH (Bruno Wolfer) übernommen, einem Tochterunternehmen der französischen Dassault Systems. Die GPS (Gesellschaft für Produktionssysteme) unterstützte in der Projektkoordination und Administration. Die beiden Industriepartner DaimlerChrysler und Siemens haben die Verantwortung für die Demonstrationsszenarien „Der Produktionsassistent“ bzw. „Der Assistent im Haushaltsund Pflegebereich“ übernommen. Die Hauptforschungsgebiete waren „Mensch-Maschine-Kommunikation“, „Szenenanalyse“, „Bewegungs- und Handlungsplanung“, „Belehrung und Adaptivität“ und „Sicherheit und Wartung“. Diese wurden geleitet von den Partnern DLR, Ruhr-Universität Bochum, Universität Karlsruhe (TH), FAW Ulm und Fraunhofer IPA. Die Entwicklung von Prototypen und Anwendungen von wirtschaftlicher Bedeutung, die eine Evaluation und Bewertung der wissenschaftlichen Resultate erlauben, war primär Aufgabe der Industriepartner Astrium, Amtec, Delmia, Graphikon, Kuka Roboter, Reis Robotics, Propack Data, Zoller+Fröhlich. Weltweit wird das Thema der intuitiven Mensch-Roboter-Interaktion als Basis innovativer Produkte (z. B. Service-Roboter), flexibler Produktionen (Belehrung von Maschinen, Kooperation mit Robotern) sowie dem Einsatz intelligenter Helfer in Brennpunkten unseres Lebens (Rehabilitation, Heimbereich etc.) gesehen. MORPHA hat wesentlich dazu beigetragen, dass Deutschland dabei inzwischen eine international anerkannte Rolle in der Mensch-Roboter-Interaktion zuerkannt wird. Forschergruppen in anderen Ländern haben die Projektziele, Lösungswege und Potenziale der ausgewählten Szenarien aufgegriffen und bestätigt. Dies betrifft insbesondere die Arbeiten zur interaktiven Prozessgestaltung in Fertigung und Kommissionierung, taktile Interaktion zwischen Mensch und Roboterassistent sowie die interaktive Programmierung sowohl von Produktions- als auch Haushaltsassistenten. Die während der Laufzeit des MORPHA-Projekts erzielten Ergebnisse wurden in mehreren deutschen Projekten fortentwickelt und weitergeführt. Zu nennen ist hier der Sonderforschungsbereich 588 „Humanoide Roboter“ der DFG und die Deutsche Service Robotik Initiative des BMBF (DESIRE). Die an MORPHA beteiligten Unternehmen hatten vitales Interesse, die erarbeiteten Ergebnisse zeitig in neue Produkte und Produktfamilien umzusetzen. Dazu zählten neue Programmier- und Bedienkonsolen, Personenerkennungs- und intelligente Raumüberwachungssysteme bis hin zu intelligenten Steuerungen für unterschiedlichste mechatronische Systeme. Langfristig ebnete MORPHA den Weg für neuartige Assistenzsysteme in der Produktion ebenso wie im Bereich Haushalt und Pflege. Beispiele sind Handhabungs-, Montage-, Mobilitäts- und Reinigungshilfen oder mechatronische Assistenten im Bereich Rehabilitation. In der Projektlaufzeit wurden im Umfeld von MORPHA allein vier Spin-off-Unternehmen bzw. Tochterunternehmen gegründet. Es konnten mehr als 35 neue Arbeitsplätze geschaffen werden. Ergebnisse und Erkenntnisse aus dem Projekt flossen in die Entwicklung von 12 Spin-off-Produkten ein (s. a. ausführlichen Bericht im Teil II).
110
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
4.2.1.2 Zweite Phase, Leitinnovationen Bereits während der Laufzeit der sechs Leitprojekte gab es von Gutachterseite Vorschläge, einige der darin bearbeiteten Themenstellungen weiterzuführen, weil sie noch ein beträchtliches Entwicklungspotential hatten und die deutsche Führerschaft auf den jeweiligen Gebieten ohne Fadenriss bei den Forschungsarbeiten und den vorhandenen Forschungsgruppen fortgeführt werden sollte. Dies betraf die Themen der Virtuellen und Erweiterten Realität, der multimodalen Interaktion, primär mit dem Internet, und der Servicerobotik. Es wurden dann im Zeitraum 2002 bis 2005 vier große Leitinnovationen im Rahmen der Mensch-Technik-Interaktion gestartet [4]. Dabei sollte der Name Leitinnovation andeuten, dass mehr als bei den vorangegangenen Leitprojekten der Transfer der Forschungsergebnisse in die Anwendung im Vordergrund stand. Es handelt sich um die folgenden vier großen Projekte im Gesamtmittelumfang von etwa 65 Mio. €: • VIRTUAL HUMAN – Anthropomorphe Interaktionsagenten (2002–2006) Sieben Projektpartner unter der Koordination des Deutschen Forschungszentrums für Künstliche Intelligenz (Wolfgang Wahlster). Weitere wissenschaftliche Partner: Fraunhofer IGD, Fraunhofer IMK, ZGDV. Industriepartner: Drei KMU. Im Projekt Virtual Human wurde wissenschaftliches Neuland betreten durch völlig autonom handelnde virtuelle Dialogpartner für den Menschen, etwa in tutoriellen Lernanwendungen oder im Bereich des e-Business. Von zentraler Bedeutung war dabei die detaillierte anthropomorphe Gestaltung der Avatare, mit glaubwürdigem emotionalen Dialogverhalten per Sprache, Mimik oder Gestik, sowie deren exakte Bewegungssimulation in Echtzeit. Die virtuellen Charaktere sollten sinnvoll auf Situationen und Thematiken reagieren, individuelle Sprach- oder Verhaltensmerkmale ihrer realen Gegenüber spontan erkennen und sich sensibel auf deren Wünsche, Wissensstände und auch Emotionen einstellen können (Affective Computing). Die Demonstration des Projekts auf der CeBIT 2004 und auf der CeBIT 2006 fand das größte Interesse der Messebesucher. • ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications (2004–2006) In ARTESAS ging es um einen Abschluss der breit angelegten und sehr erfolgreichen Forschungsarbeiten in ARVIKA zur Virtuellen und Erweiterten Realität in der industriellen Entwicklung, Produktion und Wartung durch den Übergang vom markerbasierten Tracking zum instrumentierungsfreien Tracking (s. Zeitfenster ARVIKA und ARTESAS und ausführlicher Bericht in Teil II). • SMARTWEB – Mobiler breitbandiger Zugang zum Web (2004–2007) In SmartWeb wurden Techniken entwickelt, mit denen man in praktisch jeder Situation gesprochene Fragen an das Internet stellen kann und als Ergebnis nicht Verweislisten, sondern direkte inhaltliche Antworten erhält. (s. Zeitfenster SmartWeb und Bericht in Teil II)
4.2 Schwerpunkte der Informatikforschung
111
• DESIRE – Deutsche Servicerobotik Initiative (2005–2008) Dreizehn Projektpartner, Federführer Fraunhofer IPA (Dieter Schraft), weitere wissenschaftliche Partner: FZI Karlsruhe, Fraunhofer AIS, Universitäten Bielefeld, Freiburg und Bochum, DLR Oberpfaffenhofen, industrielle Anwendungspartner: Siemens AG, Schunck GmbH, Kuka GmbH und 3 KMU. In DESIRE, welches Teil einer größeren „Leitinnovation Servicerobotik“ ist, in die auch Vorhaben der Mikrosystemtechnik und der Produktionstechnologien integriert sind, wird eine lange kontinuierliche Vorarbeit mit Forschungsergebnissen von autonomen Systemen und Servicerobotern für den privaten Bereich (alternde Gesellschaft) und den industriellen Bereich (innovative Fertigungsmethoden) einen Schritt näher an die Anwendung gebracht, die im Serviceroboterbereich, abgesehen von Spiel- und Fußballrobotern, aber noch fünf bis zehn Jahre voraus in der Zukunft liegt. Die große Herausforderung in der Forschung liegt dabei nach wie vor in der gefahrlosen Zusammenarbeit der Roboter mit dem Menschen und in der von Missverständnissen freien Kommunikation und Interaktion zwischen beiden (s. Teil II, Servicerobotik).
Zeitfenster Stand der Mensch-Technik-Interaktion am Beispiel der Leitinnovation SmartWeb (2004–2007) Wolfgang Wahlster Der mobile und multimodale Zugriff auf Informationen aus dem Internet für jedermann zu jeder Zeit und an jedem Ort, ohne Verwendung von Tastatur und Maus, sondern durch gesprochene Spracheingabe, kombiniert mit Zeigegesten, ist eine der großen technologischen Herausforderungen bei der Verwirklichung der Internetgesellschaft. Nachdem in Deutschland durch das vom BMBF in besonders risikofreudiger und weitsichtiger Weise geförderte Leitprojekt Verbmobil die Sprachtechnologie und deren praktische Nutzung in kommerziellen Sprachdialogsystemen seit der Jahrtausendwende eine internationale Spitzenstellung einnahm und wir im BMBF-Folgeprojekt SmartKom erfolgreich die ersten Demonstratoren für die mobile und multimodale Mensch-Technik-Interaktion entwickelt hatten, war es konsequent, die äußerst anspruchsvolle Aufgabe des semantischen Zugriffs auf multimediale Internet-Inhalte und Webdienste über mobile Endgeräte in einem großen Leitprojekt SmartWeb anzugehen. Mit SmartWeb sollte erstmals ein ubiquitärer und situationsadaptiver Zugang zum Internet geschaffen werden, der den mobilen Benutzer in einer Vielzahl von Rollen, wie z. B. als Autofahrer, als Motorradfahrer, als Fußgänger oder als Sportfan im Stadion, multimodal unterstützt. Eines der besonders ehrgeizigen Ziele dabei war es, die Anfragen des Benutzers nicht wie bei den Vorgängerprojekten Verbmobil und SmartKom auf bestimmte vorher festgelegte Diskursbereiche zu beschränken, sondern die gesamte im World Wide Web verfügbare Information als Wissensbasis zu verwenden, um erstmals eine mobile Fragebeantwortung in offenen Domänen zu realisieren. Zweitens sollte das Paradigma bisheriger Suchmaschinen wie Google, die Anfragen nur auf der Basis von Schlüsselwörtern zulassen und als Ergebnisse lediglich Verweislisten auf Dokumente liefern, abgelöst werden durch eine semantische Antwortmaschine, die auf eine natürlichsprachliche Benutzerfrage wie „Wer hat die Fußball-Weltmeisterschaft 2006 gewonnen?“ direkt mit der präzisen Antwort „Italien“ reagiert. Schließlich sollten durch eine plan-basierte Komposition
112
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
von verschiedenen semantischen Webdiensten erstmals komplexe Aufträge wie „Leite mich zur nächsten Tankstelle mit dem billigsten Superbenzin“ ohne weitere Interaktion mit dem Fahrer automatisiert ausgeführt werden. Industrielle Projektpartner in SmartWeb waren BMW, DaimlerChrysler, Deutsche Telekom und Siemens sowie als KMU Ontoprise und Sympalog. Forschungspartner waren neben dem Konsortialführer DFKI die Universitäten Bremen, Erlangen-Nürnberg, Karlsruhe, LMU München, Saarbrücken, Stuttgart sowie EML, FhG First und ICSI in Berkeley. SmartWeb brachte im Verlauf der Forschungsarbeiten mehrere Weltneuheiten hervor und ist die erste mobile Antwortmaschine auf einem SmartPhone (Ameo von T-Mobile), die dem Benutzer auf Wunsch nicht nur textuelle Antworten, sondern auch Bilder, Videoclips oder Tondokumente ausgibt. SmartWeb kann sehr komplexe Anfragen wie „Wer hat bei den Salzburger Festspielen vorletztes Jahr in der Premiere von La Traviata die Titelrolle gesungen“ verstehen und durch Informationsextraktion aus dem Internet korrekt mit „Anna Netrebko“ beantworten. Neuartig ist auch die Kombination von Sprachein-/ausgabe im Motorradhelm mit einem haptischen Bedienelement am Lenker, um semantische Webdienste („Wie ist das Wetter auf der Route?“) oder Warnmeldungen aus der Fahrzeug-zu-Fahrzeug-Kommunikation wie „Achtung, Stau hinter der Kurve in 300 Metern!“ rechtzeitig zu präsentieren. Die nahtlose Integration von Diensten erlaubt dem Autofahrer im Notfall nach einer Frage wie „Wer ist der nächste Kinderarzt?“ gleich per Sprachkommando ein Telephonat mit dem Arzt zu starten und gleichzeitig für sein Navigationssystem die Arztpraxis als neues Ziel vorzugeben. Die BMBF-Förderung der Projektserie Verbmobil, SmartKom und SmartWeb hat dazu beigetragen, dass Deutschland heute in der Sprachtechnologie und den multimodalen Dialogsystemen eine Spitzenposition einnimmt und über 120 neue deutsche Unternehmen auf diesem Gebiet kommerziell erfolgreich tätig sind. Alleine in SmartWeb wurden elf Patente generiert, acht Produkte entwickelt und zwei neue weltweite Standards für das Internet mitgeprägt. Durch zahlreiche Wissenschaftspreise und erste Plätze in internationalen Benchmarktests ist auch der wissenschaftliche Erfolg der Projekte nachhaltig belegt. Das vom BMWi geförderte Leuchtturmprojekt Theseus (2007–2011), das im Rahmen der Hightech-Strategie der Bundesregierung das neue „Internet der Dienste“ vorantreibt, baut zentral auf den Ergebnissen von SmartWeb auf (s. a. ausführlichen Bericht im Teil II).
Gesamtstrategie zur Mensch-Technik-Interaktion Die Demonstratoren aus den Forschungsprojekten des BMBF zu autonomen Systemen und zur Servicerobotik begannen Anfang der 90er Jahre mit MARVIN aus den Projekten INA und NAMOS (s. Teil II, INA) und führten über eine Reihe von Zwischenschritten, AMOS, NEUROS, INSERVUM (s. Kap. 3.2.1.4), zu dem Leitprojekt MORPHA und schließlich zur Leitinnovation DESIRE. Auf DFG-Seite wurde und wird parallel eine Reihe von Grundlagenarbeiten von der Kognition bis zu humanoiden Robotern unterstützt, die aktuell im Sonderforschungsbereich 588 der DFG in der Universität Karlsruhe mit dem Projekt DESIRE synergetisch zusammengeführt werden. Es gab von Verbmobil bis zu den Leitinnovationen eine durchgehende inhaltliche und strategische Linie in den Forschungsarbeiten zur Mensch-Technik-Interaktion in Deutschland. Sie führte einerseits mit dem Ziel, mittelfristig bis langfristig
4.2 Schwerpunkte der Informatikforschung
113
Abb. 4.2 Strategische Forschung zur Mensch-Technik-Interaktion (Die Ergebnisse der Leitinnovationen liegen noch nicht alle vor)
die deutsche Forschung auf diesem Gebiet in der Welt führend oder zumindest mitführend zu erhalten, und andererseits mit dem Ziel, jederzeit Spin-off-Entwicklungen von High-Tech-Produkten oder -Arbeitsplätzen durch die beteiligten Industrieunternehmen zu unterstützen, von der reinen, äußerst risikoreichen Grundlagenforschung zur Sprachverarbeitung in den 90er Jahren im Projekt Verbmobil bis zu den eher anwendungsorientierten und stark industriebetonten Projekten in den Leitinnovationen. In der Zukunft wird dieses Gebiet nach Einschätzung des Autors in die sehr breiten Forschungsarbeiten des Ambient Intelligence integriert werden. Dazu wurde im Oktober 2004 ein erstes größeres Forschungsprojekt BelAmi in Deutsch-Ungarischer Zusammenarbeit zwischen dem Fraunhofer IESE in Kaiserslautern (Dieter Rombach) und der Universität Budapest gestartet mit dem Ziel, eine neue Generation von unsichtbaren, mobilen, natürlichen, adaptiven, inhärent sicheren und selbst heilenden Systemen in vielen Anwendungsdomänen zu schaffen. BelAmi hat bereits signifikante Ergebnisse in der Anwendungsdomäne „Assisted Living“ für ältere Menschen erzielt. Diese Arbeiten werden in einem EU-Projekt EMERGE weitergeführt. Die Forschungsergebnisse von den Leitprojekten zur Mensch-Technik-Interaktion des BMBF, ergänzt um parallele Forschungsergebnisse der DFG und der EU, wurden im Rahmen des Wissenschaftsjahres 2006 Informatik mit insgesamt 42 Exponaten auf einem Sonderstand in Halle 9 der CeBIT 2006 in der Größe von 1125 m2, der wie 2004 von der Deutschen Messe AG zur Verfügung gestellt wurde, präsentiert. Sie waren diesmal eine Hauptattraktion für die ganze CeBIT, und sie wurden von etwa 55 000 Messebesuchern aufgesucht, darunter Frau Ministerin Dr. Schavan [5].
114
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
4.2.1.3 Rückblick und Überblick über die KI-Förderung in vier Jahrzehnten Ein Rückblick über alle im Bericht beschriebenen Fördermaßnahmen des BMBF im Bereich der Künstlichen Intelligenz, von den ersten Projekten zur Schriftzeichenerkennung im Rahmen des Überregionalen Forschungsprogramms Informatik bis zu den Leitinnovationen zur Mensch-Technik-Interaktion, vom Anfang der 70er Jahre bis heute, zeigt die folgende Abbildung. Die Flächen entsprechen in etwa dem Fördermittelumfang.
Abb. 4.3 Übersicht über die wichtigsten KI-Fördermaßnahmen des BMBF von 1970 bis 2008 [6]
4.2.2 Virtuelle und Erweiterte Realität, Ideenwettbewerb, Kompetenznetzwerk Die Forschung auf dem Gebiet der Virtuellen Realität wurde in den 90er Jahren in Deutschland an vielen Stellen, insbesondere im Fraunhofer IGD in Darmstadt erheblich vorangebracht und bei den Head-Mounted-Displays (HMD) in eine Stufe der Akzeptanz oder zumindest der Vorakzeptanz für die Anwendung geführt. Die ersten zum Teil erschreckenden HMDs in der Form von „Tierköpfen“ wurden Schritt für Schritt durch benutzerergonomisch vertretbare Systeme ersetzt. Hinzu kam im Verlauf des Jahrzehnts, dass die Rechnerentwicklung erheblich voranschritt, so dass absehbar war, dass Anwendungen der Virtuellen Realität im
4.2 Schwerpunkte der Informatikforschung
115
neuen Jahrhundert auch auf Rechnern möglich und wirtschaftlich wurden, die zum normalen Inventar in der Forschung, in der Industrie, und dabei auch in dem breiten und wichtigen Feld der kleinen und mittleren Unternehmen gehörten [7, 8, 9]. Diese Entwicklungen und die äußerst erfolgreich begonnenen Forschungsarbeiten am Leitprojekt ARVIKA (s. o.), insbesondere auch mit dem neuen Thema der Erweiterten Realität, führten Ende des Jahres 1999 zu einer persönlichen Initiative von José Luis Encarnação gegenüber dem seinerzeitigen Staatsekretär im BMBF, Uwe Thomas, die vorliegenden und sich abzeichnenden Forschungsergebnisse zur Virtuellen und Erweiterten Realität in die Breite der Anwendung, insbesondere bei kleinen und mittleren Unternehmen (KMU) zu bringen. Die Virtuelle und Erweiterte Realität galten zu der Zeit als Schrittmachertechniken im Rahmen der Informationstechnik und damit als eine wesentliche Voraussetzung, um die technologische Wettbewerbsfähigkeit des Wirtschaftsstandortes Deutschland zu erhalten und auszubauen, um neue Arbeitsplätze zu schaffen sowie vorhandene zu sichern. José Luis Encarnação schlug einen Ideenwettbewerb vor, der dann auch anlässlich der CeBIT 2000 verkündet und gestartet wurde. In der Anwendung zielte der Ideenwettbewerb primär auf Unternehmen der fertigenden Industrie, wo die Techniken des VR/AR ein großes Potenzial zur Reduktion der Produktentwicklungszeiten (time-to-market) und -kosten versprachen. Ein Ansatz zur Erreichung des Ziels lag in der Verwendung digital oder virtuell erstellter Prototypen, die auf mathematischen Simulationsmodellen beruhten und die in relativ kurzer Zeit die Herstellung neuer Produktvarianten ermöglichen sollten. Hinzu kamen im Fertigungsbereich die Potenziale der VR/AR-Techniken für eine komfortable Visualisierung aller Arbeitsschritte und Ergebnisse und damit für wesentlich schnellere Design- und Konstruktionsentscheidungen. Wesentliche Anwendungsziele lagen auch in der Diagnose, Wartung und Reparatur technischer Geräte, z. B. wenn dem Monteur vor Ort mit AR-Techniken über drahtlose Netze die Informationen in sein reales Blickfeld eingeblendet werden, die er für seine spezielle Aufgabe benötigt. Die Benutzung tragbarer und ergonomischer Computereinheiten versprach dabei völlig neue mobile Nutzungsszenarien im globalen Rahmen und damit enorme wirtschaftliche Vorteile. Nicht zuletzt zielte der Ideenwettbewerb auch auf neue Anwendungen der VR/AR-Techniken zur Vermittlung von Wissen und zum Training von Fähigkeiten in der Medizin – etwa bei der Unterstützung in der Präzisionschirurgie, in der Architektur, der Kunst, in den Medien, in der Rekonstruktion von Kulturdenkmälern, und auf viele Anwendungen im Dienstleistungsbereich. Es gingen dann im Jahr 2000 insgesamt 173 Ideenskizzen ein, von denen in einem zweistufigen Begutachtungsprozess 15 Verbundprojekte mit insgesamt 76 Partnern, auf Industrieseite weit überwiegend KMU, in den Jahren 2001 bis 2004 gefördert wurden. Die Themenschwerpunkte lagen bei Anwendungen in der Wirtschaft, in der Kunst und Kultur und im medizinischen Bereich. Zwei exemplarische Vorhaben werden vorgestellt [9].
116
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
• TEREBES – Tragbares erweitertes Realitätssystem zur Beobachtung von Schweißprozessen (2001–2004) Drei Projektpartner unter der Koordination der Universität Bremen (Axel Gräser). Forschungspartner weiterhin: RWTH Aachen. Industriepartner Lürssen Werft. Beim Schweißen als bedeutendem industriellen Fertigungsverfahren ist der eigentliche Vorgang wegen extremer Lichtunterschiede nur eingeschränkt beobachtbar. In dem Projekt wurde eine neue Schweißschutzmaske mit integriertem AR-System entwickelt, die es erlaubt, das gesamte Umfeld genau zu beobachten und Parameter des Schweißens geeignet einzublenden, um damit den gesamten Schweißprozess optimal steuern zu können. • MEDARPA – Unterstützung eines interventionellen medizinischen Arbeitsplatzes mit VR/AR-Techniken (2001–2004) Acht Projektpartner unter der Koordination des ZGDV in Darmstadt (Michael Schnaider). Forschungspartner weiterhin: Fraunhofer IGD, Universitätskliniken Frankfurt, Nürnberg, Offenbach. Industriepartner: 3 KMU. Mit Hilfe eines transparenten Displays werden einem Chirurgen während der Operation anatomische Strukturen und der Operationsweg „im Patienten“ dreidimensional eingeblendet. Damit können z. B. während des Operationsprozesses Form, Größe und Lage eines zu entfernenden Tumors sowie gefährdete Nervenbahnen und Blutgefäße in Echtzeit dargestellt werden. Alle 15 Verbundprojekte des Ideenwettbewerbs verliefen sehr erfolgreich. Ihre Ergebnisse wurden im Februar 2004 auf einer großen internationalen Statustagung in Leipzig der interessierten Fachwelt präsentiert. Es ergaben sich schon zu diesem Zeitpunkt, direkt nach Abschluss der Arbeiten, 20 Patentanmeldungen, zwei Spin-off-Unternehmen, neun Spin-off-Produkte und 74 neue High-Tech-Arbeitsplätze. Auf der wissenschaftlichen Seite gab es bis dahin 370 Veröffentlichungen, 85 abgeschlossene Diplomarbeiten, Promotionen oder Habilitationen und neun Berufungen auf Lehrstühle an Hochschulen [10]. Kompetenznetzwerk ViVERA (2004–2007) Um den Transferprozess der Forschungsergebnisse von der Wissenschaft zur Wirtschaft für diese höchst wichtigen Technologien der Virtuellen und Erweiterten Realität von den beiden Leitprojekten ARVIKA und ARTESAS, die noch stark grundlagen- und Großindustrie-bezogen waren, über den anwendungs- und KMU-orientierten Ideenwettbewerb in die volle Breite der Unternehmen in Deutschland zu bringen, wurde im Jahr 2004 unter der Konsortialführung des Fraunhofer IFF (Michael Schenk) in Magdeburg mit neun weiteren Forschungspartnern ein Kompetenznetzwerk gestartet (Laufzeit bis 2007). Dieses machte allen interessierten Unternehmen in Deutschland die gewünschten Angebote, von der passiven Information über den Stand der Forschung im Internet bis zur Auftragsforschung [10].
4.2 Schwerpunkte der Informatikforschung
117
Abb. 4.4 Kompetenznetzwerk ViVERA (www.vivera.org)
4.2.3 Brain-Computer Interface: Computersteuerung mit Gedankenkraft Es hat nur sehr wenige Projektvorschläge gegeben, über deren Förderung der für die Informatikforschung im BMBF zuständige Referatsleiter und Autor dieses Artikels ohne jede weitere externe gutachterliche Beratung entschieden hat. Dieser ist einer davon [5]. Als der Leiter des Fraunhofer-Instituts für Rechnerarchitektur und Softwaretechnik FIRST in Berlin, Stefan Jähnichen, Ende des Jahres 2001 im BMBF ein Projekt vorschlug, in dem ein Computer ohne jede Betätigung der bisher bekannten Eingabemöglichkeiten, nur mit den Gedanken, gesteuert werden sollte, erhielt er sofort ein positives Signal. Dabei spielte eine Rolle, dass das Projekt nicht allzu groß und allzu teuer war, allerdings gegen ein sonst übliches Ausschlusskriterium verstieß: Es fehlte ein Anwender. Aber hier ging es um ein Projekt, mit dem Schwerstbehinderten, die ohne jede Möglichkeit der Kommunikation mit der Umwelt leben mussten, eine neue Kontaktmöglichkeit gegeben werden sollte, und das erschien als hinreichender Ausnahmegrund. Das Projekt wurde dann bereits im März 2002 gestartet.
118
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Die Informatiker von Fraunhofer FIRST unter der Leitung von Klaus-Robert Müller und die Neurologen des Campus Benjamin Franklin der Charité Berlin unter der Leitung von Gabriel Curio können an Hand von Gehirnströmen erkennen, ob ein Mensch z. B. seine rechte oder linke Hand bewegen will. Die Schnittstelle zwischen Mensch und Computer bildet dabei ein herkömmliches Elektroenzephalogramm (EEG), wie es im klinischen Alltag eingesetzt wird. An der Kopfhaut angebrachte Elektroden messen die hirnelektrischen Signale. Sie werden verstärkt und an einen Computer übermittelt, der sie in technische Steuersignale umwandelt. Durch Methoden der intelligenten Datenanalyse kann der Computer Gehirnsignale mit einer hohen Genauigkeit klassifizieren. Die grundsätzliche Arbeitsweise des interaktiven Systems zwischen Mensch und Computer ist dabei so, dass der Mensch mit dem Gedanken, die linke Hand zu bewegen, ein zeitlich laufendes Menü von Buchstaben oder Befehlen auf dem Computerbildschirm erzeugt und im richtigen Zeitpunkt mit dem Gedanken, die rechte Hand zu bewegen, dieses Menü stoppen und den gewünschten Buchstaben oder Befehl auswählen kann. So können Patienten mit dem Computer schreiben, sich mit Dritten unterhalten, Rollstühle per Gedankenkraft steuern und vieles andere mehr, ohne auf die normalen motorischen Kräfte vertrauen zu müssen. Die bisher erreichten Projektergebnisse wurden auf der CeBIT 2006 auf dem Sonderstand zur Mensch-Technik-Interaktion gezeigt, und sie gehörten zu den am meisten besuchten Attraktionen. Mittlerweile wurde das Projekt auch in den Medien ausführlich vorgestellt. Inzwischen zeichnen sich neue interessante Anwendungsmöglichkeiten ab, und es gibt erste Industriekooperationen mit den beiden Partnern des Brain-Computer Interface, z. B. bei Sicherheitstechnologien, wie den Insassenschutz im Automobilbereich. Es ist nicht ausgeschlossen, dass der Zeitverlust von etwa einer drittel
Abb. 4.5 Brain-Computer Interface, EEG-Kappe und Nervensignale (Quelle und © FhG FIRST)
4.2 Schwerpunkte der Informatikforschung
119
Sekunde, der zwischen einem Steuersignal des Gehirns und der manuellen Reaktion vergeht, etwa bei der Erkennung von Unfallsituationen im Auto der Zukunft, durch automatische Bremssysteme überbrückt werden kann.
4.2.4 Software Engineering 4.2.4.1 GFK-Studie Im Rahmen der Vorbereitung des ab 2002 zu startenden Förderprogramms des BMBF „IT-Forschung 2006“ erhielt die GfK Marktforschung GmbH in Zusammenarbeit mit dem Fraunhofer IESE in Kaiserslautern (unter Beteiligung der TU München) und dem Fraunhofer ISI in Karlsruhe im Jahr 2000 den Auftrag, die Größe und Entwicklung des Softwaremarktes in der Softwarebranche (Primärbranche) und in ausgewählten Sekundärbranchen zu untersuchen und dabei den Arbeitskräftebestand, dessen Nachfrage und Anforderungen in der Softwareentwicklung mit zu erfragen. Schließlich sollten daraus Empfehlungen für wesentliche zukünftige Forschungsaufgaben in der Softwareentwicklung abgeleitet werden [11]. Die wesentlichen Ergebnisse einer breiten telefonischen Befragung von Unternehmen der Primärbranche und der Sekundärbranche zum Zeitstand der Jahrtausendwende lauteten: • Es gab in Deutschland 19 200 Unternehmen, die nennenswerte Anteile an der Softwareentwicklung hatten, davon 10 600 Unternehmen der Primärbranche und 8600 Unternehmen der Sekundärbranchen (Maschinenbau, Elektrotechnik, Fahrzeugbau, Telekommunikation und Finanzdienstleistungen). • Etwa 2/3 der Unternehmen der Primärbranche wurden nach 1990 gegründet. • Die traditionelle Stärke der deutschen Wirtschaft, ingenieurmäßige Individuallösungen, prägten die Sekundärbranchen, und Alleinstellungsmerkmale innovativer Produkte waren ohne Softwareentwicklungen nicht denkbar. • Es bestand ein erheblicher Bedarf an interdisziplinär ausgebildeten Softwarespezialisten. • Die Kooperationen der Unternehmen mit Hochschulen und Forschungseinrichtungen lagen mit 33% deutlich unter dem Niveau der USA. Die weiteren Analysen der GFK und seiner Forschungspartner und eine ergänzende Expertenbefragung und Auswertung unter persönlicher Beteiligung von Dieter Rombach vom FhG IESE und Manfred Broy von der TU München ergaben dann zunächst die Handlungsempfehlung einer dringlichen und massiven Verstärkung der staatlichen Förderung auf dem Gebiet der Softwaretechnik. Dabei sollte sich die Förderung auf Hochschulen und Forschungseinrichtungen konzentrieren und die für die Industrie strategischen Themen mit einbinden. Die Schwerpunkte der Forschung sollten in der
120
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
• Verbesserung des Softwarereifegrads durch Weiterentwicklung der Standards, • Grundlagenforschung zur wissenschaftlichen Fundierung der Softwaretechnologie und in der • Erarbeitung von und im Experimentieren mit innovativen Konzepten in der Softwaretechnologie liegen. Die Fördermaßnahmen sollten Folgendes berücksichtigen: • Integration von Grundlagen- und Anwendungsforschung, • Interdisziplinarität, Verbindung des Software Engineering mit der Anwendung und • Softwarekompetenzzentren für die Forschung und für die Wirtschaft. Es wurden in der Studie noch ganz konkrete Forschungsthemen vorgeschlagen, die dann im weiteren Prozess der gutachterlichen Vorbereitung zunächst im Förderprogramm „IT-Forschung 2006“ und dann in der im Folgenden beschriebenen Forschungsoffensive „Software Engineering 2006“ im Wesentlichen übernommen wurden. 4.2.4.2 Forschungsoffensive „Software Engineering 2006“ Die Ergebnisse der GFK-Studie haben die Bedeutung des Software Engineering im Rahmen der IT-Förderung des BMBF deutlich erhöht. Es wurde dann im August 2002 (Erste Auswahlrunde) und im Dezember 2004 (Zweite Auswahlrunde) erstmals in der bisherigen Förderung eine Offensive in diesem Bereich ausgeschrieben, die diesen Namen wirklich verdiente, die Forschungsoffensive „Software Engineering 2006“. Forschung und Entwicklung auf dem Gebiet des Software Engineering galten darin als eine essenzielle Voraussetzung, um die technologische Wettbewerbsfähigkeit des Wirtschaftsstandortes Deutschland zu erhalten und auszubauen. Der BMBF unterstützte mit der Softwareoffensive kooperative vorwettbewerbliche Forschungsvorhaben zur Stärkung der Softwaretechnik in Deutschland. Sie richtete sich insbesondere an kleine und mittlere Unternehmen der gewerblichen Wirtschaft, die in Verbundprojekten mit Universitäten und Forschungseinrichtungen an die jeweils neuesten Softwaretechnologien herangeführt werden sollten. Großunternehmen wurden als Transfer- und Vermarktungspartner, als Pilotkunden oder als Systemintegratoren in die Verbundprojekte eingebunden, wenn sie für den Erfolg der Projekte oder für die spätere Vermarktung bzw. Standardisierung der Ergebnisse erforderlich waren. Es wurden – beginnend ab Herbst 2003 – insgesamt 67 Verbundprojekte (beide Auswahlrunden), an denen 344 Projektpartner beteiligt waren bzw. sind, gestartet. Mittelständische Unternehmen waren eindeutige Sieger der Auswahlrunden. Insgesamt stellten der BMBF und die beteiligten Unternehmen 163 Mio. € zur Verfügung [12].
4.2 Schwerpunkte der Informatikforschung
121
Tabelle 4.2 Übersicht Forschungsoffensive „Software Engineering 2006“ (beide Auswahlstufen) [15] Ziele
Fördermaßnahmen
Forschungsgruppen (67 VB, 344 Partner) Mittel
Stärkung des ingenieurmäßigen Software Engineering in Deutschland, insbesondere für KMU, um auf Veränderungen im Markt rasch reagieren zu können. Kooperationsprojekte von HS und FE mit Anwendern: • Modellierung organisatorischer und technischer Systeme und Prozesse • Produktivitätserhöhung mittels Komponentenorientierung und Wiederverwendung • Korrektheit, Sicherheit und Zuverlässigkeit von SW • SW-Entwicklung in räumlich verteilten Umgebungen • Requirements Engineering, Enduser Development • SW Engineering für Ambient Intelligence GU KMU FE HS Summe 74 133 59 78 344 Gesamtmittel: 163 Mio. €
Quelle: Reuse SW-OFF Leipzig 2006
Die Förderinstrumente wurden auf die Belange von KMU fokussiert. Mit Verfahrenserleichterungen und einer stärkeren Ausrichtung des Programms auf KMUorientierte Themen sollten insbesondere kleine und mittlere Unternehmen erreicht werden. Ein eigenes Kompetenznetzwerk für Software Engineering (VSEK) unter der Federführung des Fraunhofer IESE (Dieter Rombach) in Kaiserslautern (www.softwarekompetenz.de) stand für den breiteren Transfer der Ergebnisse der Softwareoffensive zur Verfügung. Die Forschungsoffensive „Software Engineering 2006“ war die bisher mit Abstand größte Bewilligungsrunde des BMBF im Bereich der Softwareentwicklung. Die Vorhaben versprachen und, soweit sie noch laufen, versprechen entscheidende Impulse für die Erhöhung der Wettbewerbsfähigkeit der Software-entwickelnden KMU in Deutschland. Bei einer großen Statustagung im Juni 2006 in Leipzig konnten für die Projekte der ersten Auswahlrunde bereits fünf Patentanmeldungen, zwei Spin-off-Unternehmen, 40 Spin-off-Produkte, 130 neue Arbeitsplätze, 800 wissenschaftliche Veröffentlichungen und sieben Berufungen auf Lehrstühle von Hochschulen gemeldet werden [12]. Zwei exemplarische Verbundvorhaben aus der Software-Offensive werden in Kurzform und eines (WAVES) in ausführlicher wissenschaftlicher Form vorgestellt: • ARKOS – Architektur Kollaborativer Szenarien (2003–2006) Acht Projektpartner unter der Koordination des DFKI (August-Wilhelm Scheer und Peter Loos). Forschungspartner weiterhin: Universitäten Mainz, Dresden (TU) und Gießen-Friedberg (FH). Industriepartner: Nemetschek AG und 3 KMU, weitere Partner aus der Wirtschaft assoziiert. Das Projekt befasste sich mit der Entwicklung neuer Werkzeuge und Methoden zur ganzheitlichen Unterstützung kooperations- und koordinationsintensiver Geschäftsprozesse in Unternehmensnetzwerken. Die verteilte Produktion in
122
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
unternehmensübergreifenden Wertschöpfungspartnerschaften verursacht Reibungsverluste durch Schnittstellen und manuelle Tätigkeiten, die meist zu hohen Kosten und langen Durchlaufzeiten führen. Die unternehmensübergreifenden Geschäftsprozesse sollen daher durch IKT ganzheitlich unterstützt werden. Hierzu wurden im Projekt am Beispiel der Baubranche neue Methoden, Werkzeuge und eine Integrationsplattform entwickelt, die in einer Architektur für Kollaborative Szenarien (ArKoS) integriert wurden. Dabei werden Anforderungen auf organisatorischer Ebene ebenso berücksichtigt wie aktuelle technische Herausforderungen. Durch die Architektur wird es möglich, die IT-Systeme der an einem Netzwerk beteiligten Unternehmen über Standardschnittstellen zu koppeln und zwischen den heterogenen Systemen Daten auszutauschen und Prozesse zu steuern. Das Projekt richtet sich daher vorwiegend an kleine und mittelständische Unternehmen, da dort nur geringe Kapazitäten für die Einrichtung von Computersystemen und die individuelle Abstimmung von übergreifenden Geschäftsprozessen zur reibungslosen Zusammenarbeit vorhanden sind (www.bmbf.de). Die Projektergebnisse wurden inzwischen in Buchform veröffentlicht [13]. ArKoS konnte als eines der ersten Projekte, die in der Software-Offensive im Jahr 2003 gestartet wurden, bei der Zwischenbilanz in Leipzig im Juni 2006 bereits drei Spin-off-Produkte vorweisen. • ZAMOMO – Verzahnung von modellbasierter Softwareentwicklung und modellbasiertem Reglerentwurf (2006–2008) Fünf Projektpartner unter der Koordination der RWTH Aachen (Stefan Kowalewski). Forschungspartner weiterhin: RWTH Aachen (Dirk Abel) und Fraunhofer FIT (Matthias Jarke). Industriepartner: 2 KMU. Im Automobilbau unterliegen regelungstechnische Anwendungen, wie etwa Motorsteuerungen, immer härteren nicht-funktionalen Anforderungen. Die bisherige Arbeitsteilung – Regelungstechniker konzipieren und optimieren die funktionale Grundstruktur der Regelstrecken und -kreise, Softwaretechniker setzen sie um und berücksichtigen dabei die nichtfunktionalen Anforderungen – reicht nicht mehr aus. Die stärkere Verzahnung beider Aufgaben im Sinn einer Gesamtoptimierung stößt jedoch auf erhebliche Schwierigkeiten aufgrund unterschiedlicher Traditionen und Begriffswelten beider Fachgebiete. ZAMOMO hat das Ziel, den Entwicklungsprozess von softwareintensiven Regelungssystemen zu verbessern, indem es erstmals die softwaretechnischen und regelungstechnischen Anforderungen gemeinsam frühzeitig und durchgängig berücksichtigt. Dadurch sollen Entwicklungskosten und -zeiten gesenkt werden, vor allem bei KMU, die in einem heterogenen Kundenmarkt schnell auf veränderte Anforderungen reagieren müssen. Eine tiefgehende formale Konzeptintegration soll es ermöglichen, sie auch auf andere regelungstechnische Anwendungen in Bereichen wie Industrieautomatisierung oder Medizintechnik zu übertragen. Konkrete bisherige Ergebnisse, die sich zum Teil im Patentierungsverfahren befinden, zum Teil bei den Partnern bereits in realen Prozessen und Produkten umgesetzt werden, sind u. a.:
4.2 Schwerpunkte der Informatikforschung
123
− Ein neuartiger Architekturansatz, der die regelungstechnischen Modelle von der Hardware- und Feldebene trennt und so eine erheblich effizientere Entwicklung und Wiederverwendung zulässt. Erstmals wird so z. B. ein Regelungstechnik und Software umfassendes Versions- und Konfigurationsmanagement möglich, welches derzeit als separates Produkt für eine weite Verbreitung auch in anderen regelungstechnischen Anwendungen weiterentwickelt wird. − Eine Reglerbibliothek für Motorsteuerungsprobleme, die skalierbare Regleralgorithmen enthält, so dass für jedes Problem ein Algorithmus ausgewählt werden kann, der komplex genug ist, um die funktionalen Anforderungen zu erfüllen, aber gleichzeitig möglichst einfach strukturiert ist, um die Wartbarkeit zu sichern.
Zeitfenster Wissensverarbeitung bei der verteilten Software-Entwicklung am Beispiel des Verbundprojekts WAVES (2006–2008) Rudi Studer, Andreas Abecker Software-Entwicklung ist ein hochgradig wissensintensives Unterfangen, das beispielsweise Lehrbuch- und Erfahrungswissen über Werkzeuge, Vorgehensmodelle, Programmiersprachen, Bibliotheken und wiederverwendbare Module erfordert, ebenso über das betrachtete Anwendungsgebiet und über den Umgang mit Endanwendern und Kunden. Je komplexer die unterliegenden Basistechnologien (z. B. Enterprise Application Server, Entwurfsmuster etc.) und je arbeitsteiliger und logisch-geographisch verteilter die Software-Wertschöpfungsketten (z. B. durch Offshoring, Nearshoring, usw.), umso wichtiger – und schwieriger – wird das Wissensmanagement in solchen Software-Projekten. Bereits seit den 90er Jahren befasst sich das Wissensmanagement im Software Engineering primär mit der „Learning Software Organization“ und untersucht die Idee der kontinuierlichen Software-Prozess-Verbesserung im Sinne der „Experience Factory“ von Basili und Rombach. Ziel des Projekts WAVES („Wissensaustausch beim verteilten Entwickeln von Software“) ist es, den Austausch von informellem, unstrukturiertem Wissen in verteilten Software-Projekten zu fördern. Dies ist eine Ergänzung zu den gängigen Ansätzen der Wiederverwendung und zielt auf die effiziente Nutzung, den Austausch und die gemeinsame Weiterentwicklung des in der täglichen Arbeit gewonnenen, persönlichen Erfahrungswissens in der Domäne, mit dem Kunden und mit spezifischen Werkzeugen und Methoden ab. WAVES wird von folgenden Partnern realisiert: • Polarion Software GmbH – als Technologie-Bereitsteller für Software-Entwurfswerkzeuge • Empolis GmbH – als Technologie-Bereitsteller für Wissensmanagement • OBJECT International GmbH – als Fallstudienpartner • disi Informationssysteme GmbH – als Fallstudienpartner • PTV AG – als Fallstudienpartner • CAS Software AG – als Fallstudienpartner • Freie Universität Berlin – für Empirie und kontinuierliche Erfolgskontrolle • FZI Forschungszentrum Informatik an der Universität Karlsruhe – als Verbundkoordinator.
124
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Technisch-methodische Ziele des Projekts umfassen: eine erweiterbare, für das Software Engineering spezifische Open-source-Plattform zum Wissensaustausch über Standort-, Projekt- und Unternehmensgrenzen hinweg. Diese umfasst Funktionalitäten für: • die Wissensartikulation und Metadatenerzeugung durch erweiterte Wiki-Ansätze sowie Analyse des aktuellen Arbeitskontexts und die • effektive Wissensnutzung durch kontextsensitive, ontologiebasierte Retrieval-Methoden. Damit greift das Projekt Grundlagen der semantischen Informationsverarbeitung auf, entwickelt sie weiter hinsichtlich Benutzerfreundlichkeit und Kontextsituiertheit und setzt sie domänenspezifisch im Bereich des Software Engineering ein. Insbesondere realisiert schon der erste Prototyp (der zum Zeitpunkt der Drucklegung dieses Bandes gerade fertiggestellt war – Details über dessen Funktionalität sind in der Vollversion dieses Beitrags zu finden) die Kopplung von Wikis mit einem semantischen Informationsmodell über wesentliche Konzepte des Software-Entwurfsprozesses sowie mit existierenden Entwurfsdatenbanken und Informationsquellen. Wikis sind leichtgewichtige, web-basierte, sehr einfach von (fast) jedermann benutzbare Content-Management-Systeme zum einfachen Dokumentieren und Verlinken von Information in Entwicklergruppen. Weiterhin sind Wikis von ihrer Struktur her sehr gut geeignet, kollaborative Inhaltserstellung und -redaktion zu unterstützen. Weitere Ausbaustufen des Prototyps sollen die Wissensnutzung durch unaufdringliche, aktive Präsentation relevanter Inhalte, die Einbindung aktiver Inhalte (Dienste), und die Ergänzung asynchroner Kommunikationen (primär über Texte) durch Social-NetworkingAnsätze enthalten. Softwareanalyseverfahren können automatisch Strukturen für die WikiVerlinkung bereitstellen. Aussagen zur Nachhaltigkeit der Projektergebnisse sind natürlich nach einem Jahr Projektlaufzeit verfrüht. Dennoch skizzieren wir, wie im Projektplan optimale Voraussetzungen für die Nachhaltigkeit der Projektergebnisse geschaffen wurden: 1. Der Projektplan folgt der Logik der agilen Software-Entwicklung und bezieht die Nutzer frühestmöglich und so weitgehend wie möglich in die Konzeption mit ein, so dass nicht „an den Bedürfnissen der Praxis vorbeigeforscht“ wird – dies umfasst auch frühe und häufige Prototyp-Auslieferung und enge Integration mit real verwendeten Entwicklungswerkzeugen. 2. Das Projektkonsortium sieht eine verhältnismäßig hohe Zahl von Fallstudienpartnern vor, enthält engagierte potentielle Verwertungspartner und einen spezialisierten Partner (FU Berlin) für die empirische Validierung und Projektbegleitung. 3. Dadurch, dass das FZI in seinen Abteilungen IPE und SE sowohl die Wissensmanagement- als auch die Software-Engineering-Forschung unterstützt, sind die Forschungsaufwände stark auf einen Partner fokussiert, der damit auch eine kritische Masse für schnelle und qualitativ hochwertige Ergebniserstellung mitbringt (s. ausführlichen Bericht in Teil II).
4.2 Schwerpunkte der Informatikforschung
125
4.2.4.3 EUREKA-Projekte ITEA Das EUREKA-Clusterprogramm „Information Technology for European Advancement – ITEA“ wurde im Jahr 1999 von der europäischen Industrie gestartet mit dem Ziel, im europäischen Rahmen zu Standards oder Vorstandards im Bereich Embedded Software und verteilte Softwareentwicklung zu kommen, die im nationalen Rahmen nicht möglich gewesen wären. Initiatoren und Hauptfinanzgeber für die Initiative waren elf Großunternehmen im europäischen Rahmen, in Deutschland darunter die Robert Bosch GmbH, die DaimlerChrysler AG und die Siemens AG. Auf Regierungsseite wurde ITEA unterstützt von Österreich, Belgien, der Europäischen Kommission, Finnland, Frankreich, Deutschland, Italien, den Niederlanden, Spanien, Schweden und von England. Es hatte also ein ganz erhebliches Gewicht. Projektvorschläge einzelner Partner innerhalb EUREKA werden in einem standardisierten Verfahren bewertet und verglichen, und im positiven Fall erhalten sie den so genannten „label“, der dann von den Geldgebern in der beteiligten Wirtschaft und in den Regierungen als notwendige (nicht hinreichende, es kamen bei den meisten Ländern eigene programmatische Prioritätensetzungen hinzu) Voraussetzung zur Förderung angesehen wird. Die ersten Projekte im ITEA-Rahmen waren im Wesentlichen große grenzüberschreitende Verbundprojekte zwischen Großunternehmen und Forschungspartnern. Sie wurden im Laufe der Zeit vor allen Dingen auf Wunsch der beteiligten Regierungen, die in die Förderung der Projekte teilweise eingebunden waren, verstärkt auf kleine und mittlere Unternehmen ausgedehnt. ITEA war eine sehr erfolgreiche achtjährige Initiative mit insgesamt 85 grenzüberschreitenden Verbundprojekten und 400 Forschungspartnern und lief von 1999 bis 2006. Es waren insgesamt 9500 Personenjahre in die Forschung eingebunden, die Gesamtausgaben betrugen etwa 1,2 Mrd. €. Es konnten 450 kommerzielle Verwertungen der Projektergebnisse, 150 Standardisierungsaktionen und 1650 wissenschaftliche Veröffentlichungen gemeldet werden. Es soll nicht unerwähnt bleiben, dass ITEA viele Jahre von den deutschen Chairmen Paul Mehring (DaimlerChrysler) und inzwischen von Rudolf Haggenmüller (F.A.S.T) erfolgreich geleitet wurde bzw. wird. [14] Die Themen und Partner der ITEA-Projekte, an denen deutsche Gruppen beteiligt waren, können der folgenden Tabelle entnommen werden. Inzwischen ist eine Fortsetzungsinitiative EUREKA ITEA 2 gestartet worden.
126
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Tabelle 4.3 Förderübersicht ITEA (1), deutsche Projekte [15] Ziele
Förderthemen
Deutsche FG Anzahl (12 Verbündete) Mittel
ITEA hat das Ziel, den europäischen Rückstand in der Entwicklung von Software für softwareintensive Systeme aufzuholen, um die Wettbewerbsfähigkeit der europäischen Industrie zu stärken. • Eingebettete Realzeitsysteme (EMPRESS) • Produktfamilien (CAFÉ) • Standardisierte Softwarearchitektur (EAST-EEA) • Komponentenbasierte Entwicklungsplattform (3D Workbench) • Effektivierung von Instandhaltungsprozessen (PROTEUS) • Service Engineering (SIRENA) • Automatisierte Testplattform (TT-Medal) • Entwicklungsmethodik für adaptive, multimodale Anwendungen (EMODE) • Methoden und Werkzeuge für ortsabhängige mobile Dienste (D-LOMS) GU KMU FE HS Summe 26 16 11 15 68 Gesamtmittel: 79,7 Mio. €
Quelle: Reuse SW-OFF Leipzig 2006
4.2.4.4 Verifikation, Verbundprojekt Verisoft (2003–2007) Über die Entwicklung fehlerfreier Software mit formalen Methoden bzw. über die Verifikation von Software wurde schon exemplarisch, aber ausführlich am Beispiel des Karlsruhe Interactive Verifier (KIV) in den 80er Jahren und am Beispiel der Projekte „Korrekte Software“ (KorSo) und „Verifikation Support Environment“ (VSE) in den 90er Jahren berichtet. Dies waren aber nur die bekanntesten von insgesamt 10 wichtigen Projekten, die der BMBF, die DFG und dann auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) seit Mitte der 80er Jahre gefördert oder finanziert haben [16]. Im Projekt Verisoft ging es dann zum ersten Mal um die durchgängige formale Verifikation von integrierten Computersystemen, also vom Prozessor über das (ggf. embedded) Betriebssystem, die Compiler, die Anwendungssoftware und die Kommunikationssoftware. Das ist eine der größten Herausforderungen, die die Informatik heute zu bieten hat und eine Aufgabe, die mit der rapide wachsenden Komplexität der Prozessoren und ihrer Software und dem damit wachsenden Risiko von Fehlern mit menschlich dramatischen – z. B. Flugzeugabstürze – und wirtschaftlich katastrophalen Auswirkungen – Softwarefehler verursachen europaweit jährlich einen wirtschaftlichen Schaden von über 100 Mrd. € – ständig genauso rapide weiter wächst. Im Projekt sollten die entwickelten Methoden an konkreten kommerziellen und akademischen Prototypen demonstriert werden. Verisoft wurde nach einer Machbarkeitsuntersuchung unter Leitung von Wolfgang Paul von der Universität Saarbrücken (zweite Hälfte 2002) im Juli 2003 zunächst für zwei Jahre gestartet und nach erfolgreichem Zwischenstand im Juli 2005 auf vier Jahre verlängert. Dabei gelang es zunächst, alle führenden Forschungspartner auf diesem Gebiet in Deutschland, darunter die Forscher von KIV, KorSo
4.2 Schwerpunkte der Informatikforschung
127
und VSE, in das Projekt einzubinden. Des Weiteren gelang es, Verisoft mit einem parallel laufenden, mehr grundlagenorientierten SFB der DFG „Automatic Verification and Analysis of Complex Systems – AVACS“ inhaltlich und über dessen Leiter Werner Damm von OFFIS in Oldenburg auch personell zu vernetzen. Inzwischen konnte das Projekt Verisoft mit großem internationalen Erfolg abgeschlossen und ein Folgeprojekt im Juli 2007 gestartet werden. Es wird auf das Zeitfenster zu Verisoft und auf den ausführlichen Bericht im Teil II hingewiesen.
Zeitfenster Beweisen als Ingenieurwissenschaft am Beispiel des Verbundprojekts Verisoft (2003–2007) Wolfgang Paul, Tom In der Rieden Schon Jahrzehnte vor Beginn des deutschen Verisoft-Projekts war im Prinzip klar, dass man die vollständige Korrektheit von Programmen formal beweisen kann. Auf Papier gab es die formale Semantik einer hinreichend mächtigen imperativen Programmiersprache (Pascal); man konnte in Lehrbüchern nachlesen, wie man basierend auf einer Semantik die Korrektheit von Programmen nachweist, und es gab Logiken und formale Beweissysteme, mit denen man solche Argumente formalisieren und per Computer auf Lückenlosigkeit prüfen konnte. In dem verwegenen CLI-Stack-Projekt unter Leitung von J. Moore gelang 1989 bereits viel mehr, nämlich die vollständige formale Verifikation eines ganzen – wenn auch kleinen – Computersystems, bestehend aus einfachem Prozessor, Assembler, Compiler für eine einfache imperative Sprache und rudimentärem – wenn auch in Assembler programmiertem – Betriebssystemkern. In den neunziger Jahren weckte die Entdeckung mächtiger automatischer Beweismethoden die Hoffnung, formale Korrektheitsbeweise für Computersysteme vollständig automatisch vom Computer finden lassen zu können. Für den Nachweis gewisser Eigenschaften großer Programme gibt es hierfür inzwischen bemerkenswerte Erfolgsgeschichten (insbesondere bei der automatischen Laufzeitanalyse), nicht aber beim Nachweis für die funktionale Korrektheit ganzer Programme. Diese Forschungsrichtung dominiert bis heute die einschlägigen Konferenzen. Abseits der vorherrschenden Richtung gelang mit dem Einsatz interaktiver Methoden: • Im Verifix-Projekt (Universitäten Karlsruhe, Ulm und Kiel) der formale Nachweis der Korrektheit eines Common-Lisp-Compilers. Ein Durchbruch, weil für die compilierten Programme die korrekte Implementierung dynamischer Datenstrukturen (Listen) auf dem Heap formal gezeigt werden musste. • In dem am DFKI entwickelten VSE-System die Verifikation von Programmen mit hunderten von Code-Zeilen, ebenfalls mit dynamischen Datenstrukturen. • In der Industrie als Konsequenz des Pentium-Bugs die formale Verifikation ganzer Gleitkommaeinheiten (wobei denormale Zahlen gelegentlich übersehen wurden). • In der akademischen Welt die formale Verifikation von Prozessoren mit industrieller Komplexität. Im BMBF wurde das letzte Ergebnis im Jahr 2002 zum Anlass für ganz konkrete Projektvorgaben genommen: Man entwickle Werkzeuge und Methoden, mit denen ganze Computersysteme (Hardware, Compiler, Betriebssystem, Kommunikationssysteme, Anwendungen) formal verifiziert werden können. In Zusammenarbeit mit Industriepartnern demonstriere man diese Techniken an Beispielen von industrieller Komplexität.
128
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
Die Partner im Verbundprojekt Verisoft (Koordinator Wolfgang Paul) waren auf akademischer Seite die Universität des Saarlandes und die Universität Koblenz, die Technischen Hochschulen Darmstadt und München, das Max-Planck-Institut für Informatik sowie die Forschungsinstitute DFKI und Offis. Industriepartner waren Infineon (später mit Spinoff OneSpin Solutions), T-Systems, BMW und AbsInt. Auf den ersten Blick erschien das Projekt schon wegen der geforderten Betriebssystemverifikation fast aussichtslos; aber gerade durch den enormen Umfang der Aufgabe ergab sich geradezu zwingend, was in Verisoft zu tun war: • Die geforderten durchgängigen Korrektheitsbeweise für ganze Systeme mussten sich in Vorlesungen übersetzen lassen, in denen man mit der Präzision einer klassischen mathematischen Theorie lernt, wie man reale Systeme baut und warum sie funktionieren. Diese Vorlesungen wurden zuerst entwickelt: als Baupläne für die zu konstruierenden formalen Beweise. Sie haben das Tempo in der Lehre um einen Faktor 2 bis 3 gesteigert, d. h. gleicher Stoff in kürzerer Zeit. • Eine Systemverifikationsumgebung musste geschaffen werden. Das ist ein Softwaresystem, in dem alle Spezifikationen, Konstruktionen und Korrektheitsbeweise der oben genannten Theorie gespeichert und kooperativ von großen Gruppen von Verifikationsingenieuren weiterentwickelt werden können. Mit dieser Umgebung wurde schließlich bei der Softwareverifikation ein Automatisierungsgrad von 30 bis 80% – je nach Anwendung – erzielt. Der Industriepartner OneSpin Solutions erreicht bei der Prozessorverifikation sogar einen Automatisierungsgrad von 95%. • Nichttriviale Demonstratoren waren zu schaffen: allein im akademischen Teilprojekt wurden 25 000 Zeilen C-Code sowie Hardware von mehreren Millionen Gatteräquivalenten formal verifiziert. Bei den Industriepartnern OneSpin Solutions und Infineon wurde eine neue Version des TriCore Controllers (mehr als 100 000 Zeilen Verilogcode) vor der Produkteinführung formal verifiziert. Der Impact dieses riskanten Projekts auf die Industrie hat sicher die Erwartungen übertroffen. Im Nachfolgeprojekt Verisoft XT wird unter anderem die Verifikation von zwei industriellen Betriebssystemkernen angegangen: einerseits zusammen mit der Deutschen Automobil- und Flugzeugindustrie, andererseits zusammen mit Microsoft. Die Entscheidung (im Sinne der dominierenden Forschungsrichtung eher: der Tabubruch), hierfür automatische und interaktive Beweiswerkzeuge zu kombinieren, wurde von den beteiligten Forschern von Microsoft Research übernommen (s. a. ausführlichen Bericht in Teil II).
4.2.4.5 Überblick und Rückblick auf die Softwareförderung in vier Jahrzehnten Ein Rückblick über alle im Bericht beschriebenen Fördermaßnahmen des BMBF im Bereich der Softwareentwicklung, von den ersten Projekten zu Programmiersprachen im Rahmen des Überregionalen Forschungsprogramms Informatik bis zur Forschungsoffensive „Software Engineering 2006“, also vom Anfang der 70er Jahre bis heute, zeigt die folgende Abbildung. Die Flächen entsprechen in etwa dem Fördermittelumfang.
Literatur und Quellen
129
Abb. 4.6 Übersicht über die wichtigsten Software-Fördermaßnahmen des BMBF von 1970 bis 2008
Literatur und Quellen [1] Gemeinsame Presseerklärung des BMBF und des BMWA und Dokumentation zur MenschTechnik-Interaktion, Berlin, Juni 2003 [2] Proceedings Human Computer Interaction Status Conference 2003 in Berlin, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, Juni 2003 [3] Reuse, B., in „Field and Service Robotics, Recent Advances in Research and Applications“, Konferenzbericht über die FSR’03 in Yamanaka, Japan, Springer-Verlag Berlin Heidelberg, 2006 [4] Reuse, B., Vortrag auf Deutsch-Japanischem IT-Forum „New Research Activities in Human-Technology-Interaction in Germany“. Tokyo, November 2005 [5] Dokumentation BMBF-Sonderstand „Mensch-Technik-Interaktion“ im Informatikjahr, CeBIT 2006, Halle 9, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, März 2006 [6] Reuse, B., Eröffnungsvortrag zur internationalen Konferenz im Rahmen des Informatikjahrs 2006 „50 Years of AI“, Bremen, Juni 2006 [7] Bericht zur Statustagung des BMBF „VR-AR 2002“, Virtuelle und Erweiterte Realität in Leipzig, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, November 2002 [8] Pressemitteilung und Dokumentation des BMBF zur Virtuellen und Erweiterten Realität, Berlin, Februar 2004 [9] Proceedings „Virtual and Augmented Reality, Status Conference 2004“ in Leipzig, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, Februar 2004 [10] Reuse, B., Eröffnung der internationalen Tagung IEEE VR 2005 in Bonn, März 2005 [11] Studie „Analyse und Evaluation der Softwareentwicklung in Deutschland“ der GfK Marktforschung GmbH, Dezember 2000
130
4 Schwerpunkte der Informatikforschung in Deutschland in den Jahren 2000 bis 2006
[12] Bericht zur Statustagung des BMBF „Forschungsoffensive Software Engineering 2006“ in Leipzig, Projektträger des BMBF für Informationstechnik (DLR e.V.), Berlin, Juni 2006 [13] Loos, P., Vanderhaeghen, D., Kollaboratives Prozessmanagement – Unterstützung kooperations- und koordinationsintensiver Geschäftsprozesse am Beispiel des Bauwesens, Reihe Wirtschaftsinformatik – Theorie und Anwendung, Band 10, Logos Verlag, Berlin, 2007 [14] Investieren in Software-intensive Systeme, Investieren in Europas Zukunft, ITEA 2, ITEA Office Association, Eindhoven, 2005 [15] Reuse, B., Vortrag zur Eröffnung der Statustagung des BMBF „SE 2006“ in Leipzig, Juni 2006 [16] Reuse, B., Vortrag auf Symposium in der Technischen Hochschule Darmstadt über „Sichere und zuverlässige IT-Systeme“, Darmstadt, März 2004
Teil II Ausführliche wissenschaftliche Berichte und Einblicke
1
Die 70er Jahre
1.1 Informatik in den 70er Jahren
Gerhard Goos (Fakultät für Informatik, Universität Karlsruhe (TH))
1.1.1 Einleitung Die Informatik heutiger Prägung hat ihre Wurzeln in den 30er/40er Jahren des vorigen Jahrhunderts in den Arbeiten Gödels, Churchs, Zuses, Turings, Von Neumanns und anderen [8, 9, 10, 18, 32, 33, 39]. Die ersten Arbeiten von Konrad Zuse sind die Erfindung der Gleitpunktzahlen und die Festlegung auf die Verwendung des Dualsystems; sie sind aber in der Literatur ebenso wenig dokumentiert wie die Konstruktion der Z1 1938 oder der Z3 im Jahre 1941. Dieser Beginn konzentrierte sich auf grundlegende Fragen der Logik und der Berechenbarkeitstheorie, auf die Konstruktion von Rechnern, auf die ersten Vorläufer von Programmiersprachen (λ-Kalkül, Zuses Plankalkül) und auf Berechnungsprinzipien wie z. B. von Neumanns Zellularautomaten. In der Programmierung gab es Ende der 40er Jahre nur Maschinensprachen. In den 50er Jahren erfand Maurice Wilkes 1951 die Mikroprogrammierung und der kürzlich verstorbene John Backus entwickelte mit seinen Mitarbeitern die Programmiersprache FORTRAN [1, 38]. Das Ende der 50er Jahre sah die Erfindung der Programmiersprachen ALGOL 58, LISP und COBOL. Die Geschichte der Informatik im deutschsprachigen Raum, abgesehen von Konrad Zuse, beginnt in den 50er Jahren mit Arbeiten über das „Klammergebirge“ von Heinz Rutishauser, dem ersten systematischen Verfahren zur Analyse arithmetischer Ausdrücke [27]. Getrennt übersetzte Programmbibliotheken führte 133
134
1 Die 70er Jahre
Rutishauser 1956 ein und Klaus Samelson und Friedrich L. Bauer trugen mit ihrem Artikel [28] Erhebliches zur Systematisierung der Übersetzerkonstruktion bei, u. a. wurde hier der praktische Gebrauch des Kellerprinzips eingeführt. Ferner wurden im akademischen Bereich zahlreiche Rechner gebaut: • • • • •
am Max-Planck-Institut in Göttingen die G1 und später die G2 von Heinz Billing in Darmstadt die DERA von Alwin Walter in München die PERM von Hans Piloty und Robert Sauer in Dresden die D1 von Nikolaus J. Lehmann an der ETH Zürich die ERMETH von Eduard Stiefel, Ambros Speiser und Heinz Rutishauser • in Wien das Mailüfterl von Heinz Zemanek.
Die Erfindung des Prinzips des virtuellen Speichers wird gemeinhin englischen Ingenieuren zugeschrieben, die es in Manchester im Atlas-Rechner realisierten [23]. Unabhängig und früher veröffentlichte jedoch Fritz-Rudolf Güntsch die Idee in seiner Dissertation [19] an der TU Berlin; in Berlin wurde das aber nie in einen Rechner eingebaut. Die 60er Jahre sahen in Deutschland zunächst die Entwicklung der Lernmatrix, einer Architektur eines neuronalen Netzes mit assoziativem Speicher, durch Karl Steinbuch in Karlsruhe [31]. Die Lernmatrix markiert den Beginn der Forschung über künstliche Intelligenz in Deutschland. In seinem gleichzeitig erschienenen Buch „Automat und Mensch“ [30] machte der Kybernetiker Steinbuch jedoch sehr gewagte Aussagen über die potentiellen Fähigkeiten von Automaten mit dem Ergebnis, dass die künstliche Intelligenz und damit auch die Lernmatrix außerhalb von Steinbuchs Institut in Deutschland abtauchte und erst Mitte der 70er Jahre wieder zum Vorschein kamen. Die zunächst in Mainz und dann wieder in München beheimateten Gruppen von F. L. Bauer und K. Samelson, zu denen im weiteren Verlauf u. a. die Assistenten und Mitarbeiter Richard Baumann, Peter Deussen, Jürgen Eickel, Gerhard Goos, David Gries, Ursula Hill, Hans Langmaack, Manfred Paul, Gerhard Seegmüller und Hans-Rüdiger Wiehle gehörten, waren bereits führend bei der Definition von ALGOL 58 beteiligt gewesen und gehörten dann zu den Miturhebern von ALGOL 60. Das hatte zur Folge, dass sich das Thema Übersetzung von Programmiersprachen und speziell von ALGOL 60 sehr lebhaft entwickelte. Es wurden ALGOL-60-Übersetzer für nahezu alle in Deutschland produzierten Rechner gebaut und auch kommerziell eingesetzt. Später bauten die Münchner auch einen ALGOL68-Übersetzer [20], allerdings nur für den TR440. Das Papier [12] ist eine Vorwegnahme des Prinzips der LALR(1)-Zerteilung, wenn auch beschränkt auf Chomsky-Grammatiken. Die wohl bedeutendste Leistung dieser Zeit erbrachte Gerhard Seegmüller, der 1962/63 nacheinander zuerst das Betriebssystem und dann den ALGOL-60-Übersetzer für den TR4 schrieb. Unter meiner Leitung wurde im Spätherbst 1968 mit der Konstruktion eines Betriebssystems für einen TR440Doppelprozessor begonnen, das dann unter Leitung von Klaus Lagally fertig gestellt wurde [15]. Die größte internationale Wirkung erzielten die Münchner allerdings 1968 mit der Veranstaltung der Garmisch Conference on Software
1.1 Informatik in den 70er Jahren
135
Engineering [25], mit der dieser Begriff aus der Taufe gehoben wurde. Das eigentlich angestrebte Software-Engineering-Institut kam erst viele Jahre später an der Carnegie-Mellon-Universität in Pittsburgh zustande. Die Münchner erzielten aber weiterhin große Erfolge mit ihren Sommerschulen in Marktoberdorf im Allgäu, die in den 70er Jahren der Platz waren, von dem aus sich Strukturiertes Programmieren weltweit durchsetzte. Die anderen wichtigen Akteure der 60er und dann auch der 70er Jahre waren im Hardware-Bereich tätig. Da ist zu nennen Wolfgang Giloi an der TU Berlin, der bereits 1966 den Ehrenring des VDI für seine Beiträge zur Rechnertechnik erhielt und in den 60er Jahren sich neben Rechnertechnik vor allem mit Rechnergraphik beschäftigte. Wolfgang Händler, seit 1966 in Erlangen, legte den Grundstein für seine späteren Arbeiten über parallele Rechnerarchitekturen. Hans-Otto Leilich baute zusammen mit Fritz Gliem die Braunschweiger Datentechnik auf, die insbesondere in der Raumfahrt große Erfolge erzielte. Alle diese Akteure waren zuvor in der einen oder anderen Weise entweder bei Telefunken oder bei IBM Deutschland tätig gewesen.
1.1.2 Die Karlsruher Informatik ab 1970 Mein Arbeitsbeginn am 1. Oktober 1970 in Karlsruhe war gekennzeichnet von einer Fülle sehr heterogener Aufgaben. Der Dekan der Fakultät Mathematik, Herr Kollege Heuser, übereignete mir als Leiter des Instituts für Informatik die 78 Stellen, darunter acht Forschungsgruppenleiterstellen, und einen laufenden Etat von mehr als einer halben Million DM, die die Universität Karlsruhe (TH) dank der Bemühungen von Herrn Kollegen Nickel im Rahmen des Überregionalen Forschungsprogramms Informatik (ÜRF) zugeteilt bekommen hatte. Die Universität Stuttgart hatte übrigens Stellen und laufende Mittel in gleicher Größenordnung, und im Unterschied zu zahlreichen anderen Bundesländern waren diese Zuteilungen auch Bestandteil des regulären Haushalts des Kultusministeriums. Die Hauptaufgabe war die Leitung einer Berufungskommission zur Besetzung von sechs Forschungsgruppenleiterstellen (und die Mitgliedschaft in einer weiteren Kommission zur Besetzung der beiden restlichen Stellen). Von diesen Stellen waren im Landeshaushalt 1971 bereits drei als Ordinariate ausgebracht; die restlichen fünf wurden 1972 in ordentliche Professuren umgewandelt. Herr Kollege F. L. Bauer in München hatte vorhergesagt, dass es eigentlich nur ungefähr 30 berufungsfähige junge Informatiker in Deutschland gäbe; das ÜRF hatte aber insgesamt 119 zu besetzende Forschungsgruppenleiterstellen in Westdeutschland ausgewiesen. Nun erwies sich, dass die Zahl 30 von Herrn Bauer doch wohl etwas untertrieben war, aber trotzdem war klar, dass nur die Universitäten gewinnen konnten, die die Berufungsfrage entschlossen und mit großer Geschwindigkeit angingen. Im Unterschied zu Stuttgart zählte Karlsruhe zu dieser Gewinnergruppe. Wir hatten bereits im Wintersemester 1970/71 alle unsere Berufungslisten fertig
136
1 Die 70er Jahre
und es waren bereits zwei Rufe an die Herren Dr. G. Krüger und Dr. H. Wettstein auf ordentliche Professuren ausgesprochen, die zum 1. Juni 1971 angenommen wurden. Zwar konnten wir mit den Berufungslisten keinen Schönheitspreis gewinnen; es handelte sich um Einer- oder Zweierlisten, aber diese Aussage bezieht sich nicht auf die berufenen Kollegen. Die Kollegen aus der Mathematik erwogen allen Ernstes, ob man in Informatik nicht auch Leute ohne Promotion berufen könne, was ich vehement bestritt. Dahinter standen die Erfahrungen aus dem Jahr 1968, in dem generell die Notwendigkeit akademischer Grade und Titel bestritten wurde; auch unter den Karlsruher Informatikassistenten gab es Leute, die zwar Forschungsgruppenleiter werden wollten, aber zunächst den Titel eines ordentlichen Professors ablehnten. In Summe schafften wir es, im ersten Halbjahr 1971 sechs der acht Gruppenleiterstellen zu besetzen, die beiden anderen folgten im Jahr 1972. Aus der Sicht der Lehre war das auch bitter nötig. Wir hatten im Frühjahr 1971 bereits 394 Studenten, aber nur eine besetzte Professur. Im Wintersemester 1971/72 kamen dann 225 Anfänger dazu und ich hatte neben den noch abzuwickelnden Berufungsverfahren, anderen organisatorischen Aufgaben und einer Vorlesung im Hauptstudium auch noch die vierstündige Anfängervorlesung zu halten. Die Raumnot der Karlsruher Informatik war zunächst außerordentlich. Die Forschungsgruppen waren über den ganzen Campus verstreut, einschließlich der Westhochschule. Außer zu Sitzungen traf man sich kaum und an eine vernünftige Zusammenarbeit war zunächst nicht zu denken. Das änderte sich erst im Frühjahr 1972 mit dem Bezug des damals neuen Informatikgebäudes, das zusammen mit dem Rechenzentrum im Schnellverfahren errichtet worden war. Damit kamen erstmalig alle Informatiklehrstühle unter ein Dach und es konnte mit dem Ausbau der technischen Infrastruktur für die Lehrstühle begonnen werden. Dazu zählte insbesondere die Anmietung eines Rechners Burroughs B6700 als zentralen Informatikrechner. Er wurde im Sommer 1972 nach einem intensiv geführten Auswahlverfahren installiert. Nominal hatte er nur die halbe Leistung eines Telefunken TR 440. Letzteren konnten wir uns im Unterschied zur Universität Stuttgart nicht leisten, da unsere Rechnermietmittel eine Million DM niedriger waren als die Stuttgarter Mittel. Die Beschaffung erwies sich jedoch als Glückstreffer. Dank der Flexibilität des Systems und mit zahlreichen Eigenleistungen konnten wir das System so ausbauen, dass 1976, als wir das System durch einen SiemensRechner ersetzten, die Leistung als doppelt so hoch wie die eines TR 440 eingeschätzt wurde. Zu den Eigenleistungen zählten Programmierarbeiten für den Satellitenrechner, über den Bildschirmgeräte und Prozessrechner angeschlossen waren, sowie die eigenhändige Verkabelung der Räume des Gebäudes durch die wissenschaftlichen Mitarbeiter zum Anschluss zahlreicher Bildschirmgeräte über serielle Leitungen. Die Flexibilität zeigte sich in den Anschlussprotokollen. Wir hatten keine Probleme mit dem Anschluss von Rechnern, die nicht von Burroughs stammten, und konnten „dumme Terminals“ kaufen, die weniger als die Hälfte der Sichtgeräte kosteten, die wir bei den großen Herstellern, auch den deutschen, mit ihren proprietären Anschlussprotokollen hätten aufwenden müssen. Die Preise waren im Vergleich zu heute trotzdem riesig. Ein Sichtgerät mit Tastatur kostete 23 000 DM.
1.1 Informatik in den 70er Jahren
137
1.1.2.1 Die Fakultät für Informatik ab 1972 Zum 1. Oktober 1972 spaltete sich das Institut für Informatik von der Fakultät für Mathematik ab und wurde eine selbständige Fakultät mit zunächst neun Professoren. Im Vergleich war dies der größte Informatik-Fachbereich in Deutschland; andernorts waren entweder weniger Forschungsgruppen beantragt und genehmigt worden, oder die Berufungsverfahren waren noch nicht so weit fortgeschritten. Organisatorisch war die Fakultätsgründung ein gewaltiger Schritt bezüglich der Einordnung des Fachs in der Universität und im öffentlichen Ansehen. Intern änderte sich zunächst nur wenig. Wir hatten zwar jetzt Sitz und Stimme im Senat der Universität und brauchten auch eine eigene Promotionsordnung. Aber die Fakultät wurde weiterhin zu 70% vom Bund durch das ÜRF finanziert und im Unterschied zu allen anderen Fakultäten wurden die Stellen und Mittel den Lehrstühlen bzw. Instituten nicht vom Kanzler zugeteilt, sondern wie im vorigen Institut für Informatik zentral durch die Fakultät verwaltet und von dort zugeteilt. Dies erleichterte die Beantragung und Abrechnung der Mittel gegenüber dem BMFT. Das Verfahren hatte auch viele andere Vorteile und wurde erst vor wenigen Jahren eingestellt. Nachdem wir bereits 1971 dem ersten Diplominformatiker in Deutschland sein Abschlusszeugnis überreichen konnten, gab es 1973 die erste Promotion und die erste Habilitation in der Fakultät. Ab 1974 erhielt die Universität Karlsruhe (TH) fünf weitere Forschungsgruppen für Gebiete der angewandten Informatik, über die weiter unten berichtet wird. Davon wurde eine, später zwei Gruppen in die Fakultät aufgenommen; die anderen wurden in anderen Fakultäten angesiedelt, was sich insgesamt sehr bewährte. Die Anmietung der Burroughs-Anlage 1972 erwies sich zwar von der Leistung her als Glückstreffer. Jedoch hatten die Forschungsgruppen der praktischen Informatik wegen der geringen Verbreitung dieses Rechnertyps Schwierigkeiten bei der Kooperation mit anderen Universitäten und mit der Industrie, weil Programme in Burroughs EXTENDED ALGOL dort nicht liefen. Daher beschlossen wir 1975 den Ersatz der Anlage durch einen Rechner der Firma Siemens. Nach langwierigen Verhandlungen mit Siemens und dem BMFT gelang es 1976 einen Rechner Siemens 7.755 in passender Konfiguration zu kaufen. Dies war die letzte größere Investition vor dem Auslaufen des ÜRF im Jahre 1978. Damit verbunden war eine beträchtliche Reduktion der verfügbaren Rechenleistung, die nur zum Teil vom Universitätsrechenzentrum aufgefangen werden konnte. Aber die Ziele hinsichtlich der Kooperation mit Dritten wurden voll erreicht. 1.1.2.2 Die Karlsruher Angewandte Informatik ab 1974 Zwar litt die Karlsruher Informatik ab 1973 wegen der gestiegenen Studentenzahlen, wegen Stellenstreichungen und mangels des eigentlich erforderlichen Ausbaus der existierenden Forschungsgruppen unter erheblichen personellen Problemen. Trotzdem begrüßten wir es sehr, dass der Bund und das Land 1973/74
138
1 Die 70er Jahre
beschlossen, die Informatik in Richtung Anwendungen auszubauen. Nach sehr langwierigen und schwierigen universitätsinternen Verhandlungen über die Ausrichtung der neuen Forschungsgruppen wurde ein Konzept beschlossen und umgesetzt, wonach die neuen Gruppen der Fakultät zugeordnet werden sollten, die am besten den Anwendungsbereich repräsentierte. Dies führte in den Jahren 1974–76 zur Einrichtung von fünf Forschungsgruppen für • • • • •
Anwendungen der Prozesstechnik (Informatik) Elektrotechnische Grundlagen der Informatik (Elektrotechnik) Anwendungen im Maschinenbau (Maschinenbau) Anwendungen im Bauingenieurwesen (Bauingenieurwesen) Systemanalyse (Wirtschaftswissenschaften)
Aufgrund anderer Erwägungen wurde der Lehrstuhl für Anwendungen im Bauingenieurwesen, der sich im Schwerpunkt mit Anwendungen im Transport- und Verkehrswesen befasste, später ebenfalls der Fakultät für Informatik angegliedert. Mit insgesamt 14 Forschungsgruppen war die Karlsruher Informatik am Ende des ÜRF die am besten ausgebaute Informatik in der Bundesrepublik. Besonders erwähnenswert ist der Ausbau der angewandten Informatik in der Fakultät für Wirtschaftswissenschaften, der mit der Berufung von H. Maurer, heute Universität Graz, seinen Anfang nahm. Dieser Bereich stand von Anfang an vor dem Problem, dass er knapp 50% der Ausbildung zum Wirtschaftsinformatiker bestreiten musste und dieser Studiengang meist mehr Studenten aufwies als die eigentliche Informatik. Das Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB), das heute fünf Lehrstühle umfasst, erbrachte nicht nur diese umfangreiche Lehrleistung, sondern war und ist auch wissenschaftlich hoch angesehen, wovon insbesondere die sehr zahlreichen ehemaligen Mitarbeiter zeugen, die heute Informatiklehrstühle innehaben.
1.1.3 Das Überregionale Forschungsprogramm Informatik Das Überregionale Forschungsprogramm Informatik des BMFT war für uns Karlsruher Informatiker nicht nur Geldgeber. Ich wurde Ende 1970 in Nachfolge von Herrn Piloty, Darmstadt, zum Vorsitzenden des zugehörigen Sachverständigenausschusses beim BMFT gewählt, was uns einen tiefen Einblick in die Entwicklung der Informatik an allen anderen Universitäten gewährte. Dieses Amt oblag mir bis zum Auslaufen des Förderprogramms im Jahr 1978. Über das ÜRF hat ja Herr Reuse bereits ausführlich berichtet, so dass ich mich hier auf eher persönliche Eindrücke beschränken kann. Zunächst war der Vorsitz im Sachverständigenausschuss eine harte zusätzliche Arbeitsbelastung, die über viele Jahre monatlich wenigstens zwei Arbeitstage kostete. Da war einmal der monatliche Sitzungstag, indem über die Anträge der 14 beteiligten Universitäten beraten und letztlich auch entschieden wurde. Dieser Tag musste aber zusammen mit Herrn Reuse vorbereitet werden; denn es erwies
1.1 Informatik in den 70er Jahren
139
sich oft, dass wir beiden die einzigen waren, die die Akten genau studiert hatten und auch etwas zu den einzelnen Anträgen im Vergleich zu anderen Universitäten sagen konnten. Wirklich große Sorgen bereiteten uns drei Technische Hochschulen, in denen sich Mathematik, Informatik und Elektrotechnik nicht auf die Gestaltung eines einheitlichen Informatikstudiums einigen konnten. Es gab ein Beispiel, bei dem mehrere Jahre lang drei verschiedene Prüfungsordnungen für Informatik mit unterschiedlicher Akzentsetzung nebeneinander existierten. Dann gab es 1973 durch den BMFT eine professionell durchgeführte, umfangreiche Befragung der Wirtschaft über den voraussichtlichen Bedarf an Informatikern. Sie erbrachte wie auch schon eine frühere solche Befragung Zahlen, die ganz erheblich über der voraussichtlichen Absolventenzahl lagen und einen noch viel deutlicheren Ausbau der Informatik an den Hochschulen erforderlich gemacht hätten. Der BMFT und der federführende Ad-hoc-Ausschuss versuchten, mit allen zur Verfügung stehenden Interpretationskünsten diese Zahlen zu verkleinern. Die Realität zeigte dann hinterher, dass die Zahlen in Wahrheit zu niedrig geschätzt waren. Wie bei allen solchen Förderprogrammen ist das Ende nicht so angenehm wie der Anfang. In diesem Fall war das Ende dadurch gekennzeichnet, dass zahlreiche Bundesländer die Informatikstellen aus dem ÜRF nicht in ausreichendem Umfang in die Landesetats übernommen hatten, so dass es am Ende des Programms an zahlreichen Universitäten einen erheblichen Einbruch in der Forschungs- und Lehrleistung gab.
1.1.4 Informatikforschung in Deutschland in den 70er Jahren Um 1970 gab es im deutschsprachigen Raum die folgenden wesentlichen Zentren für Informatikforschung (alphabetisch): TU Berlin (W. Giloi), TU Braunschweig (H.-O. Leilich), TH Darmstadt (A.Walther und Nachfolger, R. Piloty), TH Dresden (N. Lehmann), U Erlangen (W. Händler), TU Karlsruhe (K. Steinbuch), TU München (F.L. Bauer, K. Samelson),U Saarbrücken (G. Hotz), IBM Labor Wien (H. Zemanek), ETH Zürich (H. Rutishauser). Alle diese Herren waren Mathematiker oder Elektrotechniker. Die Meinungen dieser beiden Gruppen prallten in der GAMM/NTG-Kommission zur Definition der Rahmenprüfungsordnung Informatik hart aufeinander, wobei sich im Abschluss 1969 die mathematische Fraktion behauptete. Neben dem IBM-Labor in Wien war zweifellos die TU München das produktivste Zentrum der Informatikforschung. Die DFG hatte das bereits 1967 mit der Vergabe von sechs Forschungsstellen honoriert, wodurch auch ich zu meinen ersten beiden Mitarbeitern im Übersetzerbau gelangte. Daran schloss sich die Gründung des SFB 49 „Programmiertechnik“ an, der ab 1969 in einer ganzen Reihe von Informatikgebieten von der Automatentheorie über Übersetzerbau, Betriebssysteme und Rechnergraphik bis zur Hardwarekonstruktion
140
1 Die 70er Jahre
erfolgreich war. Er war für viele Jahre der einzige Sonderforschungsbereich der DFG im Fachgebiet Informatik. Die international interessantesten Leistungen des SFB erbrachte das Teilvorhaben „Breitbandsprachen und Programmtransformationen“ unter Leitung von Herrn F. L. Bauer und des leider zu früh verstorbenen K. Samelson, vgl. etwa [2, 3], das sich der Grundlegung der Programmentwicklung durch funktionale Spezifikationen mit anschließenden Programmtransformationen widmete. Zum internationalen Ansehen trugen natürlich vor allem auch die GarmischKonferenz 1968 [25] bei, die den Begriff Software Engineering etablierte, sowie die beiden Kurse über Software Engineering und Übersetzerbau [4, 5] in München. Besonders hervorzuheben sind die Sommerschulen in Marktoberdorf, die seit 1970 stattfinden, mit den bedeutendsten internationalen Vortragenden besetzt waren, und wesentlich den Durchbruch der Methodik des Strukturierten Programmierens bewirkten, bevor sie sich theoretischeren Themen zuwandten. Zu den Leistungen der Hardwaregruppen von Herrn Giloi und Herrn Händler gehörten die Entwicklung von Parallelrechnern für spezielle Anwendungszwecke, vgl. etwa [14]. Insbesondere führten die Arbeiten von Giloi später zur Gründung der Darmstädter Rechnergraphikinstitute unter seinem Schüler Encarnação, deren größter Erfolg in den 70er Jahren die Entwicklung des graphischen Kernsystems GKS war, das zum amerikanischen und ISO-Standard wurde. Im Bereich Betriebssysteme gab es mehrere Entwicklungen wie z. B. das Karlsruher Betriebssystem HYDRA [36, 37] für die Electrologica X8 und das Münchner Betriebssystem BSM [15] für den TR 440, die es aber alle nicht schafften, wesentlichen Einfluss im internationalen Umfeld zu gewinnen. Dies gelang einzig dem EUMEL-Betriebssystem von Jochen Liedtke, das 1979 und danach als Laufzeitsystem für die Programmiersprache ELAN an der Universität Bielefeld entstand und den Ausgangspunkt der heutigen Mikrokernbetriebssysteme darstellt. Liedtke arbeitete später bei der GMD, bei IBM Research in Yorktown Heights und dann bis zu seinem frühen Tod als Professor in Karlsruhe. Im Bereich Übersetzerbau produzierten die TU München und die Universität Karlsruhe Softwarebaukästen, um Teile der Analysephase von Übersetzern aus formalen Spezifikationen zu erzeugen [13, 22], von denen Stücke in weiter entwickelter Form auch heute noch im internationalen Einsatz sind [17]. Besonders hervorzuheben sind die Karlsruher Grundlagenarbeiten zu geordneten und partitionierten attribuierten Grammatiken [21, 35]. In Karlsruhe gab es mit finanzieller Unterstützung durch den BMFT seit 1976 ein Projekt, um den französischen Übersetzer für die Programmiersprache LIS von Iris80-Maschinen auf das BS2000 zu übertragen. Daraus entwickelte sich Ende der 70er Jahre das Karlsruher ADA-Projekt [11, 16, 24, 29, 34], das dann von Projektmitarbeitern kommerzialisiert wurde und wegen seiner Anpassungsfähigkeit an neue Prozessorarchitekturen auch in Amerika viele Jahre lang hochgeschätzt war. Die Gruppen von Rudolf Bayer an der TU München, Peter C. Lockemann in Karlsruhe und Jochen W. Schmidt in Hamburg waren in den 70er Jahren führend in der Welt der Datenbanksysteme. R. Bayer erfand die B-Bäume [6, 7], die dann später zum Implementierungsstandard relationaler Datenbanksysteme wurden.
1.1 Informatik in den 70er Jahren
141
Herr Lockemann beschäftigte sich insbesondere mit Methodenbanken, einem Vorläufer der heutigen Wissensmanagementsysteme. Herr Schmidt integrierte Relationen in mehrere Programmiersprachen. Der Aufstieg der Saarbrücker Informatik zu einem weltweit bekannten Zentrum der Algorithmik begann 1975 mit der Berufung von Kurt Mehlhorn. Auch die Künstliche Intelligenz kam Mitte der 70er Jahre mit Arbeiten von Wolfgang Bibel wieder auf die Beine, wenn auch zuerst nur sehr holprig. Die GMD, gegründet 1968, litt in den Anfangsjahren unter den Auseinandersetzungen darüber, ob sie nun eine Mathematikeinrichtung sei, wie die Bonner Mathematiker mit den ersten Direktoren Ernst Peschel und Heinz Unger glaubten, oder ein Dienstleister für Datenverarbeitung, wie der BMFT es wünschte. Auch wurden in der Nachfolge der Studentenunruhen von 1968 eine ganze Reihe junger Leute ohne ausreichenden Leistungsnachweis zu Institutsleitern berufen. Außerhalb der GMD wurden in den 70er Jahren vor allem die Entwicklung des juristischen Informationssystems Juris (Projektleitung Herbert Fiedler) und die Entwicklung der Statistikprogramme unter Peter Hoschka zur Kenntnis genommen, mit denen das Bundesfinanzministerium seine Steuerschätzungen im Mai und November durchführt. Weitere Leistungen insbesondere aus dem Institut von Herrn Petri kamen erst Ende der 70er Jahre zur allgemeinen Kenntnis.
Literatur [1] Backus, J.W.; Beeber, R.; Best, S. et al. (1957): The Fortran automatic coding system. In Western Joint Computer Conference, S. 188–198. [2] Bauer, F.; Broy, M.; Dosch, W. et al. (1985): The Munich Project CIP, Bd. 183 von Lecture Notes in Computer Science. Springer-Verlag. [3] Bauer, F.L. und Wössner, H. (1980): Algorithmische Sprache und Programmentwicklung. Springer-Verlag. [4] Bauer, F.L. (Hrsg.) (1973): Advanced Course on Software Engineering, Bd. 81 von Lect. Notes in Economics and Math. Systems. Springer-Verlag. 2. Aufl.: LNCS 30. [5] Bauer, F.L. und Eickel, J. (Hrsg.) (1974): Compiler Construction, an Advance Course, Bd. 21 von LNCS. [6] Bayer, R. (1972): Symmetric Binary B-Trees: Data Structure and Maintenance Algorithms. Acta Informatica, 1: 290–306. [7] Bayer, R. und McCreight, E. (1972): Organization and Maintenance of Large Ordered Indexes. Acta Informatica, 1: 173–189. [8] Burks, A.W.; Goldstine, H.H. und von Neumann, J. (1946): Preliminary Discussion of the Logical Design of an Electronic Computing Instrument. Part. 1 Techn. Ber., Institute for Advanced Study, Princeton. In Auszügen abgedruckt in Randell (1982). [9] Church, A. (1936): An Unsolvable Problem of Elementary Number Theory. Amer. J. Math., 58: 345–363. [10] Church, A. (1941): The Calculi of Lambda-Conversion, Bd. 6 v. Annals of Mathematical Studies. Princeton Univ. Press, Princeton. [11] Drossopoulou, S.; Goos, G.; Persch, G. et al. (1982): An Attribute Grammar for Ada. In Compiler Construction Conference, Bd. 17 von SIGPLAN Notices, S. 334–349. Association of Computing Machinery.
142
1 Die 70er Jahre
[12] Eickel, J.; Paul, M.; Bauer, F.L. und Samelson, K. (1963): A syntax controlled generator of formal language processors. Commun. ACM, 6(8): 451–455. [13] Ganzinger, H.; Giegerich, R.; Moencke, U. und Wilhelm, R. (1982): A truly Generative Semantics directed Compiler Generator. SIGPLAN Notices 17(6): 172–184. [14] Giloi, W. und Berg, H.K. (1974): An Unothodox Concept of a String/Array Computer. In IFIP Congress 1974, S. 103–107. [15] Goos, G.; Jürgens, J. und Lagally, K. (1972): The Operating System BSM, Viewed As a Community of Parallel Processes. Bericht 7208, Rechenzentrum der TU München. [16] Goos, G. und Wulf, W.A. (Hrsg.) (1983): Diana, an Intermediate Language for Ada, Bd. 161 von LNCS. Springer-Verlag. [17] Gray, R.W.; Heuring, V.P.; Levi, S.P. et al. (1992): Eli: A Complete, Flexible Compiler Construction System. Communications of the ACM, 35/2: 121–131. [18] Gödel, K. (1931): Über Formal Unentscheidbare Sätze der Principia Mathematica und Verwandter Systeme I. Mh. Math. Phys., 38: 173–198. [19] Güntsch, F.-R. (1957): Logischer Entwurf eines digitalen Rechnergerätes mit mehreren asynchron laufenden Trommeln und automatischem Schnellspeicherbetrieb. Dissertation, Technische Universität Berlin. D83. [20] Hill, U.; Scheidig, H. und Wössner, H. (1972): An ALGOL 68 Compiler. Techn. Ber., Technische Universität München. [21] Kastens, U. (1980): Ordered Attributed Grammars. Acta Informatica, 13(3) 229–256. [22] Kastens, U.; Hutt, B. und Zimmermann, E. (1982): GAG: A Practical Compiler Generator. Nr. 141 in Lecture Notes in Computer Science. Springer-Verlag. [23] Kilburn, T.; Edwards, D.; Lanigan, M. und Sumner, F. (1962): One-Level Storage System. IRE Trans. Electronic Computers. [24] Kirchgaessner, W.; Uhl, J.; Persch, G. et al. (1983): An Optimizing Ada Compiler. Techn. Ber., GMD, Karlsruhe. [25] Naur, P. und Randell, B. (Hrsg.) (1969): Software Engineering. NATO Science Committee. Report on a Conference, Garmisch, 7.–11. Oct. 1968. [26] Randell, B. (Hrsg.) (1982): The Origins of Digital Computers. Springer-Verlag. [27] Rutishauser, H. (1951): Über Automatische Rechenplanfertigung bei Programmgesteuerten Rechenmaschinen. Z. angew. Math. Mech., 31: 255 ff. [28] Samelson, K. und Bauer, F.L. (1959): Sequentielle Formelübersetzung. Elektron. Rechen– anlagen, 1: 176–182. [29] Schwarz, B.; Kirchgaessner, W. und Landwehr, R. (1988): An Optimizer for Ada – Design, Experiences and Results. In SIGPLAN Conference on Programming Language Design and Implementation, S. 175–184. [30] Steinbuch, K. (1961a): Automat und Mensch. Über menschliche und maschinelle Intelligenz. Springer-Verlag Wien. [31] Steinbuch, K. (1961b): Die Lernmatrix. Kybernetik, 1: 36–45. [32] Turing, A.M. (1937a): On Computable Numbers, with an Application to the Entscheidungsproblem. Proc. London. Math. Soc. (2), 42: 230–265. [33] Turing, A.M. (1937b): On Computable Numbers, with an Application to the Entscheidungsproblem. A Correction. Proc. London. Math. Soc. (2), 43: 544–546. [34] Uhl, J.; Drossopoulou, S.; Persch, G. et al. (1982): An Attribute Grammar for the Semantic Analysis of Ada, Bd. 139 von LNCS. Springer-Verlag. [35] Waite, W.M. und Goos, G. (1984): Compiler Construction. Springer-Verlag. Polnische Übersetzung Wydawnictwa Naukowo – Techniczna, Warschau, 1989. [36] Wettstein, H.D. und Brockhaus, M. (1968a): Das Vielfach-Bedienungssystem HYDRA für die elektronische Rechenanlage EL X8. Elektronische Rechenanlagen, 10(2): 62–66. [37] Wettstein, H.D. und Brockhaus, M. (1968b): Das Vielfach-Bedienungssystem HYDRA für die elektronische Rechenanlage EL X8. Elektronische Rechenanlagen, 10(3): 131–134. [38] Wilkes, M.V. (1951): The Best Way to Design an Automatic Calculating Machine. In Manchester Univ. Comp. Inaugural Conf., London. Ferranti Ltd. [39] Zuse, K. (1972): Der Plankalkül. Bericht Nr. 63, GMD, St. Augustin.
1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren
143
1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren
Max Syrbe (Karlsruhe)
1.2.1 Ausgangslage Zu Beginn der 70er Jahre war die Aufbauleistung für die deutsche Industrie nach dem Desaster des Zweiten Weltkrieges erbracht und die erste Belastung durch die erste Rezession 1967 überstanden (Abb. 1.1). Die Aufbauphase war mit Hilfe neuer technischer Funktionen, insbesondere auch der Mess-, Steuerungs- und Regelungstechnik, erfolgreich [1]. Diese Funktionsbereiche hatten als Gerätebasis mehrere Bauelemente-Technologien durchlaufen: elektromotorischbasierte (wie Drehspul-, Wälzsektor- und Verstärkermaschinen-Geräte) sowie magnetverstärker-, röhren- und transistorbasierte Technologien. Für letztere lagen in Form von Geräten mit Einzelbauelementen Anwendungserfahrungen vor. Mit jedem Technologieschritt wuchs die Möglichkeit, theoretisch begründete Funktionen immer genauer und vollständiger zu realisieren. Der Griff nach dem Rechner, der DV-Anlage, war konsequent der nächste Schritt (Abb. 1.2, Tabelle 1.1) [2].
Abb. 1.1 Wirtschaftskonjunktur 1967 bis 1993
144
1 Die 70er Jahre
Abb. 1.2 Entwicklung der Automatisierungsgerätetechnik im Kraftfeld der Gestalter und Benutzer Tabelle 1.1 In den 60er Jahren verbreitete Prozessrechner1 auf dem deutschen Markt, Ausschnitt aus [4]. (ADZEIT: Additionszeit in µs, VM/D: Verdrahtete Festkomma-Multiplikation/ Division, WORT: Wortlänge in Bit, KAP: Kernspeicherkapazität in K (Worte), VOR: Vorrangverarbeitung mit EIN = Zahl der Interrupt-lines und VE = Zahl der Vorrangebenen) Modell
ADZEIT VM/D
WORT KAP
VOR
CAE-510 CAE, Frankfurt/M CDC 636 Control Data PDP-8 DEC H 22 Honeywell IBM 1800 IBM TR 10 Telefunken
012
ja
18
8–32
18 EIN, 2 VE
015
ja
15
4–32
sehr ausbaufähig
003,2 004,8 004,25–7 152
ja Multiplikation ja Multiplikation
12 18 16 06
ausbaufähig, 1 VE 144 EIN pro VE, 32 VE 16 EIN pro VE, 24 VE sehr ausbaufähig
085
ja
18
4–32 2–16 4–32 10 000– 80 000 1–16
Z 25 Zuse
1
32 EIN, 32 VE
Damals besagte „Prozessrechner“, dass zur Messwerterfassung und Prozessregelung notwendige Zusatzgeräte lieferbar sind.
1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren
145
Aber dieser Schritt war ein besonders risikoreicher, denn mit ihm war verbunden: • der Übergang von analogen Signalen und Algorithmen zu diskreten bzw. digitalen, • die Realisierung eines Realzeitverhaltens der online zu betreibenden Rechner, • neuartige Leitstände mit Bildschirmgeräten als Mensch-Maschine-Schnittstelle und • die Erhöhung der Systemzuverlässigkeit wegen wachsender Komplexität und großer, neuartiger Bauteilmengen. Dieses war in der zweiten Hälfte der 60er Jahre aus vielen Sichten untersucht und teilweise erprobt worden, wie übersichtlich anlässlich des 75jährigen Bestehens des VDE [3] 1968 dargestellt wurde: • für die Mess-, Steuerungs- und Regelungstechnik vom Verfasser (FhG-IITB), • für den Entwicklungsbereich von H. Härtl (SEL), • für die industrielle Automatisierung von K. Anke und H. Sartorius (Siemens) sowie • für die Probleme bei hochintegrierten Halbleiterschaltungen von O. Jakits (Valvo). Die treibende Kraft ging von der Entwicklung hochintegrierter Halbleiter insbesondere in Form von Mikroprozessoren aus, was in dem Vorwort des Tagungsbandes der INTERKAMA 1977 [5] zu erkennen ist: „Ein integrierter elektronischer Halbleiter-Baustein mit 12 000 Transistoren kostet heute weniger als vor 12 Jahren ein einzelner Transistor. Eine Million Bauelemente je Halbleiter-Baustein werden für 1980 prognostiziert.“
1.2.2 DV-Förderung, das Projekt PDV: Prozesslenkung mit DV-Anlagen Ein besonderer Anstoß, diesen Technologieschritt durch staatliche Förderung koordiniert voranzutreiben, ging von G. Krüger als Leiter des Instituts für Angewandte Kernphysik des damals dem BMFT unmittelbar zugeordneten Kernforschungszentrums Karlsruhe (GFK)2 aus. Dort fielen bei kernphysikalischen Experimenten in vielen parallelen Messkanälen so viele Messwerte über lange Zeiten an, dass eine manuell getriebene Auswertung der über fest programmierte Vielkanalanalysatoren gewonnenen Daten wegen des hohen Zeit- und Kostenaufwands nicht befriedigte. G. Krüger entwickelte mit seinen Mitarbeitern das auf einen Computer online gestützte Mehrfach-Eingang-Daten-Aufnahme-System MIDAS, das einen erheblichen Fortschritt der Auswertung von Messdatenströmen ermöglichte [6, 7] und generell die Tragfähigkeit eines Online-Einsatzes von Computern demonstrierte. 2
Kontaktbrücke MinDirig. H. Donth, GFK s. u., jetzt Forschungszentrum Karlsruhe FZK
146
1 Die 70er Jahre
Für die Hersteller und Anwender galt es, gestützt auf die Wissenschaft, jeweils ihren Weg zu finden, die Chancen zu nutzen, aber Rückschläge zu vermeiden. Hierzu halfen unmittelbar Förderungsmaßnahmen der Bundesregierung (DV-Förderung des BMFT, erste Phase 1967 bis 1979 mit drei Programmen mit Gesamtausgaben von 3,5 Mrd. DM): Sie brachten die maßgeblichen Wissenschaftler, Hersteller und Anwender zusammen und erzeugten als Erstes eine gemeinsame Meinung, dann ein akzeptiertes Vorgehen zur Nutzung der Chancen und Minimierung der Risiken dieses großen Technologieschrittes und des daraus möglichen Innovationsschubes. Dabei lockte das BMFT mit Fördermitteln die Beteiligten zu einem zügigen Vorgehen durch Nutzung der finanziellen Möglichkeiten. Die Unterstützung dieses Innovationsschubes für den Bereich Prozesslenkung mit DV-Anlagen (kurz PDV) erfolgte mit dem zweiten Förderprogramm, das für PDV im Zeitraum 1971 bis 1975 eine Fördersumme von 80 Mio. DM vorsah, die zu 65% für die Entwicklung allgemeiner, übertragbarer Hilfsmittel und Verfahren eingesetzt wurden und zu 35% für die rechnergeführte Automatisierung und die Entwicklung Anwendersystembezogener Hilfsmittel und Verfahren (Abb. 1.3). Dabei delegierte das BMFT nach Vorbereitung in 1971 die Programmplanung und -durchführung für den Förderbereich PDV als erste3 von mehreren erfolgreichen Projektträgerschaften ab 01.01.1972 mit einem neuen Gesellschaftsvertrag an die Gesellschaft für Kernforschung in Karlsruhe (GFK) und die Beratung und Kontrolle an einen Sachverständigenkreis PDV (Tabelle 1.2). Es arbeiteten in dem Zeitraum 1972–1975 insgesamt 25 Wirtschaftsunternehmen und 25 Institute aus Universitäten und Forschungseinrichtungen in rund 125 Projekten in diesem Programm PDV.
Abb. 1.3 Matrix der Projektziele im Einzelnen (Abb. 4 in [8])
3
unter Leitung von D. Stams
1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren
147
Tabelle 1.2 Sachverständigenkreis PDV im Jahr 1975 Mitglieder
Einrichtung
Dr. Werner Ammon Dr. Theo Ankel Prof. Richard Baumann Dipl.-Ing. Dietrich Ernst Prof. Gerhard Krüger Dipl.-Ing. Karl-Heinz Loske Dr. Manfred Mall Dr. Wolfgang Martin Friedrich A. Meyer Prof. Max Syrbe (Vorsitzender) Dr. Eberhard Wegner Dipl.-Ing. Horst Wissel
AEG-Telefunken, Frankfurt BASF AG, Ludwigshafen Technische Universität München Siemens AG, Erlangen GfK, Karlsruhe MAN-DV GmbH, Lintorf Dornier System, Friedrichshafen BBC AG, Mannheim ADV/ORGA, Wilhelmshafen FhG IITB, Karlsruhe GMD, St. Augustin Thyssen AG, Duisburg
Die Aufgaben des Sachverständigenkreises beinhalteten: • Beobachtung und Beurteilung der wissenschaftlichen und technischen Entwicklung, • Empfehlungen zu Förderungsschwerpunkten, Förderungsanträgen und zur Vorbereitung eines 3. DV-Programms, • zur Erfolgskontrolle und zur Projektbegleitung.
1.2.3 Forschungs- und Entwicklungsergebnisse Die genannten Unternehmen und Einrichtungen erarbeiteten die für den Innovationsschub notwendigen Forschungs- und Entwicklungsergebnisse wie folgt: • Elektronische Geräte zur Binärsignalein- und -ausgabe, zur Analog-DigitalSignalwandlung und Eingabe sowie zur Digital-Analog-Signalwandlung und Ausgabe, geeignet auch bei Erd- und Starkstromschlüssen, in explosionsgefährdeter und aggressiver Umgebung, selbsteichend und selbstüberwachend mit Sammelleitungs(Bus)anschluss. • Signalübertragung über Sammelleitungs(Bus)systeme mit geeigneter Steuerung und hoher Geschwindigkeit und Zuverlässigkeit. • Auslegungsverfahren mit diskreten Größen für eine mindestens näherungsweise optimale Regelung und Steuerung. • Prozessrechner hierfür mit Realzeitbetriebssystemen, die einen schritthaltenden Betrieb und einen quasisimultanen Lauf unterbrechbarer Tasks (priorisierbares Multitasking) erlauben und eine entsprechende Taskverwaltung besitzen. • Hohe Produktivität der Anwendungsprogrammierer durch ein portables, rechnerunabhängiges Softwareproduktionssystem, gestützt auf die gemeinsam entwickelte Echtzeitprogrammiersprache PEARL (Einrechner- und Mehrrechnerform, letztere mit selbsttätiger Rekonfigurierung).
148
1 Die 70er Jahre
• Anthropotechnisch optimierte Ein-/Ausgabe-Farbbildschirmsysteme für Leitstände. • Erweiterung der Zuverlässigkeitssteigerung mittels Präzision (MTBF → ∞) sowie durch Methoden der Fehlererkennung und Selbstreparatur/Rekonfiguration, gestützt auf Redundanz (MTTR → 0). • Rechnergestützte Entwurfs- und Simulationssysteme. Eine geschlossene und unabhängig von den Erzeugnissen bestimmter Hersteller verfasste Darstellung des 1976 erreichten Standes der Technik in Buchform leistete T. Martin [9]. Besonders wichtig waren Fortschritte zur Realzeit-Software, deren Preis bei gleichzeitig rasch sinkenden Hardwarekosten maßgebender Faktor wurde. Die „Kunst des Programmierens“, fast ganz auf Assembler-Basis, musste zum „Software-Engineering“ auf der Basis von rechnerunabhängigen, problemorientierten Hochsprachen entwickelt werden. Hierzu führte die Definition und die Implementierung von PEARL (Process and Experiment Automation Realtime Language), die 1978 von W. Werum (eigene Firma, Lüneburg) und H. Windauer (mbp, Dortmund) in den AI-Beiheften [10] verständlich und deshalb sehr nachgefragt beschrieben wurde. Einen weiteren Schritt tat H. Steusloff mit seiner Dissertation 1977 zur Programmierung verteilter, rekonfigurierender Mehrrechnersysteme [11]. Unterstützt von dem 1979 gegründeten PEARL-Verein e.V. wurden drei Sprachumfänge genormt: Basic PEARL, Full PEARL (beide DIN 66253) und Mehrrechner-PEARL (DIN 66253-3, 1989). Abb. 1.4 Gerätestruktur des RDC-Systems (M: Messfühler, ST: Stellglied, E/A: ProzesssignalEin-/Ausgabe, SBF: Stationsbedienfeld, PµC: prozesssteuernder Mikrorechner, LµC: leitungssteuernder Mikrorechner, S/E: Sender/ Empfänger, Ü: Überwacher, ZE: Zentraleinheit Prozessführungsrechner)
1.2 Prozesslenkung mit DV-Anlagen, ein Innovationsschub in den 70er Jahren
149
Eine weitgehend vollständige Implementierung und Piloterprobung der Ergebnisse erfolgte mit dem RDC-System (Really Distributed Controlsystem) des Fraunhofer-IITB bei Thyssen, Duisburg (Tief- und Hochöfen-Automatisierung) und Daimler-Benz, Bremen (Pkw-Produktionsleitsystem). Trotz Generationswechsel der Hardware und von Teilen der Anwendungsprogramme sind bei beiden Anwendern die Anlagen heute noch vom Institut betreut in Betrieb [12]. Ein Übersichtsbild des fehlertoleranten, verteilten, über Lichtleiter gekoppelten, in Mehrrechner-PEARL programmierten Rechnersystems zeigt Abb. 1.4 [13–15].
1.2.4 Anstrengungen zu einem Innovationsschub, Nachhaltigkeit Wenn die weltweit anerkannten F+E-Ergebnisse den beabsichtigten Innovationsschub und damit einen wirtschaftlichen Erfolg bewirken sollten, mussten das erzeugte Wissen und die gemachten Erfahrungen die Breite der Betroffenen in Wirtschaft und Wissenschaft (Ausbildung) erreichen. Hierzu organisierten die GI, die VDI/VDE-GMR4 und die GfK (Projektträger und Institut für Datenverarbeitung in der Technik) die erste Fachtagung „Prozessrechner 1974“ [16] am 10. und 11. Juni in Karlsruhe, am 12. Juni gefolgt von dem Statusbericht PDV des Projektträgers [8] und einer Klausurtagung5 am 13. Juni zu PDV im 3. DV-Programm. Mit 800 Teilnehmern war die Fachtagung die erste große wissenschaftliche Veranstaltung in der Bundesrepublik Deutschland, die sich ausschließlich mit dem technischen Aufbau, der Programmierung und dem Einsatz von Prozessrechensystemen befasste. 300 Teilnehmer hatte der Statusbericht. Die Reihe der Fachtagungen wurde 1977 in Augsburg unter Leitung von G. Schmidt, und dann 1981 und 1984 fortgesetzt. Parallel trug der 6., 7. und 8. Internationale Kongress mit Ausstellung für Messtechnik und Automatik INTERKAMA in Düsseldorf erheblich zum Wissenstransfer 1974, 1977 [5] und 1980 bei. Den nachhaltigen Erfolg dieser Anstrengungen stellte D. Ernst in der Begrüßungsansprache zur 2. Fachtagung fest: „1974 betrug das Umsatzvolumen auf dem bundesdeutschen Markt 780 Mio. DM, es wuchs auf etwa 1,6 Mrd. DM im Jahre 1977, und wenn man den Prognosen glauben darf, so werden 1980 in der BRD 2,6 Mrd. DM Umsatz auf dem PDV-Sektor erreicht werden.“
Literatur [1] Syrbe, M.: 25 Jahre GMA: Automatisierung im Zeichen der Informationstechnik und der Mikrosysteme. atp, Oldenbourg Verlag, 40 (1998) 6, S. 13–16. [2] Syrbe, M.: Regelungstechnik auf dem Wege. rt, Oldenbourg Verlag, 27 (1979) 4, S. 130–134. 4 5
jetzt GMA Kontaktbrücke zum BMFT RD H. Blask, Referat 412
150
1 Die 70er Jahre
[3] Jacottet, P. (Hauptschriftleiter): 75 Jahre VDE. ETZ-A, VDE Verlag, 89 (1968) Heft 19/20. [4] N.N.: Prozessrechner auf dem deutschen Markt. atw, Verlag Handelsblatt, Heft 3, 1965, S. 125. [5] Syrbe, M.; Will, B. (Hrsg.): Automatisierungstechnik im Wandel durch Mikroprozessoren, INTERKAMA-Kongreß 1977. Springer-Verlag, Fachberichte Messen-Steuern-Regeln, Band 1/1977. [6] Krüger, G.; Dimmler, G.: Multichannel Analysis by Use of an On-Line Computer. Proc. International Symposium on Nuclear Electronics, Paris, 1963, S. 533–538. [7] Krüger, G.: MIDAS – Erfassung und Steuerung kernphysikalischer Messungen durch ein Vielfachzugriffssystem. Proc. NTG-Fachtagung Teilnehmerrechensysteme, Erlangen 1967, Oldenbourg Verlag, S. 135–150. [8] Stams, D. (Hrsg.): Projekt Prozesslenkung mit DV-Anlagen PDV. Projektbericht, Gesellschaft für Kernforschung mbH Karlsruhe, Projektträger, Juni 1974. [9] Martin, T.: Prozessdatenverarbeitung. Elitera-Verlag, 1976, 160 S. [10] Werum, W.; Windauer, H.: PEARL Process and Experiment Automation Realtime Language. Vieweg Verlag, 1978, 195 Seiten. [11] Steusloff, H.: Zur Programmierung von räumlich verteilten, dezentralen Prozessrechnersystemen. Dissertation an der Fakultät für Informatik der Universität Karlsruhe (TH), 1977. [12] Sauer, O.; Sutschet, G.: ProVis.Agent: Ein agentenorientiertes Produktionsleitsystem: Erste Erfahrungen im industriellen Einsatz. VDE-Kongreß 2006, Aachen, Innovations for Europe, Band 2, S. 297–302. [13] Heger, D.; Steusloff, H.; Syrbe, M.: Echtzeitrechnersystem mit verteilten Mikroprozessoren, Forschungsbericht DV 79-01, BMFT, April 1979. [14] Heger, D.: Systemergänzungen und Piloterprobung eines fehlertoleranten Echtzeitrechnersystems mit verteilten Mikroprozessoren (RDC-System). Forschungsbericht DV 81-007, BMFT, Dezember 1981. [15] Syrbe, M.: Über die Beschreibung fehlertoleranter Systeme. rt, Oldenbourg Verlag, 28 (1980) 9, S. 280–289. [16] Krüger, G.; Friehmelt, R. (Hrsg.): Fachtagung Prozessrechner 1974. Lecture Notes in Computer Science, Vol. 12, Springer-Verlag, 1974, 620 Seiten.
2
Die 80er Jahre
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
Hans-Hellmut Nagel (Institut für Algorithmen und Kognitive Systeme, Fakultät für Informatik der Universität Karlsruhe (TH))
2.1.1 Zur Einführung PRO-ART (PROmetheus ARTificial intelligence) bezeichnet eines von sieben Teilprojekten des EUREKA-Projektes PROMETHEUS (PROgraM for a European Traffic with Highest Efficiency and Unprecedented Safety), das bereits vor mehr als zwanzig Jahren begonnen und vor dreizehn Jahren abgeschlossen worden ist – für unsere schnelllebige Zeit fast vor einer Ewigkeit. Dennoch kommen erfahrene Forscher und Entwickler in der europäischen Automobil- sowie Zuliefererindustrie bei Gesprächen zum „Stand der Kunst“ über kurz oder lang auf PROMETHEUS als Schlüsselereignis zurück. Eine solche Beobachtung legt die Frage nahe, worin das Besondere des Prometheus-Projektes bestanden haben könnte. Diese Frage lässt sich – wie im Folgenden gezeigt werden soll – nicht trennen von der Frage nach der Bedeutung und dem Beitrag von PRO-ART, genauso wenig übrigens wie von der Frage nach der Bedeutung, die den sechs anderen Teilprojekten zuzuschreiben ist. Da zu den Ergebnissen sowohl des Prometheus-Projektes insgesamt als auch des Teilprojektes PRO-ART bereits zeitnahe Dokumentationen erschienen sind, auf die im weiteren Verlauf noch eingegangen werden wird, soll dieser Aspekt der 151
152
2 Die 80er Jahre
direkten Projekt-Resultate im Folgenden nur gestreift werden. Der Verquickung von automobil- und verkehrstechnischen, wirtschaftlichen, wissenschaftlichen sowie wissenschaftspolitischen Fragestellungen lässt sich auf dem hier zur Verfügung stehenden Platz kaum gerecht werden. Die folgenden Ausführungen beschränken sich daher auf die Diskussion dreier Fragen, nämlich die Vorgeschichte und das Umfeld des Prometheus-Projektes, eine detailliertere Darstellung der Ereignisse, die das Prometheus-Projekt auslösten, sowie die längerfristigen Folgen dieses – im engeren Sinne zeitlich auf die acht Jahre 1986–1994 beschränkten – Vorhabens.
2.1.2 Zum zeitgeschichtlichen Umfeld des Prometheus-Projektes Prometheus vereinte zum ersten Mal in der Geschichte der Automobilindustrie Forscher und Entwickler der wichtigsten (west-)europäischen Hersteller und Zulieferer länder- und firmenübergreifend mit zahlreichen universitären und außeruniversitären Forschungseinrichtungen in vieljähriger internationaler Kooperation. Ein solches Projekt entsteht nur in einem geeigneten Umfeld – insbesondere angesichts der kurzen Zeit vom Aufkommen der ersten Idee bis zum Beginn konkreter gemeinsamer Arbeiten. Es erscheint sinnvoll, sich dieses Umfeld zu vergegenwärtigen, um das Zustandekommen, die interne Organisation, den Verlauf und die Fortwirkung des Prometheus-Projektes besser verstehen können. Angesichts der überragenden Bedeutung, die heute der Europäischen Union und damit der Europäischen Kommission für die länderübergreifende innereuropäische Forschungs-Kooperation zukommt, ist es nicht selbstverständlich, dass die Initiative zum Prometheus-Projekt auf eine europaweite Industrie-Kooperation im Rahmen von EUREKA zurückgeht. Das EUREKA-Sekretariat zur Förderung der industriellen Forschungs-Zusammenarbeit mit zivilen Zielsetzungen entstand als eine europäische Reaktion auf die Ankündigung anspruchsvoller nationaler Forschungs- und Entwicklungsprogramme in Japan und den USA. Japan hatte durch zähe Arbeit die materiellen Folgen des Zweiten Weltkrieges in den sechziger Jahren weitgehend unter Kontrolle gebracht und sich in den siebziger Jahren als eine der führenden Exportnationen etabliert. Wesentlich dazu beigetragen hatte die Fähigkeit der Japaner, sich mit großer Ausdauer und Phantasie der Perfektionierung von Produkten und Produktionstechniken zu widmen, deren Grundideen vielfach außerhalb Japans entstanden waren. Ein im Sommer 1983 erschienener – gerade auch angesichts der gegenwärtigen Diskussionen über die starke Stellung der chinesischen Exportindustrie sehr aufschlussreicher – Artikel über Japans Rolle als Halbleiter-„Kopist“ [13] lässt deutlich werden, dass die Problematik komplexer war, als es stark vereinfachende Schlagzeilen nahe legen. Erst in den achtziger Jahren begann man weltweit zur Kenntnis zu nehmen, dass die Japaner der Produktionstechnik z. B. auf dem Automobilsektor grundsätzlich neue Impulse verliehen hatten (s. z. B. [17]). Der damit verbundene Zuwachs an wirtschaftlicher Potenz und nationalem Selbstbewusstsein (s. [4]) führte insbe-
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
153
sondere angesichts der Schwierigkeiten der japanischen Wirtschaft in den neunziger Jahren zu tiefer gehenden Analysen der japanischen wirtschaftlichen Leistungsfähigkeit [10]. Inzwischen werden die – durch technisch-wirtschaftliche Konkurrenz mitbedingten – Spannungsfelder zwischen Japan, den USA und europäischen Staaten überlagert vom raschen Bedeutungswachstum der chinesischen Wirtschaft und dessen Folgen. Es empfiehlt sich daher, Aufsehen erregende Einzelereignisse oder kurzfristig hervortretende Entwicklungen in eine längerfristig angelegte Betrachtungsweise einzuordnen. Vor dem Hintergrund dieser hier nur angedeuteten Problematik sollte es eigentlich nicht überraschen, dass Japan in den siebziger Jahren begann, zusätzlich zur Weiterförderung der angewandten Forschung auch der Grundlagenforschung mehr Aufmerksamkeit zu widmen. Bereits in den späten sechziger Jahren hatte das Ministry for International Trade and Industry (MITI) mit dem „Pattern Information Processing (PIP)“-Programm eine von mehreren Maßnahmen auf verschiedenen F+E-Sektoren lanciert. Das PIP-Programm wurde nach zehnjähriger Laufzeit planmäßig abgeschlossen. Seit Ende der siebziger Jahre gewannen Überlegungen zu einem sehr viel ambitionierteren F+E-Programm an Gestalt, das unter der Bezeichnung „Fifth Generation Computer Systems (FGCS)“ während einer speziell für diesen Anlass veranstalteten internationalen Konferenz vorgestellt wurde [7]. Aufbauend auf wissenschaftlichen Fortschritten bei der rechnergestützten Ausführung von formal-logischen Schlussfolgerungsprozessen sollten Daten- und Informationsverarbeitung durch Wissensverarbeitung auf geeignet neu konzipierten Anlagen – der „Fünften Rechner-Generation“ – ergänzt werden, um zukünftigen Nutzern einen besseren Zugang zum Potential rechner-gestützter Assistenzsysteme zu ermöglichen, s. [8]. Es war den Beteiligten klar, dass hierzu noch beträchtliche Probleme in der Grundlagenforschung zu lösen sein würden. Eine Reihe international auf den betroffenen Arbeitsgebieten tätige Experten diskutierten nach Abschluss des FGCS-Projektes im Juni 1992 dessen Ergebnisse und Auswirkungen aus unterschiedlichen Perspektiven, s. [15]. Der in seiner Radikalität neuartige FGCS-Ansatz löste in Verbindung mit der weltweiten Ankündigung sowie der dabei vermittelten Bereitschaft zu einer auf zehn Jahre angelegten substantiellen Förderung einen Schock unter US-amerikanischen und westeuropäischen Wissenschaftspolitikern und Computer-Science-/Informatik-Forschern aus. Als Reaktion darauf entstanden in Kombination mit anderen Entwicklungen neue umfangreiche Förderprogramme in den USA sowie in Westeuropa. Unter der Führung von Präsident Reagan befreiten sich die USA Anfang der achtziger Jahre vom Trauma der siebziger Jahre und begannen wieder bewusst nach vorne zu sehen. Dafür schienen Initiativen geeignet, die auch die Phantasie von Forschern und Entwicklern sowie der damaligen Studentengeneration stimulieren und den technischen Führungsanspruch der USA untermauern sollten. Im Hinblick auf das Thema Prometheus ist hier insbesondere die unter der ReaganAdministration konzipierte Strategic Computing Initiative [12] sowie das Vorhaben zu erwähnen, mit einem mobilen Roboter, dem Mars Rover, die Marsoberfläche zu erkunden.
154
2 Die 80er Jahre
Auch Europa begann in der ersten Hälfte der achtziger Jahre, sich von den in den siebziger Jahren intensiv diskutierten und zeitweise lähmenden Auseinandersetzungen – 68er-Unruhen, über Landesgrenzen hinweg tätig werdende Terrorgruppen, breitere Ablehnung der Atomenergie-Technik, Aufstellung von NATO-Mittelstrecken-Raketen als Antwort auf eine Bedrohung durch Raketen des Warschauer Paktes – zu lösen. Kontinuierliche Bemühungen resultierten in schrittweisen Vertiefungen der Zusammenarbeit, u. a. mit der im Dezember 1985 in Luxemburg verabschiedeten „Einheitlichen Europäische Akte“, durch die die Römischen Verträge von 1957 an die inzwischen entstandene Kooperations-Realität in Europa angepasst wurden. Nicht zuletzt im Bestreben, gerade auch die heranwachsende Generation jüngerer Wissenschaftler für ein europaweites Forschen zu gewinnen, aber auch als Reaktion auf das Japanische FGCS-Projekt, wurde 1983 das ESPRIT-Programm (European Strategic Programme for Research in Information Technologies) konzipiert und am 28. Februar 1984 lanciert. Mehrere Ausschreibungen umrissen grob – zum Teil ausgesprochen grundlagenforschungsorientierte – Themengebiete, zu denen Projektvorschläge von Konsortien eingereicht werden konnten, die aus Forschungsgruppen mehrerer Mitgliedsländer der (damals noch) Europäischen Gemeinschaft (EG) zusammengesetzt sein mussten. Die grob umrissenen Themenbereiche des ersten ESPRIT-Programms wurden als Fokussierungshilfe beim Aufbau einer europäischen Forschungsförderung verstanden und nicht als Vorgaben einer zentralen Behörde zur Steuerung der Grundlagenforschung. Die detaillierte Festlegung der zu bearbeitenden Themenstellung erfolgte durch das antragstellende Forscherkonsortium, wobei keine konsortien-übergreifende Abstimmung der Themenwahl oder Koordination der Bearbeitung vorgesehen war. In diesem westeuropäischen Forschungsumfeld wurde Mitte der achtziger Jahre angesichts der ambitionierten und weltweit kommunizierten nationalen Programme aus Japan und insbesondere aus den USA durchaus registriert, dass die in diesen beiden wirtschaftlich bereits sehr leistungsfähigen Staaten lancierten Initiativen direkt oder indirekt auch die nationalen Industrien weiter stärken sollten. Um dem Eindruck entgegenzutreten, Europa sei nicht in der Lage, etwas Vergleichbares zu bieten, schlug der französische Staatspräsident F. Mitterand (einer Anregung seines Wissenschaftsministers H. Curien folgend) im Frühjahr 1985 vor, für die in Europa tätigen Industriefirmen einen Rahmen bereitzustellen, innerhalb dessen sich Firmen länderübergreifend in gemeinsam verfolgten zivilen F+E-Vorhaben zusammenfinden könnten – die EUREKA-Initiative. Die Zusammenstellung von Konsortien, die Wahl der Themen und insbesondere die Finanzierung sollten dabei den interessierten Firmen überlassen bleiben. Der Vollständigkeit halber muss hier erwähnt werden, dass auch vor dem ESPRIT-Programm bereits mit dem CERN eine europaweit unterstützte Grundlagen-Forschungskooperation zur Elementarteilchenphysik existierte. Auch hatte man sich in Europa bereits vor EUREKA auf zwischenstaatlicher Ebene im Hinblick auf spezielle Hochtechnologien in anwendungsorientierten F+E-Kooperationen zusammengefunden: zu erwähnen sind hier z. B. EURATOM, die European Space Agency (ESA) sowie die Weiterentwicklung und der Bau von Großflug-
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
155
zeugen durch das Airbus-Konsortium. Die komplexen und langwierigen Verhandlungen zur Schaffung und Sicherstellung einer längerfristigen Finanzierung von gemeinsamen europäischen Vorhaben erlaubte aber keine rasche Reaktion auf die Programm-Ankündigungen aus Japan und den USA. Angesichts dieser Erfahrungen erschien es plausibel, dass der französische Staatspräsident 1985 einen anderen Weg wählte, der zur EUREKA-Initiative führte.
2.1.3 Zur Vorgeschichte sichtsystemgestützter Fahrzeugführung Ausgangspunkt war die Idee eines mobilen Roboters, die Ende der sechziger und Anfang der siebziger Jahre mit „Shakey“ erstmals verwirklicht wurde, und zwar am Stanford Research Institute, das ursprünglich aus einer Forschergruppe an der Stanford University hervorgegangen war und später unter der Bezeichnung SRI Inc. als Kontraktforschungs-Institution verselbständigt wurde. Shakey bestand u. a. aus einer dreirädrigen mobilen Plattform, diversen Sensoren – darunter einer Videokamera – sowie einer bidirektionalen Funkverbindung zu einem Signalauswertungs- und Kontroll-Rechner. Die Räder der Plattform waren durch batteriegespeiste Elektromotoren ansteuerbar, wodurch Richtung und Dauer der Plattformbewegung vom stationären Rechner aus über Funk vorgegeben werden konnten. Shakey entstand in einem Labor mit begrenzten Ressourcen, was verständlich macht, dass die Funkübertragungsstrecke zwischen mobilem Roboter und stationärem Rechner von begrenzter Kapazität und störanfällig war. Die umgebungsabhängige Fortbewegung erfolgte gemäß dem Motto „Gucke, denke, tu ’nen Schritt“ in kurzen Fahrphasen, die unterbrochen waren durch relativ lange Phasen zur Video-Erfassung der Umgebung, zur Übertragung der Videosignale an den Bildauswertungs-Rechner sowie zur Bestimmung und Rückübertragung des nächsten Fahrbefehls an den mobilen Roboter. Obwohl diese Ideen bald in zahlreichen Forschungslabors aufgegriffen und zunächst mit viel Begeisterung und Einsatz weiterentwickelt wurden, ebbte dieses anfängliche Engagement im Laufe der siebziger Jahre ab, als der Schwierigkeitsgrad der Aufgabenstellung deutlicher hervortrat. Nur wenige Forschungsgruppen verfolgten diesen Ansatz weiter und profitierten dabei auch von der Weiterentwicklung der Rechnertechnik. Die Miniaturisierung der Halbleiterkomponenten machte kleinere und bei niedrigerem Energieverbrauch dennoch leistungsfähigere Prozessoren sowie Speicherbausteine verfügbar, mit deren Hilfe man die Auswertung der sensorisch erfassten Signale auf dem mobilen Roboter selber durchführen konnte. Dadurch entfiel die aufwändige und störanfällige Funkübertragung zwischen mobilem Roboter und stationärem Rechner. Parallel dazu konnte man zwar rechenaufwändigere, dafür aber robustere Signalauswertungs-Algorithmen einsetzen. Mit diesen Durchbrüchen gewannen sensorgestützte mobile Roboter ab Beginn der achtziger Jahre erneut an Attraktivität, wobei sich die Weiterentwicklung in mehrere Stränge verzweigte, von denen hier drei explizit erwähnt werden:
156
2 Die 80er Jahre
1. Industriell nutzbare, (semi-)autonom mobile Plattformen für die innerbetriebliche Logistik, z. B. für den Transport von Zwischenprodukten oder zugelieferten Teilen mit dem Ziel einer weitergehenden Automatisierung der Fertigung bei größerer Flexibilität, als sie ein Fließband bot. Hier dominierten Kosten-, Sicherheits- und Flexibilitäts-Überlegungen die Entwicklung, wofür man auch Maßnahmen zur geeigneten Strukturierung der Umgebung in Betracht zog, um die Umgebungserfassung durch Robotersensoren zu vereinfachen und robuster zu gestalten. Die Alltagstauglichkeit dieses Ansatzes ist inzwischen erwiesen, entsprechende Produkte werden routinemäßig eingesetzt. 2. Stärker explorativ angelegte Untersuchungen an mobilen Robotern für unstrukturierte Umgebungen im Freien, besonders eindrücklich illustriert durch das Beispiel des Mars Rover zur Erkundung der Oberfläche des Planeten Mars. Zwei Mars Rover wurden im Januar 2004 auf dem Mars abgesetzt und haben von dort spektakuläre Aufnahmen zur Erde gefunkt. 3. Tier- oder menschenähnliche autonom bewegliche Laufmaschinen, die der allgemeinen Öffentlichkeit u. a. durch das Fußball spielende Roboter-Hündchen Aibo oder den artig sich auch in Gegenwart von Prominenz bewegenden Humanoiden Ashimo von Honda bekannt geworden sind.
2.1.4 Zur Vorgeschichte des Prometheus-Projektes in Deutschland Vor dem Hintergrund dieses Mitte der achtziger Jahre existierenden internationalen Forschungsumfeldes soll nunmehr der Gang der Ereignisse skizziert werden, der insbesondere in der Bundesrepublik Deutschland zur Entstehung des Prometheus-Projektes führte. Durch das „Überregionale Forschungsprogramm Informatik (ÜRF)“ war im Laufe der siebziger Jahre in der Bundesrepublik eine breit angelegte und wissenschaftlich solide verankerte Informatik-Forschung und -Lehre entstanden. Im Zusammenhang mit dem hier zu behandelnden Teilthema PRO-ART seien insbesondere zwei Aspekte hervorgehoben, nämlich einerseits die Verbindung zwischen Informatik und Signalauswertung durch den Schwerpunkt „Digitale Verarbeitung kontinuierlicher Signale“ des ÜRF und andererseits die Verankerung des sich international entwickelnden Teilgebietes „Wissensverarbeitung und Künstliche Intelligenz“ in der Informatik-Forschung und -Lehre der Bundesrepublik. Beide Entwicklungen trugen dazu bei, dass sich neu entstandene Informatik-Forschungsgruppen Anfang der achtziger Jahre in einem aus Anregungen von Informatikern hervorgegangenen DFG-Schwerpunktprogramm „Modelle und Strukturen bei der Auswertung von Bild- und Sprachsignalen“ mit Forschungsgruppen aus anderen, seit langem etablierten Disziplinen – insbesondere der Nachrichtentechnik und der Angewandten Physik – zusammenfanden. Diese Gruppen studierten die Interpretation von Signalen anhand explizierter Repräsentationen von Wissen u. a. für die Verfolgung und Beschreibung bewegter Körper. Die dabei
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
157
entstandenen Kontakte und Erfahrungen halfen bei der Konzeption und Umsetzung von Kooperationen mit industriellen Forschungsgruppen. Mitte der achtziger Jahre griff auch das BMFT – teilweise als Reaktion auf das FGCS-Projekt – Anregungen auf, die Weiterentwicklung mobiler Roboter für verschiedene Einsatzbereiche in Forschung und Technik von 1985 bis 1989 in Form eines Verbundprojektes „Autonome Mobile Systeme (AMS)“ zu fördern. Dieses Verbundprojekt ist hier von Bedeutung, weil es in Deutschland die Grundlage für eine Zusammenarbeit zwischen universitären sowie außeruniversitären Forschungsgruppen mit Interesse an Künstlicher Intelligenz/Rechnersehen, nämlich: • Abteilung Biophysik des FB 21 Biologie der Universität Mainz, W. von Seelen; • Fraunhofer-Institut für Informations- und Datenverarbeitung IITB, Karlsruhe, H. H. Nagel; • Institut für Fördertechnik der Universität Karlsruhe (TH), D. Arnold; • Institut für Systemdynamik und Flugtechnik der Universität der Bundeswehr München, E. D. Dickmanns; • Institut für Messtechnik der Universität der Bundeswehr München, V. Graefe; • Institut für Systemdynamik und Regelungstechnik der Universität Stuttgart, E. D. Gilles, und an dieser Themenstellung interessierten F+E-Abteilungen von Firmen in der Fertigungstechnik, der Logistik und der Automobil- sowie Zulieferer-Industrie bildete, nämlich: • Daimler-Benz AG, Stuttgart, Abteilung FTK/F; • Carl Schenk AG, Darmstadt; • Vitronic Bildverarbeitungssysteme, Wiesbaden. Unter Federführung der Daimler-Benz AG wurden hierbei verschiedene mobile Systeme entwickelt, die ihren System- und Umgebungszustand erfassen, auswerten und darauf aufbauend ausgewählte Aktionen einleiten, durchführen und überwachen. Mit den vorangehenden Darlegungen sind die Umstände angedeutet, unter denen sich die Initialzündung für die Entstehung des Prometheus-Projektes abspielte.
2.1.5 Schritte auf dem Wege zum Prometheus-Projekt Obwohl Mitte der achtziger Jahre bereits weltweit über erste Experimente mit einer sichtsystemgestützten Führung mobiler Roboter berichtet worden war [2], erlaubten die damals verfügbaren Rechner und Verfahren noch keine für einen praktischen Einsatz im Straßenverkehr hinreichend schnell, flexibel und sicher erscheinenden Lösungsansätze. Im Sommer 1985 bat mich der Unterabteilungsleiter im BMFT, Herr Uwe Thomas, um eine Stellungnahme zu einem dem BMFT unterbreiteten Memorandum.
158
2 Die 80er Jahre
Ausgehend von allgemeinen gesellschaftspolitischen Überlegungen schlug der Autor dieses Memorandums vor, die Unfallzahlen auf deutschen Straßen in einer nationalen Kraftanstrengung durch Entwicklung und Einführung eines vollautomatisch fahrenden Kraftfahrzeuges dramatisch zu reduzieren: die – dem Vorschlag gemäß als Hauptursache für Verkehrsunfälle anzusehende – Unvollkommenheit des menschlichen Fahrzeugführers sollte durch ein als sicher angenommenes sensorbasiertes technisches System im Verlauf von wenigen Jahren ausgeschaltet werden. Bereits eine vorläufige Analyse des Standes und der damaligen Entwicklungsgeschwindigkeit auf dem Arbeitsgebiet „maschinelles Sehen (Computer Vision)“ ließ nur den Schluss zu, dass ein solches Ziel in der vorgeschlagenen Zeit auch bei prinzipiell unbegrenztem Mitteleinsatz nicht zu erreichen sei. Stattdessen regte ich in meiner Antwort an Herrn Thomas an, das Potenzial einer Kombination von maschinellem Sehen und einer entsprechenden Weiterentwicklung der Kraftfahrzeugtechnik zur Fahrerunterstützung zu nutzen. Eine solche Entwicklung sei allerdings nur sinnvoll, sofern sie europaweit verfolgt würde, damit der Käufer eines solchen Hilfsmittels sie auch jenseits der deutschen Grenzen verwenden könne. Gerade diese Überlegung erschien mir als besonders geeignete Begründung für eine der durch Präsident Mitterand vorgeschlagenen Industrie-Kooperationen im Rahmen von EUREKA. Auf Anregung von Herrn Thomas setzte ich mich mit unseren direkten Gesprächspartnern im AMS-Projekt bei Daimler-Benz, den Herren F. Panik und H.-G. Metzler, in Verbindung. Herr Panik und Herr Metzler stellten von sich aus einen Kontakt mit Herrn Hörnig her, der damals bei Daimler-Benz als Vorstandsmitglied für Forschung und Entwicklung zuständig war. Noch heute bin ich beeindruckt davon, wie rasch und tatkräftig sich Herr Hörnig den Gedanken einer europaweiten Kooperation zur Klärung und gegebenenfalls Realisierung einer solchen Fahrerunterstützung zu Eigen machte. Seine ersten Schritte dienten dazu, zunächst eine solide Unterstützung für ein solches Vorgehen in der deutschen Automobilindustrie zu sichern. Darauf aufbauend begann Herr Hörnig, Partner in der europäischen Automobilindustrie zu gewinnen, um mit denen zusammen europaweit einsetzbare Systeme zu konzipieren und zu erproben. Bei Gleichgültigkeit oder sogar gegen den Widerstand von Automobil-Herstellern in anderen europäischen Ländern erschien ein solches Vorhaben unrealistisch. Im Herbst 1985 entstand mit tatkräftiger Unterstützung von Herrn Hörnig durch den engagierten Einsatz von F. Panik zusammen mit H.-G. Metzler und anderen Mitarbeitern des Hauses Daimler-Benz ein konkretes Konzept für das anvisierte EUREKA-Projekt, ebenso wie das Akronym PROMETHEUS. Eine Kooperation zwischen allen europäischen Automobilherstellern und der Zuliefererindustrie sowie in enger Abstimmung mit den jeweils zuständigen nationalen Forschungs-Ministerien konkretisierte dieses Konzept inhaltlich in sieben Teilprojekte, von denen 1. PRO-CAR 2. PRO-DRIVER 3. PRO-ROAD
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
159
die vorwettbewerbliche Zusammenarbeit der Industriefirmen untereinander im Hinblick auf den betreffenden Problemkreis umfassten. Die Zusammenarbeit zwischen Automobil- und Zuliefererindustrie mit universitären und außeruniversitären Forschungsinstituten war in den folgenden Teilprojekten organisiert: 1. PRO-ART (Artificial Intelligence, Repräsentation und Nutzung von Wissen im Fahrzeug), 2. PRO-COM (Fahrzeug-Fahrzeug- und Fahrzeug-Infrastruktur-Kommunikation über Funk), 3. PRO-CHIP (Vorarbeiten zur Entwicklung der erforderlichen Halbleiter-Komponenten) und 4. PRO-GEN („Generelle“ Fragen, insbesondere unter verkehrswissenschaftlichen Gesichtspunkten).
2.1.6 Zur Umsetzung der Prometheus-Konzeption In den Verhandlungen mit den fördernden Ministerien schälte sich eine zeitliche Strukturierung in vier Phasen heraus, nicht zuletzt, um das zunächst kaum abzuschätzende Risiko besser kontrollieren zu können: 1. 2. 3. 4.
Startphase 1986; Definitionsphase 1987–88; Durchführungsphase I (1989–91); Durchführungsphase II (1992–94).
Charakteristisch für Prometheus war das Bestreben, alle relevant erscheinenden Teilprobleme in eine umfassende Betrachtung einzubeziehen. Es wurden nicht nur mögliche Auswirkungen des Einsatzes der immer leistungsfähiger werdenden Halbleiter-Komponenten im Straßenfahrzeug selber untersucht, sondern auch die Fahrer-Fahrzeug-Schnittstelle sowie die Einbettung jedes Fahrzeuges in seine Verkehrs-Umgebung bis hin zur Anbindung des Individualverkehrs an den Öffentlichen Personen-Nahverkehr, beispielsweise in den Randbereichen größerer Städte. Die Forschungsarbeiten bezogen selbstverständlich auch die Auswirkungen der untersuchten Entwicklungen auf die Ausstattung und den Betrieb von Bussen und LKW ein, bis hin zum europaweiten satellitengestützten Management ganzer LKW-Flotten mit dem Ziel, die Effizienz des Straßentransportes zu verbessern und Leerfahrten zu vermeiden. Entsprechend der europäischen Ausrichtung von Prometheus arbeiteten in PRO-ART universitäre und außeruniversitäre Forschungseinrichtungen in Deutschland, England, Frankreich, Italien und Schweden zusammen, mit einem nationalen PRO-ART-Koordinator sowie mit Unterstützung der jeweiligen nationalen Automobilhersteller und Zulieferer. Am deutschen PRO-ART-Teilprojekt wirkten die folgenden Forschungsgruppen für die jeweils angegebenen Themen mit:
160
2 Die 80er Jahre
1. Graphikon GmbH Berlin: Echtzeitbildverarbeitung im Kraftfahrzeug (E. Bieber, T. Schilling, H. Winter); 2. Institut für Allgemeine und Angewandte Psychologie der Universität Münster: Entwurf und Bewertung der Bedienbarkeit von Bedienoberflächen im Kraftfahrzeug (T. Bösser, D. Gunsthövel, A. Koch, G. Sandor); 3. Universität der Bundeswehr München: Rechnersehen zur Erhöhung der Verkehrssicherheit durch Fahrerunterstützung auf Autobahnen (E. D. Dickmanns, R. Onken et al., Institut für Systemdynamik und Flugmechanik; V. Graefe, K.-D. Kuhnert et al., Institut für Messtechnik; W. Niegel et al., Institut für Programmiersprachen und Programmentwicklung); 4. Institut für Roboterforschung der Universität Dortmund: Koordinierter, kollisionsfreier Betrieb von automatischen Fahrzeugen (E. Freund, U. Judaschke, B. Lammen); 5. Institut für Regelungstechnik der Technischen Universität Braunschweig: Bahnführung eines Straßenfahrzeugs durch Computervision (J. Manigel); 6. Fraunhofer-Institut für Informations- und Datenverarbeitung (IITB) Karlsruhe: Erarbeitung eines maschinellen Kopiloten zur Unterstützung des Fahrers im Übergangsbereich zwischen Autobahn und Innenstadt (W. Enkelmann, E.-J. Blum, H. Fehrenbach, N. Heinze, W. Krüger, H.-H. Nagel, G. Nirschl, S. Rössle, W. Tölle); 7. Forschungszentrum Informatik (FZI) Karlsruhe: Opportunistische Multiagentenplanung – eine Emulationsumgebung für die Systemevaluation im innerstädtischen Straßenverkehr (J. Hesse, A. Huhn, U. Rembold); 8. Institut für Neuroinformatik der Ruhr-Universität Bochum: Hinderniserkennung mit Computer Vision (M. Brauckmann, M. Schwarzinger, W. von Seelen, T. Zielke). Die Forschungsgruppe um E. D. Dickmanns und V. Graefe konnte erstmalig nachweisen, dass eine durch Spezialprozessoren unterstützte, sehr schnelle Kantenelement-Extraktion in hinreichend präzise platzierten Testfenstern um das Abbild von Fahrspurbegrenzungen in Kombination mit einem ausgefeilten regelungstechnischen Ansatz zur Prädiktion und Aktualisierung des Fahrzeugzustands eine sichtsystemgestützte automatische Fahrt auf Autobahnen bis zur Höchstgeschwindigkeit (ca. 100 km/h) des ursprünglich verwendeten Testfahrzeugs erlaubt. Hervorzuheben ist an dieser Stelle auch der durch die Forschungsgruppe um Werner von Seelen entwickelte Ansatz zur Detektion, Lokalisation und Verfolgung potentieller stehender und bewegter Hindernisse vor einem mit Videokameras ausgerüsteten Kraftfahrzeug. Charakteristisch für diese Vorgehensweise war die Nutzung von Ideen, die sich in dieser Forschungsgruppe durch ihre langjährige Auseinandersetzung mit biologisch motivierten Ansätzen herausgebildet hatten. Dadurch erfuhr PRO-ART eine wertvolle Ergänzung und Kontrastierung von stärker ingenieursmäßig inspirierten Vorgehensweisen zur Hindernisdetektion, die von anderen PRO-ART-Gruppen untersucht und weiterentwickelt wurden. Als exemplarische Teilaufgabe für den komplexeren Fall einer Fahrerunterstützung im Innenstadtbereich erarbeitete das IITB eine prototypische Lösung zur
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
161
sichtsystembasierten Erkennung einer ampelfreien innerstädtischen Kreuzung und studierte mit dazu speziell ausgerüsteten, für eine sichtsystembasierte Fahrzeugführung entwickelten Testfahrzeugen einen maschinellen Kopiloten, der bei zu schneller Annäherung an eine Kreuzung auf einer nicht vorfahrtsberechtigten Straße in einer an den Fahrer adaptierten Weise warnt. Im inhaltlichen Zusammenhang mit diesen Untersuchungen wurden im IITB erstmals entwickelte Ideen im Auftrage der Firma Bosch ausgearbeitet, um die in kommerziell erhältlichen digitalen Straßenkarten verfügbaren Angaben über ein innerstädtisches Straßennetz direkt zur modellgestützten sichtsystembasierten Fahrzeugführung heranzuziehen [16]. Diese explizit angeführten Teilergebnisse wurden ergänzt durch eine breite Palette von Ergebnissen zu spezielleren Fragen, beispielsweise zu automatisch durchgeführten Ausweichmanövern bei drohenden Kollisionen oder zur Gestaltung komplexerer Bedienoberflächen bei Fahrerunterstützungssystemen. Eine ausführliche Dokumentation der im Rahmen von PRO-ART in Deutschland durchgeführten Untersuchungen findet sich in [9]. Zahlreiche der in der Start- und Definitionsphase gesammelten und aufbereiteten Ideen konnten bereits bei der großen Abschluss-Demonstration des Prometheus-Projektes 1994 in Paris in Prototyp-Form vorgeführt werden, soweit sie nicht bereits – wie z. B. Ideen zum Flotten-Management – praktisch eingesetzt wurden. Erwähnen möchte ich hier insbesondere Demonstrationen einer sichtsystemgestützten Fahrzeugführung durch mehrere Hersteller sowie die automatische Durchführung von Überholmanövern bei einer Autobahnfahrt durch E. D. Dickmanns und Mitarbeiter von der Universität der Bundeswehr München. Eine umfangreiche, zeitnahe Darstellung und Würdigung der durch das Prometheus-Projekt verfolgten Ansätze – insbesondere aus Sicht der Automobilindustrie – findet sich in einem Artikel von Braess & Reichart 1995, auf den an dieser Stelle im Hinblick auf Details verwiesen wird. Zusammenfassend lässt sich speziell im Hinblick auf den Beitrag von PRO-ART festhalten, dass sichtsystembasierte Fahrerunterstützungssysteme im Kraftfahrzeug gegen Ende des Prometheus-Projektes in der Automobilindustrie als zukünftig praktikable Lösungsansätze akzeptiert wurden. Es erscheint nicht müßig, angesichts neuerer Entwicklungen darauf hinzuweisen, dass diese Erfolge in zivilen Forschungs- und Entwicklungsvorhaben erreicht werden konnten. Etwa ein Jahrzehnt später veranstaltete 2004 die US Defense Advanced Research Project Agency (DARPA) unter dem Stichwort Grand Challenge mit beträchtlicher Medien-Resonanz erstmals eine Wettfahrt autonom geführter Kraftfahrzeuge auf einer teilweise querfeldein vorgegebenen Strecke. Während 2004 kein an den Start gegangenes Fahrzeug dem Ziel auch nur nahe kam, bewältigten bei der 2005 angesetzten Wiederholung fünf von 23 gestarteten Fahrzeugen autonom die gesamte ca. 200 km lange Strecke, davon vier in weniger als der von der DARPA für einen „offiziell anerkannten“ Sieg vorgegebenen Zeit von zehn Stunden. Dies sollte man als Hinweis auf die rasche technische Entwicklung auf diesem Gebiet sehen. Für November 2007 ist erneut eine Wettfahrt für autonome Automobile durch die DARPA mit der Bezeichnung Urban Challenge
162
2 Die 80er Jahre
ausgeschrieben. Hierbei sollen die an den Start gehenden Testfahrzeuge im innerstädtischen Verkehr beweisen, dass sie bei signifikant verkürzten Reaktionszeiten zuverlässig Kollisionen vermeiden und kurzfristig erkennbar werdenden Hindernissen ausweichen können. Ein Vergleich dieser DARPA-Veranstaltungen mit dem Prometheus-Projekt illustriert verschiedene Vorgehensweisen zur Stimulierung und potentiellen Nutzung des technischen Fortschrittes – durch militärische Zielvorgaben motivierte Wettfahrten autonomer Kraftfahrzeuge im Gegensatz zu einer durch erwartete zivile Einsatzmöglichkeiten geprägten Weiterentwicklung im Hinblick auf Fahrerunterstützungssysteme.
2.1.7 Zur Weiterwirkung der durch Prometheus konkretisierten Ansätze Die während des Prometheus-Projektes gesammelten Erfahrungen flossen ein in die Entwicklung – inzwischen teilweise bereits kommerziell angebotener – spezieller Fahrer-Assistenzsysteme wie zum Beispiel zur Spurhaltung, zur Wahrung eines geschwindigkeitsabhängigen Sicherheitsabstandes bei der Autobahnfahrt oder als Stau-Assistent zur Vermeidung von Unfällen bei stockendem Verkehr. Zur Illustration der durch die Prometheus-Aktivitäten stimulierten Entwicklungen sei hier auch die so genannte „elektronische Deichsel“ von Daimler-Benz angeführt, mit deren Hilfe sich LKW vollautomatisch an einem voranfahrenden LKW orientieren und so den Fahrer bei Kolonnenfahrten entlasten können. Die weltweit stimulierende Wirkung des Prometheus-Projektes geht auch daraus hervor, dass gegen Ende der 80er Jahre eine Wissenschaftler-Gemeinschaft entstand, deren Mitglieder sich systematisch über dieses Forschungsgebiet zu verständigen begannen – eingeleitet durch eine Diskussionsrunde über „Visionbased Vehicle Guidance“ am 2. Juli 1990 auf Grund einer Initiative von I. Masaki. Beiträge zu dieser Diskussionsrunde wurden anschließend vom Initiator in Buchform herausgegeben [5]. Dieses Ereignis bildete den Startpunkt einer Serie von „Intelligent Vehicles Symposia“, deren Tagungsbände etwa in jährlichem Rhythmus erschienen sind, überwiegend verlegt durch IEEE. Wesentlich an dieser Stelle erscheint mir das wachsende Bewusstsein sowohl der Automobil- und Zulieferer-Industrie als auch der zuständigen Behörden für die Problematik, wie die wachsenden technischen Möglichkeiten zur Fahrer-Unterstützung in einer durch den Menschen intuitiv erfassbaren Weise trotz individuell variierender Möglichkeiten und Intentionen zugänglich gemacht werden können. Die Vielzahl der dadurch aufgeworfenen Fragen grundsätzlichen Charakters [6] wird u. a. in einem durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Sonderforschungsbereich „Kognitive Automobile“ (TransRegio KarlsruheMünchen) untersucht, der durch die deutsche Automobil- und Zulieferer-Industrie beratend begleitet wird.
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
163
Vielleicht besteht die nachhaltigste Wirkung des Prometheus-Projektes in der überaus positiven Erfahrung einer europaweiten vorwettbewerblichen Zusammenarbeit von Automobil- und Zulieferer-Industrie sowohl untereinander als auch mit universitären sowie außeruniversitären Forschungsgruppen. Diese Hypothese wird unterstützt durch die zahlreichen nationalen und europäischen Folgeprojekte, die bereits während der Durchführung des Prometheus-Projektes und insbesondere nach dessen formellem Abschluss gestartet worden sind. Im Jahre 1988 wurde parallel zum EUREKA-Projekt Prometheus durch die damalige EG das F+E-Programm DRIVE (Dedicated Road Infrastructure for Vehicle safety and Efficiency) gestartet, wobei das Schwergewicht in Ergänzung zum Prometheus-Projekt auf Weiterentwicklungen der erforderlichen Infrastruktur für Stadt- und Überlandstraßen gelegt wurde. Auf das 1991 abgeschlossene DRIVE-Projekt folgte im Rahmen des 3. EU-Rahmenprogramms das Projekt „Advanced Transport Telematics“ (ATT), um die Untersuchungen kontinuierlich voranzutreiben. Innerhalb der Bundesrepublik wurden die im Prometheus-Projekt gesammelten Erfahrungen ausgebaut im Rahmen des durch das BMBF geförderten Projektes INVENT (Innovativer Verkehr und Neue Technik), bei dessen Abschluss-Demonstration am 27./28. April 2005 in München Lösungen auf folgenden Teilproblemfeldern vorgeführt werden konnten: 1. 2. 3. 4. 5. 6. 7. 8.
Fahrumgebungserfassung und Interpretation (FUE), Vorausschauende Aktive Sicherheit (VAS), Stauassistent (STA), Fahrverhalten und Mensch-Maschine-Interaktion (FVM), Verkehrliche Wirkung, Rechtsfragen und Akzeptanz (VRA), Verkehrsleistungsassistent (VLA), Netzausgleich Individualverkehr (NIV), Verkehrsmanagement in Transport und Logistik (VMTL).
Aus diesem Anlass erschien eine umfangreiche Dokumentation zu Vorgehensweise, Ergebnissen und Kooperationspartnern, auf die hier aus Platzgründen nur verwiesen wird – s. Invent-2005-Kontakt. Die durch Prometheus zunehmend der Öffentlichkeit bewusst gemachte Problematik wird auch europaweit in dem durch die EU mitgeförderten Projekt PReVENT [11] untersucht, mit dem Ziel, „to contribute to road safety by developing and demonstrating preventive safety applications and technologies“. Als Teilprojekt von PReVENT widmet sich RESPONSE 3 der Aufgabe: „… to elaborate a European Code of Practice (CoP) for an accelerated market introduction of Advanced Driver Assistant Systems (ADAS). This implies the establishment of „principles“ for the development and evaluation of ADAS on a voluntary basis, as a result of a common agreement between all involved partners and stakeholders. The Code of Practice will help manufacturers to „safely“ introduce new applications through an integrated perspective on human, system, and legal aspects.“
164
2 Die 80er Jahre
Dieser im September 2006 vorgestellte Code-of-Practice stellt ein System von abgestimmten Vorgehensweisen dar, mit deren Hilfe Fahrerunterstützungssysteme entworfen, hergestellt, vertrieben, genutzt und gewartet werden sollen, um alle damit verbundenen Risiken weitestgehend kontrollieren zu können. Bei kurzem Nachdenken wird einsichtig, dass technische Entwicklungen eine Fülle neuartiger Fragen zur Mensch-Maschine-Wechselwirkung und damit letztlich auch zur Rechtsordnung aufwerfen, die europaweit zu diskutieren und zu klären sind (Zitat aus der Einführung von J. S. Schwartz, DaimlerChrysler, bei der Vorstellung des Code-of-Practice im September 2006, s. z. B. Stichworte ADAS oder RESPONSE oder www.esafetysupport.org): • „A product is defective if it does not provide the safety that can reasonably be expected taking into account all circumstances, • in particular the presentation of the product, • the use of the product that can be expected in faith. Risks: • possible damage of brand image, if ADAS doesn’t meet consumer expectations, • possible recall campaigns, if ADAS shows malfunctions, • product liability, if ADAS doesn’t meet requirements of a safe product. • Translating the key issues of „reasonable safety“ and „duty of care“ into engineering practice. • Basis for a definition of „safe“ ADAS development and testing also from a legal point of view. • Agreement on these development guidelines between all stakeholders as basis for company internal translation and/or optimisation of system design specifications and complementary verification methods.“
2.1.8 Nachhaltigkeit Die vorangehend skizzierten Überlegungen lassen vermuten, dass die Konsequenzen von Prometheus weit über rein technische Entwicklungen hinaus wirken: das „mitdenkende“ Fahrzeug fordert Fahrer(in) und Gesellschaft in tief wirkender, zurzeit noch nicht abschließend zu beurteilender Weise. Von diesem Punkt aus ist es nur noch ein Schritt, um denkbare langfristige Konsequenzen einer solchen Entwicklung in zukünftige Betrachtungen einzubeziehen: bei der Gestaltung technischer Umgebungen im täglichen Leben könnten „Fortgeschrittene Fahrerunterstützungssysteme“ auf Grund ihrer erwarteten allgemeinen Verbreitung, der Vielzahl der Produzenten und Konsumenten, des daraus resultierenden Preis- und Kostendruckes sowie wegen der drohenden Gefahren bei Fehlfunktionen oder Missbrauch gleichsam das Versuchskaninchen für die Entwicklung bilden. Auswirken könnten sich Erfolge und Misserfolge u. a. an
2.1 EUREKA-Projekt PROMETHEUS und PRO-ART (1986–1994)
165
einer Stelle, die derzeit noch jenseits des Horizontes des allgemeinen Publikums liegt: bei der Unterstützung älterer allein lebender Menschen, für die angesichts der absehbaren demographischen Entwicklung eine pflegende Begleitung im Alter nicht mehr in vergleichbarem Umfang möglich sein wird, wie es wünschbar wäre. Vor dem Hintergrund einer solchen Perspektive ist es im Rückblick schon bemerkenswert, wie sich im Prometheus-Projekt sehr unterschiedliche Entwicklungslinien kurzzeitig verdrillen und dann wieder auseinanderlaufen mit dem Effekt, dass ihre zeitweise sehr intensive Wechselwirkung in die Breite getragen wird: weltweite allgemein- und wissenschaftspolitische Entwicklungen mit europaweit und insbesondere in der Bundesrepublik Deutschland wirksamen Entwicklungen, der Aufbau der Informatik, die damit entstehende informatikbezogene Infrastruktur für Forschung und Lehre, deren Vernetzung zunächst mit anderen Ingenieurdisziplinen durch DFG-geförderte Schwerpunktprogramme, daraus hervorgehende Kooperationen zwischen universitären und industriellen Forschungsgruppen im BMFT-Projekt „Autonome Mobile Systeme“. Das – sieht man einmal von den vermutlich unvermeidbaren Verzögerungen ab, die mit jeder Forschungsfinanzierung verbunden sind – ungemein rasche Zustandekommen des PrometheusProjektes lässt vermuten, dass die innerhalb der europäischen Automobil- und Zulieferer-Industrie bestehende Bereitschaft zur vorwettbewerblichen Kooperation ebenfalls auf einer vorangehenden Entwicklung beruhte, die für mich als Außenseiter verständlicherweise nicht erkennbar war. Aber die Schnelligkeit des Zusammenwachsens von Forschungskooperationen über Disziplin- und Landesgrenzen hinweg legt nahe, dass insgesamt eine latente Situation vorlag, die ich in Analogie zu einem unterkühlten Gasgemisch sehen möchte: das Potential zu einer im Detail kaum nachvollziehbar rasch ablaufenden Kondensationsreaktion lag Mitte der achtziger Jahre vor – sobald ein geeigneter Kondensationskeim auftrat, setzte eine „Phasenumwandlung“ ein. Vorher nicht beobachtete und daher auch in diesem Ausmaß unerwartete, dezentral organisierte europaweite Kooperationen wurden Realität, die bis heute nachwirken. Es ist in meinen Augen kein Zufall, dass in Europa Automobile produzierende und vertreibende Firmen die zum „Code-of-Practice“ führenden Abstimmungen im Hinblick auf die Einführung fortgeschrittener Fahrerassistenzsysteme erarbeiteten eine weltweit unter Fachleuten als führend anerkannte Leistung.
Literatur [1] Braess, H.-H. & Reichart, G.: Prometheus: Vision des „intelligenten Automobils“ auf „intelligenter Straße“? – Versuch einer kritischen Würdigung. Automobiltechnische Zeitschrift ATZ 97:4 (1995) 200–205 (Teil I) und 97:6 (1995) 330–343 (Teil II). [2] Enkelmann, W.: Entwicklung von Systemen zur Interpretation von Straßenverkehrsszenen durch Bildfolgenauswertung. Verlag Dr. Ekkehard Hundt, „infix“, Sankt Augustin 1997. [3] Invent-2005-Kontakt: INVENT-Büro, Hülenbergstr. 10, D-73230 Kirchheim unter Teck (http://www.invent-online.de).
166
2 Die 80er Jahre
[4] Makino, N. & Hoshino, Y.: Weltmacht am Wendepunkt – Krise und Perspektive der Hochtechnologie aus japanischer Sicht. Deutsche Übersetzung: Management Presse Verlag, München 1991. [5] Masaki, I. (Editor): Vision-based Vehicle Guidance. Springer-Verlag Inc., New York NY 1992. [6] Maurer, M. & Stiller, C. (Hrsg.): Fahrerassistenzsysteme mit maschineller Wahrnehmung. Springer-Verlag Berlin Heidelberg 2005. [7] Moto-oka, T; Aiso, H.; Fuchi, K.; Karatsu, H. & Yamamoto, K. (Eds.): Proceedings International Conference on Fifth Generation Computer Systems (FGCS-81), 19–22 October 1981, Tokyo; Japan Information Processing Development Center 1981a. [8] Moto-oka, T. et al. (1981b): Challenge for Knowledge Information Processing Systems. In Moto-oka et al. 1981a, pp. 1–85. [9] Nagel, H.-H. (Hrsg.): Sichtsystemgestützte Fahrzeugführung und Fahrer-Fahrzeug-Wechselwirkung. Verlag Dr. Ekkehard Hundt, „infix“, Sankt Augustin 1995 (2 Bände). [10] Porter, M.E.; Takeuchi, H., Sakakibara, M.: Can Japan Compete? Macmillan Press Ltd, London 2000. [11] PReVENT-Kontakt: http://www.prevent-ip.org [12] Roland, A. with Shiman, P.: Strategic Computing: DARPA and the Quest for Machine Intelligence 1983–1993. The MIT Press, Cambrige, MA 2002. [13] sc (Kürzel des NZZ-Korrespondenten in Tokio, Sommer 1983): Japans Rolle als Halbleiter„Kopist“. Neue Zürcher Zeitung, 29. Juli 1983 (Fernausgabe Nr. 174, S. 9). [14] Seetharaman, G.; Lakhotia, A., Blasch, E.P. (Guest Editors): Unmanned Vehicles Come of Age: The DARPA Grand Challenge (Introduction to this Special Issue). IEEE Computer 39:12 (December 2006) 26–29; siehe auch die weiteren Beiträge zu diesem Themenheft. [15] Shapiro, E., Warren, D.H.D. (Guest Editors): The Fifth Generation Project: Personal Perspectives. Communications of the ACM 36:3 (1993) 46–101. [16] Siegle, G.; Geisler, J.; Laubenstein, F.; Nagel, H.-H., Struck, G: Autonomous Driving on a Road Network. Proc. Intelligent Vehicles Symposium IVS ‘92, 29 June – 1 July 1992, Detroit/MI, pp. 403–408. [17] Womack, J.P.; Jones, D.T., Roos, D.: The Machine That Changed The World. Rawson Assoc., Macmillan Publ. Co., New York, 1990.
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
167
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
Peter Struss (Technische Universität München)
2.2.1 Von „Expertensystemen“ zu modellbasierten Systemen Der Aufschwung der KI in den 70er und 80er Jahren war wesentlich mitbestimmt durch die Entwicklung von Expertensystemen, die die Nutzung von KI-Technologie für reale Anwendungsbereiche versprachen. Deren Ansatz war, das Erfahrungswissen von Fachexperten eines bestimmten Gebietes in deklarativer Form in einer Wissensbasis zu repräsentieren und dann auf viele Problemstellungen und Einzelfälle anzuwenden. Dabei wurde Expertenwissen überwiegend als modulare Sammlung empirisch begründeter WENN-DANN-Regeln (etwa Assoziationen von Symptomen und Krankheiten in der medizinischen Diagnose) aufgefasst. Regelbasierte Systeme waren daher das vorherrschende Paradigma. In der Bundesrepublik widmeten sich mehrere universitäre, industrielle und geförderte Verbundprojekte der Forschung an Expertensystemen. Gegenstand waren Entwicklungswerkzeuge („Expertensystem-Shells“ wie BABYLON und TWAICE) und aufgabenorientierte Systeme (etwa Diagnose in TEX-I und Konfiguration in TEX-K). Bereits Anfang der 80er Jahre wurden die Grenzen der traditionellen Expertensysteme deutlich. Vor allem in industriellen Anwendungen, z. B. bei der automatischen Diagnose technischer Anlagen und Systeme, sind empirische Assoziationen als (alleinige) Wissensgrundlage für die Problemlösung nicht wirksam. Um dies an einem Beispiel zu illustrieren: ein traditionelles, regelbasiertes Diagnose-Expertensystem, etwa für ein Kraftfahrzeug, würde als Wissensbasis eine Menge von Assoziationen zwischen Symptomen und ihren möglichen Fehlerursachen als Regeln enthalten und darauf einen Regelinterpreter als allgemeinen Inferenzmechanismus anwenden. In Regeln wie WENN Motor_springt_nicht_an DANN Mögliche_Ursache_Batterie_leer WENN Scheinwerfer_leuchten DANN NICHT(Mögliche_Ursache_Batterie_leer) etc. spiegelt sich Wissen wider, das sowohl aufgabenorientiert (nämlich diagnosebezogen) ist, als auch spezifisch für den Gegenstand der Aufgabenstellung, eine bestimmte Klasse von Fahrzeugen. Letzteres wird z. B. relevant, wenn man Fahrzeuge betrachtet, die über eine separate Batterie für das Antriebssystem verfügen (Abb. 2.1). Weil bei ihnen trotz funktionierender Scheinwerfer das Fahrzeug
168
2 Die 80er Jahre
Abb. 2.1 Ein vereinfachtes elektrisches Kfz-Subsystem mit Anlasser, Front- und Heckleuchten sowie a) einer, bzw. b) zwei Batterien
durchaus wegen einer defekten Batterie nicht anspringen könnte, müsste die zweite Regel geändert werden. Dem liegt zugrunde, dass die Auswirkungen einzelner (Komponenten-)Fehler von Struktur und Verhalten des Gesamtsystems abhängen, was in die Regeln „hineincodiert“ ist. Stattdessen gilt es, in der Wissensbasis „1st Principles“, d. h. systematisches naturwissenschaftliches und Ingenieurwissen, zu repräsentieren. Konkret bedeutet dies, Verhaltensmodelle von relevanten Systembausteinen in algorithmischen Problemlösern automatisch zu verarbeiten. Die Notwendigkeit und das Potential solcher modellbasierter Systeme wurden auch in Deutschland erkannt und motivierten, auf Initiative von P. Raulefs von der Universität Kaiserslautern, zum Verbundprojekt TEX-B (1985–1989), in dem an Grundlagen der Modellierung physikalisch-technischer Systeme gearbeitet wurde. Auf den Ergebnissen setzte das Projekt BEHAVIOR (1991–1994) auf. Hier wurden Theorien und Algorithmen für die automatische modellbasierte Diagnose entwickelt und z. B. auf die Fehlerlokalisierung in Ballastwassertanksystemen angewendet. Während in diesen beiden Projekten erfolgreich die Anfang der 80er Jahre bestehenden Rückstände gegenüber der Forschung in den USA aufgeholt und etliche wichtige Beiträge zur internationalen Forschung geleistet wurden, verschaffte das folgende INDIA-Projekt einen Vorsprung im Hinblick auf die Umsetzung der Forschungsergebnisse.
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
169
2.2.2 Von der Theorie zu Anwendungsprototypen Die Ziele von INDIA waren: • der Transfer der Technologie in reale industrielle Anwendungen, • die Fokussierung der Forschung auf die dabei auftretenden Probleme und • die Entwicklung übertragbarer Verfahren. Es wurden drei sehr unterschiedliche Anwendungen bearbeitet und deren Anforderungen und Lösungsansätze im projektinternen Austausch abgeglichen. Jede dieser drei Säulen bestand jeweils aus einem Anwender für das konkrete Problem, einer Forschungsinstitution für die theoretischen Grundlagen und prinzipiellen Verfahren und einem Systemhaus für den Brückenschlag zwischen Theorie und Praxis, also für die Umsetzung der Verfahren in industriell einsetzbare Systeme. Die Anwendungsbereiche waren: • Flurförderzeuge (Gabelstapler) mit den Partnern STILL GmbH, Hamburg, ServiceXpert GmbH, Hamburg, und LKI Labor für Künstliche Intelligenz, Universität Hamburg • Anlagenbau (Färbereianlage) mit THEN Maschinen- und Apparatebau, Schwäbisch Hall, R.O.S.E. Informatik GmbH, Heidenheim, und Fraunhofer-Institut für Informations- und Datenverarbeitung IITB, Karlsruhe • Mechatronische Kfz-Systeme mit der Robert Bosch GmbH, Stuttgart, und der TU München, Model-Based Systems & Qualitative Reasoning Group (MQM) Grundlage aller im Projekt untersuchten Lösungsansätze war die modellbasierte Diagnose: Grundlage des Verfahrens sind eine Modellbibliothek und eine Strukturbeschreibung des Systems. Die Modellbibliothek enthält Verhaltensbeschreibungen der Komponenten eines Systems. Aus diesen beiden wird automatisch ein Struktur- und Verhaltensmodell des konkreten Systems generiert, das dann automatisch analysiert werden kann, um computergestützte Diagnosen zu generieren (s. Abb. 2.2). Dasselbe Modell kann dann auch als Basis für andere Aufgabenstellungen wie Failure-Modes-and-Effects Analysis oder Monitoring und Fehlerdetektion verwendet werden. Auch aus INDIA gingen eine Reihe von Dissertationen und Publikationen hervor (z. T. in einem Buch zusammengefasst, [3]), vor allem aber Anstöße zu weiteren industriellen Projekten und zur (Weiter-)Entwicklung von kommerziellen Werkzeugen für die Erstellung modellbasierter Systeme, die bis heute zu den avanciertesten gehören, wie rodon (damals von R.O.S.E Informatik entwickelt und heute von Sörman vermarktet) und RAZ’R (OCC’M Software).
170
2 Die 80er Jahre
Abb. 2.2 Prinzip der modellbasierten Diagnose
2.2.3 Grundlagen modellbasierter Problemlöser Modellbasierte Systeme repräsentieren Wissen, z. B. über eine Klasse von technischen Systemen, explizit und separat vom aufgabenspezifischen Wissen, eben in einem Modell. Ein Inferenzmechanismus, der „Prädiktor“, leitet aus diesem Modell Aussagen über das Systemverhalten in verschiedenen Situationen ab, etwa dass bei einer Schaltung wie in Abb. 2.1a eine betriebsbereite Batterie zusammen mit intakten Leitungen und einem funktionierenden Anlasser den Motor anspringen lässt. Neben dem allgemeinen, nicht diagnosebezogenen Prädiktor (z. B. einem Constraint-Solver) existiert ein diagnosespezifischer Inferenzmechanismus. Dieser wird z. B. aufgrund des Prädiktorergebnisses und der Beobachtung Motor_springt_nicht_an Batterie, Leitungen und Anlasser als mögliche Diagnosehypothesen generieren, diese ggf. durch den Prädiktor überprüfen, etc. Dabei stützt er sich evtl. auf weiteres, diagnosespezifisches Wissen, etwa bestimmte Teststrategien. Verglichen mit dem regelbasierten System werden also im modellbasierten Ansatz • Wissen über Gegenstand und Aufgabe getrennt und • spezifischere und aufgabenbezogene Inferenzmechanismen verwendet (welche sich allerdings oft durch allgemeinere implementieren lassen). Als Folge wird ein so organisiertes System ein Fahrzeug mit zwei Batterien wie in Abb. 2.1b korrekt diagnostizieren, da der strukturelle Unterschied im Modell explizit gemacht und vom Prädiktor berücksichtigt wird. Da hier im
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
171
dargestellten Wissen auf die grundlegenden (physikalischen) Prinzipien zurückgegangen wird, ist modellbasiertes Schließen auch als „reasoning from first principles“ charakterisiert. Modellbasierte Systeme müssen sich also auf eine systematische, strukturierte Darstellung von Wissen über einen komplexen Gegenstand(-sbereich), aus der Aussagen über das Verhalten des Gegenstands ableitbar sind, stützen und damit auf Lösungen zu fundamentalen Aufgabenstellungen der Künstlichen Intelligenz, nämlich Wissen über die (natürliche oder technische) physikalische Welt zu formalisieren. Damit wird auch deutlich, dass die entsprechenden Modelle und Systeme über die gebräuchlichen (etwa numerische Simulationsmodelle) und darauf gegründete Ansätze im industriellen Einsatz oder in den Ingenieurwissenschaften hinausgehen müssen. Letztere beschränken sich zumeist auf die Nutzung eines rein mathematischen (oft geschlossenen) Verhaltensmodells im Computer, während modellbasierte KI-Systeme darauf abzielen, zusätzlich eine konzeptuelle Sicht auf den Gegenstand, seine physikalischen Konstituenten und seine Struktur, kausale Beziehungen, Modellierungsannahmen etc. zu repräsentieren, um darauf Verfahren des automatischen Schließens anwenden zu können. In der Regel sind diese Modelle kompositional und heben ausdrücklich auf die Unterstützung des Modellierungsschrittes ab. Ferner handelt es sich oft um qualitative Modelle, die sowohl kognitiven Aspekten Rechnung tragen, als auch einen anwendungsbezogenen Abstraktionsgrad aufweisen. „Zu geringe“ Batteriespannung zum Beispiel liefert eine intuitive Erklärung für „Motor springt nicht an“ (im Gegensatz zu „U < 1.4 V“), reflektiert aber auch, dass eine ausreichende Minimalspannung situationsabhängig und damit nicht eindeutig numerisch zu definieren ist. Wird das Wissen über den Gegenstandsbereich in fundierter, wissenschaftlicher Weise repräsentiert, so kann (und muss) auch der Problemlöse-Algorithmus über heuristische Verfahren hinausgehen und formal exakt begründet werden. Dies wurde vor allem durch konsistenzbasierte Problemlöser mit einer logischen Formalisierung erreicht. Für die Aufgabenstellungen in der Diagnose gilt es, aufgrund von aktuellen Beobachtungen und Messungen, OBS, des Verhaltens eines Systems abzuleiten, ob es im Einklang mit der gewünschten Zielsetzung, GOALS, arbeitet (Fehlerdetektion), wo ggf. der Fehler liegt (Fehlerlokalisierung) und evtl. welcher Fehler vorliegt (Fehleridentifikation). Sind sowohl das Systemmodell, MODEL, als auch OBS und GOALS als logische Theorien formalisiert, so ist Fehlerdetektion beschreibbar als Konsistenzprüfung: ? MODELOK ∪ OBS ∪ GOALS ⏐⎯ ⊥,
wobei das Systemmodell unter der Annahme darstellt, dass sämtliche Komponenten korrekt funktionieren. Setzt man voraus, dass der Entwurf das Erfüllen der Zielsetzungen garantiert, d. h. MODELOK ⏐⎯ GOALS gilt, so reduziert sich das Problem auf die Überprüfung ?
MODELOK ∪ OBS ⏐⎯ ⊥
172
2 Die 80er Jahre
Wird eine Inkonsequenz festgestellt, d. h. liegt ein unerwünschtes Verhalten vor, ist eine Diagnose durchzuführen, um mögliche Ursachen zu ermitteln. Für uns lässt sich dies wiederum formalisieren als Suche nach einem revidierten Modell, das zumindest konsistent mit den Beobachtungen ist: MODELOK ∪ OBS ⏐⎯ ⊥ Ö MODEL1 ∪ OBS ⏐⎯/ ⊥. Bei der komponenten-orientierten Diagnose ergeben sich die Modellrevisionen als Negation der Korrektheit einer oder mehrerer Komponenten. Impliziert diese Negation Modelle möglichen Fehlverhaltens der jeweiligen Komponente, so ist dies die Basis für Fehleridentifikation, andernfalls können nur mögliche Fehlerlokalisierungen berechnet werden, wohlgemerkt ausschließlich auf der Basis des modellierten korrekten Komponentenverhaltens, d. h. ohne Annahmen über spezifische Fehler. Letzteres macht modellbasierte Diagnose auch in dieser Hinsicht erfahrungsbasierten Ansätzen überlegen, da sie die Möglichkeit eröffnet, auch neuartige Systeme und solche mit unbekannten Fehlern zu diagnostizieren. Diese Formalisierung bildet die Grundlage für die Entwicklung von Algorithmen mit beweisbaren Eigenschaften, etwa im Hinblick auf die Korrektheit und Vollständigkeit der berechneten Lösungen. In ähnlicher Weise können andere Aufgabenstellungen formalisiert werden, etwa die Failure-mode-and-effect Analysis (FMEA), in der zu berechnen ist, ob die Modelle bestimmter Klassen von Fehlern spezifizierte unerwünschte Effekte auf das Systemverhalten logisch implizieren [9].
2.2.4 Industrielle Anwendung von wissensbasierten Systemen In der Folge von INDIA wurde die Technologie in verschiedenen Projekten, vor allem im Automobilsektor, weiterentwickelt. In VMBD (Vehicle Model-based Diagnosis, [1]) wurde von der Robert Bosch GmbH, der MQM-Group der TU München und OCC’M Software GmbH ein modellbasiertes System für die Realzeit-On-Board-Diagnose entwickelt und auf einem Volvo-Versuchsfahrzeug erprobt [7], das auch auf der IJCAI 1999 in Stockholm demonstriert wurde. IDD (Integrating Diagnosis in the Design of Automotive Systems, [2]) produzierte modellbasierte Werkzeuge für den Entwurfs- und Entwicklungsprozess von OnBoard-Software. Benchmarks für modellbasierte On-Board-Diagnose wurden von BMW und Volkswagen durchgeführt, in letzterem Falle erstmals auf Prozessoren, wie sie als Steuergeräte auf Serienfahrzeugen eingesetzt werden [8]. Auch bei den LKW-Herstellern wird derzeit an der Einführung modellbasierter Technologie gearbeitet, etwa bei Scania und Volvo/Renault. Auch Failure-modes-and-effects Analysis (FMEA) wird modellbasiert unterstützt: ein ursprünglich von der University of Aberystwyth entwickeltes System zur automatischen Elektrik-FMEA wird weltweit bei Ford eingesetzt und heute von Mentor Graphics vertrieben. FMEA-Unterstützung für die Luftfahrtindustrie wurde in AUTAS (Automating FMECA for Aircraft Systems, [5]) entwickelt.
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
173
Wesentliche Impulse und Koordinierung von Aktivitäten gingen von dem europäischen Network of Excellence MONET (Model-based Systems and Qualitative Modeling Network, http://monet.aber.ac.uk) aus. All dies führte dazu, dass sich die europäische Forschung und Entwicklung auf dem Gebiet der modellbasierten Systeme in quantitativer und qualitativer Hinsicht einen Vorsprung vor den Aktivitäten in den USA erarbeitet hat. Auch dort ist allerdings ein deutlicher Fortschritt im industriellen Interesse zu verzeichnen, etwa bei BOEING [4] und NASA [6]. Im akademischen Bereich ist der deutsche Beitrag derzeit zurückgegangen. Aber das große Potential und die gute Tradition und solide Grundlage sollten zu einem Wiedererstarken führen.
2.2.5 Die Evolution von „Expertensystemen“ bis heute Das Projekt INDIA mit seiner Vor- und Nachgeschichte und seinem fachlichen Umfeld ist exemplarisch und liefert auch eine Antwort auf die oft gestellte Frage: „Gibt es denn nun (endlich?, noch?) Expertensysteme in der Praxis, oder eröffneten sie anstelle einer viel versprechenden Perspektive nur eine Sackgasse?“ Wenn man von den hochgespielten Versprechungen und Erwartungen absieht und die Zielsetzung, den fachlichen Kern und den Einfluss des Gebiets innerhalb der KI-Forschung untersucht, kann man eine nüchterne Einschätzung seiner Rolle entwickeln. Die Forschung über Künstliche Intelligenz speiste sich ursprünglich wesentlich aus dem Antrieb, Modelle menschlicher kognitiver und perzeptiver Fähigkeiten zu entwickeln und diese Fähigkeiten auf Computern zu reproduzieren. Der Anspruch war fundamental und holistisch. „General Problem Solver“ waren ein Ziel, die Automatisierung von Common-Sense-Reasoning, lernende Systeme – faszinierende Zielsetzungen, die aber eher ein langfristig angelegtes Forschungsprogramm verhießen als kurzfristig greifbare Erfolge. Verschiedene Forschergruppen verschrieben sich dann aber der Lösung recht konkreter Problemstellungen, etwa der Automatisierung medizinischer Diagnostik (z. B. in Stanford) oder einem „Engineering Problem Solving Project“ (M.I.T.). Diese Entwicklung fand ihren sichtbaren und populären Ausdruck in der Entwicklung von Expertensystemen. Statt auf omnipotente intelligente Systeme wurde darauf gezielt, konkrete Anwendungsaufgaben zu lösen, indem das dazu notwendige Wissen der Fachexperten deklarativ repräsentiert und durch einen generellen Algorithmus genutzt wurde. Dies bescherte dem Forschungszweig und der KI natürlich gesellschaftliches und industrielles Interesse und auch vermehrte Fördermittel. In diesem Strom setzte sich die KI-Forschung vermehrt mit konkreten Anwendungsgebieten und Fachwissen auseinander und weniger mit Problemen wie dem Turm von Hanoi oder der Repräsentation von Pinguinen als AusnahmeExemplare einer flugfähigen Tierart. Diese Herausforderungen haben der KI-Forschung einen großen Schub versetzt, die Lösung einiger Probleme beschleunigt, vor allem aber viele Probleme erst auf die Agenda der Forschung gebracht. Die KI-Forschung war nach dem „Expertensystem-Boom“ nicht mehr dieselbe wie
174
2 Die 80er Jahre
vorher. Dies geht so weit, dass man heute in der aktuellen Forschung zuweilen sehr nach jenen übergreifenden Visionen der KI suchen muss. Aber letztlich hat oder wird die Forschung über Künstliche Intelligenz über die konkreten Herausforderungen auch einen Fortschritt in Richtung der großen Zielsetzung machen – ganz nach dem Prinzip „You cannot think about thinking without thinking about thinking about something“. Eine der grundlegenden Ideen der Expertensysteme war die Trennung einer deklarativen Repräsentation des Problemlösewissens, der Wissensbasis, von einem Algorithmus zur aufgabenorientierten Anwendung dieses Wissens, dem Problemlöser. Dieses Prinzip ist die Grundlage wissensbasierter Systeme, verstanden als Systeme mit einer Wissensbasis, nicht als Systeme, die auf Wissen basiert sind, was – hoffentlich – für alle Computersysteme zutrifft. Der Ansatz der „klassischen“ regelbasierten Expertensysteme mit der – zumindest impliziten – Reduktion von Expertenwissen auf empirische Assoziationen hat sich aus den oben angeführten Gründen als Sackgasse erwiesen und spielt heute in Anwendungen kaum noch eine Rolle. Regelbasierte Systeme, wie auch die „moderneren“ empirie-basierten Paradigmen wie neuronale Netze oder fallbasiertes Schließen, leiden unter den unbekannten Grenzen ihrer Anwendbarkeit. Diese Grenzen sind eben durch die Bedingungen, unter denen die Erfahrungen gesammelt werden, etwa der konkreten Systemstruktur, bestimmt und damit nur implizit. Auf neue Systeme oder Systemvarianten, die durchaus bekannte Komponenten beinhalten, diese jedoch in einer veränderten Struktur verknüpfen, oder nur neue Komponenteninstanzen in einer bekannten Struktur verwenden, sind die empiriebasierten Systeme nicht anwendbar. Eine der großen Herausforderungen der industriellen Anwendungen besteht aber gerade darin, Problemlösen repetitiv und dennoch kostengünstig auf immer neue Varianten von Entwürfen oder realisierten Systemen anwenden zu können. Zum Beispiel müssen mit jedem neuen Fahrzeugtyp ja die adäquaten On-board Diagnostics und auch die Werkstatt-Diagnose-Software für eine Vielzahl von Typ- und Funktionsvarianten ausgeliefert werden. Niemand möchte doch die zielgerichtete Behebung von Fahrzeugdefekten davon abhängig machen, dass die Werkstätten erst einmal über Monate Erfahrungen mit der Diagnose des neuen Typs sammeln. Wie oben illustriert, bieten modellbasierte Systeme eine Antwort auf diese Herausforderungen. Das Scheitern der empirie-basierten Expertensysteme hat ihre Entwicklung motiviert und vorangebracht (einer der Protagonisten der neuen Technologie war R. Davis, der zuvor im Projekt des regelbasierten Diagnosesystems MYCIN Erfahrungen gesammelt hatte). Die regelbasierten Expertensysteme sind heute allenfalls noch in Nischen zu finden, in denen die Modellierung der relevanten Prozesse schwierig ist (oder für unmöglich gehalten wird) und auf Erfahrungswissen zurückgegriffen werden muss (Beispiel: Systeme mit biologisch-chemischen Prozessen wie Wasseraufbereitung), oder sie haben einen verborgenen Paradigmenwechsel vollzogen, indem sie eben Regeln benutzen, um 1st Principles zu codieren. Modellbasierte Systeme teilen mit den Expertensystemen der ersten Generation die Zielsetzung, Expertenwissen in deklarativer Weise zu repräsentieren und generische Inferenzalgorithmen darauf anzuwenden. Systematisch gesehen ist in modell-
2.2 Wissensbasierte Systeme: Verbundprojekt INDIA
175
basierten Systemen das Gebietswissen in allgemeinerer Form dargestellt als in regelbasierten Systemen, insbesondere unabhängig von der jeweiligen Aufgabe. Die spezifischen Aufgaben, wie Entwurf, FMEA, Diagnose, Testen, prägen dafür speziellere Inferenzmechanismen, wie etwa konsistenzbasierte Diagnoseverfahren. Deren Basis beinhaltet aber als Kern dieselben Elemente, nämlich Verhaltensvorhersage und Konsistenzprüfung, und können daher auch aus einem Fundus grundlegender Operationen und Funktionen realisiert werden. Sie alle stützen sich letztlich auf dieselbe Modellbibliothek. Damit ist Wiederverwendung des repräsentierten Wissens nicht nur für unterschiedliche Varianten einer Aufgabenklasse möglich, sondern auch für verschiedene Aufgaben während des gesamten Produktlebenszyklus. Dies liefert einen Beitrag zu einer weiteren Herausforderung industrieller Anwendungen: dem Wissensmanagement und der horizontalen Integration von Arbeitsprozessen. Jenseits von terminologischen Diskussionen zeigt sich also, dass Expertensysteme einen wichtigen Beitrag zur Entwicklung der KI-Forschung geleistet haben und sich wissenschaftliche Anstrengungen und materielle Investitionen heute auszahlen in Fortschritten bei der Lösung anspruchsvoller Aufgaben in industriellen Anwendungen.
Literatur [1] Bidian, P.; Tatar, M.; Cascio, F.; Theseider-Dupré, D.; Sachenbacher, M.; Weber, R.; Carlén, C.: Powertrain Diagnostics: A Model-Based Approach, Proceedings of ERA Technology Vehicle Electronic Systems Conference ‘99, Coventry, UK, 1999. [2] Brignolo, R.; Cascio, F.; Console, L.; Dague, P.; Dubois, P.; Dressler, O.; Millet, D.; Rehfus, B.; Struss, P.: Integration of Design and Diagnosis Into a Common Process. In: Electronic Systems for Vehicles, pages 53–73. VDI Verlag, Duesseldorf, 2001. [3] Hotz, L.; Guckenbiehl, T.; Struss, P.: Intelligente Diagnose in der industriellen Anwendung. Shaker Verlag, Aachen, 2000. [4] Keller, K.: Health Management Technology Integration. In: Biswas, G. et al. (eds.), DX‘07, 18th International Workshop on Principles of Diagnosis. Nashville, USA, 2007. [5] Picardi, C.; Console, L.; Berger, F.; Breeman, J.; Kanakis, T.; Moelands, J.; Collas, S.; Arbaretier, E.; Domenico, N. De; Girardelli, E.; Dressler, O.; Struss, P.; Zilbermann, B.: AUTAS: A tool for supporting FMECA generation in aeronautic systems. In: Proceedings of the 16th European Conference on Artificial Intelligence August 22nd – 27th 2004 Valencia, Spain. [6] Poll, S.; Patterson-Hine, A.; Camisa, J.; Garcia, D.; Hall, D.; Lee, C.; Mengshoel, O.; Neukom, C.; Nishikawa, D.; Ossenfort, J.; Sweet, A.; Yentus, S.: Advanced Diagnostics and Prognostics Testbed. In: Biswas, G. et al. (eds.), DX‘07, 18th International Workshop on Principles of Diagnosis. Nashville, USA, 2007. [7] Sachenbacher, M.; Struss, P.; Weber, R.: Advances in Design and Implementation of OBD Functions for Diesel Injection Systems based on a Qualitative Approach to Diagnosis, SAE 2000 World Congress, Detroit, USA, 2000. [8] Struss, P.: A model-based methodology for the integration of diagnosis and fault analysis during the entire life cycle. In: Hong-Yue Zhang (ed.). Fault Detection, Supervision and Safety of Technical Processes (Safeprocess 2006), Elsevier, 2006. [9] Struss, P.: Model-based Problem Solving. In: Porter, B.; Lifschitz, V.; and van Harmelen, F. (eds.). Handbook of Knowledge Representation. Elsevier, 2007.
176
2 Die 80er Jahre
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
Ulrich Trottenberg (Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI), Sankt Augustin)
2.3.1 Hintergrund und Ziele des Projekts Die Idee des parallelen Rechnens ist alt, viel älter als der Computer (im Sinne von Zuse oder von Neumann). Im Jahre 1922 publizierte der Meteorologe Lewis F. Richardson seinen in Abb. 2.3 illustrierten Traum. Hier koordiniert ein zentraler „Dirigent“ die Wetterberechnungen durch Mathematiker und/oder Meteorologen, die in einem riesigen Raum verteilt sind und jeweils für einen Ausschnitt der Welt nach einem mathematischen Modell das zukünftige Wetter berechnen – die Vision eines Parallelrechners, in dem die Prozessoren rechnende und miteinander kommunizierende Menschen sind. Paralleles Rechnen auf Computern (im engeren Sinne) wurde erst zwanzig Jahre später ein Thema. Nochmals vierzig Jahre später, zu Beginn der 80er Jahre, begannen politische und wissenschaftliche Diskussionen über die Möglichkeit, in Deutschland eine Superrechnerentwicklung zu initiieren. Hintergründe für diese Diskussionen waren: • die Erkenntnis, dass die numerische Simulation auf Superrechnern zu einem wissenschaftlichen und wirtschaftlichen Erfolgsfaktor geworden war, • das Bewusstsein für die Gefahr, in eine Abhängigkeit insbesondere von USamerikanischen und japanischen Herstellern zu geraten, • die Feststellung – auch durch die Politik –, dass in Deutschland exzellente Hardware- und Software-Experten (Entwicklungsgruppen) vorhanden waren, die sich eine solche Entwicklung zutrauten. Konkret wurde im Jahr 1983 im Rahmen einer Umfrage in der HGF (damals AGF) über die wichtigsten Forschungsthemen der HGF-Zentren festgestellt, dass für nahezu alle Zentren die Verfügbarkeit und gegebenenfalls Eigenentwicklung von Höchstleistungsrechnern und die Entwicklung von besonders schnellen Algorithmen für die numerische Simulation von größter Bedeutung war. Der Gedanke war nahe liegend, diese beiden Anliegen der Forschungszentren in einem substantiellen Projektvorschlag zusammenzuführen. Ein entsprechender Vorschlag wurde von einer Arbeitsgruppe unter Leitung des Autors in enger Abstimmung mit Norbert Szyperski, dem damaligen Vorstandsvorsitzenden der GMD (heute Teil der Fraunhofer-Gesellschaft), erarbeitet und über Friedrich-Rudolf Güntsch (Abteilungsleiter im BMFT) dem damaligen Forschungsminister Heinz Riesenhuber vorgelegt.
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
177
Abb. 2.3 Richardson’s Traum (1922)
Ziel des Projekts war es, den Prototyp eines parallelen Superrechners für numerische Anwendungen zu entwickeln. Dabei sollten auch alle Software- und Hardwareschichten, die für die effektive Nutzung eines parallelen Superrechners benötigt werden, in die Entwicklung mit einbezogen werden. Zur Zeit der Projektplanung gab es in Deutschland substantielle Rechnerarchitektur-Entwicklungen und Parallelrechner-Aktivitäten an mindestens drei Standorten: • die EGPA und DIRMU-Projekte an der Universität Erlangen (Wolfgang Händler, Fridolin Hofmann, Arndt Bode) • verschiedene Aktivitäten an der TU Braunschweig: datenbankorientierte Architekturen, „Pipeline Bus“ (Hans-Otto Leilich, Hans Christoph Zeidler) • die Starlet und „Upper Bus“-Entwicklung (Wolfgang Giloi), die „Reduktionsmaschine“ (Werner Kluge) und das EBR-Projekt (Gert Regenspurg) der Gesellschaft für Mathematik und Datenverarbeitung (GMD). Ebenfalls in der GMD hatte der Autor eine numerische Gruppe – mit dem Schwerpunkt auf Mehrgittermethoden – aufgebaut. Einige Industrieprojekte dieser Gruppe, z. B. mit VW und der Mannesmann AG, waren sehr erfolgreich verlaufen und wurden vom BMFT als richtungweisend gesehen. Der SUPRENUM-Projektvorschlag war vor diesem Hintergrund zu sehen. Nach intensiven Diskussionen erkannte das BMFT die Bedeutung des „Wissenschaftlichen Superrechnens“ für den nationalen wissenschaftlichen und wirtschaftlichen Fortschritt und Erfolg. Von April 1984 bis Mai 1985 stellte das BMFT Mittel zur Verfügung, die zur Definition des Projektes verwendet wurden.
178
2 Die 80er Jahre
2.3.2 Essentielle konzeptionelle und technische Entscheidungen In der Definitionsphase wurden die wesentlichen Entscheidungen über das Konzept des Projektes und die Architektur des Rechners getroffen [8]. Diese waren: • auf der Hardwareseite, zugunsten einer von Wolfgang Giloi vorgeschlagenen Architektur [2]: − MIMD-Multiprozessor-Rechner (mittlerer Granularität) mit verteiltem Speicher (bis zu 256 Prozessoren, s. Abb. 2.4) − Hochleistungsprozessoren mit Vektor- und Kommunikationseinheiten auf jedem Prozessorknoten (s. Abb. 2.6) − hierarchische Cluster-Struktur (16 Cluster mit je 16 Prozessoren), auf Cluster- und Knotenebene jeweils ein busbasiertes Verbindungsnetzwerk für die interne Kommunikation (s. Abb. 2.4 und Abb. 2.5) • Auf der Softwareseite (Systemsoftware): − die Idee einer abstrakten SUPRENUM-Architektur im Sinne eines dynamischen Systems miteinander kommunizierender Prozesse (s. Abb. 2.7) − ein verteiltes Betriebssystem, mit einem kleinen Kern auf jedem Knoten („PEACE“) • Auf der Programmierseite: − Message-Passing-orientierte Programmierung − die Entwicklung einer Kommunikationsbibliothek („COMLIB“) für Grid und Matrix-Strukturen • Auf der Algorithmen-Seite: − gitter-, matrix- und partikelbasierte numerische Verfahren − Parallelisierung nach dem Grid-Partitioning-Konzept [12] − die Entwicklung schneller paralleler (statischer und adaptiver) Mehrgittermethoden für 2D und 3D [7, 11, 12] − Entwicklung einer Bibliothek von parallelen Algorithmen der Linearen Algebra („SLAP“) • Auf der Anwendungsseite: − das LiSS-Paket für die parallele Lösung von (zeitabhängigen, nicht-linearen) Systemen partieller Differentialgleichungen [11] − Entwicklung paralleler CFD-Algorithmen − eine Sammlung von industrierelevanten Anwendungen aus verschiedenen Gebieten
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
179
Die grundsätzlichen Entscheidungen zur Architektur wurden in der Definitionsphase und zu Beginn des Projektes durchaus kontrovers diskutiert: Das parallele Rechnen als Basis für Höchstleistungsarchitekturen war im Jahre 1984 noch nicht allgemein akzeptiert. Insbesondere wurden die Entscheidungen zugunsten MIMD und des verteilten Speichers zunächst als problematisch angesehen.
Abb. 2.4 SUPRENUM-Architektur (Original-Folie von 1986)
Abb. 2.5 SUPRENUM-Cluster (Original-Folie von 1986)
180
Abb. 2.6 SUPRENUM-Prozessor-Knoten (Original-Folie von 1986)
Abb. 2.7 SUPRENUM Software Konzept (Original-Folie von 1986)
2 Die 80er Jahre
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
181
2.3.3 Projektpartner Das Projekt wurde im Zeitraum von 1984 (Definitionsphase 1984/85) bis 1989 vom BMFT gefördert. Im Jahre 1986 wurde die SUPRENUM GmbH für die Koordination und Verwertung der Projektergebnisse gegründet. Unter ihrer Federführung arbeiteten im Projekt die folgenden Institute und Industriefirmen zusammen: GMD-FIRST, GMD-SCAI, KFA-ZAM, DLR, KfK; Universität Erlangen, TU Braunschweig, TH Darmstadt, Universität Bonn, Universität Düsseldorf; Krupp-Atlas Elektronik GmbH, Stollmann GmbH, Dornier GmbH, KWU AG, SUPRENUM GmbH. Die Gesamtprojektleitung lag beim Autor dieses Berichts (GMD-SCAI und SUPRENUM GmbH), für die System-Konzeption und -realisierung war Wolfgang Giloi (GMD-FIRST) verantwortlich. Der Haupt-Industriepartner war die KruppAtlas-Elektronik GmbH. Im BMBF widmete sich Uwe Thomas, damals Unterabteilungsleiter, intensiv dem SUPRENUM-Projekt, ebenso Günter Marx, dessen Referat für SUPRENUM zuständig war. Insgesamt wirkten mehr als 200 Wissenschaftler an der Entwicklung mit, davon in der Schlussphase des Projekts rund 40 Mitarbeiter allein in der SUPRENUM GmbH. Viele prominente Wissenschaftlerpersönlichkeiten und damals noch wenig bekannte Nachwuchswissenschaftler, die heute bedeutende Positionen in Wissenschaft oder Wirtschaft einnehmen, waren mit ihrer Kompetenz in das Projekt eingebunden.
2.3.4 Projektergebnisse Das Projekt verlief wissenschaftlich sehr erfolgreich. Bereits auf der HannoverMesse 1989 wurde ein 2-Cluster-System vorgestellt, mit einer beeindruckenden gemessenen Rechenleistung von rd. 360 MFlop für die Matrixmultiplikation. Der Aufbau des 16-Cluster-Gesamtsystems verzögerte sich, da die torusartige 4 × 4Verbindung der 16 Cluster durch den im Projekt entwickelten SUPRENUM-Bus sich zunächst als nicht stabil erwies. Das große System wurde gegen Ende 1990 erfolgreich abgenommen. Dieses SUPRENUM-System war bis zum Erscheinen der Connection Machine CM5 (der Firma Thinking Machines) im Jahre 1991 mit einer gemessenen Leistung von nahezu 2,8 GFlop (Matrixmultiplikation) der weltweit schnellste MIMD-Parallelrechner [4, 5, 6]. Die Knotenarchitektur gemäß Abb. 2.6 wurde technisch (und optisch, s. Abb. 2.8) elegant realisiert. Die hohe Leistung des Knotens (nominal bis zu 20 MFlops) wurde durch die Vektoreinheiten WT 2264/2265 von Weitek und die zugehörige Datenversorgung erzielt. Die Tatsache, dass der Knoten mit dem MC 68020 von Motorola über eine vergleichsweise langsame CPU verfügte, ist bisweilen kritisch kommentiert worden, spielte bei den typischen Anwendungen
182
2 Die 80er Jahre
Abb. 2.8 Realer SUPRENUM-Prozessor-Knoten
aber keine wesentliche Rolle, da die CPU hier gewissermaßen nur als „Betriebssystem-Maschine“ fungierte. Bei sequentiellen Teilen eines Algorithmus, bei denen die schnellen Vektoreinheiten nicht ausgenutzt werden konnten, wurde der Leistungsunterschied zwischen CPU und Vektorverarbeitung aber spürbar. Insgesamt erwiesen sich der SUPRENUM-Prototyp (und die anderen ausgelieferten SUPRENUM-Rechner) als ausgewogene, leistungsfähige Systeme. Verzögerungen bei der Entwicklung und Stabilitätsprobleme bei frühen Tests hielten sich – im internationalen Vergleich – durchaus in Grenzen. Wir zitieren dazu das Urteil des weltweit renommierten Experten Oliver McBryan (damals Direktor des „Center for Applied Parallel Computing“ in Boulder), der sich am 12. November 1990 in einem Leserbrief zu einem kritischen Bericht von Konrad Seitz in der ZEIT zur Förderpolitik der BMFT wie folgt äußerte: „… At the same time [im Oktober 1990, als der kritische Bericht „Der Aufmarsch der kommerziellen Riesen“ von Konrad Seitz in der ZEIT erschienen war] I was in fact using the SUPRENUM-1 for some weather modeling calculations, and found the system to be faster than any parallel system that I know of, other than the much more expensive CRAY-YMP8. As the director of a parallel computing center here in the USA, I am very familiar with the difficulties of introducing a new advanced computer built by a small company. When we receive such machines, they invariably have many problems of the type attributed to SUPRENUM – compiler errors, hardware unreliability and so on. Normally it takes about a year for the manufacturers to get these issues under control. The problems that I have seen with SUPRENUM are less severe than with the early Connection Machine and Intel parallel computers which we have at our center – and both of these are today regarded as highly successful. I should add that in my studies the SUPRENUM has exceeded the computing speed of the latest Intel IPSC860 supercomputer, and is in addition easier to use. …“ (McBryan)
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
183
Herausragend und von nachhaltiger Bedeutung waren die Ergebnisse auf der Softwareseite. Auf der Basis des abstrakten Prozesskonzepts für die Kommunikation entstanden im Projekt Werkzeuge für die portable Programmierung – zum Beispiel die Kommunikationsbibliothek COMLIB, eine Mapping Library zur Abbildung der Prozesse (Software) auf die Prozessoren (Hardware) und schließlich die Realisierung des Message-Passing-Prinzips durch PARMACS, einem Vorläufer von MPI. Algorithmisch wurde eine Vielzahl von gitter-, matrix- und partikel-basierten numerischen Verfahren nach dem Grid-Partitioning-Prinzip mit hoher Effizienz parallelisiert. Das SUPRENUM-Konzept stand in engem Zusammenhang mit den Mehrgitter- und Multiscale-Methoden. Die Idee war ja, dass die SUPRENUM-Architektur und Topologie des Verbindungsnetzwerks schnelle numerische Methoden unterstützen sollte, insbesondere alle Methoden, die auf dem hierarchischen MultiscalePrinzip basieren. Es hätte keinen Sinn gemacht, einen Rechner zu bauen, der lediglich für klassische (langsame) numerische Methoden geeignet gewesen wäre. Hier galt es, die richtige Balance zu finden: Einerseits erforderte die verteilte Speicherarchitektur eine gewisse (verallgemeinerte) Lokalität der Algorithmen, um wirklich effizient zu sein. Andererseits mussten die Topologie und die Granularität des Systems so gewählt werden, dass nicht nur die klassischen, trivial lokalen Iterationsverfahren unterstützt werden. Multiscale-Methoden haben nicht lokale Komponenten (auf den groben Skalen), die Skalen werden sequentiell durchlaufen und der Parallelitätsgrad wechselt von Skala zu Skala. Rechner mit reiner Nearest-Neighbor-Topologie – wie einige der (späteren) japanischen Entwicklungen – oder mit mikroskopischer Granularität („ein Prozessor pro Gitterpunkt“) wie die CM1 von Thinking Machines sind für Multiscale- und Mehrgittermethoden daher nicht adäquat. Bereits in der Definitionsphase des Projekts (1984) wurde erkannt, dass das Grid-Partitioning-Prinzip [12] für viele Algorithmen der numerischen Simulation ein geeignetes Parallelisierungskonzept darstellt. Für eine große Klasse von Algorithmen konnte unter allgemeinen Voraussetzungen gezeigt werden, dass GridPartitioning den „Boundary-Volume-Effekt“ und asymptotisch optimale parallele Effizienz E(P,N) → 1 für N → ∞ und festes P nach sich zieht [11]. Hier ist E die parallele Effizienz, N charakterisiert die Größe des Problems (z. B. N = Anzahl der Gitterpunkte bzw. Freiheitsgrade), und P ist die Anzahl der verwendeten Prozessoren. Diese Aussage gilt natürlicherweise für skalierbare gitter-, matrix- und partikelbasierte Methoden, sie gilt aber auch für (statische) Mehrgitter- und Multiscale-Methoden, die im Allgemeinen nicht skalierbar sind. Für nicht-statische Methoden, z. B. dynamisch adaptive Mehrgittermethoden, bei denen während der Rechnung neue Gitterstrukturen dynamisch erzeugt werden, trifft die obige Effizienzaussage i. A. nicht mehr zu. Unter geeigneten Annahmen gilt stattdessen E(N,P) → E* < 1
184
2 Die 80er Jahre
Die obigen theoretischen Aussagen mögen heute, nachdem viele Erfahrungen mit parallelen Algorithmen und Anwendungen auf einer großen Zahl unterschiedlicher paralleler Systeme vorliegen, fast trivial erscheinen. Der Durchbruch, der im SUPRENUM-Projekt erzielt wurde, liegt in der praktischen Umsetzung der theoretischen Ergebnisse. Für eine Fülle von Anwendungen aus unterschiedlichen Disziplinen (Strömungs- und Strukturmechanik, Meteorologie, Molekulardynamik, Quantenchemie, Bildverarbeitung usw.) konnten – bereits während des SUPRENUM-Projekts oder in den darauf folgenden Jahren, zum Beispiel mit den SUPRENUM-Rechnern an der Universität Erlangen oder an der Universität Liverpool – exzellente parallele Effizienzen in der Praxis erzielt werden. Mit dem SUPRENUM-Rechner, mit seinem Konzept der mittleren Granularität, wurde nachgewiesen, dass ein leistungsfähiger Parallelrechner gebaut, nach dem Message-Passing-Konzept (bequemer als zunächst angenommen) programmiert und für die Anwendungen der numerischen Simulation effizient betrieben werden kann.
2.3.5 Resümee: Weitere Entwicklungen und die Folgen des Projekts, Nachhaltigkeit Die vor Beginn oder im Projekt getroffenen Architekturentscheidungen (MIMDRechner mittlerer Granularität mit verteiltem Speicher, Hochleistungsprozessoren mit Vektorverarbeitung, busbasiertes zweistufiges Verbindungssystem) waren zu Beginn des Projektes zunächst äußerst umstritten und wurden teilweise heftig bekämpft. Heute, im Nachhinein, erscheinen sie als geradezu durchschlagend. Heutige Superrechner sind durchweg MIMD-Rechner mit verteiltem Speicher, Vektorverarbeitung ist immer eine Option, und hierarchische Strukturen haben sich durchaus bewährt. Obwohl es am Ende des Projektes – wegen der Verzögerungen bei der SUPRENUM-Bus-Entwicklung und dadurch bedingt zeitweise unzureichender Stabilität des SUPRENUM-Systems – kritische Stimmen zur Hardware-Entwicklung gab, ist der wissenschaftliche Erfolg des Projektes nachträglich nie ernsthaft in Frage gestellt worden. (Darauf, dass auf der Softwareseite Durchbrüche und eine langfristige Nachhaltigkeit erzielt werden konnten, gehen wir weiter unten noch ein.) SUPRENUM hatte auf der Hardwareseite nicht nur wissenschaftliche Ziele, es war auch der (politische) Versuch, durch eine entsprechende Anschubfinanzierung in Deutschland eine langfristige Superrechnerentwicklung zu etablieren. Dieses Ziel wurde nicht erreicht. Der Hauptgrund liegt in der Tatsache, dass ein potenter Industriepartner, der sich für die Entwicklung eines parallelen Superrechners (z. B. im Sinne einer zweiten SUPRENUM-Generation) engagiert hätte, in Deutschland (und später auch in Europa) nicht gefunden werden konnte. Prominente ausländische Experten wie Ken Kennedy, Oliver McBryan und Tony Hey haben sich dazu
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
185
mehrfach sehr verwundert geäußert und entsprechende Kommentare publiziert. Auch heute existiert in Europa keine Superrechnerentwicklung. Nach Ende des SUPRENUM-Projektes sind außer dem 256-Knoten-Prototyp insgesamt fünf kleinere SUPRENUM-Systeme, z. T. im Zusammenhang mit dem europäischen GENESIS-Projekt an projektnahe Partner ausgeliefert worden. Interessensbekundungen für weitere Systeme gab es durchaus – insbesondere aus dem Ausland (Italien, USA, Frankreich, Israel…). Nun ist aber klar – und war natürlich den verantwortlichen Beteiligten damals schon bewusst –, dass kostspielige Großsysteme nur verkauft werden können, wenn eine nachhaltige Weiterentwicklung garantiert ist. Diese Weiterentwicklung kam nicht zustande, weil sich der Krupp-Konzern und der BMFT über ein Finanzierungskonzept für die Weiterentwicklung nicht einigen konnten. Dieser Streit wurde öffentlich in der Presse ausgetragen. Dabei spielte eine wesentliche Rolle, dass 1990 – in einer veränderten, durch Konversion gekennzeichneten Welt – der Krupp-Konzern die Firma Krupp Atlas Elektronik GmbH in ihrem Engagement für SUPRENUM nicht mehr unterstützte (Krupp Atlas Elektronik wurde später aus dem Krupp-Konzern ausgegliedert und von der Vulkan AG übernommen). Die Firma SIEMENS, um deren Engagement für die SUPRENUM-Weiterentwicklung sich der BMFT intensiv bemühte, nahm von einem Einstieg in SUPRENUM (und auch von jeder Eigenentwicklung eines Parallelrechners) Abstand, weil eine SIEMENS-interne Studie den Markt für Parallelrechner als zu klein und zu uninteressant erklärt hatte. (Wenige Jahre später änderte sich diese Einschätzung und SIEMENS-NIXDORF ging eine Vertriebspartnerschaft mit dem US-amerikanischen Parallelrechner-Hersteller Kendall Square ein, bis Kendall Square – unter unrühmlichen Umständen – vom Markt verschwand.) Der politische Versuch, die Weiterentwicklung auf eine europäische Ebene zu heben, gelang zunächst insofern, als die EU-Kommission sich im GENESIS-Projekt [3] finanziell erheblich engagierte. In GENESIS sollten die deutsche SUPRENUM-Entwicklung, die britische Transputerentwicklung der Firma INMOS und die ISIS-Entwicklung der französischen Firma Bull in einer zweiten SUPRENUM-Generation zusammengeführt werden. Trotz bemerkenswerter Erfolge im GENESIS-Projekt [3] wurde auch dieser europäische Ansatz auf der Hardwareseite nicht weiterverfolgt, als sich Bull und INMOS (nach der Übernahme durch Thomson) 1992 vollständig aus der Superrechnerentwicklung zurückzogen. GENESIS wurde 1992 in ein Software-Projekt umgewandelt, in dem die PALLAS GmbH als Rechtsnachfolger der SUPRENUM GmbH die Federführung übernahm. Mit der Gründung der PALLAS GmbH im Jahre 1990/1991 durch den Autor gelang es, die Softwareentwicklungen von SUPRENUM weiterzuführen. Die PALLAS GmbH spielte als Softwarehaus für paralleles Rechnen in Europa eine wichtige katalysatorische Rolle. Sie wuchs von 1990 bis zum Jahr 2000 von 20 auf über 60 wissenschaftliche Mitarbeiter/-innen an. Der größte Teil wurde im Jahre 2003 von INTEL übernommen und ist als INTEL-Lab in Brühl u. a. im Grid Computing aktiv.
186
2 Die 80er Jahre
Der Erfolg der SUPRENUM-Entwicklung auf der Softwareseite war immer unumstritten. Sowohl was die hardware- und konfigurationsunabhängige „abstrakte SUPRENUM-Architektur“ und das parallele Programmierkonzept (Portabilität durch die PARMACS, später MPI), was die parallele Algorithmik als auch was die Parallelisierung großer Anwendungen angeht, sind in SUPRENUM Durchbrüche erreicht worden. Folgeprojekte, Folge-Initiativen und -Aktionen seien hier nur aufgelistet. Die deutsche „HPSC“-Initiative [9, 10] (geplant unter Federführung des Autors und realisiert und gefördert vom BMBF, Bernd Reuse) führte zu einer Vielzahl erfolgreicher BMFT/BMBF-Softwareprojekte (POPINDA, BEMOLPA, KALCRASH, …, später AUTOBENCH, AUTOOPT u. a.). Im europäischen Rahmen („HPCN-Initiative“) wurden u. a. das GENESIS- und später das überaus erfolgreiche EUROPORT-Projekt gefördert. Für die Gründung der PALLAS GmbH, die Ansiedlung des NEC-Laboratoriums in Sankt Augustin und das INTEL-Engagement in Brühl, den Aufbau der Softwareeinrichtung SISTEC im Deutschen Zentrum für Luft- und Raumfahrt DLR, die erfolgreiche Arbeit des HLRZ/ZAM (später NIC) im Forschungszentrum Jülich und des Instituts für Algorithmen und Wissenschaftliches Rechnen SCAI in Sankt Augustin spielt das in SUPRENUM erarbeitete Know-how unzweifelhaft eine wesentliche Rolle. Schließlich sind auch die großen europäischen und deutschen Projekte des Grid Computing wie SIMDAT, D-GRID etc. in dieser Tradition zu sehen. Eine Schlussbemerkung: Im Jahre 1992 verabredeten Geerd-Rüdiger Hoffmann vom Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF) und der Autor dieses Berichts (für SCAI) ein großes Projekt: Eine Arbeitsgruppe in SCAI sollte in enger Kooperation mit dem ECMWF versuchen, den StandardWettervorhersage-Code des ECMWF (gemäß dem portablen SUPRENUM-Parallelisierungskonzept) zu parallelisieren. Das Projekt verlief äußerst erfolgreich [1]. Damit war der erste, im täglichen Produktionseinsatz benutzte große Wettercode in portabler Weise für Parallelrechner einsetzbar. Die Meteorologen – im Hinblick auf neue Rechnerarchitekturen traditionell eher konservativ – waren danach die ersten, die parallele Wetterprognose-Software auf parallelen Superrechnern auch praktisch benutzten. Die SCAI-Arbeitsgruppe (Ute Gärtel, Wolfgang Joppich und Anton Schüller) wurde für diesen Durchbruch mit mehreren Preisen ausgezeichnet. Damit war Richardson’s Traum – 70 Jahre nach der Veröffentlichung seiner Vision – auf parallelen Superrechnern Realität geworden.
Literatur [1] Gärtel, U.; Joppich, W.; Schüller, A.; Trottenberg, U.: Das europäische Wettermodell IFS auf parallelen Rechnern. In Meuer, H.-W. (ed.) Supercomputer 1994, K G Saur Verlag, München, 1994. [2] Giloi, W.K.: SUPRENUM: A Trendsetter in Modern Supercomputer Development, Parallel Computing 7, 1988. [3] Hey, T.; McBryan, O.: SUPRENUM and GENESIS, Parallel Computing 20, Special Issues 10–11, 1994.
2.3 Das Superrechnerprojekt SUPRENUM (1984–1989)
187
[4] McBryan, O.: A comparison of the INTEL iPSC/860 and the SUPRENUM-1 parallel computers, CS Dept. Technical Report, University of Colorado, Boulder, 1990. [5] Mierendorf, H.; Trottenberg, U. (eds.): Leistungsmessungen für technisch-wissenschaftliche Anwendungen auf dem SUPRENUM-System. Arbeitspapiere der GMD, Nr. 264, 1992. [6] Mierendorf, H.; Trottenberg, U. (eds.): Ergänzende Leistungsmessungen für technisch-wissenschaftliche Anwendungen auf dem SUPRENUM-System. Arbeitspapiere der GMD, Nr. 269, 1992. [7] Thole, C.-A.; Trottenberg, U.: A Short Note on Standard Parallel Multigrid Algorithms for 3D Problems, Applied Mathematics and Computation 27, 101–115, 1988. [8] Trottenberg, U.: On the SUPRENUM Conception, Parallel Computing 7, 1988. [9] Trottenberg, U. (ed.): Situation und Erfordernisse des wissenschaftlichen Höchstleistungsrechnens in Deutschland, Initiative High Performance Scientific Computing (HPSC) – Positionspapiere der Arbeitsgruppen, 240 Seiten, GMD-Studie, GMD 1992. [10] Trottenberg, U. (ed.): Situation und Erfordernisse des wissenschaftlichen Höchstleistungsrechnens in Deutschland, Memorandum zur Initiative High Performance Scientific Computing (HPSC), Informatik Spektrum 15, 218–220, 1992. [11] Trottenberg, U.; Oosterlee, C.W.; Schüller, A.: Multigrid Methods, Academic Press, 2001. [12] Trottenberg, U.; Solchenbach, K.: Parallele Algorithmen und ihre Abbildung auf parallele Rechnerarchitekturen, informationstechnik it 30/2, 71–82, R. Oldenbourg Verlag, 1988.
188
2 Die 80er Jahre
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
Wolfram Menzel (Fakultät für Informatik, Universität Karlsruhe (TH))
2.4.1 Ausgangssituation Die formale Verifikation und Entwicklung von Software nutzt Sprachen und Deduktionsmechanismen der Logik, um die Korrektheit gegebener bzw. zusammen mit dem Beweisvorgang noch zu erstellender Programme zu sichern. Als dritte Komponente können spezielle Spezifikationsformalismen hinzutreten. Da die anfallenden Beweise sehr rasch sehr groß und unübersichtlich werden, ist das Einbeziehen automatischer Beweiser in das Beweisgeschehen – so weit das irgend prinzipiell möglich und praktisch machbar ist – unentbehrlich. Ausgangspunkt für die Konzeption von KIV war eine detaillierte Analyse des von Hoare [20] vorgestellten Formalismus zum Beweis partieller Korrektheitsaussagen für eine einfache While-Sprache. Dies sind Aussagen der Form: Wenn Programm α terminiert und vor seinem Ablauf ϕ gilt, dann gilt hinterher ψ. Hierbei sind ϕ und ψ prädikatenlogische Formeln erster Ordnung, und der Verifikationsformalismus beruht auf einer Axiomatisierung der Programmiersprache in dieser Logik. Schrittweise werden, mit Zuweisungen als „Atomen“, aus den Korrektheitsaussagen die Programme eliminiert, wobei es zur Auflösung von WhileSchleifen noch der Schleifeninvarianten bedarf, die im allgemeinen Fall vom Benutzer zu finden sind. Die am Ende verbleibende Menge von Formeln erster Ordnung, die Korrektheitsbedingungen, könnte im Prinzip einem automatischen Beweiser für diese Logik übergeben werden. Jedoch sind solche Beweiser durch die immense Menge anfallender Korrektheitsbedingungen sehr rasch hoffnungslos überfordert. Das legt dringend ein Vorgehen im Sinne des interaktiven oder taktischen Beweisens nahe, wie es im LCFSystem [12] vorgestellt wurde. Beim interaktiven Beweisen ist der Benutzer wesentlich in die Beweisgestaltung einbezogen, er kontrolliert die Grobstruktur, trifft bei Wahlmöglichkeiten steuernde Entscheidungen, wählt Heuristiken aus, umgekehrt wird er seinerseits vom System geführt. Auch kann beim sukzessiven Ausbau des Systems laufend an einer Ausweitung und Verstärkung der automatischen Komponente gearbeitet werden. Hinzu kommt, dass die Korrektheitsaussagen des Hoare-Kalküls keine „volle Logik“ bilden. Etwa kann man innerhalb der Menge dieser Aussagen nicht negieren und keine Implikationen bilden, somit sind Terminierung und totale Korrektheit eines Programms nicht ausdrückbar.
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
189
Ein weiterer wichtiger Punkt ist die Deduktionsstärke. Relativ zur Theorie der natürlichen Zahlen mit Addition und Multiplikation – d. h. mit der Menge der da gültigen Formeln als Orakel – ist der Hoare-Kalkül vollständig, doch liegt das an der Kodierungskraft dieser Datenstruktur. Die Kodierung programmiersprachlicher Konstrukte in die Daten beeinträchtigt aber eine direkte Orientierung der Korrektheitsbeweise an der Kontrollstruktur des Programms. In Vorarbeiten zu KIV wurde denn auch bewiesen [2], dass der Hoare-Kalkül über einfachen, gängigen Strukturen mit entscheidbarer Theorie (etwa den natürlichen Zahlen mit Addition und Subtraktion, den Binärwörtern u. ä.) unvollständig ist; sehr einfache Aussagen, die gültig und nicht beweisbar sind, lassen sich konkret angeben. Punkte wie diese lassen die Logik erster Ordnung als zu schwach für die hier gegebene Aufgabe erscheinen. Die Analyse der Situation hatte ein deutlich anderes Vorgehen beim Aufbau von Korrektheitsbeweisen nahe gelegt, und eine Förderung durch die DFG machte es möglich, das hieraus entstandene Konzept in ein leistungsfähiges System umzusetzen.
2.4.2 Das Konzept Eine beherrschbare, ausreichend transparente Beweisführung zur Programmkorrektheit sollte interaktiv sein und auf einer deutlich stärkeren und zugleich für den gegebenen Zweck spezifischen Logik basieren. Zudem sollte die Beweisstruktur möglichst direkt der Kontrollstruktur des Programms entsprechen, also unabhängig vom betrachteten Datentyp sein. Beweisteile zu den Daten selber bleiben hiervon unbetroffen und müssen beliebig mit der datenunabhängigen Argumentation verzahnt werden können. Von Seiten der Logik bedeutet dies eine so weit wie möglich durchgehaltene Orientierung an einem – von der betrachteten Datenstruktur abstrahierenden – uninterpretierten Schließen [16]. Lediglich bestimmte (sehr arme) Datenstrukturen müssen (zum Zwecke der Auflösung von Schleifen und Prozeduren) in fest interpretierter Weise in den logischen Formalismus eingebaut werden. Die Kopplung des Beweises an die Kontrollstruktur des Programms geschieht durch symbolisches Ausführen der Befehle [6]. Eine reiche hierarchische Strukturierung in Beweis „moduln“ soll die Beweisführung durchschaubar halten, eine benutzerfreundliche Oberfläche des Systems hat das widerzuspiegeln. Um die Einheitlichkeit des gesamten Ansatzes zu garantieren, ist eine feste Metasprache zur Definition und Beschreibung des Geschehens zu schaffen. Dieser gemeinsame Rahmen soll insbesondere das Einbringen auch sehr unterschiedlicher Vorgehensweisen zur Programmverifikation und Programmentwicklung ermöglichen.
190
2 Die 80er Jahre
2.4.3 Die Logik Die KIV zugrunde liegende Logik ist eine Modifikation und Erweiterung der Dynamischen Logik im Buch von Goldblatt [11]. Formeln sind wie in der Prädikatenlogik erster Ordnung gebildet, jedoch mit einem zusätzlichen Operator zum Einbringen von Programmen: [α]ϕ bedeutet: „Wenn α terminiert, gilt danach ϕ“, und mit 〈…〉 für ¬[…]¬ lassen sich auch Terminierung und totale Korrektheit ausdrücken. Die betrachtete Programmiersprache baut sich aus Zuweisungen und zwei Konstanten als Atomen auf durch Komposition, Verzweigung, FOR- und WHILE-Schleife, lokale Variable sowie beliebig wechselseitig rekursive Prozeduren (zunächst ohne Prozedurparameter, später wurde das verallgemeinert). KIV verwendet einen Sequenzenkalkül. Eine Sequenz hat die Form Γ├ Δ, wo Γ, Δ Listen von Formeln sind. Man kann ϕ1, … , ϕm├ ψ1, … , ψn lesen als ϕ1∧ … ∧ϕm → ψ1∨ … ∨ψn. Axiome sind die Sequenzen, in denen eine Formel sowohl links wie rechts vom „Sequencer“├ auftritt. Fertige Beweise sind Bäume mit Sequenzen an den Knoten, an der Wurzel steht das Beweisziel und Axiome an den Blättern. Zum Aufbau der Beweise hat man neben den bekannten prädikatenlogischen Regeln auch solche, die die programmiersprachlichen Konstrukte axiomatisieren. Im Falle der WHILE-Schleife wird vom Vorgehen bei Goldblatt abgewichen. Dort wurde mittels einer infinitären Regel – Regel mit unendlich vielen Prämissen – eine Art abgeschwächte Vollständigkeit erreicht (einen vollständigen echten Kalkül für die allgemeingültigen Formeln der Dynamischen Logik kann es nicht geben). KIV orientiert sich stattdessen am Vorgehen in [6]. Mittels der fest eingebauten Datenstruktur der Zähler werden Approximationen „führe den Schleifenrumpf i-mal aus“ definiert, was dann die Axiomatisierung in einer Regel ermöglicht. Durch Induktion über die Datenstruktur versucht man, die hierbei erhaltenen Korrektheitsbedingungen zu beweisen. Für Prozeduren wird entsprechend verfahren: Die fest zu interpretierende Datenstruktur der Umgebungen ermöglicht auch hier eine Axiomatisierung mittels Approximationen. Im Gegensatz zur Hoare-Logik ist die Dynamische Logik abgeschlossen gegenüber den prädikatenlogischen Operationen. Auch schon für partielle Korrektheitsaussagen ist sie deutlich stärker als jene. Mit den Regeln des Basiskalküls allein zu arbeiten würde zu extrem langwierigen und undurchsichtigen Beweisen führen, notwendig ist eine weitere Strukturierung. Diese genauer festzulegen wie das gesamte Beweisgeschehen formal zu beschreiben, ist Aufgabe der Metasprache PPL.
2.4.4 PPL PPL ist eine funktionale Sprache zur Programmierung von Beweisen, sukzessive werden aus kleineren Einheiten (wie objektsprachlichen Programmen, Formeln, Sequenzen, Regeln, …) darüber gelagerte höhere aufgebaut [16, 17]. Wesentlich
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
191
und kennzeichnend ist dabei die durchgängige schematische Betrachtungsweise, in der die oben genannten Leitlinien des uninterpretierten Schließens und der symbolischen Ausführung wiedergegeben sind: Bereits elementare Spracheinheiten wie Programme und Formeln und mit ihnen dann die daraus aufgebauten höheren sind zusätzlich um Metavariable zur typgerechten Einsetzung entsprechender Ausdrücke angereichert. PPL-Programme arbeiten auf Beweisbäumen als der zentralen Datenstruktur. Ein solcher Baum entspricht einem „aktuellen Unterbeweis“, mit dem fertigen Gesamtbeweis als Grenzfall. Man hat das (lokale) Beweisziel an der Wurzel, an den Blättern stehen entweder Axiome oder – noch zu rechtfertigende – Prämissen. Der fertige Beweis hat keine offenen Prämissen mehr. Zwei fundamentale Operationen dienen dem Aufbau der Beweisbäume. infer gewinnt zu einer Anzahl von Beweisbäumen eine neue Conclusio, indem diese Bäume mit ihren Conclusionen an Blättern eines geeigneten weiteren Beweisbaums angekoppelt werden (nach einer „einpassenden“ Substitution für Metavariable). Umgekehrt erzeugt refine zu einem Beweisbaum neue Prämissen durch Ankoppeln seiner Conclusio an einem Blatt eines geeigneten anderen Beweisbaums. Die weitere Strukturierung des Beweisgeschehens geschieht in abgeleiteten Regeln, Taktiken und Strategien. Abgeleitete Regeln entsprechen benutzerdefinierten Großschritten, wie die Regeln des Basiskalküls sind sie Bäume der Höhe 1. Jedoch braucht eine abgeleitete Regel nicht für alle Einsetzungen für die Metavariablen korrekt zu sein, sie bedarf bei der Anwendung noch der Validierung. Diese ist ein PPL-Programm, das für die je aktuelle Situation einen entsprechenden Beweisbaum (bzw. eine Fehlermeldung) erzeugt. Die Validierung kann sofort beim Anwenden der Regel aufgerufen oder auch aufgeschoben werden. Im Erfolgsfall wird der erzeugte Baum in den Gesamtbeweis eingefügt. Taktiken verallgemeinern die abgeleiteten Regeln noch weiter. Sie sind PPL-Programme, die, je für eine aktuelle Situation, aus einem Ziel Unterziele erzeugen. Auch Taktiken bedürfen der Validierung. Strategien dienen in vielfacher Weise der Ablaufsteuerung und der Interaktion: als Heuristiken, bei Wahlmöglichkeiten, an Rücksetz-Stellen, beim Finden einer Induktionshypothese und Ähnlichem. Strategien sind PPL-Programme, in denen abgeleitete Regeln und Taktiken kombiniert sind. KIV soll, nach seiner Konzeption, Ansätze und Methoden – auch sehr unterschiedlicher Art – zur Programmverifikation und -synthese in einer einheitlichen Weise verfügbar machen. Mit PPL ist diese Einheitlichkeit hergestellt. Auch solche Ansätze und Methoden sind – auf oberer Ebene – als Strategien in KIV realisiert, und dies kennzeichnete einen wesentlichen Teil der Arbeit in den späten achtziger Jahren.
2.4.5 Einzelne in KIV realisierte Methoden Bei der Programmzerlegung fallen in großer Zahl prädikatenlogische Formeln als Verifikationsbedingungen an, in KIV ist eine leistungsstarke Komponente zum
192
2 Die 80er Jahre
Beweis wie auch zur Vereinfachung solcher Formeln implementiert. Die Vereinfachung besitzt zugleich eine wichtige Funktion in der Steuerung des Gesamtbeweises. KIV enthält – für Fälle, bei denen die Anwendung sinnvoll ist – eine benutzerfreundliche Ausgestaltung des Hoare-Kalküls, etwa unterstützt das System das Finden von Schleifeninvarianten. Programminklusion: Programminklusion besagt, dass ein Programm α mindestens all jene Spezifikationen erfüllt, die ein anderes β erfüllt. Programminklusion ist ein wichtiges Beweismittel, sie gestattet, die Korrektheit eines Programms auf die eines anderen zurückzuführen. In KIV wurde die in [4] vorgestellte Methode zum Beweis von Programminklusionen implementiert [16, 25]. Simulation und Induktion: Das Beweisen von Aussagen der totalen Korrektheit durch symbolisches Ausführen und Induktion ist als Gesamtmethode in KIV implementiert [15, 16]. Wesentlich ist, dass Schleifen nicht über Schleifeninvarianten, sondern durch Induktion über die Datenstruktur behandelt werden. Hierzu werden beim Auflösen der Schleife Teilziele erzeugt, in denen die Induktionshypothese sowie geeignet „anpassende Zwischenbehauptungen“ ausgedrückt sind. Heuristiken zum Finden der neuen Formeln werden zur Verfügung gestellt. Weitere in KIV realisierte Methoden sind in den folgenden Abschnitten aufgeführt. 2.4.5.1 Programmentwicklung Die Leitlinie des uninterpretierten Schließens und das zugehörige zentrale Arbeiten mit Metavariablen legen nahe, KIV auch für die zur Verifikation komplementäre Aufgabe zu nutzen, die systemgestützte Entwicklung von Programmen aus gegebenen Spezifikationen [18, 19]. Ausgehend von einer Sequenz (einem Beweisbaum der Höhe 0), welche Vorbedingung, Nachbedingung und eine Metavariable für das zu entwickelnde Programm enthält, wird – unter Zuhilfenahme grundlegender Entwurfsentscheidungen seitens des Benutzers zur „Idee“ des Programms – der Beweisbaum schrittweise verfeinert, bis schließlich alle auftretenden Metavariablen durch konkrete Programme ersetzt sind. Ist – durch weiteres Beweisen – schließlich der entstehende Beweisbaum geschlossen, dann hat man eo ipso auch die Korrektheit des gewonnenen Programms. Innerhalb dieses allgemeinen Rahmens sind nun Strategien zur genaueren Vorgehensweise in KIV implementiert, in denen in der Literatur vorgestellte Direktiven zur Programmentwicklung umgesetzt sind. So steht die Methode von Gries [13] zur Verfügung. Wie dort, so trifft auch in KIV der Benutzer die Entwurfsentscheidungen zur Programmgestalt „auf hoher Ebene“, jedoch ist die zugehörige Beweisführung jetzt formalisiert. Weitere in KIV implementierte Methoden zur Programmsynthese sind: das Verfahren in [7]; die von Dijkstra an einem Beispiel vorgestellte Methode [8]; eine weitgehend automatisierte Methode zur Programmierung von Divide-and-conquer-Algorithmen [28]. In einem einheitlichen und erweiterbaren Rahmen sind diese Verfahren in KIV zu einer Gesamtkomponente zur Programmsynthese integriert.
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
193
2.4.5.2 Prozeduren mit Prozedurparametern Die Axiomatisierung von Prozeduren mit Hilfe von Umgebungen als fest eingebauter Datenstruktur erlaubt die Ausweitung auf Programmiersprachen mit sehr komplexen Kontrollstrukturen [29]. Hier können Deklarationen beliebig geschachtelt auftreten, und es sind Prozeduren „höheren Typs“ erlaubt, die wiederum Prozeduren als Parameter haben. Aus der Literatur sind prinzipielle Schwierigkeiten für solche Situationen bekannt, so dass der Erfolg beim hier gewählten Ansatz zugleich dessen Leistungsfähigkeit demonstriert. 2.4.5.3 Wiederverwendung Ein Korrektheitsbeweis kann nur dann gelingen, wenn das betrachtete Programm korrekt ist. Oft genug aber (vielleicht: meistens) ist das gerade nicht der Fall, der Beweisversuch schlägt fehl, das Programm muss korrigiert werden. Um zu vermeiden, dass der Beweis dann völlig neu geführt werden muss, wurde ein Verfahren entwickelt, das durch Erkennen der nicht betroffenen Beweisteile gestattet, den alten Beweis weitestgehend wiederzuverwenden [24]. 2.4.5.4 Modularisierung Um auch große Programme verifizieren oder in sicherer Weise entwickeln zu können, bedarf es der hierarchischen Komposition aus kleineren, je für sich behandelbaren Einheiten, der Modularisierung. Hierfür wurde ein Konzept ausgearbeitet, theoretisch abgesichert und in KIV realisiert [22, 23]. Es beruht auf Spezifikationen in voller Prädikatenlogik, die weithin übliche Beschränkung auf universelle Gleichungen oder Hornklauseln wird also aufgehoben. Man verliert dadurch die Existenz initialer Modelle, muss also mit einer losen Semantik arbeiten, man gewinnt jedoch wesentlich an Flexibilität. Die Moduln können parametrisiert sein. Durch Operationen wie Vereinigung, Anreicherung, Aktualisierung lassen sich größere Systeme aufbauen, ein Verfeinerungskonzept ermöglicht den schrittweisen Übergang von der Spezifikation zum imperativen Programm. Zentral ist die Kompositionalität der Methodik: Beim Aufbau durch die genannten Operationen und Verfeinerungsschritte bleibt die Korrektheit erhalten, sie braucht nicht mehr neu bewiesen zu werden. In mehreren größeren Fallstudien wurde die Leistungsfähigkeit der Vorgehensweise ausgewiesen.
2.4.6 KIV ab Beginn der neunziger Jahre Anfang der neunziger Jahre war KIV so weit durchgestaltet und implementiert, dass auch andere Universitäten ihr konkretes Interesse zeigten, gegebenenfalls
194
2 Die 80er Jahre
wurde KIV installiert. In Karlsruhe war KIV als fester Bestandteil in die Lehre integriert. Insbesondere ermöglichte eine benutzerfreundliche graphische Oberfläche, das komplexe Beweisgeschehen beherrschbar und transparent zu halten. Sukzessive war die automatische Komponente im Beweisgeschehen verstärkt worden, so dass der Anteil der Benutzer-Interaktionen vergleichsweise gering war. Typischerweise waren das solche „auf hohem Niveau“, wie die Entscheidung zum Rücksetzen, die Wahl einer Taktik, das Ansetzen einer Induktionshypothese. Je nach Schwierigkeit der Aufgabe wurden 80–95% der Beweisschritte automatisch durchgeführt. Verstärkt ging es nun um eine Bewährung an mittelgroßen bis großen Fallbeispielen – auch, natürlich, um Schwachstellen zu finden und an ihnen die weitere Entwicklung auszurichten. Eine zentrale Rolle in der Diskussion um formal verifizierte Software spielt sicherlich der (sehr hohe) Aufwand, und Aussagen hierzu sind nur auf Grund von Beispielen möglich. In Verifikationen von Programmen mit Größen von 100 bis 500 Zeilen – Anzahlen der Beweisschritte zwischen 8000 und 30 000 – ergaben sich Beweiszeiten von 13 bis 80 Personentagen, man kommt auf fünf bis zehn Zeilen verifizierten Codes pro Personentag [23]. Das sollte verbesserbar sein, gleichwohl: Es bedeutet wohl (in absehbarer Zeit) eine Beschränkung des sinnvollen Einsatzes formaler Verifikation auf bestimmte Bereiche, etwa besonders kritische Teile in Softwaresystemen oder auch eher einfache Programme, die aber in hoher Stückzahl Verwendung finden. Die verstärkte Ausrichtung der Projektarbeit hin auf Fragen der praktischen Bewährung fiel damit zusammen, dass 1990 die Förderung der ersten Entwicklungsphase von KIV durch die DFG ausgelaufen war. Eine Anschlussfinanzierung war mit der Einbindung in größere kooperative Gruppen verbunden. Ziel des Projekts VSE (Verification Support Environment) mit Partnern aus Forschung und Industrie, gefördert durch das Bundesamt für Sicherheit in der Informationstechnik, war der Prototyp eines integrierten Softwareentwicklungssystems, das insbesondere die Deduktion der auftretenden Beweisverpflichtungen ausreichend unterstützt [30]. Das konkretisierte sich in zwei großen Fallstudien, die Nachentwicklungen realer Industrieprodukte waren: einem Steuerungs- und Dispositionssystem für den Beitragsaustausch der Rundfunkanstalten in Deutschland und einem Kontrollsystem für den Zugang zu Kernkraftwerken in BadenWürttemberg. Mit etwa 8000 Zeilen war die erste dieser Aufgaben die bis dahin größte in KIV behandelte. Im Verbundprojekt KORSO (Korrekte Software) des BMFT wurde KIV in den größeren Zusammenhang von Gruppen in Deutschland eingebracht, die an ähnlichen Fragen arbeiteten [5]. Die Ziele hier waren Abstimmung und Vereinheitlichung sowie der Vergleich an ausgewählten Fallbeispielen. Neben der prinzipiellen Arbeit an einer Begriffssystematik stand der Nachweis der Leistungskraft an konkreten Beispielen im Vordergrund, so etwa: die Implementierung dynamischer Hashtabellen; die Konsistenz und Zugriffssicherheit von Datenbankspezifikationen; die Übersetzung von E/R-Diagrammen in formale Spezifikationen [9]. Es ist die natürliche Entwicklung in einem erfolgreichen Forscherteam, dass die da Tätigen ihre Arbeit und Karriere an anderer Stelle fortsetzen. KIV wurde ab
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
195
1993 auch am DFKI Saarbrücken (W. Stephan) und ab 1995 an der Universität Ulm (W. Reif), später Augsburg, weiterentwickelt, das System gewann an den neuen Standorten rasch sein je eigenes Profil. In Karlsruhe traten neben der ständigen Arbeit am System und an Fallbeispielen verstärkt wieder Grundlagenfragen in den Vordergrund. Erfolg und Bewährung von KIV bedeuteten ja nicht, dass alle konzeptionellen Probleme geklärt worden wären. Eine Frage, die zu Beweisern immer wieder gestellt wird, ist die nach deren eigener (bewiesener) Korrektheit. Konkret und eher im Einzelnen tritt sie bei KIV immer wieder an der Stelle der Validierung von Taktiken auf, sie wurde ab 1992 im Rahmen des DFG-Schwerpunkts „Deduktion“ bearbeitet. Weitere Arbeiten im Grundlagenbereich betrafen: eine Erweiterung der Dynamischen Logik zur Beschreibung von prozessbasierten und Realzeitsystemen [10]; eine eingehende Untersuchung zur Monomorphie von Datentyp-Spezifikationen [27]; eine Modifikation und Erweiterung des Begriffs des Beweisbaums, so dass man in weit höherem Maße dem Beweisfinden durch den Menschen nahe gekommen wäre [21]. Eine erweiternde Modifikation der Konzepte der Regel und der Taktik für den Beweisaufbau wurde wesentlich für das Nachfolgeprojekt KeY [14]. Für die Entwicklung ab Ende der neunziger Jahre spielte eine Neubesinnung zur Einordnung des mit KIV Erreichten in die aktuelle Situation der Softwareproduktion die zentrale Rolle. Wesentlich dabei war der Erfolg der Zusammenarbeit mit der Gruppe von Peter H. Schmitt. Eine Kopplung des da entwickelten vollautomatischen Tableaux-Beweisers 3TAP mit KIV hatte zu weiterer Leistungssteigerung geführt [1], ausgewiesen etwa in der großen Fallstudie der Verifikation eines PROLOG-Compilers [26]. Zugleich galten die Überlegungen den deutlich komplizierteren Kontrollmechanismen in objektorientierten Sprachen sowie der Defacto-Situation in der Softwareerstellung. Auf dieser Basis entstand in Karlsruhe das System KeY. Es widmet sich der Verifikation und Entwicklung von Java-Programmen aus Spezifikationen in UML/OCL sowie in JML, es ist einbezogen in die Programmentwicklung mit kommerziellen Werkzeugen. KeY wird – nach der Emeritierung des Autors im Jahre 2001 – heute unter Leitung von Peter H. Schmitt (Karlsruhe), Reiner Hähnle (Göteborg) und Bernhard Beckert (Koblenz) intensiv weiter ausgestaltet, in ständiger enger Abstimmung der Arbeit an den drei Standorten. Das System hat weitesthin Anerkennung gefunden, eine erste umfassende Dokumentation ist im Jahre 2007 erschienen [3].
Literatur [1] Ahrendt, W.; Beckert, B.; Hähnle, R.; Menzel, W.; Reif, W.; Schellhorn, G.; Schmitt, P.H.: 1998, Integrating Automated and Interactive Theorem Proving. In: Bibel, W. and Schmitt, P.H. (eds.) Automated Deduction – A Basis for Applications, vol. II, Kluwer, pp. 97–116. [2] Antoniou, G. und Sperschneider, V.: 1984, Incompleteness of Hoare’s Calculus over Simple Datastructures. Int. Ber. 3/84, Fakultät Informatik, Univ. Karlsruhe.
196
2 Die 80er Jahre
[3] Beckert, B.; Hähnle, R.; Schmitt, P.H.: 2007, Verification of Object-Oriented Software – The KeY-Approach. Springer-Verlag. [4] Bergstra, J.A. and Klop, J.W.: 1984, Proving Program Inclusion Using Hoare’s Logic. Theoretical Computer Science 30, North Holland, pp. 1–48. [5] Broy, M. and Jähnichen, St. (eds.): 1991, KORSO: Methods, Languages, and Tools, LNCS 1009, Springer-Verlag. [6] Burstall, R.M.: 1974, Program Proving as Hand Simulation with a Little Induction. Information Processing 74, North Holland. [7] Dershowitz, N.: 1983, The Evolution of Programs. Birkhäuser, Boston. [8] Dijstra, E.W.: 1988, Lecture held on 8/4/1988, Intern. Summer School „Constructive Methods in Computer Science“, Marktoberdorf. [9] Fuchß, Th.; Reif, W.; Schellhorn, G.; Stenzel, K.: 1991, Three Selected Case Studies in Verification. In [5], pp. 371–387. [10] Fuchß, Th.: 1998, Eine temporale Logik der Prozesse. Dissertation, Universität Karlsruhe (TH). [11] Goldblatt, R.: 1982, Axiomatising the Logic of Computer Programming. LNCS 130, Springer-Verlag. [12] Gordon, M.; Milner, R.; Wadsworth, C.: 1979, Edinburgh LCF, LNCS 78, Springer-Verlag. [13] Gries, D.: 1981, The Science of Programming. Springer-Verlag. [14] Habermalz, E.: 2000, Ein dynamisches automatisierbares interaktives Kalkül für schematische theoriespezifische Regeln. Dissertation, Universität Karlsruhe (TH). [15] Hähnle, R.: Programmverifikation durch symbolische Ausführung und Induktion. Diplomarbeit, Fakultät für Informatik, Karlsruhe, 1988. [16] Heisel, M.; Menzel, W.; Reif, W.; Stephan, W.: 1990, Der Karlsruhe Interactive Verifier (KIV) – Eine Übersicht. In: H. Kersten (Hrsg.), Sichere Software – Formale Spezifikation und Verifikation vertrauenswürdiger Systeme, Hüthig Verlag, Heidelberg, pp. 172–193. [17] Heisel, M.; Reif, W.; Stephan, W.: 1990, Tactical Theorem Proving in Program Verification. In: Stickel, M. (ed.), 10th Int. Conf. on Automated Deduction, Proc., LNCS 449, Springer-Verlag, pp. 117–131. [18] Heisel, M.: 1991, Formale Programmentwicklung mit Dynamischer Logik. Dissertation, Universität Karlsruhe (TH). [19] Heisel, M.; Reif, W.; Stephan, W.: 1991, Formal Software Development in the KIV System. In: Lowry, M. and Mc Cartney, R. (eds.), Automating Software Design, AAAI Press, pp. 547–574. [20] Hoare, C.A.R.: 1969, An Axiomatic Basis for Computer Programming. In: Comm. ACM 12, pp. 576–580, 583. [21] Preiß, R.: 1998, Beweisvisualisierung und -analyse mit Hypergraphen. Dissertation, Universität Karlsruhe (TH). [22] Reif, W.: 1991, Korrektheit von Spezifikationen und generischen Moduln. Dissertation, Universität Karlsruhe (TH). [23] Reif, W.: 1992, Verification of Large Software Systems. In: Shyamusandar, R. (ed.) Conf. on Foundations of Software Technology and Theoretical Computer Science, New Delhi, LNCS 652, Springer-Verlag, pp. 241–252. [24] Reif, W. and Stenzel, K.: 1993, Reuse of Proofs in Software Verification. In: Shyamasundar, R. (ed.) Conf. on Foundations of Software Technology and Theoretical Computer Science, Bombay, Proc., LNCS 761, Springer-Verlag, pp. 284–291. [25] Schellhorn, G.: 1988, Verifikation von Programminklusion mit Hilfe der Hoare-Logik. Diplomarbeit, Fakultät Informatik, Universität Karlsruhe (TH). [26] Schellhorn, G. and Ahrendt, W.: 1998, The WAM Case Study – Verifying Compiler Correctness with KIV. In: Bibel, W. and Schmitt, P.H. (eds.) Automated Deduction – A Basis for Applications, vol. III, Kluwer, pp. 165–194. [27] Schönegge, A.: 1998, Spezifizierbarkeit berechenbarer Datentypen. Dissertation, Universität Karlsruhe (TH).
2.4 KIV: Der Karlsruhe Interactive Verifier (gefördert von der DFG 1986–1989)
197
[28] Smith, D.R.: 1985, Top-down synthesis of divide-and-conquer algorithms. In: Artificial Intelligence 27, pp. 43–96. [29] Stephan, W.: 1989, Axiomatisierung rekursiver Prozeduren in der Dynamischen Logik. Habilitationsschrift, Fakultät Informatik, Universität Karlsruhe (TH). [30] Ullmann, M.; Hauff, H.; Loevenich, D.; Baur, P.; Göhner, P.; Kejwal, P.; Förster, R.; Drexler, R.; Reif, W.; Stephan, W.; Wolpers, A.; Hutter, D.; Sengler, C.; Cleve, J.; Canver, E.: 1993, VSE Verification Support Environment, BSI Verlag, Bonn.
198
2 Die 80er Jahre
2.5 Informationsverarbeitung in Neuronaler Architektur, INA (1988–1990)
Werner von Seelen (Universität Bochum)
2.5.1 Einführung Technische Systeme zur Informationsverarbeitung und neuronale Systeme haben überlappende Aufgabenfelder. Darüber hinaus gibt es Aufgaben, bei denen neuronale Systeme begriff- und strukturbildend sind und ihre Lösungen den Weg weisen für Systeme mit vergleichbaren Eigenschaften. Selbstorganisation, Lernen und Intelligenz sind derartige Systemfähigkeiten. Hinzu kommt ein prinzipieller Unterschied. Während technische Systeme in weitgehend geschlossenen Welten operieren, agieren biologische Systeme in natürlichen Umwelten, sie sind definitorisch offene Systeme. Funktionelle Überlappung und Komplexität beider Systemarten legen nahe, sie in ihren Eigenschaften einander ergänzen zu lassen, zumal technische Systeme vermehrt die Anwendungsdomänen biologischer Systeme durchdringen. Angesichts dieser Situation hat der BMFT über etwa 15 Jahre hinweg in verschiedenen, aber aufeinander aufbauenden Programmen die Analyse und die Applikation neuronaler Systeme gefördert. Diese Projekte umfassten jeweils mehrere Gruppen aus Universitäten und der Industrie. Die Projektnamen sind INA (1988– 1990), NAMOS (1991–1994), NEUROS (1995–1999), LOKI (2000–2003), MORPHA (1999–2003) sowie das gegenwärtig laufende Service-Roboter-Projekt DESIRE. Am Projekt INA waren unter der Federführung der Professoren v. Seelen und v. d. Malsburg folgende Partner beteiligt: Universität Mainz: Fachbereich Zoologie, TH Darmstadt (2×) Fachbereich Elektrotechnik und Informationstechnik, Universität Göttingen: Fakultät für Physik, Universität Paderborn: Fakultät für Informatik, Fa. Kratzer Automatisierung GmbH, Universität Düsseldorf (2×): Institut für Physikalische Biologie und Institut für Hirnforschung, TU München: Physik Department, Max-Planck-Gesellschaft: Institut für Hirnforschung, Universität Bochum (2×): Institut für Neuroinformatik, GMD: Institut für Informationstechnische Infrastrukturen.
2.5.2 Randbedingungen und Ziele des Projektes Die Struktur neuronaler Systeme ist die „Antwort“ der Evolution auf die Randbedingungen, unter denen biologische Systeme überleben müssen.
2.5 Informationsverarbeitung in Neuronaler Architektur, INA (1988–1990)
199
Diese Bedingungen sind die Eigenschaften der natürlichen Umwelt. Ihre kennzeichnendsten Eigenschaften sind die dynamische Variabilität aller relevanten Parameter, die prinzipiell nicht mögliche vollständige Beschreibbarkeit (Komplexität) und die Struktur der „Störungen“, die nur anteilig statistisch sind. Diese Entwicklungsbedingungen haben neuronale Systeme entscheidend geprägt, mit der Schlüsseleigenschaft der Flexibilität und der Fähigkeit, Wissen nach „Ähnlichkeiten“ so zu ordnen, dass es zielbezogen verwandt werden kann. Das Startprojekt INA war zunächst mit Einschränkungen versehen und von der Vorstellung bestimmt, in technisch strukturierten Problemen Elemente aus neuronalen Systemen zu übernehmen. Die konkrete Zielsetzung bezog sich auf die Untersuchung visueller Informationsverarbeitung in natürlichen Umwelten mittels neuronaler Architekturprinzipien. Als Applikationsbereiche galten 3D-taugliche Sehsysteme für Roboter und autonom agierende Fahrzeuge sowie verschiedene Automatisierungsprobleme. Diese Systeme sollten aktives Sehen ermöglichen, d. h. den Perzeptionsprozess autonom gestalten; darüber hinaus waren hinreichend schnelle Algorithmen für die Steuerung dieses Prozesses und die folgende Bildverarbeitung zur Verfügung zu stellen. Die Lernfähigkeit derartiger Systeme war Programm. Die Automatisierungsaufgaben bezogen sich auf deren Flexibilität und damit auf die Verwendung Neuronaler Netze. Die methodische Basis der Arbeiten bildeten die Theorie Neuronaler Netze, Neuronale Felder und zu dem Zeitpunkt erkennbare Strategien biologischer Systeme wie „active vision“ oder cortikale Repräsentationsformen (Karten). Die Strukturierung der Probleme erfolgte auf der Grundlage der Systemtheorie.
2.5.3 Ergebnisse des Projektes 2.5.3.1 Operationen zur Bildverarbeitung Das primäre Ziel war die Auswertung von Bildfolgen, vor allem zum Zwecke der Navigation. Diese Aufgabe setzt die Erkennung von Objekten in den Einzelbildern voraus. Dazu wurden die Bilder mit den geradzahligen Ableitungen (2, 4, 6) differenziert (Symmetrische Rezeptive Felder) und in Tangentenelementen unterschiedlicher Orientierung diskret zweidimensional repräsentiert. Diese Repräsentation assoziierte benachbarte Orientierungen mit deren örtlicher Nachbarschaft. Dadurch wurden Wechselwirkungsprozesse möglich, die lokale Merkmale auf unterschiedlichen Ortsskalen extrahierten und natürliche Grauwertbilder handhabbar machten. Die Kopplung dieser dem visuellen Cortex angelehnten Repräsentationen mit einem spärlich besetzten Heteroassoziativspeicher ergab ein schnelles störsicheres Mustererkennungsverfahren, das in unterschiedlichen Ausprägungen mehrfach eingesetzt wurde. Da die Eingangsgrößen Bildfolgen, also dynamische Prozesse waren, wurde deren Quantifizierung durch Evaluierung des optischen Flusses erreicht, der korrelationsbasiert bestimmbar war.
200
2 Die 80er Jahre
Die gewählte Repräsentation koppelte die Bilder zweier Kameras streifenweise nebeneinander (Okulardominanzstreifen). Dadurch wurde die Extraktion einer dichten Tiefenkarte möglich sowie die dreidimensionale Evaluierung von Objekten und deren Abstandschätzung vom Beobachter. 2.5.3.2 Organisation des Sehvorganges und Navigation Die obige Bildauswertung war zugeschnitten auf die visuelle Navigation von Robotern oder betriebsinternen Transportfahrzeugen. Diese Anwendung setzte „aktives“ Sehen, d. h. eine autonome Exploration der Umwelt voraus, dabei wurde die Autonomie eingeschränkt durch die jeweils auftretenden Notwendigkeiten im Rahmen der Gesamtaufgaben. Angesichts schneller Bildfolgen, bewegter Objekte in der Umwelt und der 3D-Tauglichkeit des Systems wurde eine ortsvariante Abtastung der Welt
Abb. 2.9 Versuchsträger MARVIN aus dem Projekt INA
2.5 Informationsverarbeitung in Neuronaler Architektur, INA (1988–1990)
201
(Fovealisierung) abhängig von Bildinhalten realisiert. Diese Fähigkeit ließ sich auf der Basis der gewählten Repräsentation zu einem sehr leistungsfähigen Trackingsystem für eigenbewegte Objekte ausweiten. Die der Biologie abgesehene Methode der Kartierung vom ortsvarianten Sensor auf die „cortikale“ Repräsentation wurde ferner dazu genutzt, eine effiziente Hinderniserkennung durch die Differenz zweier epipolarer Bilder zu realisieren. Dieses Verfahren (inverse Perspektive) wurde in der Folgezeit von mehreren Gruppen weltweit übernommen. Auf einem autonomen Fahrzeug wurden alle Module gekoppelt, so dass im Rahmen einer hierarchischen Verhaltensstrategie das Fahrzeug seine Umwelt explorieren und darin navigieren konnte. Die Abb. 2.9 zeigt einen Versuchsträger, auf dem alle Algorithmen implementiert wurden. 2.5.3.3 Methodische und verfahrenstechnische Ergebnisse Neben den auf die visuelle Navigation bezogenen Ergebnissen waren vor allem die methodischen Fortschritte weiterführend. Die Grundlagenarbeiten an Neuronalen Netzen beförderten Automatisierungsprobleme. So konnten mit Hilfe evolutionärer Optimierungsverfahren effiziente spärlich gekoppelte Neuronale Netze strukturiert werden, mit geringem Belehrungsaufwand. Darüber hinaus erwiesen sich schnelle Optimierungen als ein wirksames Hilfsmittel, die partielle Selbstorganisation von Systemen zu erreichen (Gesichtserkennung). Die Einbeziehung der Fuzzy-Logik in die Entwicklung adaptiver Systeme auf der Basis von Ein-/Ausgabedaten führte zu einem „unscharfen“ Inferenzsystem (Takagi, Sugeno), das in ein Neuronales Netz überführt wurde, mit der Möglichkeit, dieses weiterhin zu belehren. Der Fortschritt lag darin, Expertenwissen für den Entwurf der Neuronalen Netze einzusetzen und aus einem mit Daten belehrten Netz die logischen Regeln zu gewinnen, die in den Daten enthalten sind (z. B. bei chaotischen Zeitreihen). Als ein integrativer Schritt mit beachtenswerten Folgen erwies sich das Bemühen, aus etwa 20 dedizierten Algorithmen im Bereich der visuellen Navigation ein Basissystem aus sechs Operatoren zu gewinnen, das für generelle Probleme der Bildverarbeitung einsetzbar war. In dem bereits genannten Folgeprojekt (NEUROS) entstand daraus der Chip SEE I der Firma Infineon, der dort in verschiedenen Versionen Verwendung fand.
2.5.4 Bewertung, Nachhaltigkeit Das Projekt INA erwies sich als Initialzündung für das Bemühen, biologische Verfahren für technische Anwendungen zu nutzen. Die nachfolgende kontinuierliche Förderung des Bereichs hat beachtliche Ergebnisse hervorgebracht und den deutschen Gruppen ermöglicht, in der internationalen Spitzenforschung prominent mitzuwirken. Bezogen auf die Wirksamkeit der
202
2 Die 80er Jahre
Ideen erwies sich in der Folgezeit die Einschätzung der Konsequenzen natürlicher Umwelten für die darin agierenden Systeme als richtig und weittragend. Sie wies der Flexibilität der Systeme eine Schlüsselrolle zu, die für die heute aktuellen Probleme der Autonomie, der Selbstorganisation und der Robustheit von Systemen nach wie vor entscheidend ist. Es zeigten sich im Ablauf der Arbeiten allerdings auch Schwächen des naturgemäß begrenzten Ansatzes. So wurde deutlich, dass die isolierte Übernahme biologischer Verfahren in technisch konzipierte Systemstrukturen einen Teil der Vorteile verspielte, die mit einer sich über größere Systemteile erstreckenden, konsequent neuronalen Architektur erreichbar erschienen. Spätere Projekte haben dem – allerdings nur teilweise – Rechnung tragen können. Für die Bildverarbeitung und für die Roboterentwicklung, insbesondere deren Kontrollstrukturen, war INA ein wichtiges und erfolgreiches Projekt, vor allem deswegen, weil Folgeprogramme die erarbeiteten Ideen konsequent nutzen konnten.
2.5.5 Zur Entwicklung des geförderten Fachgebietes Überblickt man den vollen Zeitraum der Förderung dieses Grenzgebiets bis 2006, so zeichnete er sich durch eine beeindruckende Kontinuität aus. Die Ergebnisse waren wirtschaftlich wie wissenschaftlich sehr gut und lebten entscheidend davon, dass die Ideen einer Förderphase von der folgenden aufgenommenen, variiert und realisiert werden konnten. Die gewonnenen Erkenntnisse waren meistens komplementär zur generellen Entwicklung im IT-Bereich und zielführend in Spezialgebieten (z. B. Robotik). Inzwischen hat sich jedoch die Situation im Bereich der Kontrollsysteme gravierend verändert: Der Entwurfsaufwand ist angesichts steigender Komplexität der Kontrollsysteme kaum beherrschbar, die notwendige Flexibilität der Systeme erfordert veränderte Architekturen und die Verfügbarkeit der Systeme sinkt mit steigender Komplexität. Damit rücken biologische Systeme vom Rand in das Zentrum des Interesses, da autonome Systeme, die die variable Zielfunktion „tracken“, erweiterte Konzepte verlangen, für die Gehirne strukturierend und zielführend sein könnten. Der Schwerpunkt einer derartigen konzept-betonten und theoretisch orientierten Entwicklung hat sich allerdings aus Europa nach Asien und Amerika verlagert. Es erscheint an der Zeit, auf einem Zeithorizont von fünf bis sieben Jahren die Initiative zurückzugewinnen.
3
Die 90er Jahre
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD (1995–2003)
Andreas Dengel (Deutsches Forschungszentrum für Künstliche Intelligenz, Kaiserslautern)
3.1.1 Einleitung Das Dokument ist die wichtigste Form, über Raum und Zeit hinweg Wissen aufzubewahren und zu transportieren. Dokumente sind sowohl Informationsquellen als auch Steuerungsinstrumente und damit gleichermaßen integraler Bestandteil der Wissensgesellschaft wie auch Fundierung für individuelle und ganzheitliche Entscheidungen. Betrachtet man unsere alltägliche Situation im Umgang mit Dokumenten, so zwingt uns die schiere Menge der anfallenden Information allzu oft dazu, bei der Dokumentverarbeitung eine Schlüssellochperspektive einzunehmen. Wir sammeln scheinbar relevante Dokumente, legen sie in Archiven ab und indizieren sie mit Schlagwörtern. Das Wiederfinden wertvoller Mitteilungen, Fakten, Arbeitsanweisungen oder Protokolle bleibt somit häufig denjenigen vorbehalten, die sich mit den Quellen gut auskennen und die richtigen Terme für eine Anfrage verwenden, oder es bleibt gänzlich dem Zufall überlassen. Viele Informationsbedürfnisse sind getrieben durch individuelle Aufgaben, Rollen oder Interessen, die ganz spezifische Aspekte von Dokumentinhalten adressieren. Vor dem Hintergrund der wachsenden Informationsflut erweisen sich daher Fähigkeiten der effektiven und effizienten Extraktion, Integration und Verdichtung von Information aus E-Mails, Geschäftsbriefen, Internetseiten oder 203
204
3 Die 90er Jahre
Archiven immer mehr als unabdingbar, ja als unternehmerischer Wettbewerbsfaktor, der sich zunehmend auf die Möglichkeiten von computergestützten Verfahren verlässt: • In der Buchhaltung müssen z. B. Werte zu bestimmten Attributen, wie etwa Rechnungssteller, Rechnungspositionen, Beträge, Zahlungsziele, etc. aus einem eingehenden Fax ausgelesen und in ein ERP-System (Enterprise Resource Planning) wie SAP R/3 übernommen werden. • Da Techniker, Juristen oder Vertriebsmitarbeiter oft unterschiedliche Terminologien für gleiche Dinge verwenden, brauchen sie wissensbasierte Assistenzsysteme, die selbstständig terminologische Zusammenhänge aus Texten erstellen und mit den gelernten Begriffen die konzeptuelle Suche nach Information unterstützen. • Mitarbeiter von Entwicklungsabteilungen haben oft Interesse an Patenten oder Erfindungsanmeldungen der Konkurrenz. Daher werden Push-Technologien benötigt, die Bedarfsprofile ihrer Nutzer dynamisch lernen und auf dieser Grundlage selektiv relevante Nachrichten ausliefern. Solche Problemstellungen sind typisch für die wissensbasierte Dokumentanalyse, bei der gerade die Künstliche Intelligenz (KI) mit ihren maschinellen Lernverfahren und symbolischen Wissenstechnologien in Verbindung mit den Kognitionswissenschaften und der Mustererkennung ein ideales Einsatzgebiet findet. Die Präferenzen, bestimmte Dokumente in gleichen Dateiordnern aufzubewahren, sie bei bestimmten Aufgaben wiederzuverwenden oder mit anderen Informationen in Zusammenhang zu bringen, können mit Hilfe der KI genauso automatisch gelernt werden, wie die wiederkehrende spezifische Nachfrage nach bestimmten Fakten bei gewissen Dokumenttypen. Zusammenhänge und Hintergründe einzelner Rechercheaktivitäten können auf der Basis bereits durchgeführter Anfragen selbstständig erkannt und zur Unterstützung neuer Recherchen herangezogen werden. So können implizite Denkmodelle und Vorgehensweisen bei der Informationswahrnehmung und -verarbeitung direkt vom Benutzerverhalten abgeleitet und durch kontinuierliche Adaption systemseitig immer bessere Lösungsvorschläge generiert werden.
3.1.2 Rahmendaten und Zielsetzung In den beiden Förderprojekten READ und AdaptiveREAD (AdREAD) arbeiteten im Zeitraum 1995–1998 (READ) und 1999–2003 (AdREAD) unter meiner Koordination die Unternehmen: AB+M, CGK Computergesellschaft Konstanz (später: OCE Document Technologies), DaimlerChrysler, Graphikon, Insiders Information Management, Janich & Klass Computertechnik und Siemens Electrocom mit den Universitäten Duisburg, Magdeburg und Stuttgart
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
205
als Forschungspartner gemeinsam an dem Ziel, die Wettbewerbssituation der deutschen Wirtschaft im Bereich adaptiver Erkennungstechnologien zu steigern und nachhaltig zu sichern. Bereits im Rahmen des Verbundprojektes „Dokumentanalyse“, das von 1985 bis 1989 durchgeführt wurde, förderte der damalige BMFT die Forschung im Bereich der Erkennungstechnologien. Während dieses Vorhaben jedoch weitestgehend auf die Grundlagen fokussierte und READ sich eher auf die inkrementelle Verbesserung und Vervollständigung von Bildverbesserungs-, Bildrepräsentations- und Leseverfahren konzentrierte, standen in AdREAD Orchestrierung und Transfer der Technologien im Vordergrund und damit ihre Adaptierbarkeit und Adaptivität. Ziel von AdREAD war die Erarbeitung und prototypische Umsetzung eines querschnittlichen und umfassenden Konzeptes zur Lernfähigkeit von Lesesystemen, die sich mit den in der Einleitung skizzierten Problemstellungen befassen. Die Motivation für solche Systeme liegt auf der Hand: Einerseits unterliegen sie nicht wie bisherige Systeme dem „Gesetz der fortschreitenden Fehlanpassung“, indem sie immer die gleichen Fehler wiederholen, andererseits binden sie wesentlich weniger Engineering-Leistung für ihre Pflege. Kurz: die Lernfähigkeit sollte aus den Labors direkt in wissensbasierte Lesesysteme vor Ort verpflanzt werden. In diesem Zusammenhang möchte ich auch auf das im Rahmen der Ergebnisse von AdREAD publizierte Buch [1] verweisen. Abbildung 3.1 veranschaulicht den Kreislauf des Lernprozesses für ein Lesesystem. Unterschiedliche Wissensquellen werden genutzt, um aus dem Strom der Dokumentbilddaten die für die spezielle Anwendung relevanten Informationen abzuleiten. Diese wiederum werden genutzt, um die Wissensquellen an die speziellen Aufgabenbedingungen anzupassen. Die F+E-Arbeiten lassen sich zu den folgenden Punkten zusammenfassen: • Adaption: Entwicklung von Verfahren zur effizienten Lernfähigkeit von Lesesystemen für unterschiedliche Aufgabenstellungen. Entwicklung von Verfahren zum kontinuierlichen Lernen während des Betriebs, insbesondere zum automatischen Erstellen von Lernstichproben. • Komponenten: Entwicklung einer komponentenbasierten Architektur zur einfachen Konfiguration von Algorithmen zu einer Gesamtlösung. • Erkennungsverfahren: Verbesserung und Weiterentwicklung ausgewählter Erkennungsverfahren, wie Handschrifterkennung. • Wissens- und Informationsmanagement: Verwaltung der Dokumentdaten zur nachfolgenden Nutzung, beispielsweise, um automatisch gekennzeichnete Stichproben zu erstellen. Ein wesentlicher Antrieb der wissenschaftlichen Aufgaben und Entwicklungsarbeiten der Projekte READ und AdREAD war es also, auf Basis kognitionswissenschaftlicher Erkenntnisse und musterverstehender Verfahren die Spuren perspektivischer, situativer und subjektiver Relevanz in der bildhaften, formalen, textuellen und strukturellen Darstellung von Dokumenten zu entdecken, maschinell zu lernen und gezielt pro-aktiv zur Verfügung zu stellen.
206
3 Die 90er Jahre
Abb. 3.1 Kreislauf des Lernprozesses bei Lesesystemen
Neben der Lernfähigkeit konzentrierten sich die Arbeiten auf die Verbesserung und Weiterentwicklung ausgewählter Erkennungsaufgaben sowie auf Wissensund Informationsmanagement. Die Arbeiten im Bereich Wissens- und Informationsmanagement setzten sich zum Ziel, die Verwaltung der Informationen, die auf Basis der Dokumente gebildet werden, effizient zu unterstützen. So waren beispielsweise dynamische Strukturen zu entwickeln, die den Anwender beim Zugriff auf die Dokumente unterstützen und dabei die Fähigkeit besitzen, nachträglich zu den Dokumenten hinzugefügte Zugriffspfade dem Anwender zur Recherche anbieten zu können. Die neuartigen, adaptiven Verfahren der Projekte READ und AdREAD sind von den Projektmitgliedern in mehr als 80 referierten, internationalen Zeitschriften- und Konferenzpapieren publiziert. Allein aus dem Projekt AdREAD sind insgesamt 20 Patente, Schutzrechte und Erfindungsanmeldungen der beteiligten Industrieunternehmen hervorgegangen. Darüber hinaus entstand eine stattliche Anzahl von Spin-off-Arbeitsplätzen, mit 20 Spin-off-Produkten, darunter neue Rechnungs- und Formularleser, Webservices für Erkennungsdienste, vertikale Suchmaschinen oder Peer2Peer-Suchdienste, mit denen die am Projekt beteiligten deutschen Firmen oder Ausgründungen zum Teil weltweit führend sind. Mehr als 50% der privaten Krankenversicherungsunternehmen, die eine elektronische Dokumentenverarbeitung einsetzen, arbeiten bereits heute mit „AdREAD“-Systemen, wie sie von einigen der beteiligten Industrieunternehmen inzwischen entwickelt und vertrieben werden. Dabei wird eine Kosteneinsparung gegenüber der manuellen Eingabe von mindestens 65% garantiert. Mit der
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
207
Verbreitung dieser Systeme werden alle relevanten Informationen elektronisch verarbeitbar. Neue Mehrwertfunktionen wurden geschaffen. Patientenhistorie, Verordnungspraktiken und Krankheitsverteilungen werden genauso realisierbar, wie die Prüfbarkeit der in Rechnung gestellten Positionen gegenüber GOÄ, GOZ, usw. mit – gemäß den Statistiken einiger Krankenversicherer – Einsparungspotentialen aufgrund von „Overservicing“ im neunstelligen Eurobereich pro Jahr. Aber auch andere, für die Zukunft wichtige webbasierte Technologien aus AdREAD haben den Durchbruch geschafft. Webservices mit Dokumenterkennungstechnologien werden von Unternehmen wie Metro, Celanese oder Simatic mit hohen Einspareffekten genutzt. Dienste, aufbauend auf intelligenten AdREAD-Suchtechnologien, sind heute Grundlage für Lösungen bei dpa, der Süddeutschen Zeitung, der Medical Tribune oder bei Großkonzernen wie Thyssen-Krupp, Ricoh oder Accenture.
3.1.3 Exemplarische inhaltliche Ergebnisse Dokumente sind kreative Bilder der Sprache, mit dem Zweck zu informieren. Wenn ein Mensch beim Lesen die Information bewusst erfasst, dann verwendet er eine komplexe Menge an Wissen der mentalen Ebene, denn nur so kann er den bildhaften Texten einen Zweck zuordnen. Beispielsweise, dass die groß und fett gedruckte Textzeile in der Zeitung eine Überschrift ist, oder dass die drei Zahlen, die durch einen Punkt getrennt sind, das Antragsdatum im Versicherungsformular darstellen, oder etwa, dass ein Brief aus logischen Komponenten wie Absender, Empfänger, Datum und vielleicht aus Betreffteil, Firmenlogo, Bankverbindungen usw. besteht. Menschen nutzen somit Wissen intuitiv und unreflektiert, auch beim Lesen. Es ist Teil der mentalen Modelle im Gehirn und steuert die Wahrnehmung, generiert Erwartungshaltungen oder lenkt die Aufmerksamkeit auf die gerade benötigten Aspekte von Informationen. Um dieses Wissen elektronisch verfügbar zu machen, müssen wir uns seine Rolle und seine Zusammenhänge beim Lesen vor Augen führen. Betrachtet man beispielsweise einen Geschäftsbrief aus fünf Metern Distanz, so ist man, auch wenn man es angestrengt versucht, nicht in der Lage, irgendetwas davon zu lesen. Trotzdem erkennt man, dass es sich nicht um eine Tageszeitung oder einen Einwohnermeldebogen handelt, denn jeder von uns hat Kenntnisse darüber, wie Geschäftsbriefe typischerweise aufgebaut sind und ist daher in der Lage, das Dokument als solches zu kategorisieren. Darüber hinaus kann man sehr schnell Hypothesen generieren, welcher Baustein in dem Geschäftsbrief der Empfänger ist oder wo das Datum steht. Wenn man nun wissen möchte, ob die getroffene Annahme bezüglich des Empfängers tatsächlich stimmt, so müsste man natürlich näher an das Dokument heran und, mit entsprechender Erwartungshaltung ausgestattet, die enthaltenen Wörter, ihre Syntax und ihre Semantik überprüfen. Erkennt man dann beispielsweise den Namen eines Versandhauses, oder an einer anderen
208
3 Die 90er Jahre
Stelle den Begriff Auftragsbestätigung, so ist es naheliegend, den Inhalt des Briefes auf die vor zwei Wochen gemachte Bestellung zu beziehen. Dies ist nur ein einfaches aber anschauliches Beispiel, wie der Mensch Dokumentinformation erfasst. Er nutzt die Präsentation der Information in Verbindung mit seinen sprachlichen Fähigkeiten sowie kontextuelles Wissen, um die Aussagen im Zusammenhang zu erschließen. Möchte man das oben geschilderte Beispiel der menschlichen Informationsverarbeitung auf einen Computer übertragen, so benötigt man Wissen über das hierarchische Layout von Geschäftsbriefen, die inhärente logische Struktur, mögliche Nachrichtentypen und deren Zusammensetzung, Prozessmodelle sowie sprachliches Hintergrundwissen samt eines kontrollierten Vokabulars mit Thesaurus. Im Rahmen von AdREAD haben wir ein umfangreiches wissensbasiertes Konzept entwickelt, das solche Formen heterogenen Wissens auf Basis kognitiver Aspekte zur Dokumentverarbeitung gezielt einsetzt, um Informationen aus Geschäftsbriefen, E-Mails, Internetseiten oder Archiven in einer Form und zu einem Zeitpunkt auszuliefern, wie sie ein Benutzer im Zusammenhang mit bestimmten Aufgaben benötigt. Das resultierende prototypische System integriert elektronische wie gedruckte Informationen und umfasst alle Phasen der Dokumentverarbeitung. Angefangen bei der Analyse der Dokumentbilder über die Texterkennung, die Klassifikation, die Analyse enthaltener Tabellen, die Erkennung nachrichtenspezifischer Aussagen bis hin zur Einordnung der Dokumente in die Workflow-Prozesse eines Unternehmens. Das Besondere an diesem Modell ist die Ganzheitlichkeit des wissensbasierten Ansatzes, der musterverstehende Verfahren der Bild- und Sprachverarbeitung mit lesepsychologischen Erkenntnissen aus dem Bereich der Kognitionswissenschaften kombiniert. Die entwickelten Algorithmen und KI-Methoden arbeiten als selbstständig oder interaktiv lernende und kommunizierende Agenten, die sich durch die Verwendung umfangreichen Wissens systematisch an gegebene Problemstellungen adaptieren, ihr Zusammenspiel optimieren und komplexe Inferenzen ermöglichen (Abb. 3.2). Situative Bewertungen von Zwischenergebnissen und Metriken bzgl. der Problemlösungskompetenz einzelner Komponenten ergänzen den Ansatz und steuern die Anwendung und Kombination der Agenten, die unter Einbeziehung des vorhandenen Wissens ihre Anwendbarkeit signalisieren. Diese Architektur bildet die unterschiedlichen Strategien des Menschen beim Lesen nach, indem, je nach Struktur und textueller Zusammensetzung eines Dokumentes, layout-orientierte Ansätze mit statistischen und phrasen-basierten Techniken der Texterschließung von Systemseite kombinierbar werden. Die Plattform ist offen und besitzt einheitliche Schnittstellendefinitionen, so dass Komponenten dynamisch gekoppelt, wie auch jederzeit neue Problemlösungsagenten hinzugenommen werden können (s. a. [2]). Offene, in Bearbeitung befindliche Workflow-Prozesse stellen Kontexte zur Verfügung, die den Informationsbedarf beschreiben. Abbildung 3.3 zeigt die Grundarchitektur des Modells.
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
Abb. 3.2 Prinzip der agentenbasierten Dokumentverarbeitung
Abb. 3.3 Grundarchitektur des Verarbeitungsmodells
209
210
3 Die 90er Jahre
Auf Basis dieses Modells wurden während und in Folge der Projekte READ und AdREAD einige völlig neuartige und adaptive Verfahren entwickelt, von denen nachfolgend einige exemplarisch zusammenfassend aufgeführt werden. Sie wurden evaluiert, international publiziert und auf Konferenzen und Workshops vorgestellt: • Lernalgorithmen für Geschäftsbriefe, die auf Grundlage von Formularanteilen, wie vorbedruckten Briefköpfen, Fußzeilen oder Tabellen, selbstständig Unterscheidungsmerkmale für die Dokumentklassifikation lernen. Dies geschieht ohne Einbeziehung von Text auf rein geometrischen Merkmalen der Layoutobjekte. Diese werden auf Basis der einmaligen Präsentation eines Beispieldokuments, z. B. durch Einscannen, ohne Mitwirkung des Benutzers bestimmt. Das Lernverfahren selektiert in einem zweiten Schritt solche Eigenschaften, die zu maximal diskriminierenden Merkmalsräumen führen. In der Praxis können mit diesem Verfahren viele hundert unterschiedliche Dokumenttypen gleichzeitig unterschieden werden [3, 17]. • Selbst-optimierende „Pattern-Lerner“, die typische sprachliche Textmuster aus Beispieldokumenten lernen und in Form von Regeln für spätere Klassifikationsaufgaben einsetzen können (z. B. wird eine Aussage wie „hiermit möchte ich mein Versicherungsverhältnis zum nächstmöglichen Zeitpunkt auflösen“ zu einer Regel [Versicherungsverhältnis (5) auflösen → Kündigung], wobei 5 der Wortabstand ist. Liegen mehrere Beispiele vor, bei denen eine andere Wortwahl mit weniger Wörtern verwendet wird, so können auch Regeln der Art [Versicherungsverhältnis (1..5) auflösen/beenden → Kündigung] hergeleitet werden [4, 5, 6]). • Modellfreie Tabellenlernverfahren, die jegliche Form von Tabellen bestimmen und mit logischen Modellen generischer Tabellen abgleichen können. Dabei werden vertauschte oder fehlende Spalten genauso berücksichtigt wie unterschiedliche Spaltenüberschriften, indem ein Thesaurus mit Synonym- und Akronymsammlungen angeschlossen ist [7, 8, 9]. • Offene Workflow-Objekte, die als Erwartungshaltung für mögliche Nachrichten dienen und damit Inhalte in den richtigen kontextuellen Zusammenhang stellen. Ist etwa u. a. von einem Sachbearbeiter ein Beschaffungsprozess angestoßen, bei dem eine Bestellung verschickt wurde, so ist damit zu rechnen, dass entweder ein Lieferschein oder eine Rechnung des entsprechenden Unternehmens eingeht. In einem ERP-System ist dann beispielsweise von Lieferant, Bestellpositionen usw. die Rede, die im Prozess als Workflow-Objekte abgebildet werden. Im eingehenden Dokument stehen diese Begriffe in der Regel nicht, sondern es muss geschlossen werden, dass der Absender, der sich auf eine Bestellung bezieht, der entsprechende Lieferant ist. Dazu muss das Wissen über den Vorgang bis zur Bestellung und die erwartete Information als Wissen in den Analyseprozess einbezogen werden [10, 11]. • Systeme, die selbstständig Kontextwissen bzgl. der Dokumentnutzung aufbauen und damit Relevanz von Information in bestimmten Situationen oder im Zusammenhang mit bestimmten Aufgaben im Arbeitsablauf lernen. Dies erlaubt
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
211
es entsprechenden Informationsagenten zu einem späteren Zeitpunkt, demselben oder einem anderen Benutzer, der die gleiche oder eine ähnliche Aufgabe ausführt, pro-aktiv potentiell relevante Informationen bereitzustellen. So können beispielsweise im Zusammenhang einer EU-Antragstellung Synergien genutzt werden, indem etwa bereits verfügbare Textbausteine wiederverwendet, Hinweise auf weiterführende Dokumente gegeben oder bei einem anstehenden Besuch Informationen über den Besucher, sein Unternehmen oder sein Aufgabenfeld ausgeliefert werden [12, 13]. • Statistische Lernverfahren, die automatisch Nutzerprofile erstellen, indem sie beobachten, in welchen Ablageordnern Benutzer Dokumente mit bestimmten Inhalten ablegen und aufgrund dessen vorschlagen können, wie der Inhalt einer neu eingehenden E-Mail mit den bestehenden Dateistrukturen zusammenhängt. Auf dieser Grundlage lassen sich subjektive Präferenzen bestimmen, die auch bei der Suche nach bestimmten Informationen (Retrieval) einen deutlichen Mehrwert bringen. Nimmt man das Beispiel eines Ordners mit der Bezeichnung Urlaub, in dem ein Benutzer alle für ihn relevanten Dokumente zum Thema Urlaub abgelegt hat, so können automatische Verfahren ein Profil für diesen Ordner erstellen. Im Einzelnen werden wichtige Termkonzepte aus den Dokumenten extrahiert und als „Elektronisches Mentales Modell“ mit Urlaub in Beziehung gestellt, z. B. Strand, Meer, Schnorcheln, Korallenriff usw. Fragt ein Benutzer über eine Suchmaschine nach Urlaub, so wird seine Anfrage über so genannte „Query Expansion Methoden“ erweitert, und er erhält Dokumente, die seinen Vorlieben nahe kommen [12, 14, 15].
3.1.4 Projektmanagement Über die inhaltlichen Erfolge der beiden Projekte hinaus lohnt es sich auch, einige Sätze zum Thema Projektmanagement zu verlieren. Auch in diesem Bereich wurden, insbesondere im Rahmen von AdREAD, für öffentlich geförderte Vorhaben innovative Strukturen erfolgreich eingeführt, die bis zum damaligen Zeitpunkt in der gesamten Konsequenz so noch nicht betrachtet wurden. Aufbauend auf den Erfahrungen aus dem Projekt READ, das im Hinblick auf das Management großer Forschungsprojekte bereits Pionierarbeit geleistet hatte, wurde in AdREAD eine Managementstruktur festgelegt, deren Effizienz und Effektivität sich in den wirtschaftlichen und wissenschaftlichen Ergebnissen des Projektes widerspiegelt. Das Projekt wurde von einem Lenkungsausschuss gesteuert, dem ich selbst vorstehen durfte und dem Führungskräfte der beteiligten Unternehmen und Institutionen angehörten. Der Lenkungsausschuss delegierte, über die technische Projektleitung am DFKI, Befugnisse an die Projektleitung, die das operative Projektmanagement durchführte. Die Aufgaben innerhalb der individuellen Arbeitspakete des Projekts wurden von den Arbeitspaketleitern geführt und gesteuert. Zudem wurden Regelkreise berücksichtigt, welche das integrierte, selbstregelnde Steuerungs- und Rückkopplungssystem des Projekts darstellten (Abb. 3.4).
212
Abb. 3.4 Managementstruktur von AdREAD mit Regelkreisen
Abb. 3.5 Kernfunktionalitäten und Interaktionen der Projektorganisation
3 Die 90er Jahre
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
213
Die diversen Aufgaben im Zusammenhang mit dem operativen Projektmanagement wurden von der Projektleitung wahrgenommen, der der Projektmanager, der F+E-Projektcontroller, der Technische Projektleiter sowie die Leiter der technischen Arbeitspakete angehörten. Dies führte zu einer klar definierten Managementorganisation mit unterschiedlichen Kernfunktionen (Abb. 3.5). Ich möchte an dieser Stelle nochmals allen beteiligten Projektpartnern für die wirklich hervorragende Kooperation danken. Hervorheben möchte ich die Personen Markus Junker für die technische Projektleitung, Joachim Irion für das Projektmanagement und Walter Olthoff für das Projektcontrolling.
3.1.5 Ausblick und Nachhaltigkeit Leider können im Rahmen dieses Kapitels nicht alle Aspekte von READ und AdREAD aufgegriffen und erläutert werden, da ich es auch nicht versäumen möchte, einen Blick in die Zukunft zu wagen. Dabei möchte ich insbesondere die Felder herausgreifen, die in den nächsten Jahren wesentliche Anknüpfungsoptionen für die weiterführende Entwicklung von bestehenden Ergebnissen darstellen. Im Büro der Zukunft stehen enorme technologische Veränderungen an. Instrumentierte Umgebungen, multimodale Schnittstellentechnologien, hochauflösende Displays und breitbandige mobile Kommunikation erlauben die Einführung und Nutzung neuer Interaktionsformen am persönlichen Arbeitsplatz. Die Informationsintensität in Verbindung mit der abnehmenden Halbwertszeit von Wissen macht dabei eine menschenzentrierte Unterstützung bei der Dokumentverarbeitung unumgänglich. Auf der Grundlage individueller Präferenzen werden Informationsassistenten bei Aufbau, Unterhaltung und Verknüpfung persönlicher sozialer Netze unterstützen und den interessen- und kontextgesteuerten Austausch und die Integration selektierter Informationen aus multimedialen Dokumenten ermöglichen. In diesem Zusammenhang untersuchen wir am DFKI auch verschiedene Wechselwirkungen zwischen Dokumentinhalt, -präsentation und Kontext einerseits und mentalen Modellen andererseits. Dazu haben wir im Laufe des Jahres 2006 einige weiterführende Projekte gestartet, die vom BMBF bzw. von Industriepartnern finanziert werden: Bildhaft-räumliche Darstellung von Suchergebnissen: Statt einer eingeschränkten Anzahl von Dokumenten in Form einer Trefferliste (vgl. Abb. 3.6 (Liste links)) werden Suchergebnisse mit Hilfe verschiedener Visualisierungsmetaphern räumlich präsentiert (vgl. Abb. 3.6 (Darstellung rechts)). Dieser Ansatz spricht sowohl das räumliche Gedächtnis des Menschen wie auch seine räumliche Orientierungsfähigkeit an [16]. Aktives Lesen: Unter Einbeziehung eines neuartigen Stereo-Eyetrackers, der den Benutzer beim Lesen von Dokumenten am Bildschirm beobachtet (Fixationspunkte und Sakadensprünge), werden Erkenntnisse über die subjektive Relevanz und Betrachtungsperspektive von Inhalten abgeleitet.
214
3 Die 90er Jahre
Abb. 3.6 Herkömmliche Liste und bildhaft-räumliche Darstellung von Suchergebnissen
Interaktives Lesen: Die Verwendung eines iPens, der neben Tinte mit Drucksensor, Kamera und Bluetooth ausgestattet ist, werden handschriftliche Gesten und Texte online erfasst, erkannt und als Annotationen mit den Inhalten der bearbeiteten Dokumente semantisch in Bezug gesetzt (Semantic Tagging). Das klassische Büro spielt in diesem Zusammenhang immer mehr eine untergeordnete Rolle. Für den allgegenwärtigen Büroarbeitsplatz (Ubiquitous Workspace) der Zukunft werden verstärkt Techniken in den Vordergrund rücken, die den dynamischen Aufbau gemeinsamer, aspektorientierter und semantisch annotierter Informationsräume unterstützen und ermöglichen. Dabei sind folgende Forschungsfragen von zentraler Bedeutung: • Subjektivität von Wissen: Implizites Wissen wird erst im konkreten Kontext der Kommunikation oder der Handlung menschlicher Akteure offenbar. Beispielsweise beruht eine manuelle Strukturierung von Informationselementen (wie z. B. die Dateien auf dem persönlichen Arbeitsplatzrechner) auf impliziten Annahmen subjektiver Wahrnehmung, die durch maschinelle Lernverfahren erschlossen und expliziert werden können. Es ist daher wesentlich, den Einfluss von Kontextfaktoren aufzudecken, relevante Kontextanteile zu identifizieren und Verfahren für die Speicherung und den Transfer von Kontextinformationen zu entwickeln (Knowledge Elicitation). • Spuren von Wissen: Innovative Lernverfahren sollen Spuren (Knowledge Traces) menschlicher Handlungen zur Identifikation impliziten Wissens nutzen. Software-Systeme, die im Verborgenen arbeiten, können das „Wie und Was“ im persönlichen Umgang jedes Mitarbeiters mit seinen Informationen und Dokumenten lernen und daraus neues explizites Wissen ableiten. Interessensprofile und angewandtes Know-how können auf Wunsch im Dienste anderer wiederverwendet oder anderen zugänglich gemacht werden. • Träger von Wissen: Die Analyse von Kommunikationsprozessen erlaubt es aber auch, implizites Wissen in Beziehungen und Netzwerken aufzudecken. Themenspezifische Cluster geben Hinweise auf Kompetenzen und Fachautoritäten.
3.1 Wissensbasierte Dokumentanalyse Verbundvorhaben READ und AdREAD
215
Die Auswertung von Entscheidungs-Protokollen in verteilten und globalen Organisationen macht implizite Annahmen greifbar, Kontexte transparent, Handlungen nachvollziehbar. Kompetenznetzwerke werden somit zum Kristallisationspunkt für implizites Wissen. • Transfer von implizitem Wissen: Die Übertragbarkeit von identifizierten, impliziten Wissenselementen auf neue Situationen ist im Allgemeinen völlig ungeklärt. Verfahren zum automatischen Abgleich und zur Verhandlung zwischen Modellen, Kontextbeschreibungen und Ontologien können hier helfen und den Transfer und Wissensaustausch wirksam unterstützen. Erfolgreicher Wissensaustausch setzt Motivation, Gelegenheit und Fähigkeit voraus. Während IT-Unterstützung im Wesentlichen Gelegenheiten schafft, sind zur Heranbildung der nötigen Fähigkeiten auf breiter Front innovative Methodiken nötig. So können Spielszenarien und Storytelling-Ansätze helfen, Implizites in Worte zu fassen. Schulungs- und Trainingsmethoden und unterstützende Arbeitsumgebungen können bei Austausch und Formulierung, aber auch beim Aufnehmen und Internalisieren neuer Wissensinhalte durch den Menschen helfen. • Qualität von Wissen: Um ganzheitliche Ansätze zur Wissenswirtschaft voranzutreiben, sind Verfahren zur Bewertung der Qualität und der Ertragskraft von Wissenselementen unabdingbar. Forschungsfragen umfassen die Verlässlichkeit und Glaubwürdigkeit von Wissen, korrekte Kontextidentifikation, sicher nachvollziehbare Wissensquellen, aber auch neue Herausforderungen an Urheberrecht, Digital Rights Management, Vergütungs- und Geschäftsmodelle und den Persönlichkeitsschutz. Erste Ansätze dieser Forderungen werden seit Anfang 2006 in der Leitvision „Semantic Desktop“ in meinem Forschungsbereich am DFKI bearbeitet. Über den Umgang mit Information am eigenen Arbeitsplatz und in Verbindung mit Desktop-Applikationen werden systematisch semantisch angereicherte Informationsräume über die Interaktionen des Benutzers erschlossen. E-Mails, MS-Office-Dokumente, archivierte Papierdokumente, Adressen, Photos oder Meetings werden qualitativ miteinander verlinkt und bilden personalisierte und selbst-inferierende Navigationsräume. In dem Integrierten Projekt (IP) Nepomuk, das von der EU seit 01. Januar 2006 mit 11,3 Mio. € gefördert wird, arbeiten, unter Federführung des DFKI, Wissenschaftler aus 15 Einrichtungen und Unternehmen an einer neuen technischen und methodologischen „Open source“-Plattform für den Social Semantic Desktop.
Literatur [1] Dengel, A.; Junker, M. and Weisbecker, A. (eds.): Reading and Learning – Adaptive Content Recognition, Lecture Notes in Computer Science, LNCS 2956, Springer Publ. BerlinHeidelberg (March 2004), 355 pages.
216
3 Die 90er Jahre
[2] Dengel, A. and Hinkelmann, K.: The SPECIALIST BOARD – A Technology Workbench for Document Analysis and Understanding, IDPT, 2nd World Conference on Design & Process Technology, Vol. 2, Austin, TX, USA (Dec. 1996), pp. 36–47. [3] Dubiel, F. and Dengel, A.: FormClas – OCR-Free Classification of Forms, in: Hull, J.J.; Liebowitz, S. (eds.) Document Analysis Systems II, World Scientific Publishing Co. Inc., Singapore (1998), pp. 189–208. [4] Junker, M.; Agne, S.; Hust, A.; Klink, S.; Dengel, A.; Altenhofen, C.; Franke, J.; Renz, I. and Klein, B.: Text-Mining in Adaptive READ, in: KI – Künstliche Intelligenz, 02/02, arendtap Verlag, Bremen, (April 2002), S. 30–33. [5] Dengel, A. and Junker, M.: Implementierung eines kollaborativen Unternehmensgedächtnis via Text Mining, in: Hanning, U. (Hrsg.) Management und Business Intelligence, SpringerVerlag (2002), S. 149–160. [6] Junker, M.; Abecker, A. and Dengel, A.: Text Categorization using Learned Document Features, in: Bunke, H.; Kandel, A. (eds.) Hybrid Methods in Pattern Recognition, World Scientific Publishing Co. Inc., Singapore (2002), pp. 301–324. [7] Kieninger, T. and Dengel, A.: A Paper-to-HTML Table Recognition and Analysis System, in: Lee, S.-W. and Nakano, Y. (eds.), Document Analysis Systems: Theory and Practice, Lecture Notes in Computer Science, Springer Publ., Vol. 1655 (1999), pp. 255–269. [8] Klein, B.; Gökkus, S.; Kieninger, T. and Dengel, A.: Three Approaches to „Industrial“ Table Spotting, Proceedings 6th Int’l Conference on Document Analysis and Recognition, Seattle, WA, USA (Sept. 2001), pp. 513–517. [9] Kieninger, T. and Dengel, A.: Applying the T-RECS Table Recognition System to the Business Letter Domain, Proceedings 6th Int’l Conference on Document Analysis and Recognition, Seattle, WA, USA (Sept. 2001), pp. 518–522. [10] Klein, B. and Dengel, A.: Problem-Adaptable Document Analysis and Understanding for High-Volume Applications, Int’l Journal on Document Analysis and Recognition, Volume 6, No. 4 (2004), pp. 167–180. [11] Rostanin, O.; Holz, H.; Suzuki, T.; Maeda, K.; Dengel, A. and Kanasaki, K.: Task-Based Process Know-How Reuse and Proactive Information Delivery in TaskNavigator, Proceedings 15th ACM Conference on Information and Knowledge Management, Arlington, VA, USA (Nov. 2006). [12] Kise, K.; Junker, M.; Dengel, A. and Matsumoto, K.: Effectiveness of Passage-Based Document Retrieval for Short Queries, IEICE Trans. On Inf. & Syst., Vol.E86-D, No. 9 (Sept. 2003), pp. 1753–1761. [13] Hust, A.; Junker, M. and Dengel, A.: A Mathematical Model for Improving Retrieval Performance in Collaborative Information Retrieval, in: Dominich, S.; Laalmas, M.; van Rijsbergen, K. (eds.) Advances in Mathematical/Formal Methods in Information Retrieval, Kluwer Special Issue on IR, ISSN 1386-4564, to appear 2007. [14] Klink, S.; Kise, K.; Dengel, A.; Junker, M. and Agne, S.: Document Image Retrieval, in: Chaudhuri, B.B. (ed.) Digital Document Processing, LNCS, Springer Publ. Berlin Heidelberg, to appear 2007. [15] Dengel, A.: Six Thousand Words about Multi-Perspective Personal Document Management, Proceedings IEEE-EDM, Key Note Paper, IEEE International Workshop on the Electronic Document Management in an Enterprise Computing Environment, Key Note Paper, Hong Kong, China (Oct. 2006), pp. 1–10. [16] Dengel, A.; Agne, S.; Klein, B.; Ebert, A. and Deller, M.: Human-Centered Interaction with Documents, Proceedings of the IEEE International Workshop on Human-Centered Multimedia, Santa Barbara, CA, USA (Oct. 2006). [17] Dengel, A. and Dubiel, F.: Computer Understanding of Document Structure, International Journal of Imaging Systems & Technology (IJIST), Special Issue on Document Analysis & Recognition, Vol. 7, No. 4 (1996), pp. 271–278.
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
217
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
Thomas Lengauer (Max-Planck-Institut für Informatik, Saarbrücken)
3.2.1 Einleitung Die beherzte Förderung der Bioinformatik durch das BMBF in der ersten Hälfte der neunziger Jahre gehörte weltweit zu den ersten Initiativen, die diesem Gebiet explizit Rechnung trugen. Die Bioinformatik hat zur Aufgabe, aktuelle Technologie in der Informationsverarbeitung einzusetzen, um aus biologischen Daten, vor allem aus molekularen Daten, Erkenntnisse über Strukturen und Vorgänge in lebenden Organismen zu ziehen. Das Gebiet ist heute in aller Munde. In den letzten gut zehn Jahren hat sich eine fest gefügte interdisziplinäre internationale wissenschaftliche BioinformatikGemeinde gebildet. Die Charakterisierung des Gebietes ist unumstritten. Seine Bedeutung für die Grundlagenforschung, aber auch für direkte Anwendungen in den Bereichen grüne und weiße Biotechnologie sowie insbesondere Pharmazie und Medizin verleihen der Bioinformatik eine auch unter wissenschaftlichen Disziplinen herausragende Relevanz mit direkten Bezügen in den modernen Alltag hinein. Die größten Bioinformatiktagungen ziehen bis zu etwa 2000 Teilnehmer an. Es gibt etwa ein halbes Dutzend international hoch angesehene, einschlägige wissenschaftliche Zeitschriften und die tradierten biologischen und medizinischen Zeitschriften akzeptieren in steigendem Maße Artikel mit vornehmlich bioinformatischem Inhalt. Die Unverzichtbarkeit der Bioinformatik wurde erkennbar, als im Jahre 1988 die USA beschlossen, das Humangenom zu sequenzieren. Bis zum Jahre 2005 sollte sein Text aus etwa 3 Mrd. Basenpaaren (Buchstaben aus dem Alphabet A, C, G und T) vorliegen. (Er lag dann in der Tat schon zwei Jahre vorher vor.) Mit diesem Projekt wurde die Biologie, die vormals eher eine beschreibende Wissenschaft war, zu einer quantitativen Wissenschaft revolutioniert. Es stand zu erwarten, dass zum einen die Sequenzierung des Humangenoms selbst umfangreiche Computer-Unterstützung benötigte. Allerdings war bis in die Mitte der neunziger Jahre nicht deutlich, wie viel der Arbeit man in den Computer verlegen konnte oder musste, so dass das öffentlich geförderte Humangenomprojekt selbst bis in seine späten Phasen unter einer Unterschätzung der bioinformatischen Anforderungen bei der Humangenomsequenzierung litt. Durch Craig Venters Vorstoß, das Humangenom mit der Whole-Genome-Shotgun (WGS)-Methode zu sequenzieren, wurde jedoch ein Großteil der Laborarbeit in den Rechner verlegt [12]. Die zu diesem Zweck gegründete Firma Celera Genomics unternahm in diesem Zusammenhang eine mehrjährige strategische Bioinformatikanstrengung, die
218
3 Die 90er Jahre
von Gene Myers geleitet wurde. Sie stellte letztlich die Grundlage für die erfolgreiche Assemblierung einer ersten Version des Humangenoms auf der Basis der WGS-Daten dar und ist heute als eine der Großtaten der Bioinformatik anzusehen. Die weitaus größere Aufgabe ist jedoch, aus den nun vorliegenden Genomdaten etwas zu machen.1 Das humane Genom ist die Basis für unser Aussehen, unsere Entwicklung und unsere Krankheiten. Diese Information ist im Genom jedoch in stark verschlüsselter Form vorhanden. Sie zu bergen ist eine große Herausforderung, die man etwa dadurch verdeutlichen kann, dass auch fünf Jahre nach dem Vorliegen des Humangenoms die Zahl der menschlichen Gene noch immer nicht eindeutig festgestellt ist. Hier sind einige der großen Herausforderungen, die es bei der Interpretation des Humangenoms noch zu bewältigen gilt: • Bestimmung aller menschlichen Gene • Bestimmung der 3D-Strukturen aller Proteine • Modellierung der dem Stoffwechsel unterliegenden biochemischen Netze und ihrer Dynamik • Aufklärung der Prozesse der Zellregulation • Aufklärung der Kommunikationsprozesse innerhalb und zwischen Zellen • Aufklärung der molekularen Ursachen von Krankheiten Neben diesen grundlagenorientierten Fragestellungen erhoffen wir uns speziell aus der Analyse des menschlichen Genoms neue Verfahren zur Diagnose und Prognose von Krankheiten, die Entwicklung neuer Medikamente sowie eine patientengerechte Therapieauswahl (Personalized Medicine). In allen diesen Bereichen spielt die Bioinformatik eine zentrale Rolle.
3.2.2 Das Strategiekonzept „Molekulare Bioinformatik“ Es bedurfte allerdings Anfang der neunziger Jahre einiger Voraussicht, dies alles zu erkennen. Damals befand man sich noch in den Anfangsphasen der Technologieentwicklung zur Genomsequenzierung. Das erste Bakterium mit 1,8 Mio. Basenpaaren (gut 1/2000 des Humangenoms) wurde erst 1994 vervollständigt [5]. Diese Voraussicht hatte der BMBF, der im Jahr 1992 das Strategiekonzept „Molekulare Bioinformatik“ beschloss, das von 1993–1997 lief und vom Referat Informatik (später Software-Systeme) des BMBF betreut wurde. Von den Gesamtmitteln für das Förderkonzept mit acht Verbundprojekten in Höhe von 32,8 Mio. DM steuerte der BMBF 23,7 Mio. DM bei. Ich kann mich sehr gut erinnern, wie ich im Oktober 1993 am Birckbeck College in London vor einer angesehenen Forschungsgruppe 1
Ich beziehe mich in dem gesamten Artikel nur auf das Humangenom. Die Bioinformatik tut dies jedoch nicht. In der Tat lernen wir sehr viel durch den Vergleich verschiedener Genome. Wir können z.B. über Krankheiten des Menschen einiges lernen, indem wir unser Genom mit einem so weit entfernten Organismus wie Hefe vergleichen. Auch der gleichzeitige Vergleich mehrerer Genome gibt uns viele Aufschlüsse über die Funktion von Genen und Proteinen.
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
219
zur Proteinkristallographie einen meiner ersten Vorträge über die Bioinformatik hielt und man dort in großes Staunen ob des Volumens der Förderinitiative zur Bioinformatik in Deutschland verfiel. Im Rahmen des Strategiekonzepts „Molekulare Bioinformatik“ wurden die folgenden Verbundprojekte gefördert, die insgesamt 30 Einzelprojekte von Universitäten, außeruniversitären Forschungseinrichtungen und Industrieunternehmen umfassten. 1. PROTAL: Proteine, Sequenzstruktur und Evolution (GMD Sankt Augustin, Lengauer; Universität Bielefeld, Dress; GBF Braunschweig, Schomburg) 2. RELIWE: Berechnung und Vorhersage von Rezeptor-Ligand-Wechselwirkungen (GMD Sankt Augustin, Lengauer; EMBL Heidelberg, Sander; E. Merck Darmstadt, Barnickel; BASF Ludwigshafen, Klebe; GMD Darmstadt, Neuhold) 3. NEUROGEN: Neuronale und genetische Algorithmen auf Parallelrechnern (DKFZ Heidelberg, Suhai; IPVR Stuttgart, Levi; MDC Berlin, Reich) 4. HEDAGE: Weiterentwicklung verteilter heterogener Datenbanksysteme (IPVR Stuttgart, Reuter; DKFZ Heidelberg, Suhai) 5. ÄBAV: Ähnlichkeitsanalyse biologisch aktiver Verbindungen unter Einsatz genetischer Algorithmen und neuronaler Netze (TU München, Gasteiger; IPVR Stuttgart, Levi, BASF Ludwigshafen, Klebe; E. Merck Darmstadt, Barnickel) 6. GENUS: Vergleichende Erkennung und Analyse genregulatorischer Nukleinsäuresequenzen (GBF Braunschweig, Wingender; Universität Bielefeld; Dress, MDC Berlin, Sklenar; GSF Neuherberg, Werner) 7. BIOWEPRO: Biomolekulare Wechselwirkungen von Proteinen (GBF Braunschweig, Schomburg; LMU München, Kriegel; Universität Bielefeld, Sagerer; Max-Planck-Institute für biophysikalische Chemie Göttingen, Soumpasis) 8. DETHEMO: Design therapeutischer Peptid- und RNA-Moleküle (FU Berlin, Erdmann, Müller, Zeichhardt; GFaI eV Berlin, Lohmann; WITA GmbH Teltow, Wittmann-Lieboldt) Bei der Betrachtung der Projektthemen fällt zweierlei auf. Erstens ist dies die begrenzte Zahl von teilnehmenden Forschergruppen, die zudem häufig in mehreren Projekten auftreten. Das liegt vor allem daran, dass es Anfang der neunziger Jahre noch kaum Bioinformatiker in Deutschland gab und sich deshalb das Programm auf einige wenige Gruppen beschränkte, die sich schon damals dem Thema verschrieben hatten. Das zweite Merkmal ist, wie zukunftsweisend die Thematiken gewählt waren. Anfang der neunziger Jahre war man ja noch dabei, die ersten Sequenzdaten zu sammeln. Die Bioinformatik beschäftigte sich damals noch hauptsächlich mit Problemen der Sammlung aller Bausteine der Zelle wie der Identifikation von Genen und der Proteinstrukturvorhersage. Dahingegen spielten im Strategieprogramm Fragen der Funktionalität (Proteinfunktion, Proteinwechselwirkungen, Genregulation) und angewandte Fragestellungen (Medikamentenentwurf) eine große Rolle. Damit nahm das Strategieprogramm eine Entwicklung voraus, die die Bioinformatik weltweit erst gut ein halbes Jahrzehnt später nachvollzog.
220
3 Die 90er Jahre
3.2.3 Ein Beispiel aus der geförderten Forschung: Verbundprojekt RELIWE Aus dem Strategieprogramm „Molekulare Bioinformatik“ sind eine Reihe von zukunftsweisenden Entwicklungen entstanden. In diesem Abschnitt konzentrieren wir uns auf ein Softwaresystem, das im Rahmen des RELIWE-Projektes entstanden ist. Dieses Projekt beschäftigte sich mit der rechnergestützten Suche nach neuen Medikamenten. Heutige Medikamente sind in der Regel kleine Moleküle (mit bis zu ein paar Dutzenden Atomen), die an bestimmte „Zielmoleküle“ im menschlichen Körper binden. Jedes Medikament hat dabei sein spezifisches Zielmolekül. Meistens ist das Zielmolekül ein Protein, und das Medikament bindet an eine spezifische Stelle im Protein, an das so genannte aktive Zentrum (s. Abb. 3.7). Das aktive Zentrum des Proteins ist die Stelle, an der das Protein seine von der Natur ausersehene Funktion ausübt. Entweder katalysiert es dort eine Stoffwechselreaktion, oder es bindet ein kleines Signalmolekül wie etwa ein Hormon, oder aber es bindet an ein anderes Protein, etwa zum Zwecke der Zellkommunikation. Es gibt noch eine ganze Reihe anderer Möglichkeiten. Das Medikament soll die Funktion des Proteins verändern. Entweder, es blockiert das aktive Zentrum einfach, so dass das Protein seine Funktion nicht mehr ausüben kann (s. Abb. 3.8), oder es ersetzt einen von der Natur vorgesehenen Botenstoff und aktiviert das Protein damit. Wiederum gibt es hier mehrere Möglichkeiten. Medikamentensuche besteht also in zwei Schritten, (1) der Auswahl des Zielmoleküls und (2) der Auswahl eines geeigneten Medikaments, das möglichst fest an das aktive Zentrum des Zielmoleküls bindet. Beide Schritte werden heute mit Bioinformatik unterstützt. Für Schritt (1) war die Zeit jedoch in den frühen neunziger Jahren noch nicht reif. Das RELIWE-Projekt konzentrierte sich auf Schritt (2). Die Bindung eines Medikaments (Ligand) an ein Protein ist zunächst ein geometrisches Problem. Beide Moleküle müssen komplementäre Oberflächen haben, d. h. gut aneinanderpassen. Allerdings spielen physikochemische Aspekte auch eine zentrale Rolle. Wir wissen, dass ein physikalisches System den Zustand geringster Energie bevorzugt. Daher ist eine energetische Analyse des molekularen Komplexes notwendig. Hier spielen Kräfte eine Rolle, die zwischen den beiden Molekülen wirken. (Gleichnamige Ladungen stoßen sich zum Beispiel ab, ungleichnamige ziehen sich an, s. a. Abb. 3.7 und 3.8) Aber auch die wesentlich schwerer zu fassende energetische Komponente der Entropie sowie das beide Moleküle umgebende Lösungsmittel Wasser sind relevant. Die Suche nach einem neuen Medikament besteht also aus der Suche nach einem Liganden, der geometrisch und chemisch möglichst komplementär zur Bindetasche des Proteins ist und für den die freie Energie des Komplexes der beiden gebundenen Moleküle möglichst klein ist. Die rechnergestützte Berechnung von Struktur und Energie eines molekularen Komplexes aus einem Protein und einem Liganden nennt man „molekulares Docking“ oder spezifischer „Protein-Ligand-Docking“.
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
221
Abb. 3.7 Dreidimensionale Struktur eines Proteins. Die Färbung entspricht der elektrischen Ladung an der Moleküloberfläche (rot positiv, blau negativ). Das aktive Zentrum des Proteins ist die blau eingefärbte Grube in der Bildmitte. Dieses Protein katalysiert eine Reaktion, die bei der Zellteilung benötigt wird
Abb. 3.8 An das Protein gebundenes Medikament, das die Funktion des Proteins blockiert. Das Medikament wird als Wirkstoff gegen Krebs eingesetzt. Man beachte die Ladungskomplementarität bei der Bindung – die positiv geladene Seite des Liganden bindet in der negativ geladenen Bindetasche des Proteins
222
3 Die 90er Jahre
Abb. 3.9 Rot: beobachtete Lage des Medikaments in der Protein-Bindetasche. Grün: mit FlexX berechnete Lage
Nimmt man beide Moleküle – Protein und Ligand – als starr an, so ist die geometrische Analyse relativ einfach. Die energetische Bewertung ist jedoch hoch kompliziert und bis heute nicht gelöst. Deshalb muss man hier bis heute auf unzufriedenstellende Näherungen zurückgreifen. Das Problem wird zusätzlich dadurch verkompliziert, dass beide Bindungspartner flexibel sind und während des Bindungsvorgangs ihre Form verändern können. Dabei ist der Ligand hochflexibel. Er kann, ähnlich wie ein Mobile, in Millionen verschiedener räumlicher Konformationen auftreten. Das Protein ist auch flexibel, seine Flexibilität ist aber eingeschränkter (etwa wie die eines weichen Schuhs, in den ein Fuß schlüpft). Zu Beginn des RELIWE-Projektes konnte weder die Flexibilität des Liganden noch die des Proteins beim molekularen Docking berücksichtigt werden. Ein wesentlicher Erfolg des RELIWE-Projektes bestand in der Entwicklung eines großen Softwaresystems mit Namen FlexX, das zum ersten Mal die volle Flexibilität des Liganden berücksichtigen konnte [10] (Abb. 3.9). Dadurch wurde es möglich, auf einem damals normalen Arbeitsplatzrechner gängiger Bauart in einigen Stunden tausende von Liganden in ein Zielprotein zu docken – zum ersten Mal war das virtuelle Durchsuchen von Ligandbibliotheken praktikabel. FlexX erreichte diesen Fortschritt durch folgende Entwurfsentscheidungen: (1) Der Konformationsraum des Liganden wurde diskretisiert. Es gab jetzt nur eine endliche Anzahl von Möglichkeiten zu durchsuchen. (2) Der Ligand wurde in seine (fast) starren Bestandteile zerlegt und dann in der Bindetasche des Proteins wieder aufgebaut. Der Aufbau wurde als Baumsuche im Raum aller Ligandkonformationen formuliert. (3) Die Energiefunktion wurde absichtlich etwas ungenauer als üblich, aber schnell berechenbar gewählt. Damit wurde die schnelle Bearbeitung einzelner Liganden ermöglicht.
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
223
FlexX wurde schnell international bekannt und auch ein kommerzieller Erfolg. Das Programm wurde seit 1997 weltweit vermarktet, hatte schnell über 100 Industriekunden und bildete den Auslöser für die Gründung der BioSolveIT GmbH in Sankt Augustin im Jahre 2001. An die Entwicklung von FlexX schlossen sich eine ganze Anzahl weiterer Softwarepakete für die pharmazeutische Industrie an, die heute durch die BioSolveIT GmbH vermarktet werden [4, 7, 8, 11]. Die adäquate Einbeziehung der Flexibilität des Proteins ist übrigens auch heute noch Gegenstand intensiver Forschung und kann nicht als gelöst betrachtet werden. Auch die Entwicklung von geeigneten (genauen und schnell berechenbaren) Funktionen für die energetische Bewertung von molekularen Komplexen bleibt, wie schon erwähnt, ein ungelöstes Problem.
3.2.4 Die Konsequenzen des Strategiekonzepts „Molekulare Bioinformatik“ FlexX war nicht das einzige Produkt, das aus dem Strategieprogramm hervorging. Hier sind einige weitere Entwicklungen aufgezählt, die auf diese Förderinitiative zurückgehen. TRANSFAC: Diese Datenbank von Transkriptionsfaktor-Bindestellen aus dem GENUS-Projekt stellt eine wesentliche internationale Ressource bei der Analyse von regulatorischen Regionen im Genom dar. Sie führte zur Gründung der Firma Biobase GmbH in Wolfenbüttel, die seit 1997 weltweit biologische Datenbanken anbietet [14, 15]. MatInspector: Dieses Programm zum Auffinden von Transkriptionsfaktor-Bindestellen in Genomen ist das softwaretechnische Pendant zu TRANSFAC. Das Programm wurde ebenfalls im GENUS-Projekt entwickelt. Das Programm und seine Ableger führten zur Gründung der Firma Genomatix GmbH in München im Jahre 1998 [3, 9]. Relibase: Diese Datenbank mit Informationen über Protein-Ligand-Wechselwirkungen wurde im Rahmen des RELIWE-Projektes entwickelt. Sie wird heute weltweit genutzt und durch das Cambridge Crystallographic Data Center in England vermarktet [2, 6]. 123D: Dies ist ein Programm, das Proteinstrukturen aus Proteinsequenzen vorhersagt [1]. Das Programm wurde im Rahmen des PROTAL-Projektes entwickelt und bildete später in der Weiterentwicklung Arby [13] eine wesentliche Komponente des Deutschen Bioinformatikportals HNB (Helmholtz-Netzwerk für Bioinformatik), das ebenfalls durch den BMBF gefördert wurde (2000–2003). Neben solchen Datenbank und Softwareentwicklungen sowie vielen Veröffentlichungen hatte das Strategieprogramm „Molekulare Bioinformatik“ aber eine grundlegendere Wirkung, die nicht so leicht zu erkennen, aber wesentlich relevanter ist: Die deutsche Wissenschaftsszene wurde auf die interdisziplinären Anforderungen der Bioinformatik vorbereitet. Unter Informatikern und Biologen weckte
224
3 Die 90er Jahre
das Programm Interesse für die jeweils andere Seite. Dadurch bildete das Programm die Grundlage für weitergehende Förderaktivitäten, die in der zweiten Hälfte der neunziger Jahre folgten: • Förderung von einigen Anschlussprojekten nach dem Strategieprogramm „Molekulare Bioinformatik“ (BMBF 1997–2000) • DFG-Schwerpunktprogramm „Informatikmethoden zur Analyse und Interpretation großer genomischer Datenmengen“ (1999–2005) • Förderung von fünf Bioinformatikzentren durch die DFG (2000–2006, Bielefeld, Leipzig, München, Tübingen, Saarbrücken) • Förderung des Helmholtz-Netzwerks für Bioinformatik, des deutschen Webportals mit integriertem Bioinformatik-Softwareangebot (BMBF, 2000–2003) • Förderung von sechs Bioinformatikzentren durch den BMBF (2000–2005, Berlin, Braunschweig, Köln, Halle-Gatersleben, Jena, München) Auf der Seite des BMBF wechselte nun die Zuständigkeit für die Projekte in Referate, die die Biologie betreuen. Nach Auslaufen der hier genannten Projekte gibt es keine weiteren Förderaktivitäten, die speziell die Bioinformatik betreffen. Dennoch wird die Bioinformatik weiter gefördert und zwar im Rahmen von biologischen und medizinischen Projekten, die das Umfeld für die entsprechenden Bioinformatikentwicklungen bereitstellen. Solche Projekte umfassen die diversen Ausgaben des Nationalen Genomforschungsnetzes sowie verschiedene Förderaktivitäten zur Systembiologie.
3.2.5 Gegenwärtiger Stand und Perspektiven Die beherzte Förderung der Bioinformatik durch öffentliche Geldgeber in den letzten 15 Jahren hat die internationale Konkurrenzfähigkeit der deutschen Bioinformatik bewirkt und gesichert. Es sind eine ganze Reihe von Arbeitsplätzen entstanden, nicht nur in der engeren pharmazeutischen Industrie, sondern auch im Gesundheitssektor, in der Agrar- und Biotechnologie sowie im IT- und Beratungswesen. In der Bioinformatik-Ausbildung sind wir Deutschen sogar führend in der Welt. In vielen anderen Ländern bestaunt man, wie wirksam die Deutschen die Barrieren zwischen den Disziplinen eingerissen haben und an vielen Standorten junge Bioinformatiker disziplinübergreifend ausbilden. An über einem Dutzend Standorten kann man in Deutschland akademische Grade in Bioinformatik erwerben (Diplom, Bachelor, Master). Unsere Hochschulabsolventen sind im Inund Ausland begehrt, nicht nur deshalb, weil sie mit modernen Begriffen der Bioinformatik umgehen können, sondern vielmehr, weil sie mit zwei so unterschiedlichen Entwurfsprozessen wie dem rationalen Entwurf des menschlichen Ingenieurs und dem evolutiven Entwurf der Natur vertraut sind. Bioinformatik ist nicht so sehr als Trainingsfach zu verstehen, denn die Technologie ändert sich grundlegend im Zuge weniger Jahre. Als Grundlagenfach, das die Studierenden mit informationstechnischen wie physikalisch-chemischen und biologischen Zusammenhängen
3.2 Strategiekonzept „Molekulare Bioinformatik“ (1993–1997)
225
vertraut macht, zielt die Bioinformatik jedoch auf die Synthese der beiden wesentlichen Innovationsmotoren der heutigen Wissenschaft. Daher werden wir ungeachtet der jeweiligen Technologie Bioinformatiker auch bis auf weiteres sehr gut gebrauchen können.
Literatur [1] Alexandrov, N.N.; Nussinov, R. et al. (1996): „Fast protein fold recognition via sequence to structure alignment and contact capacity potentials.“ Pac Symp Biocomput: 53–72. [2] Bergner, A.; Gunther, J. et al. (2001): „Use of Relibase for retrieving complex three-dimensional interaction patterns including crystallographic packing effects.“ Biopolymers 61(2): 99–110. [3] Cartharius, K.; Frech, K. et al. (2005): „MatInspector and beyond: promoter analysis based on transcription factor binding sites.“ Bioinformatics 21(13): 2933–42. [4] Claußen, H.; Buning, C. et al. (2001): „FlexE: efficient molecular docking considering protein structure variations.“ J Mol Biol 308(2): 377–95. [5] Fleischmann, R.D.; Adams, M.D. et al. (1995): „Whole-genome random sequencing and assembly of Haemophilus influenzae Rd.“ Science 269(5223): 496–512. [6] Hendlich, M.; Bergner, A. et al. (2003): „Relibase: design and development of a database for comprehensive analysis of protein-ligand interactions.“ J Mol Biol 326(2): 607–20. [7] Hindle, S.A.; Rarey, M. et al. (2002): „Flexible docking under pharmacophore type constraints.“ J Comput Aided Mol Des 16(2): 129–49. [8] Lemmen, C.; Lengauer, T. et al. (1998): „FLEXS: a method for fast flexible ligand superposition.“ J Med Chem 41(23): 4502–20. [9] Quandt, K.; Frech, K. et al. (1995): „MatInd and MatInspector: new fast and versatile tools for detection of consensus matches in nucleotide sequence data.“ Nucleic Acids Res 23(23): 4878–84. [10] Rarey, M.; Kramer, B. et al. (1996): „A fast flexible docking method using an incremental construction algorithm.“ J Mol Biol 261(3): 470–89. [11] Rarey, M. and Lengauer, T. (2000): „A recursive algorithm for efficient combinatorial library docking.“ Perspectives in Drug Discovery and Design 20: 63–81. [12] Venter, J.C.; Adams, M.D. et al. (2001): „The Sequence of the Human Genome.“ Science 291(5507): 1304–1351. [13] Von Öhsen, N.; Sommer, I. et al. (2004): „Arby: automatic protein structure prediction using profile-profile alignment and confidence measures.“ Bioinformatics 20(14): 2228–35. [14] Wingender, E. (2004): „TRANSFAC, TRANSPATH and CYTOMER as starting points for an ontology of regulatory networks.“ In Silico Biol 4(1): 55–61. [15] Wingender, E.; Dietze, P. et al. (1996): „TRANSFAC: a database on transcription factors and their DNA binding sites.“ Nucleic Acids Res 24(1): 238–41.
226
3 Die 90er Jahre
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme (1995–1998)
Stefan Jähnichen, Holger Schlingloff (Fraunhofer-Institut Rechnerarchitektur und Softwaretechnik FIRST, Berlin)
3.3.1 Einleitung ESPRESS war ein besonders erfolgreiches Projekt im Rahmen der Initiative zur Förderung der Software-Technologie in Wirtschaft, Wissenschaft und Technik des BMBF vom August 1994. Die Förderung dieses Projektes war Teil einer langfristigen Strategie des BMBF zur Förderung der deutschen Softwaretechnologie. Diese Strategie begann mit einer breiten Initiative, KORSO (1991–1994, s. Fachband), einem Projekt, in dem die maßgeblichen universitären Institute, darunter auch die eigene Forschungsgruppe, den Stand der Technik zur Erstellung korrekter Software (daher auch der Name KORSO) aufarbeiteten und ihre Ansätze in interessanten Fallstudien evaluierten. Der Erfolg dieses Projektes machte die Bedeutung des Fachgebiets klar und war Grundlage, um in folgende Fördermaßnahmen vermehrt auch die deutsche Industrie einzubeziehen. ESPRESS, als eines der Folgeprojekte von KORSO, hatte maßgeblichen Einfluss auf die deutsche Softwaretechnik für den Bereich der Entwicklung von Steuergeräten in Verkehrsanwendungen. Mit einer Vielzahl von Publikationen wurden Grundlagen erarbeitet, die auch heute noch beim Entwurf von eingebetteter Software angewendet werden. Etliche der ehemaligen Projektmitarbeiterinnen und -mitabeiter sind inzwischen in verantwortungsvollen Positionen großer Firmen tätig oder haben eigene, erfolgreiche Unternehmen gegründet. In der deutschen Förderlandschaft bereitete das Projekt den Weg für neue, breiter angelegte Projekte auf nationaler und internationaler Basis.
3.3.2 Ausgangssituation und Projektumfeld Das Projekt ESPRESS [1] baute auf langjährige Vorarbeiten zur Entwicklung korrekter Software auf. So wurde beispielsweise in KORSO die funktionale Essenz einer elektronischen Patientenakte für eine Herzklinik formal spezifiziert und verifiziert [2]. Ein neuer Aspekt, der sich Anfang der 1990er Jahre abzeichnete, war die Verwendung komplexer Software auch in eingebetteten Systemen. Das sind Systeme, bei denen eine informationsverarbeitende Komponente fester
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
227
Bestandteil eines größeren technischen Systems ist, etwa eines Autos, einer Bahnanlage oder einer Produktionsstraße. Durch die immer stärkere Miniaturisierung der Computer-Hardware, bei gleichzeitig immer größerer Leistungsfähigkeit, waren zu dieser Zeit die Voraussetzungen vorhanden, in einem eingebetteten Steuergerät immer komplexere Aufgaben durch Software zu realisieren. Das Haupthindernis stellten die Konstruktionsprobleme für Software mit nachweisbaren Qualitätseigenschaften dar. Trotz ihrer schon 20-jährigen Tradition war die Informatik Mitte der 90er Jahre noch eine vergleichsweise „junge“ Wissenschaft, und das Entwicklungsumfeld für Steuergeräte wurde hauptsächlich von Maschinenbau- und Elektrotechnikingenieuren geprägt. In diesem Umfeld wurde die Steuerungskomponente eines technischen Gerätes eher als „notwendiges Übel“ betrachtet, und die Software-Entwicklung dafür war „nebensächlich“. Sie wurde überwiegend von Nicht-Informatikern durchgeführt, die zwar Grundkenntnisse im Programmieren, häufig aber kein fundiertes Wissen oder Erfahrungen in der Softwaretechnik hatten. Auch auf Managementebene wurde die Bedeutung der Software stark unterschätzt: Üblicherweise wurde (und wird teilweise noch heute) der Preis eines Steuergerätes nach der verwendeten Hardware kalkuliert, wobei die Software als „Gratiszugabe“ gilt. Welcher Kunde ist auch heute noch bereit, für die Software seines Mobiltelefons oder Audioplayers Aufschläge zu bezahlen? Aber es bleibt trotzdem ärgerlich, wenn das Gerät dann wegen eines Software-Fehlers versagt! Hier setzte nun das Projekt ESPRESS an. Insbesondere für sicherheitskritische eingebettete Systeme wurde die Praxis, Software quasi „nebenher“ zu schreiben, als unakzeptabel erkannt. Wenn das Leben oder die körperliche Unversehrtheit von Menschen davon abhängen, müssen an die Korrektheit der Software die allerhöchsten Ansprüche gestellt werden. Aufgerüttelt war die Öffentlichkeit u. a. durch die Therac-25-Unfälle aus den Jahren 1985–87, bei denen auf Grund eines Softwarefehlers in einem Bestrahlungsgerät etliche Patienten gestorben waren. Es wurde diskutiert, ob und inwieweit Software auch in anderen Bereichen unser Leben gefährden kann. In ESPRESS wurden in diesem Zusammenhang exemplarisch zwei Fallstudien untersucht: ein Fahrgeschwindigkeitskonstanter (Kfz-Elektronik) und eine Lichtsignalanlage (Verkehrsleittechnik). Die Projektpartner waren gemäß der bewährten BMBF-Strategie für Verbundprojekte gemischt aus Wirtschaftsunternehmen, einer technischen Universität und außeruniversitären Forschungseinrichtungen: die Daimler Benz AG Forschung Systemtechnik entwickelte gemeinsam mit der Technischen Universität Berlin die Fallstudie zur Kfz-Elektronik. Die Robert Bosch GmbH Forschung untersuchte im Rahmen der Fallstudie Verkehrsleittechnik neue Methoden zur Risikoabschätzung sowie rechtliche Randbedingungen. Fraunhofer ISST beschäftigte sich mit der Spezifikation von Prozessen. Das GMD FIRST (ab 2001 ebenfalls zur Fraunhofer-Gesellschaft gehörig) war im Projekt hauptsächlich mit der Werkzeugentwicklung befasst. Die TU Berlin schließlich erforschte formale Methoden, Beweisverfahren, und algebraische Spezifikationen zum Einsatz in den Fallstudien.
228
3 Die 90er Jahre
3.3.3 Projektziele Bereits bei der Konzeption des Projektes wurde die zentrale Bedeutung des Entwicklungsprozesses für die Qualität des entwickelten Produktes erkannt. Während uns heute dieser Gedanke im Zusammenhang mit Software-Prozessmodellen wie CMMI, SPICE oder ISO9000 als selbstverständlich erscheint, war das erste Capability Maturity Model (CMM) in den USA doch erst 1991 erschienen [3], und es bezog sich auf ganz allgemeine Softwareentwicklungsprozesse. Die Idee, auch und speziell für sicherheitsrelevante eingebettete Systeme eine Entwicklungsmethodik zu definieren, kann sicherlich als visionär bezeichnet werden. In der Folge des Projektes sind etliche solche Methodiken entstanden, zuletzt als Ergebnis des IMMOS-Projektes [4]. Wie wir nachfolgend sehen werden, war die ESPRESSMethodik dafür in mehrfacher Hinsicht grundlegend. Weitere Projektziele waren die Verbesserung der Entwicklungs-Produktivität und die Steigerung der Verlässlichkeit für eingebettete Software. Für ESPRESS waren gerade diese beiden Ziele von enormer Wichtigkeit. Da die Software-Entwicklung in den klassischen Ingenieurdisziplinen nur als „Anhängsel“ bei der Entwicklung eines Steuergerätes betrachtet wurde, waren die vorgesehenen Zeitund Personalressourcen dafür typischerweise viel zu gering. Außerdem waren die verfügbaren Softwaretechnik-Formalismen für Nicht-Informatiker nur bedingt geeignet. Als Folge ergaben sich permanente Produktivitäts- und Qualitätsprobleme in der Software. Es war dringend geboten, Methoden zu untersuchen und zu entwickeln, die diese Probleme beseitigen oder zumindest abmildern konnten. Ein weiteres Ziel war die Entwicklung und Bereitstellung effektiver und effizienter Werkzeuge, die neue Methodiken unterstützen sollten. Während SoftwareEngineering-Werkzeuge für Informationssysteme und Verifikationswerkzeuge für mathematische Anwendungen schon seit geraumer Zeit entwickelt worden waren, gab es kaum systematische Unterstützung bei formalen Methoden zur Entwicklung eingebetteter Systeme. In ESPRESS wurden vorhandene formale Verifikationstechniken mit halbformalen und graphischen in der Praxis akzeptierten Verfahren zusammengeführt. In der Nachfolge der in ESPRESS entwickelten Werkzeuge gibt es inzwischen eine Reihe von Softwareprodukten mit ähnlicher Funktionalität, die quasi Industriestandards geworden sind. Trotzdem kann dieses Gebiet wegen der Komplexität der Aufgaben bis heute nicht als abschließend erforscht bezeichnet werden. Die in ESPRESS zugrunde gelegte Vorgehensweise gilt auch heute noch als paradigmatisch für den gesamten Bereich: • Explizite Trennung und formale Spezifikation von funktionalen und Sicherheitsanforderungen, • methodische Zerlegung in Komponenten unter Berücksichtigung der Sicherheitseigenschaften und Schnittstellen zur Hardware, • Nutzung von Bausteinbibliotheken aus betriebsbewährten und nachweisbar korrekten Komponenten und • kombinierter und abgestimmter Einsatz von Verifikations- und Validationstechniken.
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
229
Abb. 3.10 Fallstudie Verkehrsleittechnik
Betrachtet man heute gültige und akzeptierte Sicherheitsnormen für die Entwicklung eingebetteter Software (z. B. IEC 61508, Cenelec EN50128, oder die kommende automobile Sicherheitsnorm ISO 26262), so stellt man fest, dass diese in ESPRESS entwickelten Ideen inzwischen allgemein akzeptiert sind. Dass eine neue und innovative Methodik an industriellen Fallstudien entwickelt und erprobt wird, gehört heute schon zur Routine. Interessant sind hingegen die gewählten Beispiele aus ESPRESS: Die „Lichtsignalanlagen zur Verkehrssteuerung“ (Ampelschaltungen) wurden damals aus Sicherheitsgründen noch überwiegend in mechanischer Walzentechnik gebaut; frei programmierbare elektronische Steuerungen waren wegen des in DIN VDE 0832 geforderten Sicherheitsnachweises noch nicht üblich. Eine Herausforderung war es, dass die verkehrstechnischen Anforderungen und Konzepte für eine solche Steuerung noch überhaupt nicht zusammenhängend dokumentiert waren. Also musste erst einmal eine Spezifikation als Grundlage für die formale Verifikation erstellt werden. Jeder, der sich heute mit der Zertifizierung sicherheitsrelevanter Systeme beschäftigt, kennt diese Situation – obwohl sich in der Zwischenzeit vieles verbessert hat, gibt es bei immer weiter steigender Komplexität ständig neue Herausforderungen! Ein Verdienst von ESPRESS war es jedoch, die softwaretechnischen Grundlagen hierfür thematisiert und skizziert zu haben. Als zweites Fallbeispiel aus der Kraftfahrzeug-Elektronik war ursprünglich die elektronische Steuerung eines Automatikgetriebes für Nutzfahrzeuge geplant. Dies erwies sich jedoch aus verschiedenen Gründen als unpraktikabel, so dass die Fallstudie durch einen Fahrgeschwindigkeitskonstanter („Tempomat“) ersetzt wurde. Die Aufgabe dieses Steuergerätes war es, die Geschwindigkeit eines Autos in Abhängigkeit verschiedener äußerer Einflüsse möglichst konstant zu halten. An der Tatsache, dass solche Geräte damals noch eine Besonderheit waren, heute aber fast zur Standardausstattung eines Mittelklassefahrzeugs gehören, erkennt man die praktische Relevanz der durchgeführten Arbeiten. Innovation und Steigerung des sichtbaren Kundennutzens in der Automobilbranche sind in erster Linie auf Verbesserungen bei der Entwicklung der eingebetteten Systeme im Fahrzeug zurückzuführen. Entwicklungen, die zunächst nur in Premium-Produkten angeboten werden, sind nach einigen Jahren allgemein verfügbare Kommoditäten.
230
3 Die 90er Jahre
Abb. 3.11 Fallstudie Fahrgeschwindigkeitskonstanter: Modell, Kontrollpanel und Fahrzeugsimulation
In ESPRESS nachfolgenden Projekten und Entwicklungen wurde von der Daimler-Chrysler AG die Spezifikation des Tempomaten um verschiedene Komfortelemente erweitert, zum Beispiel um eine automatische Abstandsregelungsfunktion zum vorausfahrenden Fahrzeug. Gerade der Bereich dieser so genannten Fahrerassistenzsysteme erlebte und erlebt eine stürmische Entwicklung, die noch längst nicht abgeschlossen ist. Heutige Assistenzsysteme sind vielfach vernetzt, können Gefahrensituationen vorausberechnen und aktiv zur Unfallverhütung beitragen. Die Fallbeispiele von ESPRESS mögen daneben bescheiden wirken – aber sie haben dazu beigetragen, die Grundlagen für diesen Bereich zu erforschen und den Weg für die weitere Entwicklung aufzuzeigen.
3.3.4 Ergebnisse, Verwertung Das Projekt ESPRESS erzielte eine Reihe von wissenschaftlichen Ergebnissen, die nachhaltigen Einfluss auf die Forschung in diesem Bereich hatten. 3.3.4.1 Agenden Ein wesentliches Problem jeder Software-Entwicklung ist die Frage nach der Definition und Dokumentation der Prozesse. Es hat sich gezeigt, dass die Effektivität
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
231
und Effizienz ganz wesentlich vom „menschlichen Faktor“ abhängt: Ein erfahrener Programmierer schreibt bis zu zehnmal schneller Programme als ein Anfänger und produziert zudem noch weniger Fehler. Ähnliches gilt für die anderen Aktivitäten bei der Software-Entwicklung, wie z. B. die Anforderungsermittlung, die Modellierung, den Testfallentwurf usw. Eine generelle Frage bei all diesen Aktivitäten ist daher, wie das zu Grunde liegende Erfahrungswissen explizit gemacht werden kann, damit das Rad nicht jedes Mal neu erfunden werden muss. In ESPRESS wurde hierfür erstmals der Begriff der Software-Agenda [5] definiert: Eine Agenda ist eine Liste von Schritten, die durchgeführt werden müssen, um eine bestimmte Software-Entwicklungsaktivität in einem bestimmten Kontext effektiv durchzuführen. Zu jedem Schritt wird zusätzlich eine Validierungsbedingung angegeben, die die semantische Grundlage zur Überprüfung der korrekten Durchführung bildet. Für den untersuchten Gegenstandsbereich – Steuergeräteentwicklung – wurden die Klassen der zyklischen und unterbrechungsorientierten Realisierungen unterschieden. In einer zyklischen Steuerung werden immer wieder die aktuellen Werte der Sensoren an den Eingängen abgelesen, verarbeitet und neue Werte für die Aktuatoren an den Ausgängen eingestellt. Bei einer unterbrechungsorientierten Steuerung führt ein Ereignis, zum Beispiel ein Alarmsignal eines Sensors, dazu, dass die vorherige Aktivität ausgesetzt wird und eine Folge von Aktionen, zum Beispiel die Ausgabe von Befehlen an Aktuatoren, durchgeführt wird. Für beide Klassen sind unterschiedliche Agenden anwendbar. Zum Beispiel erfolgt die Spezifikation einer zyklischen Softwarekomponente in drei Phasen: • Kontexteinbettung: Definition von analogen und digitalen Schnittstellen • Sicherheitsanforderungen: Festlegung der sicherheitsrelevanten Eigenschaften • Modellkonstruktion: Zerlegung in Subsysteme, Festlegung der Betriebsmodi und Datenzustände, usw. In der Agenda werden die drei Phasen in allen Einzelheiten detailliert, wobei die Ergebnisse der einzelnen Schritte durch Schablonen festgelegt sind. Zur Entwicklung einer konkreten Steuersoftware wird zunächst die passende Agenda bestimmt. Danach wird diese Schritt für Schritt abgearbeitet, insbesondere erfolgt die Verifikation unmittelbar im Anschluss an die Durchführung eines Schrittes. Dadurch wird insgesamt eine Effizienz- und Effektivitätssteigerung der Entwicklung bewirkt. Obwohl die agendenbasierte Software-Entwicklung sich noch nicht auf breiter Linie durchgesetzt hat, ist es doch inzwischen bei vielen Firmen üblich, Architektur- und Entwurfsmuster für Software zu verwenden („design patterns“). Die in ESPRESS durchgeführten Arbeiten haben dazu beigetragen, die Vorteile solcher Vorgehensweisen aufzuzeigen. 3.3.4.2 Fehlermodelle in Anforderungsspezifikationen Nach wie vor ist es eines der wichtigsten Probleme bei der Entwicklung sicherheitsrelevanter Systeme, die Anforderungen so zu spezifizieren, dass ein Nachweis
232
3 Die 90er Jahre
zur Erfüllung der Sicherheitseigenschaften erbracht werden kann. In ESPRESS ging man hierfür den Weg, funktionale und sicherheitserforderliche Anforderungen von Anfang an zu trennen. Die Sicherheitsanforderungen setzen sich bei dieser Auffassung zusammen aus Sicherheitsbedingungen, die immer erfüllt sein müssen, und Sicherheitsfunktionen, die im Fehlerfall ausgeführt werden müssen. Diese beiden Kategorien bedingen sich dabei wechselweise: Die Sicherheitsfunktionen garantieren, dass die Sicherheitsbedingungen eingehalten werden, und die Sicherheitsbedingungen aktivieren die Sicherheitsfunktionen. Eine Besonderheit im Bereich eingebetteter Systeme ist dabei, dass oftmals eine enge Kopplung zwischen der spezifischen Hardware und der genau auf diese Hardware zugeschnittenen Software existiert. Die Sicherheitsmethodik muss diese Kopplung berücksichtigen. Im Bereich sicherheitskritischer Bahnanlagen verwendet man häufig so genannte Fehlerbäume (Ishikawa-Diagramme, [6]) oder Ausfalleffektanalyse (FMEA, s. DIN EN 60812). In ESPRESS wurden diese Konzepte mit der Klassifikationsbaummethode [7] zur Ermittlung des Testbedarfs verbunden. Neu war dabei, dass bereits während der Anforderungsphase ein Sicherheitsprozess initiiert wurde, in welchem ermittelt wurde, ob und unter welchen Umständen Fehler in den Komponenten oder Schnittstellen sicherheitskritisch werden könnten. Dadurch können dann während der Entwicklung gezielt Maßnahmen eingeplant werden, die Barrieren für die Fehlerauswirkungen darstellen. Diese Überlegungen sind natürlich nach wie vor aktuell. Allerdings haben sich seither im Bereich der Sicherheitstechnik branchenspezifische, sehr unterschiedliche Sichtweisen und Vorgehensweisen durchgesetzt. In der Bahntechnik setzt man bei Steuergeräten der höchsten Sicherheitsanforderungsstufe (safety integrity level) SIL4 auf mehrkanalige Systeme und diversitäre Konzepte. Im Automobilbau ist dies wegen der hohen Stückzahlen oft nicht realisierbar, daher verwendet man hier intensive, zum Teil auch automatisierte Tests und andere Validierungstechniken. 3.3.4.3 µ-SZ Bereits seit den 1970er Jahren wurden in der Informatik mathematische Verfahren zur Programmkonstruktion untersucht. Im Laufe der Jahre sind eine Menge solcher Verfahren vorgeschlagen worden, die unter dem Begriff Formale Methoden zusammengefasst werden. Jede solche Methode enthält dabei eine logische Sprache mit eindeutiger Syntax und präziser Semantik, sowie Algorithmen zur Transformation und Verifikation syntaktischer Objekte. Das Projekt ESPRESS baute auf zwei dieser formalen Methoden auf, nämlich den StateCharts und der Sprache Z. StateCharts sind eine 1987 von David Harel [8] vorgeschlagene Erweiterung des Konzeptes endlicher Automaten um Hierarchie und Parallelität. StateCharts sind besonders gut geeignet, das reaktive Verhalten eingebetteter Systeme zu beschreiben: Zustände im Chart entsprechen Äquivalenzklassen von Zuständen im System. Transitionen modellieren Zustandsübergänge, die durch ein inneres oder äußeres Ereignis ausgelöst werden und eine Reaktion bewirken. Durch die Möglichkeit der
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
233
hierarchischen Strukturierung sind StateCharts gut geeignet, auch schrittweise verfeinert zu werden. Durch die Möglichkeit der Modellierung von Parallelität kann der Gleichzeitigkeit von Ereignissen und Aktivitäten in der Umgebung des eingebetteten Systems Rechnung getragen werden. Obwohl StateCharts gut geeignet sind, den Kontrollfluss eines eingebetteten Steuergerätes zu beschreiben, verfügen sie doch nur über eingeschränkte Möglichkeiten zur Spezifikation der Daten in einem solchen System. Die 1977 von Jean-Raymond Abrial entworfene Sprache Z [9] basiert auf der klassischen Prädikatenlogik zur Formalisierung der axiomatischen Mengenlehre nach Zermelo– Fränkel. Jeder Ausdruck in Z hat einen eindeutigen Typ, dadurch ist die Sprache gut zur Beschreibung von Objekten (Daten) und ihren Eigenschaften geeignet. Zur Spezifikation von Zeitabhängigkeiten und Sicherheitseigenschaften kann Z recht einfach um temporale und sonstige Operatoren erweitert werden. In ESPRESS wurde nun eine semantische Integration („SZ“) der beiden Sprachen StateCharts und Z begonnen. Obwohl dies zunächst einfach und naheliegend aussehen mag, ergeben sich dabei tief liegende semantische Probleme. Innerhalb des Projektes wurde daher zunächst nur ein pragmatischer Ansatz verfolgt und ein minimaler Kern der beiden Sprachen vereinigt („mikro-SZ“, µ-SZ). Dieser minimale Kern war allerdings bereits so groß gewählt worden, dass alle für die bearbeiteten Fallstudien relevanten Aspekte berücksichtigt werden konnten. Formal zufriedenstellend wurde das Problem einer vollständigen semantischen Integration erst nach Projektabschluss von C. Sühl in [10] gelöst. Bei der formalen Spezifikation der Fallstudien mit µ-SZ stellte sich heraus, dass für sicherheitskritische Steuergeräte drei verschiedene Sichten relevant sind.
Abb. 3.12 Sichtweisen eines sicherheitskritischen Systems
234
3 Die 90er Jahre
Die strukturelle Sicht beschreibt die Zerlegung des Systems und das Zusammenspiel der verschiedenen Komponenten. Die dynamische Sicht beschreibt mittels StateCharts die Reaktion einzelner Komponenten auf externe Ereignisse. Die funktionale Sicht schließlich beschreibt mittels Z die verwendeten Daten und Datentransformationen. Betrachtet man die Sprache µ-SZ aus heutiger Sicht, so findet man viele der Konzepte wieder, die später in die Unified Modeling Language (UML) Eingang gefunden haben. Zur strukturellen Modellierung sind in UML-2 Komponentenund Montagediagramme vorgesehen. StateCharts sind direkt als Zustandsautomaten enthalten. Zur Modellierung von Objekten verwendet man heute Klassen- und Objektdiagramme, wobei die Eigenschaften der Objekte durch Bedingungen der Object Constraints Language (OCL) festgelegt werden. Die UML unterstützt als objektorientierte Sprache Wiederverwendung und Vererbung – für sicherheitskritische Systeme haben sich diese beiden Konzepte jedoch bislang noch nicht bewährt, so dass die in ESPRESS gewählte Sprachbasis auch heute noch Gültigkeit hat. 3.3.4.4 Testgenerierung aus Z-Spezifikationen Systematisches Testen war und ist die wichtigste qualitätssichernde Maßnahme für eingebettete Systeme. Bei der Verifikation werden zwei mathematische Objekte (formale Spezifikation und ausführbares Programm) miteinander verglichen; mit Testen kann das tatsächliche Gerät in seiner realen Umgebung bewertet werden. Eine wichtige Frage ist dabei jedoch, wie man zu einer aussagekräftigen Menge von Testfällen kommt. In herkömmlichen Methoden wird der Programmtext zur Ableitung von Testfällen verwendet, indem etwa Eingabedatensätze für verschiedene Überdeckungsmaße gesucht werden. Für eingebettete Steuergeräte ist dieses Vorgehen nicht immer geeignet: Zum einen ist der Programmtext oft nicht verfügbar, da er z. B. das Betriebsgeheimnis eines Zulieferers ist. Zum anderen sind solche strukturellen Tests prinzipiell nicht geeignet, funktionale Defizite aufzuzeigen; gerade Sicherheitslücken fallen aber in diese Eigenschaftsklasse. In ESPRESS wurde daher von vornherein ein spezifikationsbasierter Testansatz verfolgt: Aus den Z-Spezifikationen sollten automatisch Testfälle abgeleitet werden, die dann interaktiv um weitere für die Validation relevante Testaspekte erweitert werden. Auf diese Weise sollte sichergestellt werden, dass vorhandenes Expertenwissen in die erzeugten Testsuiten mit einfließen kann. Im Verlauf des Projektes wurden dazu zunächst einzelne in Z spezifizierte Operationen in eine disjunktive Normalform überführt. Für die so gewonnenen Formeln konnten mittels des Isabelle-Beweissystems für einen Teil der Fallstudie Fahrgeschwindigkeitskonstanter interaktiv einige exemplarische Testfälle erzeugt werden. Insgesamt zeigte es sich dabei, dass die automatische Testfallerzeugung als solche bereits eine außerordentlich schwierige Aufgabe war. So ist es nicht verwunderlich, dass dieser wichtige Aspekt in mehreren Folgeprojekten (QUASAR, IMMOS, s. [4]) erneut aufgegriffen werden sollte. Auch heute muss das Problem, aus einer
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
235
gegebenen Menge von Spezifikationsformeln eine gute Testsuite zu konstruieren, als noch nicht gelöst betrachtet werden. Als Alternative zur vollautomatischen Testgenerierung wurde daher im Projekt ESPRESS die Kombination von formalen mit semiformalen Methoden vorangetrieben. Insbesondere wurde die bereits erwähnte Klassifikationsbaum-Methode zur Testfallermittlung mit den formalen Z-Spezifikationsverfahren durch interaktive Werkzeuge verknüpft. Eine solche pragmatische Vorgehensweise kommt den Bedürfnissen der Anwender oft näher als manch ausgefeilte Theorie. 3.3.4.5 Werkzeugentwicklung Alle Software-Engineering-Methoden sind nur dann brauchbar, wenn sie durch entsprechende Werkzeuge unterstützt werden. Auch ESPRESS machte hier keine Ausnahme. Ein wesentliches Kriterium, um die Akzeptanz zu erhöhen, war dabei, auf bereits vorhandene und gut eingeführte Werkzeuge zurückzugreifen. Daher wurde im Projekt auf die sehr weit verbreiteten Werkzeuge Statemate Magnum (von iLogix Inc) sowie den Public-Domain Editor XEmacs zurückgegriffen. Um die entwickelten Techniken zur Verifikation und Validation nutzbar zu machen, wurden Beweistechniken für Z mit diesen Werkzeugen integriert. Das Resultat war die Entwicklungsumgebung „XStatemate“, mit der ein kompetenter SoftwareIngenieur interaktive Beweise erstellen, ausführen und editieren konnte. Die diesem Werkzeug zu Grunde liegenden Ideen sind inzwischen in vielen kommerziellen und nichtkommerziellen Entwicklungsumgebungen wiederzufinden.
Abb. 3.13 Integrierte Werkzeugumgebung „XStateMate“
236
3 Die 90er Jahre
3.3.5 Nachhaltigkeit Der Erfolg eines Projektes zeigt sich langfristig nicht nur in der Anzahl der wirtschaftlich und wissenschaftlich verwertbaren Ergebnisse, sondern auch im Erfolg der am Projekt beteiligten Mitarbeiter. Aus ESPRESS sind eine Reihe herausragender Produkte und Publikationen hervorgegangen und viele der ehemaligen Projektbeteiligten haben inzwischen verantwortungsvolle Positionen in Wirtschaft und Wissenschaft inne. Die folgenden Projektmitarbeiter sollen besonders erwähnt werden: Maritta Heisel hat inzwischen nach einer Professur in Münster den Lehrstuhl für Softwaretechnik an der Universität Duisburg-Essen inne. Reiko Heckel ist Professor of Computer Science an der University of Leicester. Thomas Santen ist Lehrstuhlvertreter an der TU Dresden. Wolfgang Grieskamp leitet das „Protocol Tools and Test Team“ bei Microsoft, Research in Redmond, Ca., Robert Büssow ist ebenfalls in dieser Gruppe tätig. Matthias Weber ist leitender Ingenieur bei der DaimlerChrysler-Forschungsabteilung. Sadegh Sadeghipour ist Inhaber und Geschäftsführer einer Beratungsfirma für eingebettete Software-Entwicklung. Weitere Projektmitarbeiter sind heute leitende Wissenschaftler bei der Fraunhofer-Gesellschaft und in anderen wichtigen Institutionen und Labors beschäftigt. Im Sinne der „Investition in Köpfe“ kann also mit Fug und Recht gesagt werden, dass das Projekt eine hervorragende „Rendite“ erzielt hat. Tabelle 3.1 Resultate des Projekts Diplomarbeiten Dissertationen Zeitschriftenpublikationen Tagungsbeiträge Demonstratoren Berufungen
07 04 11 29 02 04
Literatur [1] Egger, G.: ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme. In: Grote, U.; Wolf, G. (ed.): Tagungsband zum „Statusseminar Softwaretechnologie“ des BMBF, Berlin (25.–26.3.1996). [2] Hußmann, H.; Loeckx, J. und Reif, W.: KORSO – Das Verbundprojekt „Korrekte Software“. In: GI-Jahrestagung, Dresden Informatik Fachberichte, Springer-Verlag (1993). [3] Wallmüller, E.: SPI – Software Process Improvement mit CMMI und ISO 15504. Hanser, München (2006). [4] Schlingloff, H.; Sühl, C.; Dörr, H.; Conrad, M.; Stroop, J.; Sadeghipour, S.; Kühl, M.; Rammig, F. and Engels, G.: IMMOS – Eine integrierte Methodik zur modellbasierten Steuergeräteentwicklung. In: BMBF-Workshop „Software Engineering 2006“ Berlin (Juli 2004).
3.3 ESPRESS – Ingenieurmäßige Entwicklung sicherheitsrelevanter eingebetteter Systeme
237
[5] Grieskamp, W.; Heisel, M. und Dörr, H.: Specifying Safety-Critical Embedded Systems with Statecharts and Z: An Agenda for Cyclic Software Components. Science of Computer Programming 40, pp. 31–57 (2001). [6] Ishikawa, K.: Introduction to Quality Control. Quality Resources Inc. (1990). [7] Grimm, K.: Systematisches Testen von Software – Eine neue Methode und eine effektive Teststrategie. Dissertation, Technische Universität Berlin (1995). [8] Harel, D.: Statecharts: A Visual Formalism for Complex Systems. In: Science of Computer Programming, Nr. 8, Amsterdam, pp. 231–274 (1987). [9] Spivey, J.M.: The Z Notation: A Reference Manual, Prentice-Hall International Series in Computer Science (2. Auflage 1992). [10] Sühl, C.: An Integration of Z and Timed CSP for Specifying Real-Time Embedded Systems. Dissertation, TU Berlin, School of Electrical Engineering and Computer Sciences (2002).
238
3 Die 90er Jahre
3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA (1999–2001)
Dieter Rombach (TU Kaiserslautern, Fachbereich Informatik, und Fraunhofer-Institut für Experimentelles Software Engineering (IESE), Kaiserslautern)
3.4.1 Einleitung und Motivation Softwaresysteme wurden Ende der achtziger Jahre überwiegend als Unikate entwickelt. Dies führte zu inakzeptabel langen Projektlaufzeiten, hohen Abweichungen von Kostenplänen, teilweise unzuverlässigen Systemen und dem bekannten Anwendungsstau. Wiederverwendung wurde im Wesentlichen über „Copy and Paste“, also die Ad-hoc-Änderung existierender Softwaresysteme, angestrebt. Diese Form der Wiederverwendung barg einerseits enorme Risiken für die Zuverlässigkeit der entstehenden Softwaresysteme, da bei Ad-hoc-Änderungen monolithischer Systeme häufig neue Fehler unbemerkt eingefügt wurden. Andererseits wurde durch diese Form der Wiederverwendung die Architektur derartig erodiert, dass die Verständlichkeit und Wartbarkeit der Systeme an ihre Komplexitätsgrenzen stieß. Ein Durchbruch wurde zu dieser Zeit von der Übernahme komponentenbasierter Vorgehensweisen aus anderen Disziplinen für die Konstruktion komplexer Softwaresysteme erwartet. Solche Vorgehensweisen beruhen auf • sorgfältiger Analyse der Anwendungsdomäne, um die möglichen Varianten bzw. Releases abschätzen zu können, • Festlegung einer stabilen Architektur, um alle möglichen Varianten bzw. Releases ohne Architektur-Erosion bedienen zu können, • Bereitstellung eines Repository von geprüften Komponenten, um einen großen Teil der Systeme konstruieren zu können, • durchgehenden Entwicklungsprozessen zur effizienten Realisierung neuer Varianten bzw. Releases unter Wiederverwendung existierender Komponenten. Die Erwartung bestand, dass mittels dieser komponentenbasierten Vorgehensweisen eine signifikante Professionalisierung der Softwareentwicklung erreicht werden könnte.
3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA
239
3.4.2 Zielsetzung des Kobra-Projekts In den späten 90er Jahren (1999–2001) haben sich in Deutschland die folgenden Partner – unter Leitung des Fraunhofer IESE in Kaiserslautern (Leitung: Colin Atkinson) – im Projekt KOBRA (Komponentenbasierte Anwendungsentwicklung – eine Umgebung zur Entwicklung und Anwendung domänenspezifischer Frameworks) zusammengeschlossen: • • • •
Fraunhofer IESE (Forschungspartner und Konsortialführer) GMD FIRST (Forschungspartner) PSIPENTA Software Systems GmbH (Anwendungspartner) Softlab GmbH (Technologiepartner)
Ziel des hier vorgestellten Projektes war es, die Konstruktion sowie die Verwendung von Frameworks zum Erstellen von Anwendungen auf Basis von Komponentenorientierung methodisch und technisch zu unterstützen sowie dies anhand eines konkreten Fallbeispieles zu demonstrieren. Die folgende Abbildung stellt die Zusammenhänge zwischen den Bestandteilen einer Entwicklungsumgebung für Framework- und Anwendungsentwickler dar.
Abb. 3.14 Entwicklungsumgebung für Framework- und Anwendungsentwickler
Nach der Analyse der Anwendungsdomäne und ihrer Beschreibung in entsprechenden Modellen kann mit geeigneten Werkzeugen ein passendes Framework entwickelt werden. Durch Spezialisierung, Erweiterung und Anpassung entsteht hieraus die Anwendung, indem Komponenten werkzeugunterstützt integriert und konfiguriert werden. Die Workbench, d. h. die aufeinander abgestimmten Werkzeuge, die in einer Entwicklungsumgebung für Frameworks verwendet werden, benötigen mächtige Funktionalitäten zur Ablage und zum Wiederauffinden von Daten, die nur durch ein Repository bereitgestellt werden können.
240
3 Die 90er Jahre
Zur Entwicklung eines domänenspezifischen Frameworks bedarf es einer vielseitigen Unterstützung durch ein vorgegebenes Prozessmodell, das u. a. den Workflow beschreibt, und der Einbindung verschiedenster Werkzeuge zur Modellierung von Prozess- und Objektmodellen, zur Entwicklung und Integration von SoftwareKomponenten sowie zur Verwaltung jeglicher Ergebnisse und Dokumente. Ausgehend vom PSIPENTA-Framework wurden die parallel entstehende Workbench sowie das Repository der Frameworkentwicklungsumgebung bei der Implementierung der Fallbeispiele genutzt, um die Eignung der Umgebung zur Lösung der Aufgabenstellungen zu überprüfen und die resultierenden Ergebnisse in einen iterativen Entwicklungsprozess zur Erweiterung, Verbesserung und Verfeinerung der Umgebung einfließen zu lassen. Das Projekt gliederte sich in vier Hauptaktivitäten: • Entwicklung einer Umgebung, in der das Framework sowie Aktualisierungen und Anpassungen leicht an die Anwender ausgeliefert werden konnten. Der Einarbeitungsaufwand für Anwendungsentwickler sollte reduziert werden und die Hemmschwelle, ein komplexes Framework aufzubauen, sollte sinken. • Umfassende methodische und technische Unterstützung des Framework-Entwicklungsprozesses und der sich daraus ableitenden Entwicklung von Anwendungen. • Geeignete Bereitstellung von Konfigurations- und Versionsmanagement zur Plan- und Kontrollierbarkeit der Erweiterung und Anpassung von Standardsoftware. • Prozess-, Architektur- und Qualitätsmodelle als Grundlage zur Charakterisierung und Bewertung von Domänen und von erstellten Frameworks.
3.4.3 Stand der Forschung Zum Zeitpunkt der Beantragung des KOBRA-Projekts wurden unterschiedliche Wiederverwendungsansätze als Basis für eine Professionalisierung der Softwareentwicklung diskutiert. Der Begriff des Frameworks wurde eingeführt und von Buschmann et al. [1] wie folgt definiert: „A Framework is a partially complete software (sub-)system that is intended to be instantiated. It defines the architecture for a family of (sub-)systems and provides the basic building blocks to create them. It also defines the places where adaptations for specific functionality should be made. In an object-oriented environment a framework consists of abstract and concrete classes“. Objektorientierte Softwareentwicklung unterstützte den systematischen Entwurf und die Realisierung von Softwaresystemen durch konsistentere Konzepte und Methoden im gesamten Entwicklungszyklus als die traditionellen Vorgehensweisen. Objektorientierte Entwurfskomponenten, wie Klassen und Klassenbibliotheken, mit typischen Beziehungen, wie Vererbung, ermöglichten ein hohes Maß an Wiederverwendung objektorientierter Systeme oder Teilsysteme. Aus
3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA
241
diesem Grunde hatte sich objektorientierte Softwareentwicklung einen festen Platz im modernen Software Engineering gesichert. Als industrielle Standardmethoden hatten sich zur damaligen Zeit OMT, OOA/OOD [2, 3] und Booch [4], als Modellierungssprache UML [5] etabliert.
3.4.4 Projekt-Ergebnisse Die wesentlichen wissenschaftlichen Ergebnisse des Projekts KOBRA können wie folgt zusammengefasst werden: • ein Framework zur effizienten komponentenbasierten Entwicklung von Anwendungs-Software (einschließlich Architektur und Komponenten), • Methoden zur durchgängigen Unterstützung des komponentenbasierten Entwicklunsprozesses, • Bereitstellung unterstützender Projekt- und Produktmanagementaktivitäten, • ein Respository von Prozess-, Architektur- und Qualitätsmodellen zur Charakterisierung und Bewertung von Domänen und von erstellten Frameworks. Frameworks bilden die Rahmen der komponentenbasierten Softwareentwicklung. Sie stellen Bausteine zur Verfügung, mit denen sowohl Standardprodukte als auch individuelle Kundenlösungen implementiert werden können. Anhand der von den Industriepartnern ausgewählten Anwendungsdomänen sollte gezeigt werden, auf welche Weise die Erstellung eines Frameworks für diese Anwendungsdomänen durch eine auf einem Repository basierende Entwicklungsumgebung unterstützt werden kann. Dabei umfasst die Erstellung des Frameworks alle Phasen der Softwareentwicklung, von der Analyse über das Design bis hin zu Implementierung, Test und Integration. Die Ergebnisse des vorliegenden Projekts dienten der Unterstützung bei der Konstruktion und Anpassung von Anwendungssystemen, die auf die Anforderungen der Kunden zugeschnitten sind. Dabei sollten Frameworks verwendet werden, mit denen maßgeschneiderte Anwendungen aus einzelnen Komponenten zusammengesetzt werden können. Individualsoftware sollte nur für solche Bereiche erstellt werden, die vom Framework nicht abgedeckt werden. In KOBRA wurde anhand ausgewählter praxisrelevanter Fallbeispiele der Firma PSIPENTA gezeigt, in welcher Form die Konstruktion eines Anwendungssystems unter Verwendung eines Frameworks durch eine Entwicklungsumgebung unterstützt werden kann. Die Herstellung von Frameworks und darauf basierender kundenspezifischer Lösungen stellt ein sehr komplexes Themenumfeld dar, das sich ohne eine geeignete Workbench (Werkzeug-Unterstützung) nicht rentabel durchführen lässt. Der Softwareentwickler benötigt Hilfsmittel bei der Analyse der Anwendungsdomäne, der Modellierung der dort vorherrschenden Architekturen, Prozesse und Qualitätsfaktoren und schließlich bei der eigentlichen Entwicklung eines domänenspezifischen Frameworks. In diesem Projekt wurde eine „Werkzeuglandschaft“ definiert und integriert, mit der die Konstruktion von Frameworks und von kundenspezifischen
242
3 Die 90er Jahre
Lösungen überschaubar und profitabel wird. Dabei wurde besonders auf die Wiederverwendbarkeit von Komponenten Wert gelegt. Ein Schwerpunkt dieses Projektes lag auch auf der Integration bereits verfügbarer Standardwerkzeuge und Methoden. Dabei wurden Methoden und Notationen wie z. B. OMT/UML sowie Standards wie z. B. COM+, CORBA und Java RMI berücksichtigt. In den Bereichen, in denen es keine verfügbaren Lösungen gibt, wurden Eigenentwicklungen durchgeführt. Eine umfangreiche Entwicklungsumgebung, wie sie die Workbench darstellt, kann nur dann bei Softwareentwicklern Akzeptanz finden, wenn alle Informationen – sowohl über das Framework als auch über die zu erstellende Anwendung – jederzeit online und vollständig verfügbar sind. Dies wurde erreicht durch Abspeicherung aller für den kompletten SW-Entwicklungsprozess erforderlichen Informationen in einem zentralen Repository. In diesem Projekt wurde eine Vielzahl grundlegender Repository-Dienste bereitgestellt, um den speziellen Ansprüchen für die Entwicklung von Frameworks und darauf basierenden Anwendungen zu genügen. Diese beinhalten Schnittstellen zu Werkzeugen, die Abbildung von Architektur-, Prozess-, Qualitäts- und Komponentenmodellen sowie Versionierung und Konfigurationsverwaltung von Komponenten. Eine konkrete Beispielumsetzung von KOBRA [6] basierte auf der Anwendung der Unified Modeling Language [5] als Modellierungssprache. Das Grundprinzip der Entwicklungsmethodik ist in den vier folgenden Abbildungen (aus [6]) dargestellt.
Abb. 3.15 UML-Spezifikation einer Komponente
3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA
243
Die Spezifikation einer Komponente wird aus den Blickwinkeln Funktionalität, Struktur und Verhalten modelliert. Die Realisierung einer Komponente wird aus den Blickwinkeln Interaktion, Struktur und Aktivität modelliert. Dazu werden die entsprechenden UML-Diagramme eingesetzt.
Abb. 3.16 UML-Realisierung einer Komponente
Abb. 3.17 UML-Refinement einer Komponente
244
3 Die 90er Jahre
Abb. 3.18 UML-Refinement einer Komponente – inkl. Entscheidungsmodell
Dieser Verfeinerungsprozess ist rekursiv und skaliert deshalb für große Softwaresysteme. Zusätzlich wurde mit dem UML-Entscheidungsmodell auch die Möglichkeit geschaffen, die Variationspunkte für die Generierung unterschiedlicher Systemvarianten bzw. Releases explizit zu beschreiben.
3.4.5 Praktische Anwendungen Der KOBRA-Ansatz wurde zunächst projektintern über die Firma PSIPENTA erprobt und erfolgreich validiert. In der Nachfolge des Projekts ist der KOBRAAnsatz zum Standard-Ansatz für komponenten-basierte Softwareentwicklung beim Fraunhofer IESE geworden. In der Zwischenzeit ist der Ansatz bei unzähligen Firmen aller Branchen – von Automobilindustrie über Telekomindustrie bis hin zu Finanzdienstleistern – zum Einsatz gekommen. Wiederverwendungspotenziale schwanken zwischen 20% und 80% – je nach Umfang der Domänen und Software-Entwicklungs-Maturität der Organisationen. Die dabei erzielten Effekte reichen von (nachweisbar) höherer Qualität der resultierenden Systeme über höhere Produktivität bis hin zu kürzeren und besser planbaren Lieferterminen.
3.4 Stand komponentenbasierter Softwareentwicklung Verbundprojekt KOBRA
245
3.4.6 Nachhaltigkeit Das Projekt Kobra hat wesentlich zur wissenschaftlichen und ingenieurmäßigen Basis komponentenbasierter Softwareentwicklung im Kontext von Produktlinienarchitekturen beigetragen. Das KOBRA-Buch [6] stellt eine anschauliche Einführung und Anleitung zur Verfügung. In parallel und nachfolgend laufenden ITEA-Projekten sind die Kobra-Ergebnisse in Produktlinien-Engineering integriert (ESAPS, 1999–2001) und auf eingebettete Realzeitsysteme angewendet (EMPRESS, 2002–2004) worden. Der heute von Fraunhofer IESE angebotene Ansatz PuLSE (Product Line Software Engineering) [7] für komponentenbasiertes Produktlinien-Engineering stellt eine Weiterentwicklung von KOBRA dar (s. a. http://www.iese.fhg.de/fhg/iese_DE/forschung/ development/pla/index.jsp).
Abb. 3.19 KOBRA-Buch-Cover
246
3 Die 90er Jahre
3.4.7 Zusammenfassung Kosteneffiziente Entwicklung von Softwaresystemen mit Qualitätsgarantie erfordert die Wiederverwendung geprüfter Komponenten. Zum Zeitpunkt des Projektvorschlags existierten zwar Komponentenansätze auf Implementierungsebene, aber die Effektivität dieser Ansätze litt unter der fehlenden Unterstützung in den frühen Phasen der Entwicklung und der fehlenden Architekturstabilität über Varianten oder Releases hinweg. Im Rahmen des KOBRA-Projekts wurden entscheidende Grundlagen für die ingenieurmäßige Wiederverwendung gelegt. Wesentliche Beiträge waren (a) die Etablierung des Komponentenkonzepts auf allen Abstraktionsebenen der Softwareentwicklung, und (b) die Kombination mit domänenspezifischen Architekturen als Fixpunkte bei Wiederverwendung. Die Verfügbarkeit von Komponenten auf allen Ebenen erlaubt eine frühzeitige Auswahl von Komponenten sowie eine Bewertung auf Architekturebene. Die Nutzung fixer Architekturen erlaubt eine frühzeitige zuverlässige Abschätzung des Adaptionsbedarfs. Heutige wiederverwendungsorientierte Ansätze wie PuLSE [7] kombinieren Produktlinienarchitekturen, komponentenorientierte Entwicklung sowie Generierung.
Literatur [1] Buschmann, F.; Meunier, R.; Rohnert, H.; Sommerlad, P.; Stal, M.: Pattern-Oriented Software Architecture, John-Wiley & Sons, 1996. [2] Coad, P. and Yourdon, E.: Object Oriented Analysis, Yourdon Press (Prentice Hall), New Jersey, 1991. [3] Coad, P. and Yourdon, E.: Object Oriented Design, Yourdon Press (Prentice Hall), New Jersey, 1991. [4] Booch, G.: Object Oriented Design with Applications, Benjamin Cummings Publishing Company, Inc., 1991. [5] Booch, G.; Rumbaugh, J. and Jacobson, I.: Unified Modeling Language User Guide, Addison Wesley Object Technology Series, 1999. [6] Atkinson, C. et al.: Component-based Proudct Line Engineering with UML, Addison-Wesley, 2002. [7] Anastasopoulos, M.; Atkinson, C. and Muthig, D.: A Concrete Method for Developing and Applying Product Line Architectures, Proc. of the Net.ObjectDays 8NODE’02), Erfurt, Germany, pp. 296–315, October 2002.
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo
247
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo (1991–1994)
Manfred Broy, Oscar Slotosch (Institut für Informatik, Technische Universität München)
3.5.1 Einleitung Die Korrektheit von Software ist gerade in sicherheitskritischen Anwendungen unverzichtbar. Eine Software ist korrekt, wenn sie sich konform zu den in einer Spezifikation festgelegten Anforderungen verhält. Der Nachweis der Korrektheit erfolgt durch Verifikation. Erfolgt die Verifikation nicht mit pragmatischen Mitteln wie Testen, sondern durch Nachweis in einem logischen Kalkül oder durch systematische Modellüberprüfung, so sprechen wir von formaler Verifikation. Korrekte Software auf Basis formaler Verifikation erfordert die Beherrschung zweier wichtiger methodischer Aufgaben im Entwicklungsprozess: • Die formale Spezifikation der Aufgabenstellung einschließlich der Validierung, • Die formale Verifikation der Implementierung durch die Regeln eines Verifikationskalküls. Beide Aufgaben stellen große Herausforderungen dar. Für die formale Spezifikation müssen geeignete Ansätze für die formale Modellierung der zu spezifizierenden Eigenschaften gefunden werden und Repräsentationen im Sinn einer Spezifikationssprache dafür. Für die formale Verifikation muss die Verbindung zwischen Spezifikationsformeln und dem Code, der die Software repräsentiert, hergestellt werden. Dies bildet die Grundlage für die Regeln des Verifikationskalküls und der Gültigkeit dieser Regeln. Die beiden Aufgaben charakterisieren die zentralen Fragestellungen des KorSo-Projekts. Ein Überblick über die Ergebnisse im KorSo-Projekt ist in [4, 5] enthalten. Die Ergebnisse des Folgeprojektes KorSys (Korrekte Software für sicherheitskritische Systeme, 1995–1998) sind in [2] zusammengefasst. Aus heutiger Sicht haben einige Arbeiten zu Resultaten geführt, die mittlerweile aus Forschung und Entwicklung nicht mehr wegzudenken sind. Beispiele sind Entwicklungsgraphen, die Spezifikationssprache SPECTRUM und Traverdi (s. Teil I, Zeitfenster „Verifikation“). Diese Arbeiten werden in den folgenden Abschnitten kurz beschrieben und eingeordnet. Im Projekt KorSys wurde mit der Integration von Forschungsergebnissen (aus dem Bereich Model Checking) in kommerziell verfügbare Werkzeuge (Statemate) ein neuer Trend gesetzt, der auch heute noch in vielen Projekten fortgeführt wird. Zusätzlich werden in diesem Beitrag die in KorSo und KorSys entwickelten Werkzeuge aufgeführt und die damit bearbeiteten Anwendungen beschrieben.
248
3 Die 90er Jahre
3.5.2 Entwicklungsgraphen Die KorSo-Entwicklungsgraphen bilden die Struktur der entwickelten Software ab. Sie enthalten Module als Knoten und unterschiedliche Entwicklungs-Relationen in unterschiedlichen Darstellungsformen (Pfeilarten): • Verwendungs-/Abhängigkeitsrelation (einfache Pfeile) • Verfeinerungsrelationen (doppelte Pfeile) Ein Beispiel für einen Entwicklungsgraph ist in Abb. 3.20 dargestellt. Die KorSo-Entwicklungsgraphen sind in doppelter Hinsicht prägend für die heutige Zeit. Zum einen wurden die zur Darstellung der Graphen in KorSo entwickelten Werkzeuge (daVinci und KIV) bis in die heutige Zeit weiterentwickelt und haben sich in zahlreichen Anwendungen bewährt. Zum anderen hat die modulare Sicht auf die Strukturen von korrekter Software es ermöglicht, große Beweise zu strukturieren und erfolgreich zu führen. Auch in dem so erfolgreichen IsabelleBeweissystem gibt es ein solches Modulkonzept mit einer automatischen Analyse der Abhängigkeiten, um große Beweise bei Änderungen effizient zu entwickeln. Derzeit werden beispielsweise mit Isabelle im Projekt Verisoft komplette Betriebssysteme als korrekt nachgewiesen. Dies wäre ohne die in KorSo gelegten Grundlagen nicht möglich.
Abb. 3.20 KorSo-Entwicklungsgraph aus [5]
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo
249
3.5.3 SPECTRUM Die Spezifikationssprache SPECTRUM ist eine algebraische Spezifikationssprache, die mehrere Spezifikationsstile (deskriptiv und operational) integriert. SPECTRUM hat ein mächtiges, polymorphes Typsystem und Operationen zur Strukturierung von Spezifikationen, beispielsweise, um Spezifikationen zu inkludieren. Ein Beispiel für eine Spezifikation in der Sprache SPECTRUM ist: Bintree = { enriches NAT; data Tree α = emptytree | mktree(!node:α,!left:Tree α,!right:Tree α); Tree::(EQ)EQ; is_balanced: Tree α → Bool; bal_insert: α × Tree α → Tree α; axioms ∀ x:α, l,r:Tree α in is_balanced(emptytree); is_balanced(mktree(x,l,r)) = abs(height(l)-height(r))<=1; is_balanced(l) ∧ is_balanced(r) ⇒ is_balanced(bal_insert(x,l,r)); endaxioms; } Die Spezifikation zeigt die Kombination des ausführbaren Prädikates is_balanced mit der deskriptiven Spezifikation von der Funktion bal_insert. Mit der präzisen funktionalen Semantik [3] war SPECTRUM die Grundlage für das formale Modellierungswerkzeug AutoFOCUS [1], das sich mit seinen Sprachen und Datentypen sehr an SPECTRUM orientiert hat. Das Werkzeug AutoFOCUS wurde 1999 auf der Weltkonferenz für formale Methoden mit dem ersten Preis ausgezeichnet und wird bis heute in zahlreichen industriellen und Forschungsprojekten eingesetzt und weiterentwickelt. Auch zum professionellen Support für AutoFOCUS wurde 2000 die Validas AG als Spin-Off der TU München gegründet. Sie ist heute ein erfolgreiches Unternehmen im Umfeld der Korrektheit von Software.
250
3 Die 90er Jahre
3.5.4 Traverdi Traverdi (Seite 317–338 in [5]) ist ein System zur Integration von unterschiedlichen Spezifikationsformen für verteilte, kommunizierende Systeme. Zur Systemrealisierung wurde die funktionale Sprache OCCAM mit einem Nachrichtenmechanismus zur Kommunikation verwendet. Die von Traverdi unterstützten Spezifikationsformen sind: • Zeitdiagramme: zur graphischen Spezifikation von qualitativen zeitlichen Abhängigkeiten zwischen Ereignissen, beispielsweise nach einer steigenden Flanke des Signals y sinkt der Wert von z auf 0. • Temporale Logik: zur Formalisierung der Zeitdiagramme und zur textuellen Spezifikation von Eigenschaften. • Zustandsbasierte Systemspezifikationen mit Übergängen, bestehend aus Preund Post-Konditionen. Das prototypische Traverdi-System hat gezeigt, dass die Integration dieser Spezifikationsformen sinnvoll ist. Damit war die Grundlage gelegt, um formale Verifikationstechniken mit temporaler Logik, Pattern für zeitliche Abhängigkeiten und Zeitdiagramme auf graphische Systembeschreibungen mit Zustandsanteilen und Kommunikation anzuwenden. Genau diese Kombination hat sich als sehr erfolgreich erwiesen, da sich temporale Logik und kommunizierende Zustandsdiagramme zur automatischen Verifikation endlicher Systeme (Model Checking) eignen. Die Konzepte aus dem Traverdi-System sind direkt in die Realisierung der Model Checker der Universität Oldenburg eingegangen, die heute von OFFIS erfolgreich vermarktet werden. Indirekt wurden auch die Verifikationsarbeiten des Werkzeugs AutoFOCUSQuest [6, 8] beeinflusst, die ebenfalls auf temporaler Logik, Sequenzdiagrammen und kommunizierenden, zustandsbasierten Systemen bestehen.
3.5.5 Werkzeuge In den Projekten KorSo und KorSys wurden folgende Beweis-Werkzeuge entwickelt:2 daVinci ist ein Graph-Visualisierungswerkzeug, mit dem beliebige Graphen schön formatiert dargestellt werden können (s. Abb. 3.22). DaVinci wurde von der Universität Bremen in der Gruppe um Prof. Bernd Krieg-Brückner entwickelt, um die KorSo-Entwicklungsgraphen und die transformationelle Entwicklung korrekter Software zu unterstützen. daVinci wurde bis 2005 weiter entwickelt und kann heute noch unter dem Namen UGraph von der Web-Seite http://www.informatik.uni-bremen.de/uDrawGraph/en/index.html geladen werden. 2
Zusätzlich zu den in [2] und [5] in den Tool-Abschnitten beschriebenen Werkzeugen wurden noch weitere Systeme realisiert, diese sind hier allerdings aus Platzgründen nicht aufgeführt.
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo
251
Tatzelwurm ist ein System zur entwicklungsbegleitenden Verifikation von korrekter Software. Das Tatzelwurm-System verwaltet Beweispläne und Beweisverpflichtungen und unterstützt den Anwender durch Automatisierung bei der Erstellung des Korrektheitsnachweises. Das Tatzelwurm-System wurde von der Universität Karlsruhe (TH) in der Gruppe um Peter Deussen entwickelt. SEDUCT ist ein interaktives Beweiswerkzeug für First Order Logic, das auf Rewriting-Techniken basiert. Das SEDUCT-System wurde von SIEMENS AG in der Gruppe von Karl Stroetmann zur Verifikation von Software entwickelt. Das SEDUCT-System wurde im Laufe des Projektes KorSo an das KIV-System angebunden. Traverdi wurde in Abschn. 3.5.4 beschrieben. KIV (Karlsruhe Interactive Verifier, s. [7]) ist ein interaktives Beweissystem mit einer graphischen Darstellung von Beweisstrukturen (s. Abb. 3.21). Das KIVSystem wurde in Karlsruhe von der Gruppe um Wolfgang Reif am Lehrstuhl von Wolfram Menzel entwickelt. Es unterstützt den Entwicklungsprozess von Software von abstrakten, logischen Anforderungsspezifikationen bis hin zum verifizierten Programm. Das KIV-System ist in zahlreichen Anwendungen eingesetzt worden und ist auch außerhalb der Projekte bekannt. Es ist wesentlicher Bestandteil des kommerziell verfügbaren Verifikationswerkzeuges VSE (s. [9]), das vor allem vom Bundesamt für Sicherheit in der Informationstechnik (BSI) zur Verifikation von sehr großen Systemen eingesetzt wird.
Abb. 3.21 KIV-System
252
3 Die 90er Jahre
Abb. 3.22 daVinci
HiGraph: Als typisches Beispiel einer industriell eingesetzten semiformalen Spezifikationstechnik wird HiGraph betrachtet. HiGraph ist ein von Siemens AUT (Automatisierungstechnik) entwickeltes Software-Entwicklungswerkzeug für SIMATIC S7, welches die zustandsgraphen-basierte Programmierung unterstützt und für die Programmierung von Automatisierungsrechnern eingesetzt wird. Nach dem Einsatz durch Pilotkunden ist das Werkzeug seit März 1996 am Markt verfügbar. Basierend auf dem Model Checker SVE wurde hierfür eine Verifikationskomponente bei Siemens entwickelt und die Machbarkeit anhand industrieller Fallbeispiele nachgewiesen. SVE für Statemate: Im Rahmen von KorSys wurde durch OFFIS eine SVEbasierte Verifikationsumgebung für Statemate entwickelt und mit dem StatemateSystem integriert, die es erlaubt mit temporallogischen Formeln und Zeitdiagrammen Eigenschaften von Statemate-Modellen zu formulieren und zu verifizieren. Dieses System ist der Vorläufer für zahlreiche Tools, die heute auch für andere Werkzeuge (Rhapsody, Matlab, ASCET) existieren und von OFFIS und mittlerweile dem Spin-Off OSC vermarktet werden. AutoFOCUS: Die Entwicklung von AutoFOCUS [1] wurde an der TU München in der Gruppe von Manfred Broy im Rahmen von KorSys begonnen. In der Folgezeit hat sich AutoFOCUS zu einem der besten akademischen Modellierungs-Werkzeuge entwickelt. Im Rahmen des Projekts Quest [8] wurden zahlreiche Verifikationswerkzeuge (unter anderem auch das auf KIV basierende VSESystem) an AutoFOCUS angebunden. Im Jahr 1999 hat AutoFOCUS wegen seiner Vielseitigkeit den ersten Preis auf der ToolCompetition der Formal
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo
253
Methods World Conference in Toulouse gewonnen. AutoFOCUS wird noch heute weiterentwickelt und von dem Spin-Off Validas AG weltweit mit professionellem Support unterstützt. Diese Werkzeuge gestatteten die Durchführung wertvoller Experimente und bildeten die Grundlage für erfolgreiche wissenschaftliche Arbeiten bis zu den heutigen Projekten Verisoft und Verisoft XT.
3.5.6 Anwendungen In den Projekten KorSo und KorSys wurden folgende große Anwendungen und Fallstudien durchgeführt: • KIV-Fallstudien: Mit dem KIV-System wurden einige Aspekte der HDMSAFallstudie spezifiziert und verifiziert. Darunter folgende: • Zugangssystem der Datenbank im Herzzentrum (s. u.). Dabei wurde ein flexibles Rechtesystem modelliert und die Invarianz der Anwendungsdaten für ausgewählte Verwaltungsoperationen gezeigt. • Datenbank-Konsistenz. Aus den E-R-Datenmodellen des Herzzentrums wurden schematisch Spezifikationen des KIV-Systems generiert. Die Korrektheit dieser Übersetzung wurde anhand einiger Eigenschaften der generierten Spezifikationen formal verifiziert, beispielsweise die Totalität der Zugriffsfunktionen. • Korrektheit einer Speicherverwaltung mit dynamischen Hashfunktionen und Kollisionsverwaltung, wie sie bei der Implementierung von Datenbanken auftreten. Wesentliches Kriterium für die Effizienz der Speicherverwaltung ist, dass der Speicher trotz des Einsatzes von beschränkten Kollisionslisten nicht reorganisiert werden muss. Diese Eigenschaft wurde mit dem KIV-System verifiziert. • Die Fertigungszelle beschreibt eine metallverarbeitende Produktion, bestehend aus mehreren kooperierenden Maschinen, die Werkstücke gemeinsam fertigen (s. Abb. 3.23). Das System besteht aus 14 Sensoren und 13 Aktuatoren mit einem sehr komplexen Zustandsraum. Die zu beweisenden sicherheitsrelevanten Eigenschaften sind, dass in der Produktion keine Menschen und Maschinen von der Steuerung beschädigt werden. Die Fertigungsstelle wurde vom Forschungszentrum in Karlsruhe zur Verfügung gestellt und von über 30 unterschiedlichen Ansätzen modelliert und verifiziert. Im Projekt KorSo wurde ein KIV-Modell der Fertigungszelle erstellt und einige der Eigenschaften bewiesen. Auch mit dem Tatzelwurm-Werkzeug wurde das System modelliert und komplett verifiziert. Im Projekt KorSys wurde die Fertigungszelle um Fehlertoleranz und Echtzeitaspekte erweitert und mit den KorSys-Werkzeugen erfolgreich bearbeitet. • HDMSA, Medizinisches Informationssystem. Das Informationssystem des deutschen Herzzentrums in Berlin „HDMSA“ („Heterogeneous Distributed Information Management System – Abstract Version“) wurde von 49 Mitarbeitern von elf Projektpartnern des KorSo-Projektes gemeinsam bearbeitet. Dabei
254
3 Die 90er Jahre
Abb. 3.23 Fertigungszelle
erwiesen sich vor allem die in KorSo ausgearbeiteten Modularisierungs- und Strukturierungsmittel als essentiell. Wegen der Größe der Anwendung wurde eine Vorgehensweise (von der Systemanalyse, über eine schrittweise Formalisierung, bis hin zum Korrektheitsbeweis) angewendet, die die Grundlage für künftige Arbeiten zu formal fundierten Entwicklungsprozessen gebildet hat. • Fensterheber. Im Projekt KorSys wurde eine Fenstersteuerung einer Automobil-Anwendung modelliert und mit den entstandenen Tools, vor allem der SVEIntegration in Statemate, automatisch verifiziert. Dabei wurde, ähnlich wie mit der Fertigungszelle, in KorSo ein Standard zum Vergleich und zur Bewertung von zahlreichen formalen Ansätzen geschaffen, der in den folgenden Jahren in vielen Publikationen unter dem Stichwort „Window Lifting“ zu finden ist. Die Fallstudien von KorSo hatten nachhaltigen Einfluss weit über das Projekt hinaus. Das gilt nicht nur, weil einige der Fallstudien auch außerhalb von KorSo bearbeitet wurden. Die Methodik der Forschung anhand von anspruchsvollen, industrienahen Fallstudien hat zahllose Forschungsarbeiten geprägt.
3.5.7 Bewertung, Nachhaltigkeit KorSo erschloss das Gebiet der Spezifikation und Verifikation industrieller Anwendungen. KorSo setzte erstmals erfolgreich eine wissenschaftliche Methodik ein, bei der anhand von Fallstudien Fragen der Spezifikation und Verifikation von Software in Angriff genommen wurden. Eine Reihe bis dahin unabhängiger Gruppen wurde in dem Projekt KorSo zusammengeführt, so dass sich ein nachhaltiges
3.5 Stand der Verifikation am Beispiel des Verbundprojekts Korrekte Software, KorSo
255
Forschungsnetzwerk herausbildete, das die Basis für weitere erfolgreiche Verbundprojekte bildete. Die Gruppe bei Siemens entwickelte einen Verifikationsansatz, der später bei Infineon mit großem Erfolg eingesetzt wurde. Es entstanden einige Spin-Off-Unternehmen, die heute erfolgreich Verifikationstechniken praktisch einsetzen. Die Arbeiten von KorSo erbrachten nicht nur zum Thema Verifikation im engeren Sinn entscheidende Impulse. Gerade die Notwendigkeit einer leistungsfähigen Modellierungstechnik wurde in KorSo erkannt. Die Rolle der Werkzeugunterstützung wurde unterstrichen. Besonders wichtig war die Vernetzung einschlägiger Forschergruppen untereinander, aber auch mit Arbeiten der Industrie. So half KorSo den Grundstein zu legen für eine erfolgreiche und fruchtbare Zusammenarbeit in einem Forschungsschwerpunkt, der heute von internationaler Bedeutung ist. Mittlerweile haben Verifikationstechniken einen Reifegrad erreicht, dass mit ihnen aktuelle Systeme der Industrie verifiziert werden können. Das Projekt Verisoft stellt dies unter Beweis.
Literatur [1] AutoFOCUS-Homepage: http://autofocus.in.tum.de [2] Broy, M.; Damm, W.; Eckrich, M.; Mala, W.; Venzl, G.: Korrekte Software für sicherheitskritische Systeme – Das Projekt KorSys im Überblick. BMBF Status Seminar, Berlin 1996. [3] Broy, M.; Facchi, C.; Grosu, R.; Hettler, R.; Hussmann, H.; Nazareth, D.; Regensburger, F.; Slotosch, O.; Stø´len, K.: The Requirement and Design Specification Language SPECTRUM, TUM-I9311/TUM-I9312, May 1993. [4] Broy, M.; Jähnichen, S. (ed.): Korrekte Software durch formale Methoden. Abschlußbericht des BMBF-Verbund-Projektes KORSO, März 1994. [5] Broy, M.; Jähnichen, S. (ed.): KORSO: Methods, Languages, and tools for the Construction of Correct Software, Springer-Verlag, Lecture Notes in Computer Science 1009, 1995. [6] Broy, M.; Slotosch, O.: Enriching the Software Engineering Process by Formal Methods pp. 1–43, number LNCS 1641, 1999. [7] Reif. W.: The KIV System: Systematic Construction of Verified Software. In: Kapur, D. (ed.), 11th Conference on Automated Deduction. Proceedings, Lecture Notes in Computer Science. Albany, NY, USA, Springer, 1992. [8] Slotosch, O.: Quest: Overview over the project, Proceedings of FM-Trends 98, 1998 LNCS 1641: 346–350. [9] Ullmann, M.; Hauff, H.; Loevenich, D.; Baur, P.; Göhner, P.; Kejwal, P.; Foerster, R.; Drexler, R.; Reif, W.; Stephan, W.; Wolpers, A.; Hutter, D.; Sengler, C.; Cleve, J.; Canver, E.: VSE Verification Support Environment. BSI-Sicherheitskongress 1993, BSI-Verlag, Bonn.
256
3 Die 90er Jahre
3.6 Verification Support Environment (VSE) (entwickelt im Auftrag des BSI von 1991 bis 1999)
Jörg Siekmann, Werner Stephan (Deutsches Forschungszentrum für Künstliche Intelligenz, Saarbrücken)
3.6.1 Einleitung Die Entwicklung immer größerer Programme mit mehreren Millionen Zeilen Code hatte die Strukturierungsmöglichkeiten und Techniken des Softwareentwurfs schon Mitte der sechziger Jahre bei weitem überholt. Die daraus folgende Krise gab einem neuen Gebiet (auf dem Workshop in Garmisch-Partenkirchen 1968) den Namen: Software Engineering. Die seither entwickelte Fülle an Entwurfsmethoden und CASE-Tools gehört nun zum festen Bestandteil der Informatikausbildung und diese Techniken werden heute auch in hohem Maße in der industriellen Softwareentwicklung eingesetzt. Die zweite Krise in der Softwareproduktion begann spätestens Ende der achtziger Jahre sichtbar zu werden: spektakuläre Fehlschläge, wie der Absturz der Ariane-Rakete aufgrund eines Software-/Hardware-Fehlers, das kostspielige Versagen der Kontrollsoftware des Denver-Flughafens, mit der jahrelangen Verzögerung der Inbetriebnahme dieses Flughafens, und die Sicherheitsmängel heutiger eingebetteter Systeme zum Beispiel im Automotivbereich machten einen neuen Problembereich überdeutlich: die Sicherheit (safety) dieser Systeme. In den neunziger Jahren wurde ein weiterer Aspekt dieses Sicherheitsproblems ebenfalls spektakulär in den Medien diskutiert: die Sicherheit im Sinne von „security“. Militärische Abschirm- und Kontrollsysteme, Luft- und Raumfahrt, Banken und letztlich ganze Volkswirtschaften sind durch gezielte Attacken sowie durch Viren und Würmer leicht angreifbar und können damit im Prinzip vollständig ausgeschaltet werden. Sicherheit von Programmen im Sinne von „safety“ sowie „security“ wurde damit ein zentrales Thema aller hoch industrialisierten Volkswirtschaften. In Deutschland führte dies in den neunziger Jahren dazu, dass die damalige Zentrale Chiffrierstelle des Nachrichtendienstes (ZSI) zu einer eigenen, auch zivilen Bundesbehörde, dem Bundesamt für Sicherheit in der Informationstechnologie (BSI), ausgebaut und dem Innenministerium unterstellt wurde. Diese Behörde, inzwischen mit einigen hundert Mitarbeitern, spielt heute in Deutschland eine wichtige Schlüsselrolle in allen Sicherheitsaspekten der Informationstechnologie von nationalem Interesse. Die Entwicklung von VSE geht auf eine Initiative des BSI zurück, in der diese potentielle nationale Bedrohung explizit gemacht wurde.
3.6 Verification Support Environment (VSE)
257
In den Arbeitsbereich dieses Amtes fällt auch die Organisation der Evaluierung und Zertifizierung von IT-Systemen hinsichtlich ihrer Sicherheit. Schon die frühen Kriterienwerke zur Beurteilung der Sicherheit von IT-Systemen, wie das OrangeBook in den USA und das Green-Book in Deutschland, hatten bei den hohen Stufen der Vertrauenswürdigkeit die Verwendung „Formaler Methoden“ zwingend vorgeschrieben. Auch bei der dann einsetzenden internationalen Standardisierung – heute sind die von allen Industriestaaten unterzeichneten Common Criteria (CC) maßgebend – ist diese Forderung nach wissenschaftlich objektivierten Beschreibungs- und Analysetechniken erhalten geblieben. So wie eine Brücke oder ein hohes Gebäude beispielsweise auf Tragfähigkeit und Einsturzsicherheit hin analysiert werden kann und dieser Nachweis vor der eigentlichen Konstruktion erfolgt, so sollte auch Software überprüfbar und vor dem eigentlichen Einsatz der Sicherheitsnachweis berechnet werden. Bei einer Einteilung der geforderten Vertrauenswürdigkeit (bezüglich „security“) in EAL1–EAL7 (Evaluation Assurance Level) sind zur Zeit „Formale Methoden“ einschließlich mathematischer Beweise bei EAL6 und EAL7 gefordert. Bei der Entwicklung von „safety“-kritischen Systemen sind „Formale Methoden“ zwar nur empfohlen, allerdings werden sie auch heute schon ebenfalls weitgehend eingesetzt, wie wir im Folgenden zeigen wollen.
3.6.2 Hintergrund und Ausgangspunkt von VSE Bei den Initiativen des BSI stellte sich natürlich die Frage, wie solche hochgradig vertrauenswürdigen Entwicklungen im Rahmen der kommerziellen Software-Entwicklung zu bewerkstelligen seien. Tatsächlich ist die Forderung nach „Formalen Methoden“ mit dem mathematischen Nachweis (einem Beweis im Sinne von Theorembeweisen) in verschiedenen Expertenkreisen kontrovers diskutiert und dabei insbesondere von Seiten der industriellen Softwarehersteller in Frage gestellt worden. Damit waren die staatlichen Stellen, nicht nur in Deutschland, in eine zwickmühlenartige Problemlage geraten: einerseits bestand der politische Wille, möglichst hohe Sicherheitsstandards per Gesetz vorzuschreiben und auch durchzusetzen. Andererseits wollte man die gerade aufblühende und durch den internationalen Konkurrenzdruck gefährdete deutsche Softwareindustrie natürlich nicht durch übertriebene Forderungen knebeln und im internationalen Wettbewerb damit unwirtschaftlich werden lassen. Das BSI hat sich – als Reaktion auf die Einwände der Großindustrie – 1990 entschlossen, die Entwicklung eines auf den industriellen Endanwender zugeschnittenen Werkzeugs zur Unterstützung „Formaler Methoden“ auszuschreiben, um so ein für alle Mal zunächst die Machbarkeit voll formalisierter, beweisbar korrekter Software im industriellen Maßstab nachzuweisen. Der zweite Schritt, die Evaluierung hinsichtlich der wirtschaftlichen Machbarkeit, war dann an einer Reihe von Großprojekten aus der Industrie nachzuweisen.
258
3 Die 90er Jahre
Um diese Initiative zunächst wissenschaftlich zu fundieren, wurde ein nationaler Beraterstab deutscher und angelsächsischer Wissenschaftler dieses Gebietes berufen, dem auch der erste Autor dieses Artikels angehörte. Dieser Expertenkreis hat nach mehreren Anhörungen im Stil der amerikanischen „DoD hearings“ ein Resümee verabschiedet, in dem 1. zum damaligen Zeitpunkt ausgereifte Techniken vorgeschlagen wurden und 2. ein Wettbewerb von maximal drei Systemen – nach einer entsprechenden Ausschreibung – beschlossen wurde. Diese Ausschreibung traf auf eine Forschungslandschaft, die schon seit einiger Zeit die anwendungsorientierte Befassung mit Spezifikationssprachen sowie Deduktionstechniken für den Nachweis der Korrektheit von Programmen (Programmverifikation) als zentrale Gebiete verfolgte. Die bahnbrechenden frühen Arbeiten von Floyd (später veröffentlicht in [1]) und Hoare [2] Ende der 1950er Jahre und in den 1960er Jahren hatten den Weg für eine prinzipielle Vorgehensweise gewiesen: nun galt es – in den 70er und 80er Jahren – diese prinzipielle Vorgehensweise in konkrete Methoden und Systeme zu gießen. Diese Entwicklung wurde auch von der deutschen Informatik intensiv verfolgt und das Forschungsministerium hatte bereits sehr früh begonnen, Projekte in diesem Bereich auszuschreiben und zu fördern. Hier war vor allem das Referat von Dr. Reuse sehr aktiv und hat durch die breit angelegte Förderung (u. a. KorSo) eine lebendige Forschungslandschaft ermöglicht. Die seit 1975 aufkommenden Spezifikationssprachen, wie VDM [3], Z [4] und EHDL [5], stellen neben den allgemeinen Elementen von Logiksprachen darüber hinausgehende Konstrukte speziell für die Entwicklung und Beschreibung von Softwaresystemen zur Verfügung. Dabei geht es vor allem um Methoden der abstrakten Spezifikation von Datentypen, Zustandstransformationen und Nebenläufigkeit, die sich im Rahmen fester Regeln in softwaretechnischen Realisierungen verfeinern lassen. Auf der anderen Seite wurden Deduktionstechniken speziell für die Verifikation untersucht und zusammen mit dem aufblühenden Wirtschaftszweig der Spezifikationssprachen sind, zunächst vorwiegend in den USA, Ende der 70er Jahre erste integrierte Systeme, die Spezifikation und Deduktion miteinander verbinden, entstanden. Zu nennen sind vor allem das System von Luckham („Stanford Verifier“) [6] und das AFFIRM System [7]. Während beim Stanford Verifier (ab 1975) noch ein Generator für Verifikationsbedingungen mit einem klassischen (allgemeinen) automatischen Beweiser gekoppelt wurde, realisierte das System von Boyer und Moore [8] spezielle Beweisstrategien für Induktionsbeweise über funktionale Programme. In dem ursprünglich in Karlsruhe entwickelten INKA-System [9] wurden diese Techniken systematisiert und verallgemeinert. Neben diesen im Wesentlichen vollautomatisch arbeitenden Systemen hatte sich das so genannte „Taktische Theorembeweisen“ [10] etabliert, bei dem die interaktive Beweissuche durch abgeleitete Regeln (Taktiken) und darauf aufbauenden Strategien unterstützt wurde. Das
3.6 Verification Support Environment (VSE)
259
KIV-System aus Karlsruhe [11] folgte dieser neuen Richtung bei der Verifikation imperativer Programme in einer neuen Variante der Dynamischen Logik. Allerdings war die Euphorie über den prinzipiell machbaren Nachweis der Korrektheit von Programmen bezüglich ihrer Spezifikation rasch verflogen, als die Probleme aus der industriellen Praxis deutlich wurden: der hohe Aufwand und die damit verbundene Kostensteigerung schienen einer praktischen Umsetzung im Wege zu stehen. Als noch gravierender erwies sich jedoch schon bald die explosionsartig wachsende Komplexität, die inzwischen selbst die „prinzipielle Machbarkeit“ in Frage stellte. Um ein Beispiel aus der Frühzeit von VSE zu wählen: der so genannte „ARD-Stern“ ist ein von der Firma Dornier entwickeltes Programm für die Übertragung von Funk- und Fernsehprogrammen. Diese werden lokal erstellt und dann zentral von dem genannten Programm ausgesendet. Das Problem ist die nahtlose, auf Sekundenbruchteile genaue Übertragung der Sendungen, die sicherstellt, dass nicht ein schwarzer Bildschirm den Fernsehzuschauer verwirrt. Dieses Programm bestand aus einigen Millionen Zeilen Code, aus dem mit einer Risikoanalyse die kritischen Programmteile zu isolieren waren, die insbesondere den zentralen Scheduling-Algorithmus für die Belegung der Sendekanäle implementierten. Um diese Programmteile zu verifizieren, wurden (vom System) hunderte so genannter Beweisverpflichtungen (Theoreme im mathematischen Sinne) generiert, wobei der streng logische Beweis dieser Verpflichtungen bis zu 8000 Einzelschritte erforderte: Mit dieser Aufgabe ist nicht nur die menschliche Informationsverarbeitung hoffnungslos überfordert, sondern auch die Leistungsfähigkeit der damaligen Systeme in den 80er und 90er Jahren. Das VSE-Konsortium, bestehend aus der Dornier AG (W. Kratschmer, P. Kejwal), der Gesellschaft für Prozessrechnerprogrammierung (GPP) (P. Göhner, P. Baur) und den Universitäten Karlsruhe (TH) (W. Menzel, W. Reif, W. Stephan), Saarbrücken (J. H. Siekmann, D. Hutter) und Ulm (F. von Henke), setzte sich gegen die Mitbewerber mit dem Angebot durch, eine feste Entwicklungsmethodik, die sich in einer entsprechenden Spezifikationssprache niederschlägt, mit speziell daraufhin abgestimmten Deduktionstechniken im Rahmen eines einheitlichen CASE-Werkzeugs für die formale Programmentwicklung zu integrieren. Zunächst wurden zwei Systementwicklungen gefördert und nach einer weiteren Erprobung zur „Halbzeit“ der geplanten Förderzeit setzte sich das VSE-System als Sieger durch und die weitere Förderung der Entwicklung dieses Systems, ebenso wie die Evaluation an großen Industrieprojekten, wie dem oben genannten ARDStern, konzentrierte sich dann ausschließlich auf VSE, das damit als deutsches, zertifiziertes System von dem BSI unterstützt und für den deutschen Markt vorgeschrieben wurde.
3.6.3 VSE-Technologie In allen Disziplinen, die mathematisch-naturwissenschaftliche Erkenntnisse in großem Maßstab routinemäßig anwenden, gibt es die Unterscheidung zwischen
260
3 Die 90er Jahre
einer immer weiter fortschreitenden Theoriebildung und der Operationalisierung von bestimmten Resultaten im Rahmen einer Methodik, die dem Endanwender mit • vorgegebenen (elementaren) Sprachelementen, • aus diesen aufgebauten Artefakten (oder Entwicklungsobjekten) und • Regeln zum Umgang mit diesen Artefakten gegenübertritt. Von einer formalen Methodik erwartet man, dass Sprache und Regeln eindeutig definiert sind und sie darüber hinaus in eine der Methodik zu Grunde liegende (Meta-)Theorie abgebildet werden können (Semantik). Letztere ist für den Endanwender nicht direkt relevant – dies ist ja gerade der Zweck der Operationalisierung –, jedoch Voraussetzung für weitergehende Möglichkeiten zur Analyse von Artefakten. Übergeordnetes Ziel ist eine möglichst weitgehende Unterstützung des Benutzers unter Vermeidung eines inadäquaten oder sogar fehlerhaften Umgangs mit mathematisch-naturwissenschaftlichen Resultaten. Zwei wesentliche Eigenschaften einer Methodik sind die Granularität der semantischen Fundierung, das heißt die Frage, bis zu welcher (Detail-)Ebene Sprachelemente bzw. Relationen zwischen Artefakten Bedeutung tragen, und die Allgemeinheit. Im Bereich der Softwareentwicklung gibt es heute viele (werkzeugunterstützte) Methoden, bei denen nur bestimmte Sprachelemente und Relationen eine durch Regeln und Analysen operationalisierte Semantik tragen – ansonsten handelt es sich um „Freitext“. Mehr noch, die verschiedenen existierenden semantischen Konzepte sind meist nicht miteinander abgestimmt. VSE ist dagegen durchgängig formal. Alle Sprachelemente und Beziehungen zwischen Entwicklungsobjekten tragen eine Semantik, die sich für den Benutzer durch vom System erzeugte und verwaltete Beweisverpflichtungen äußert. Beweisverpflichtungen sind in VSE bestimmten postulierten Relationen – im VSE-Sprachgebrauch „Links“ – zugeordnet. Postulierte „Links“ treten im Zusammenhang mit Anforderungsdefinitionen und Verfeinerungen auf. Der Umgang mit Beweisverpflichtungen wird durch die eng integrierte Beweiskomponente operationalisiert. Elementare Spezifikationen bzw. definitorische „Links“ sind – wie üblich – Gegenstand von syntaktischen Überprüfungen (Parsing, Typcheck). VSE verbirgt die Metatheorie vollständig vor dem (End-)Benutzer und fixiert sie damit ihm gegenüber. Diese Einschränkung der Ausdruckstärke und der möglichen Manipulationsmöglichkeiten ist zwar gewollt, aber die Frage nach dem „richtigen“ Grad an Allgemeinheit ist dennoch schwer zu beantworten. Ein sehr allgemeines – mehr oder weniger rein logisches – System, das zum Beispiel auch in der Lage wäre, die VSE zu Grunde liegende Metatheorie zu formalisieren, eröffnet für sich genommen, das heißt ohne weitere Maßnahmen, zu viele Freiheitsgrade und bietet zu wenig Ansatzpunkte für eine Werkzeugunterstützung. Unabhängig von einer endgültigen Antwort auf die Frage nach einer sinnvollen Allgemeinheit erscheint auf jeden Fall die Trennung in eine Benutzerebene mit eingeschränkten festen Möglichkeiten und eine Metaebene, die eine „tiefe“ semantische Fundierung mit den entsprechenden Analysemöglichkeiten bietet, zwingend notwendig. Zurzeit gibt es Überlegungen, die logische Metaebene mit in
3.6 Verification Support Environment (VSE)
261
das System zu integrieren, um zum Beispiel spezielle Anpassungen selbst wieder einer kontrollierten Vorgehensweise zugänglich zu machen. Ziel des damaligen Projektes war es, spezifische Elemente der allgemeinen, das heißt nicht bereichsspezifischen Softwareentwicklung durchgängig zu unterstützen. Konkret bedeutet dies: • Spezifikation von Datentypen, • von nebenläufigen zustandsbasierten Systemen (PHASE II) • und die Verfeinerung in ablauffähige Programme gängiger Programmiersprachen. Obwohl der Anstoß zur Entwicklung von VSE aus dem Bereich der kriterienkonformen Entwicklung von IT-Systemen kam, enthielt das Werkzeug (zunächst) keine allein für die Sicherheitsmodellierung spezifischen Konzepte. Dennoch wurde es später vor allem in diesem ursprünglich fokussierten Bereich erfolgreich eingesetzt und mittlerweile auch um spezielle Komponenten, etwa zur Verifikation kryptographischer Protokolle, erweitert. Daneben gibt es inzwischen aber auch Erweiterungen zur Realzeitmodellierung.
3.6.4 Architektur Neben den üblichen Anforderungen an Entwicklungswerkzeuge war die Architektur von VSE vor allem durch den speziellen Wunsch nach einer engen Integration der Beweiskomponente motiviert. Dies war insbesondere im Hinblick auf eine Strukturierung in handhabbare Einheiten von entscheidender Bedeutung. An keiner Stelle findet eine Übersetzung in „flache“ logische Repräsentationen statt. In erster Linie wurde diese Strukturierung erzwungen durch die interaktive Beweisführung. Aber auch vollautomatische Verfahren, wie Model-Checking und automatisches Beweisen, haben sich im Kontext von VSE-Entwicklungen als durchaus sensitiv für die Komplexität von Beweisverpflichtungen erwiesen. Entwicklungswerkzeuge verwenden typischerweise eine interne Repräsentation der Entwicklungsartefakte und machen diese dem Benutzer durch eine geeignete Aufbereitung zugänglich. Horizontal (Komponenten) und vertikal (Verfeinerung) strukturierte Entwicklungen gemäß der Spezifikationssprache VSE-SL werden im VSE Front-End in einer verzeigerten, textorientierten internen Darstellung gehalten. Das Editieren und Visualisieren von Entwicklungen geschieht durch eine graphische Darstellung der Entwicklungsstrukturen, so genannter Entwicklungsgraphen, bei denen die Knoten elementaren Spezifikationen entsprechen und die Verbindungen (Links) Abhängigkeiten zwischen Entwicklungsobjekten wiedergeben. Diese an VSE-SL orientierten internen Darstellungen werden nach einer erfolgreichen syntaktischen Überprüfung unter Beibehaltung der Strukturierung in logische (axiomatische) Darstellungen übersetzt. Den Knoten und postulierten Kanten des Entwicklungsgraphen sind Lemmabasen, die Axiome, Lemmata, Beweisverpflichtungen und Beweise kapseln, zugeordnet.
262
3 Die 90er Jahre
Abb. 3.24 Entwicklungsgraph
3.6.5 Logik und Deduktion VSE verwaltet diese Strukturen im Hinblick auf einen konsistenten Zustand bei einer inkrementellen Entwicklung und bei Änderungen. Letztere haben sich bei streng formalen Entwicklungen als besondere Herausforderung erwiesen. Die VSE-Entwicklungsstrukturen haben in diesem Zusammenhang den Ausgangspunkt für weitergehende, allgemeine Untersuchungen gebildet und werden gegenwärtig dazu genutzt, entsprechende Verfahren zum Änderungsmanagement zu realisieren. VSE verwendet Prädikatenlogik (abstrakte Datentypen), Dynamische Logik (Verifikation imperativer Programme) und Temporallogik (nebenläufige Systeme) als logische Formalismen in der Deduktionskomponente. Die in dem Umfeld von KIV und INKA entstandenen Beweistechniken bilden den Kern der Deduktionskomponente. Die grundlegende Vorgehensweise ist dabei interaktiv, was natürlich mit entsprechenden Anforderungen an die Organisation der Beweiserzeugung verbunden ist. Durch eine leistungsfähige Simplifikation, geeignete abgeleitete Beweisschritte und konfigurierbare (Auswahl-)Strategien konnte der Automatisierungsgrad so weit gesteigert werden, dass formale Entwicklungsaufgaben vollständig im Zeitrahmen der entsprechenden übergeordneten Projekte abgewickelt
3.6 Verification Support Environment (VSE)
263
Abb. 3.25 Beweisbaum
werden konnten. So wurde in jüngster Zeit bei der induktiven Verifikation von Protokollen ein Automatisierungsgrad von nahezu 90% erreicht. Für die Realisierung der interaktiven Strategien mit einem extrem hohen Automatisierungsgrad, wie er für Einzelbeweise mit bis zu 8000 Großschritten absolut notwendig ist, war natürlich auch das Wissen um den speziellen methodischen Kontext in Form der vom System erzeugten Beweisverpflichtungen entscheidend. Diese werden von den genannten Strategien vollständig abgedeckt. Die Deduktionskomponente von VSE verwendete im Unterschied zu vielen anderen Systemen von Anfang an eine explizite Repräsentation von Beweisen in Form von Beweisbäumen. Diese Beweisbäume, die viele tausend Knoten enthalten können, werden während der Sitzungen interaktiv aufgebaut und in den entsprechenden Lemmabasen als partielle (unfertige) oder geschlossene Beweise abgespeichert. Strukturiert abgelegte Beweisbäume dienen insbesondere als „Vorlagen“ für Strategien zum Nachspielen oder, weitergehend, zur Wiederverwendung von Beweisen.
264
3 Die 90er Jahre
3.6.6 Anwendungen von VSE Schon während der ersten Phase der VSE-Entwicklung sind zwei umfangreiche Fallstudien durchgeführt worden, um, wie in der BSI-Ausschreibung gefordert, die Industrietauglichkeit zu belegen. Sie wurden von der Firma Dornier, die in der ersten Phase die Konsortialführerschaft innehatte, zur Verfügung gestellt. Die schon erwähnte Fallstudie ARD-Stern war ein System zur Buchung und Belegung von Leitungen zur Übertragung von Rundfunksendungen. Nach einem intensiven Analyseprozess wurden die kritischen Teile vollständig spezifiziert und bis auf Codeebene verfeinert, einschließlich der notwendigen Beweise. Insbesondere betraf dies, wie schon erwähnt, den eigentlichen Scheduling-Algorithmus, der in der vorangegangenen konventionellen Softwareentwicklung erhebliche Probleme bereitet hatte. Mit am Ende 5000 Zeilen verifiziertem Code war der ARD-Stern selbst im Vergleich mit den heutigen Grand Challenges durchaus beachtlich. Die nachfolgenden kommerziellen Anwendungen von VSE hatten überwiegend die formalen Anteile von ITSEC/CC-konformen Entwicklungen zum Gegenstand. In Abhängigkeit von der Stufe der Vertrauenswürdigkeit wird ein formales Sicherheitsmodell und in den höchsten Stufen zusätzlich auch die (korrekte) Verfeinerung in eine Funktionale Spezifikation und ein Architekturmodell gefordert. Die CC (und davor die ITSEC) schreiben natürlich nicht vor, in welcher Weise formale Methoden einzubringen sind. Leitgedanke bei den entsprechenden Arbeiten unter Beteiligung des DFKI war es, formale Techniken nutzbringend – im Sinne eines echten Zugewinns an Sicherheit – einzusetzen und nicht nur gegebene Auflagen zu erfüllen. Wie anfangs erwähnt, spielen die verschiedenen Kriterienwerke (für IT-Systeme) seit ihrer Entstehung aus dem militärischen Umfeld zur Zeit des
Abb. 3.26 Sicherheitsmodell
3.6 Verification Support Environment (VSE)
265
Kalten Krieges eine Vorreiterrolle in Bezug auf die Verbreitung „Formaler Methoden“.3 Eine inadäquate Anwendung „Formaler Methoden“ in diesem Bereich kann daher zu erheblichen Rückschlägen bei der Akzeptanz führen. Insbesondere wurde in dieser Interpretation der Kriterienwerke bei dem Sicherheitsmodell unterschieden zwischen einer abstrakten Spezifikation der gewählten Sicherheitsmechanismen und den damit verfolgten Sicherheitszielen. In allen Fällen wurde in VSE der Beweis geführt, dass die Anforderungsspezifikation durch das System, in diesem Fall die Mechanismen, erfüllt wird. Die Konsistenz wurde durch prototypische Implementierungen, d. h. Konstruktion von Modellen, nachgewiesen. Im Zusammenhang mit der formalen Modellierung von Sicherheitsmechanismen und -Eigenschaften wurden dabei Techniken wie die Informationsflussanalyse und Protokollanalyse auf reale Szenarios im Rahmen kommerzieller Projekte angewendet. Die wichtigsten kommerziellen Anwendungen von VSE im Bereich der IT-Security waren: • ein Informationsfilter und „Firewall“ für militärische Datenbasen (Vertrauenswürdige Schnittstellenkomponente, VSK), • Betriebssystemkomponenten für (multiapplikative) Smartcards, • ein generisches Sicherheitsmodell für Signaturanwendungen, und • Protokolle für maschinenlesbare Personaldokumente (Reisepass, Ausweis). Sie gehören weltweit zu den größten kommerziellen Projekten mit einer durchgängigen formalen Modellierung und Beweisführung. Dabei wurde VSE als formales Werkzeug im Rahmen einer übergeordneten Entwicklung verzahnt eingesetzt. Trotz der oben erwähnten hohen Ansprüche an die Adäquatheit der formalen Modellierung und der damit verbundenen Umsetzung aktueller Forschungsresultate konnte jeweils der volle Umfang der realen Problemstellung bewältigt werden, so zum Beispiel ein voll ausgeprägtes File-System mit Zugriffskontrolle und einem Umfang der formalen Spezifikation von 8000 Zeilen (in der Ausdruckdarstellung). Auch wenn durch beispielhafte Auswahl von Teilen und Abstraktion von Einzelheiten vielleicht prinzipielle Vorgehensweisen begründet und demonstriert werden können, so bleiben bei solchen häufig zitierten Anwendungen alle Fragen der tatsächlichen Machbarkeit und auch des wirklichen praktischen Nutzens ausgeklammert. Die Anwendung „Formaler Methoden“ auf reale Entwicklungen hat in allen Fällen zur Aufdeckung von zahlreichen Fehlern und Problemen, darunter auch schwer erkennbaren, aber äußerst kritischen, geführt und am Ende beweisbar korrekte Lösungen ermöglicht. Reale Anwendungen führen dabei typischerweise zu 10–40 zentralen Beweisverpflichtungen und 100–200 zusätzlichen Lemmata. Komplexe Einzelbeweise weisen oft 2000–5000 (Groß-)Schritte auf. Auch in den Fällen, in denen die „formalen Arbeiten“ von DFKI-Experten ausgeführt wurden, wäre ein Erfolg ohne ein geschlossenes, endanwendertaugliches Werkzeug wie VSE, das die Brücke schlägt zwischen prinzipiell machbaren und 3
Entsprechendes gilt für Institutionen wie dem BSI.
266
3 Die 90er Jahre
tatsächlich durchgeführten Aufgaben, nicht möglich gewesen. VSE ist aber auch von hoch qualifizierten industriellen Entwicklern nach einer entsprechenden Schulung autonom eingesetzt worden. Neben Anwendungen in der Sicherheitsmodellierung ist VSE auch zur Modellierung von Kontroll- und Steuerungssystemen eingesetzt worden. Zu nennen sind in diesem Zusammenhang die (komplexe) Kontrollsoftware für ein System zur Manipulation von Mantelsegmenten eines (geplanten) Fusionsreaktors und das (vergleichsweise einfache, aber hochkritische) Notschließsystem für das Sturmflutwehr in der Oesterschelde (s. Abb. 3.27). Im Anschluss an dieses Projekt ist VSE um eine Komponente zur Behandlung von Realzeiteigenschaften, insbesondere durch Koppelung mit entsprechenden Spezialwerkzeugen, erweitert worden.
3.6.7 VSE heute, Nachhaltigkeit Im Bereich der „Formalen Methoden“ gibt es heute eine (immer noch wachsende) Fülle von typischerweise vollautomatischen Analysetechniken, die auf ganz spezielle Teilaspekte fokussieren. Neben der offenen Frage nach der Skalierung dieser Ansätze für reale Anwendungen besteht das wesentliche Problem in ihrer Fragmentierung. Im Gegensatz hierzu stehen formale Ansätze, die große Teile der Softwareentwicklung in durchgängiger Weise auf verschiedenen Abstraktionsebenen unterstützen. Schon zu Beginn des (ersten) VSE-Projektes hat sich gezeigt, dass eine Verbindung semiformaler Entwicklungsmethoden – damals ging es um das CASEWerkzeug EPOS von GPP – mit streng semantisch fundierten Ansätzen nicht leicht herzustellen ist. Seinerzeit hatte dies zur Konsequenz, dass von EPOS nur die technische Infrastruktur, jedoch nicht die eigentlichen Entwicklungsstrukturen übernommen wurden. Heute stellt sich eine ähnliche Frage im Hinblick auf Methoden, wie die modellbasierte Entwicklung in UML, mit einer nur sehr groben und nicht einheitlichen semantischen Fundierung. Für eine partielle, ausschnittsweise formale Unterstützung in diesem Bereich eignen sich eher Methoden und Werkzeuge, die als eine Art formales „Plug-In“ eingesetzt werden können. Sie benötigen dann selbst keine Unterstützung zum Editieren und Verwalten von Entwicklungen. Wenn man nun von den beiden skizzierten, prinzipiell unterschiedlichen Entwicklungslinien bei formalen Entwicklungsmethoden absieht, haben sich die wesentlichen Leitgedanken von VSE als nachhaltig erwiesen. So hat sich heute die bevorzugte Betrachtung zustandsbasierter Systeme und imperativer Programmiersprachen, wie sie im kommerziellen Bereich verwendet werden, weitgehend durchgesetzt. Funktionale Anteile dienen als Ergänzung dazu, die zu Grunde liegenden Datentypen auf verschiedenen Abstraktionsebenen in flexibler Weise, d. h. ohne Beschränkung auf feste Strukturen, zu behandeln und die zur Modellierung von (System-)Eigenschaften (Sicherheitsmodelle) notwendige Theoriebildung zu ermöglichen.
3.6 Verification Support Environment (VSE)
267
Abb. 3.27 Sturmflutwehr
Bei durchgängigen Entwicklungstechniken wie den in VSE realisierten gibt es nach wie vor keine Alternative zu einer interaktiven Beweisführung. Dabei haben sich auch bei anderen Systemen interne Mechanismen zur Beweisautomatisierung wie Simplifikation, komplexe Großschritte und darauf aufbauende Strategien als sehr erfolgreich erwiesen. Dagegen sind die Erfahrungen mit dem Anschluss externer (automatischer) Verfahren für bestimmte Teilaufgaben bis heute eher zwiespältig. In Bezug auf VSE konnte nachgewiesen werden, dass die hier realisierten Techniken geeignet sind, die Beweisaufgaben bei Anwendungen realistischer Größenordnung vollständig in einem angemessenen Zeit- und Kostenrahmen zu behandeln. Das der VSE-Architektur zu Grunde liegende Konzept des Entwicklungsgraphen hat sich in besonderer Weise als zukunftsweisend erwiesen. In verallgemeinerter Form, das heißt mit einer theorieunabhängigen Semantik für „Links“ und der Möglichkeit, Transformationen auszuführen, bilden sie die Basis für neuere Entwicklungen im Bereich des Änderungsmanagements. Die effiziente Behandlung von Änderungen ist neben einer weiteren Steigerung des Automatisierungsgrades das Hauptanliegen bei einer ingenieurmäßigen formalen Entwicklung. Die in VSE realisierte, sehr enge Koppelung von Editieren, Verwalten und Beweisen ist bisher in nur sehr wenigen Systemen wirklich realisiert worden. In vielen Fällen wurde und wird versucht, ein Werkzeug zur formalen Spezifikation mit vorhandenen Beweiswerkzeugen lose zu koppeln. Für eine durchgängige Modellierung großer Systemteile erscheint dies jedoch nicht ausreichend. Die Gesamtarchitektur des Entwicklungswerkzeugs muss auf die zu Grunde liegende
268
3 Die 90er Jahre
Methodik hin ausgerichtet sein. Allein dies ist jedoch nicht hinreichend: Auch die Strukturierung des zu entwickelnden Systems selbst muss strenge Anforderungen an ein modulares Design erfüllen, damit die methodischen und werkzeugtechnischen Mittel zur Bewältigung der Komplexität auch wirklich greifen. Auf dem letzten Symposium des Feldafinger Kreises im Juli 2007 wurde eine solche Vorgehensweise zur Erreichung des Endziels der beweisbar korrekten Software vom Microsoft-Chef-Technologen Rick Rashid für die Zukunft explizit gefordert.
Literatur [1] Floyd, R.W.: Assigning meanings to programs. In: Schwartz, J.T. (ed.), Mathematical Aspects of Computer Science, Volume 19, Symposia in Applied Mathematics, pp. 19–32, Providence, Rhode Island, 1967. American Mathematical Society. [2] Hoare, C.A.R.: An axiomatic basis for computer programming. Communications of the ACM, 12(10): 576–580 und 583, 1969. [3] Jones, C.B.: Systematic Software Development Using VDM, Prentice Hall, 1990. [4] Abrial, J.-R.; Schuman, S.A.; Meyer, B.: A Specification Language, in: On the Construction of Programs, Cambridge University Press, eds. McNaughten, R. and McKeag, R.C., 1980. [5] Rushby, J.; Henke, F. von; Owre, S.: An Introduction to Formal Specification and Verification Using EHDM, SRI International, Menlo Park, California, März 1991 [6] Igarashi, S.; London, R.L.; Luckham, D.C.: Automatic Program Verification I: A Logical Basis and Its Implementation. Information Science Institute, USC, 1973. In Report ISI/RR73–11. [7] Musser, D.R.: Abstract Data Type Specification in the Affirm System, IEEE Transactions on Software Engineering, Volume SE-6, Issue 1, Jan. 1980, pp. 24–32. [8] Boyer, R.S.; Kaufmann, M.; Moore, J. Strother: The Boyer-Moore Theorem Prover and Its Interactive Enhancement, Computers and Mathematics with Applications, 29(2), 1995, pp. 27–62. [9] Hutter, D.; Sengler, C.: INKA: The Next Generation. In Proceedings 13th CADE, SpringerVerlag, LNAI 1104, pp. 288–292, 1996. [10] Gordon, M.; Milner, R.; Wadsworth, C.: Edinburgh LCF. Springer-Verlag, LNCS 78, 1979. [11] Heisel, M.; Reif, W.; Stephan, W.: A Dynamic Logic for Program Verification, Symposium on Logical Foundations of Computer Science, pp. 134–145, Springer-Verlag, LNCS 363, 1989.
4
Die 2000er Jahre bis 2006
4.1 Augmented-Reality für industrielle Anwendungen in Entwicklung, Produktion und Service am Beispiel des Leitprojekts ARVIKA (1999–2003)
José Luis Encarnação∗, Didier Stricker (Fraunhofer-Institut Graphische Datenverarbeitung IGD, Darmstadt)
4.1.1 Einführung Computergraphik hat sich als Basistechnologie bei der Gestaltung von MenschMaschine-Schnittstellen etabliert. Während die neunziger Jahre noch durch die Entwicklung immersiver Ein- und Ausgabegeräte geprägt waren („Virtuelle Realität“), verschmilzt in der „Augmented-Reality“ Computergraphik mit Technologien aus den Bereichen „Mobile Computing“ und „Computer Vision“, um neue Formen der Mensch-Maschine-Interaktion zu schaffen. Mit dieser Technologie werden digitale Informationen in Überlagerung mit unserer realen Umgebung dargestellt. Dazu beinhaltet das Augmented-Reality-System die folgenden drei Hardwarekomponenten (siehe Abb. 4.1): • die tragbare Computereinheit, die etwa am Gürtel des Anwenders befestigt wird, • die Videokamera, mit der die reale Umgebung des Anwenders erfasst wird, • die Datenbrille (Head Mounted Display), mit der die digitalen Informationen in Überlagerung mit der Realität dargestellt werden.
∗
jetzt INI-GraphicsNet Stiftung. 269
270
4 Die 2000er Jahre bis 2006
Abb. 4.1 Augmented-Reality-System mit tragbarer Computereinheit, Datenbrille und Videokamera
Auf der Grundlage solcher Hardwarekonfigurationen werden AugmentedReality-Softwaresysteme entwickelt, die durch die folgenden Merkmale gekennzeichnet sind: • Mobilität: Augmented-Reality-Technologie ist insbesondere für mobile Anwendungen geeignet. Somit kann beispielsweise ein zielgerichtetes Arbeiten eines Monteurs in einer großen Fabrikhalle unterstützt werden. • Echtzeitfähigkeit: Die Überlagerung digitaler Informationen und realer Objekte geschieht stets in Echtzeit, d. h. das Augmented-Reality-System unterstützt einen permanenten Abgleich von virtuellen und realen Objekten. • Kontextbezug: Die Informationen werden im Kontext zur Situation des Benutzers (bzw. der Maschine) und in Überlagerung mit realen Objekten visualisiert. Dadurch ist der Bezug zwischen computergenerierten Objekten und realer 3D-Szene eindeutig. • Intuitivität: Die eingeblendeten Objekte bestehen primär aus graphischen 3D-Animationen, die eine leicht verständliche und sprachenunabhängige Informationsvermittlung gewährleisten. • Interaktivität: Neuartige Interaktionsparadigmen jenseits von Maus- und Tastatureingaben unterstützen die erforderliche Mobilität (der Anwender muss sich durch oftmals sehr große Bereiche uneingeschränkt bewegen können) und die Agilität (der Anwender muss mit beiden Händen unbehindert agieren können).
4.1 Augmented-Reality für industrielle Anwendungen
271
In dem Bereich „Augmented-Reality-Technologie“ kann Deutschland heute insbesondere im Kontext industrieller Anwendungen eine Spitzenposition einnehmen, die auf die BMBF-geförderten Projekte „ARVIKA – Augmented-Reality-Technologien (AR) zur Unterstützung von Arbeitsprozessen in Entwicklung, Produktion und Service“ (1999–2003) und „ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications“ (2004–2006) zurückgeführt werden kann. Bezeichnend für diese Projekte ist die hohe Industriebeteiligung (ARVIKA 78%, ARTESAS 55%), die das große Potential der AugmentedReality-Technologie für industrielle Anwender widerspiegelt.
4.1.2 Ausgangssituation und Vorprojekte „Virtual Reality“-Technologien konnten sich in den neunziger Jahren etablieren; sie werden seit dieser Zeit in zahlreichen Unternehmen zur Entwicklung von digitalen Prototypen und zur Realisierung von Design-Review-Anwendungen eingesetzt. Häufig war die Einrichtung eines Virtual-Reality-Labors jedoch mit hohen Investitionskosten verbunden. Für die Echtzeitdarstellung von aufwendigen und hochqualitativen 3D-Modellen wurden so z. B. hochpreisige Graphik-Workstations der Firma SGI benötigt. Die Einführung der „Augmented-Reality“-Technologien kehrt diesen Trend um: Anstelle von leistungsstarken Graphikrechnern werden Anwendungen für mobile Systeme, für Laptop- und sogar PDA-basierte Systeme entwickelt. Das ist deshalb möglich, weil in Augmented-Reality-Anwendungen nicht komplexe 3D-Welten visualisiert werden, vielmehr konzentriert sich die Visualisierung auf die analysierten Maschinenelemente, die durch 3D-Animationen überlagert werden. Am Fraunhofer IGD wurden im Jahr 1996 die Forschungsaktivitäten im Bereich „Augmented-Reality“ aufgenommen. Diese Arbeiten resultierten in einem Messeauftritt auf der Hannovermesse 1998 zum Thema „Augmented-Reality-gestützte Montage“ (siehe Abb. 4.2). Der Demonstrator zeigt den Einbau eines Türschlosses in eine BMW-Tür. Dazu trägt der Monteur die 3D-Datenbrille, an der auch eine Videokamera befestigt ist. Auf die BMW-Tür und auf dem einzubauenden Schloss sind kodierte Schwarz-Weiß-Marker aufgeklebt. Diese Schwarz-Weiß-Marker können im Bild der Videokamera detektiert werden und aufgrund dieser Bildanalyse können die Positionen der BMW-Tür und des Türschlosses bestimmt werden. Somit konnte eine 3D-Animation den Montagepfad für den Einbau des Türschlosses zeigen, dabei wurde die 3D-Animation in die Live-Aufzeichnungen der Videokamera integriert. Die Montage konnte somit sehr leicht nachvollzogen werden und von den Besuchern der Hannovermesse selbständig durchgeführt werden.
272
4 Die 2000er Jahre bis 2006
Abb. 4.2 Demonstrator „Augmented-Reality-gestützte Montage“ auf der Hannovermesse 1998
Der Demonstrator stieß vor allen Dingen bei Besuchern aus industriellen Unternehmen auf sehr großes Interesse. Die Anregungen und Kontakte, die aus dem Messeauftritt resultierten, bildeten die Grundlage für den BMBF-Antrag „AUGRE – Herstellung und Wartung komplexer technischer Geräte mit Augmented-Reality“ der vom Fraunhofer IGD zur BMBF-Ausschreibung „Mensch-Technik-Interaktion“ eingereicht wurde. Ein ganz ähnlicher Forschungsansatz wurde zur selben BMBFAusschreibung von Prof. Luczak und Prof. Weck im Projektantrag „ASSIST – Multimodale Unterstützungssysteme für Facharbeiter der Zukunft“ eingereicht. Beide Projektideen und Konsortien schlossen sich dann im BMBF-Leitprojekt „ARVIKA – Augmented-Reality-Technologien (AR) für Entwicklung, Produktion und Service“ zusammen (siehe Abb. 4.3). Durch die enge Zusammenarbeit von Industrie und Forschungsinstituten konnte sichergestellt werden, dass ausgezeichnetes Know-how zu Basistechnologien und anerkannte Erfahrung zu Anwendungen und Nutzerorientierung als überzeugende und Erfolg versprechende Projektbasis zur Verfügung standen.
4.1 Augmented-Reality für industrielle Anwendungen
273
Abb. 4.3 ARVIKA-Konsortium
4.1.3 ARVIKA – Augmented-Reality-Technologien (AR) für Entwicklung, Produktion und Service Wachsender Wettbewerbsdruck in der Industrie verursacht steigende Produktkomplexität, eine hohe Anzahl von Produktvarianten und immer kürzer werdende Entwicklungs- und Produktionszyklen. Diese erfordern eine maximale Effizienz in Entwicklung, Produktion und Wartung. Bisher wurde die steigende Produktkomplexität mit immer mehr Information und Training für die Mitarbeiter kompensiert. Es ist jedoch absehbar, dass sich die Schere zwischen Produktkomplexität und vorhandenem Wissen der Mechaniker nicht mehr mit diesen konventionellen Methoden schließen lässt. Im BMBF-Leitprojekt ARVIKA wurden AugmentedReality-Technologien zur Unterstützung der Mitarbeiter in den folgenden drei Anwendungsbereichen entwickelt: • Entwicklung: Neben der rechnergestützten Konstruktion (CAD/CAM-Systeme) sind auch funktionelle Simulationen (CAE-Systeme) zur Entwicklung von Fahrzeugen und Maschinen längst etabliert. Augmented-Reality bietet hier die Möglichkeit, Simulationsergebnisse und reale Objekte in Bezug zueinander zu setzen und permanent abzugleichen („Mixed Mock-Up“). Dadurch können etwa Experimente und Simulationen miteinander verglichen und validiert werden.
274
4 Die 2000er Jahre bis 2006
• Produktion: Bei der Einführung neuer Produktionsverfahren kann AugmentedReality zur Vermittlung und zum Training neuer Fertigungsverfahren eingesetzt werden. Die Montageabläufe werden dabei mit den realen Maschinen durchgeführt, im Gegensatz zu einem virtuellen Training kann der Konstrukteur also die realen Werkzeuge an realen Maschinen benutzen, gleichzeitig können die Montageschritte anschaulich und sprachunabhängig vermittelt werden. • Wartung: Durch die zeitaufwändige Suche nach Informationen in gedruckten Bedienungs- und Reparaturanleitungen entstehen hohe Stillstandszeiten bei Maschinen und Anlagen, die häufig hohe Folgekosten verursachen. Erforderlich ist deshalb ein Augmented-Reality-System, das den Servicetechniker situationsgerecht durch komplexe Instandsetzungsprozesse führt (s. Abb. 4.4).
Abb. 4.4 Augmented-Reality-gestützte Wartungsanleitung im Anwendungsszenario von BMW
4.1.3.1 Realisierung und Evaluierung der Augmented-Reality-Technologie Im Rahmen des Projektes ARVIKA wurde mit dem System „AR-Browser“ des Fraunhofer IGD weltweit zum ersten Mal ein Augmented-Reality-System für den industriellen Einsatz (Entwicklung, Produktion, Service) entwickelt. Dabei weist das System die folgenden Funktionalitäten auf:
4.1 Augmented-Reality für industrielle Anwendungen
275
Tabelle 4.1 Funktionalitäten des Augmented-Reality-Systems „AR-Browser“ Augmented-Reality-System „AR-Browser“ Funktionalität
Beschreibung
Integrierbarkeit
Der „AR-Browser“ basiert auf einer Plug-In-Architektur, ist in einen Internet-Browser eingebettet und ermöglicht hierdurch die einfache Integration in die existierende, meist intranetbasierte Infrastruktur der Dokumentationssysteme eines Unternehmens. Flexibilität Der „AR-Browser“ wird über eine einfache Web-Seite gesteuert. Der Endanwender kann dadurch das System schnell auf seine Bedürfnisse anpassen und beispielsweise je nach Anwendung eine passende Oberfläche, d. h. eine passende Web-Seite, generieren, ohne die Software neu kompilieren zu müssen. Telekonsultation Der „AR-Browser“ beinhaltet eine Telekonsultationskomponente. Diese ermöglicht es, einen räumlich entfernten Experten während des Instandsetzungsprozesses hinzuzuschalten. Die LiveAufnahmen der Videokamera werden an den Experten übertragen, Hinweise, die der Experte gibt, werden in Überlagerung mit der Maschine in das Sichtfeld des Servicetechnikers eingeblendet. High-Level-Scripting Der „AR-Browser“ stellt ein offenes System mit einer klar definierten Schnittstelle dar. Er kann über die Programmierungssprache „Java-Script“ konfiguriert werden, um komplexe Szenarien, wie zum Beispiel Reparaturanweisungen abzubilden. Externe Steuerung Der „AR-Browser“ kann über seine Schnittstelle an andere Systeme, wie z. B. Informations- oder Diagnosesysteme, angeschlossen werden und somit ein zusätzliches Bindeglied der Informationskette eines Unternehmens bilden. Computer-Vision-basiertes Der „AR-Browser“ beinhaltet verschiedene „Inside-Out“Tracking Trackingverfahren. Bei diesen Verfahren wird eine Miniaturkamera, die die Sicht des Benutzers einfängt, direkt an der Datenbrille angebracht. Aus dem Kamerabild wird die für die Bildausgabe benötigte Sichtposition und -orientierung im Bezug zur Umgebung genau berechnet. Markerbasiertes Tracking Im markerbasierten Tracking werden binäre Schwarz-WeißMarkierungen an den Maschinen befestigt. Anhand der Echtzeitsegmentierung dieser Marker wird die Position der Kamera des Arg-Systems berechnet. Zusätzlich kann über die Binärcodes der Marker eine Identifizierung der betrachteten Maschinenkomponenten unterstützt werden.
Das AR-System „AR-Browser“ wurde von den beteiligten ARVIKAUnternehmen ausgiebig getestet und evaluiert. Die folgende Tabelle 4.2 zeigt Anwendungs- und Evaluierungsszenarien der ARVIKA-Industrieunternehmen.
276
4 Die 2000er Jahre bis 2006
Tabelle 4.2.1 ARVIKA – Test- und Evaluierungsszenarien im Bereich Entwicklung Augmented-Reality-Abgleich von Simulations- und Testergebnissen (Demonstrator „Crashtest“ von VW)
Kombination von Komponenten aus Serienstand und Entwicklungsstadium (Demonstrator „Technikträger“ von AUDI)
AR-Darstellung von 3D-Felgenmodellen in Überlagerung mit dem realen Auto (Demonstrator „Design Review“ von AUDI)
4.1 Augmented-Reality für industrielle Anwendungen
277
Tabelle 4.2.2 ARVIKA – Test- und Evaluierungsszenarien im Bereich Produktion Augmented-Reality-gestützte Verlegung eines Leitungssystems im A340 (Demonstrator „Montage“ von EADS)
Augmented-Reality zur Validierung eines geplanten Anlagenumbaus (Demonstrator „Fabrikplanung“ von VW)
Augmented-Reality-gestützte Qualitätskontrolle (Demonstrator „Schweißpunkte“ von Ford)
278
4 Die 2000er Jahre bis 2006
Tabelle 4.2.3 ARVIKA – Test- und Evaluierungsszenarien im Bereich Service Augmented-Reality verknüpft mit Telekonsultation (Demonstrator „Remote Expert“ von Index)
Augmented-Reality-gestützte Maschinensteuerung (Demonstrator „Wartung“ von Index)
Augmented-Reality-gestützter Austausch eines Schiebedaches (Demonstrator „Service für Kraftfahrzeuge“ von BMW)
4.1.3.2 Ergebnisse der ARVIKA-Evaluierung Die Ergebnisse einer umfangreichen Evaluierung der ARVIKA-Resultate durch die ARVIKA-Industrieunternehmen können wie folgt zusammengefasst werden: • Entwicklung: Augmented-Reality kann eingesetzt werden, um die zunehmende Modellvielfalt in den Entwicklungsprozessen zu verwalten und kann helfen, die Qualität in der Konstruktion zu verbessern. • Produktion: Augmented-Reality bietet ein erhebliches Potential zur Unterstützung von Arbeitsprozessen in der Produktion und zum Training von komplexen Montageaufgaben.
4.1 Augmented-Reality für industrielle Anwendungen
279
• Service: Viele positive Rückmeldungen der Endanwender konnten im Bereich „Service-Anwendungen“ aufgenommen werden. Gerade für weltweit agierende Unternehmen bietet AR aufgrund der Sprachenunabhängigkeit und der Telekonsultationsmöglichkeit ein sehr großes Potential. Allerdings wurden in der Evaluierung auch wesentliche Einschränkungen der Technologie identifiziert, die einem produktiven routinemäßigen Einsatz entgegenstehen. Hier wurden vor allen Dingen die folgenden Bedarfe aufgeführt: • Für den Einsatz von Augmented-Reality-Technologien in rauen Industrieumgebungen (Verschmutzung, schlechte Beleuchtung etc.) sind instrumentierungsfreie Tracking-Verfahren unabdingbar. • Für einen routinemäßigen Einsatz müssen AR-Geräte nach technischen und ergonomischen Gesichtpunkten verbessert werden. Um hier Lösungen zu erforschen und zu entwickeln, wurde als Nachfolgeprojekt zu ARVIKA das Projekt „ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications“ initiiert und vom BMBF im Zeitraum 2004 bis 2006 gefördert. Dazu haben sich die industriellen Unternehmen Siemens, BMW, Zeiss und Metaio mit den Forschungspartnern Fraunhofer IGD, Universität Kiel und RWTH Aachen im ARTESAS-Konsortium zusammengeschlossen.
4.1.4 ARTESAS – Advanced Augmented Reality Technologies for Industrial Service Applications Durch das ARTESAS-Projekt konnte der deutsche Vorsprung in der Forschung und der Industrie im Umfeld der AR-basierten Technologien weiter gesichert und der Breiteneinsatz im industriellen Umfeld weiter vorbereitet werden. Ziel war es, schwerpunktmäßig neue Technologien für Tracking und AR-Geräte zu erforschen und zu evaluieren. Dabei wurden die folgenden Forschungsergebnisse erzielt: • Instrumentierungsfreies Tracking Das Trackingverfahren ist dafür verantwortlich, dass virtuelle 3D-Modelle in Relation zur realen Umgebung örtlich fixiert werden. Dazu ist es erforderlich, die Position der Videokamera in Echtzeit zu registrieren und mit der Position der virtuellen Kamera abzugleichen. Das Trackingverfahren soll dabei in weiten Arealen, im Freien und unter sich verändernden Lichtbedingungen zuverlässig sein. Ebenso sollen in der realen Umgebung keine Marker (z. B. Schwarz-Weiß-Bilder) eingebracht werden, da dieses Vorgehen in den meisten Anwendungsfällen nicht praktikabel ist. Zur Verarbeitung der visuellen Informationen werden die Live-Bilder der Videokamera in Echtzeit verarbeitet. Natürliche Merkmale der realen Umgebung werden in den Videobildern registriert und verfolgt. Diese Landmarkenidentifikation basiert auf der Verwendung von Punkt- und Kantendetektoren. Mit Hilfe der identifizierten Landmarken auf den zweidimensionalen Kamerabildern wird die Position der Kamera im
280
4 Die 2000er Jahre bis 2006
dreidimensionalen Raum rekonstruiert. Hier werden Verfahren aus der Epipolargeometrie eingesetzt. Landmarken werden entweder in Bezug zu vorherigen Videobildern gesetzt (frame-to-frame tracking) oder sie werden mit einem digitalen 3D-Modell der realen Umgebung korreliert. Das digitale 3D-Modell der Umgebung wird in einem Vorverarbeitungsschritt erstellt. Grundlagen hierfür sind etwa 3D-CAD-Modelle der Maschinen (siehe Abb. 4.5). • Augmented-Reality-Display Da bisher keine kommerziell erhältliche Datenbrille („Head-worn-Display – HWD“) nach ergonomischen Kriterien eine zufrieden stellende Lösung ergab, musste ein völlig neuartiger HWD-Ansatz herausgearbeitet und verfolgt werden. Die in ARTESAS entwickelten Geräte bestehen aus einem seitlich an einem Brillengestell angebrachten „Projektor“, dessen Licht über einen vor dem Auge bzw. Brillenglas angeordneten Strahlkombinierer in das Auge eingespiegelt wird. Dieses Konzept vereinigt durch die hauptsächlich seitliche Anbringung die Vorteile der guten, weit hinten liegenden, Schwerpunktslage mit einer beinahe uneingeschränkten Sicht in die Umgebung (siehe Abb. 4.6).
Abb. 4.5 Markerloses Tracking mit Hilfe von Kanten- und Punktdetektoren (li.: Featurepunkteund -kanten, re.: AR-Visualisierung)
Abb. 4.6 Demonstratoren für die Head-worn-Displays von Zeiss
4.1 Augmented-Reality für industrielle Anwendungen
281
4.1.5 Nachhaltigkeit der Ergebnisse aus heutiger Sicht in der Wissenschaft und in der Anwendung Mit den Forschungsprojekten ARVIKA und ARTESAS wurden die wesentlichen Grundlagen für die Verwertung von Augmented-Reality-Technologien geschaffen. Um die Forschungs- und Verwertungsinitiativen über diese BMBF-Projekte hinaus voranzubringen, haben sich ARVIKA-Unternehmen, aber auch Unternehmen, die bislang nicht an den BMBF-Projekten beteiligt waren, inzwischen in einem „Industriekreis Augmented-Reality“ zusammengeschlossen. Der Industriekreis umfasst Unternehmen aus den Bereichen „Automobilbau“ (z. B. VW, Daimler, BMW, AUDI), Flugzeugbau (z. B. EADS, Airbus), „Maschinen-/Anlagenbau“ (z. B. INDEX, Hüller Hille), „Automatisierung“ (z. B. Siemens, Rittal) und Robotik (z. B. KUKA), aber auch Unternehmen, die Software- (z. B. VR-Com) und Hardwaresysteme (z. B. Zeiss, ART) für Augmented-Reality-Anwendungen vertreiben. Ebenso können mit der metaio GmbH und der Carl Zeiss Mobile Optics GmbH zwei SpinOff-Unternehmen angeführt werden, die direkt auf ARVIKA/ARTESAS zurückgeführt werden können. Weitere Spin-Off-Ausgründungen von Fraunhofer IGD und Universität Kiel sind derzeit in Vorbereitung. Auch aus wissenschaftlicher Sicht konnten durch die Projekte ARVIKA und ARTESAS wesentliche Ergebnisse erzielt werden, die neue Forschungslinien initiiert haben. Denn die Verschmelzung von Computer-Vision zur Datenerfassung und Computergraphik zur kontextbezogenen Informationsvisualisierung konnte im Paradigmum der „Ambient Intelligence“ verallgemeinert werden: An die Stelle von Computer-Vision-Verfahren, durch die die Situationen und die Aktionen der Benutzers erfasst werden, treten hier multimodale Sensornetzwerke, und anstelle des Augmented-Reality-Displays treten hier vernetzte Ausgabegeräte. Diese Verallgemeinerung kann das Potential für die Entwicklung von MenschMaschine-Schnittstellen maßgeblich erweitern, und sie wird unsere Zukunft nachhaltig beeinflussen.
Literatur [1] Friedrich, W. (Hrsg.): ARVIKA – Augmented Reality für Entwicklung, Produktion und Service, Publicis, 2/2004. [2] Azuma, R.; Baillot, Y.; Behringer, R.; Feiner, S.; Julier, S.; MacIntyre, B.: Recent Advances in Augmented Reality. IEEE Computer Graphics and Applications 21, 6, 34–47, Nov/Dec 2001. [3] Hamadou, M.; Jahn, D. und Weidenhausen, J.: ARVIKA – Augmented Reality für Entwicklung, Produktion und Service. i-com, 4–10, 2/2002. [4] Genc, Y.; Riedel, S.; Souvannavong, F.; C. Akinlar, C.; Navab, N.: Marker-less Tracking for AR: A Learning-Based Approach. Proc.: ISMAR 2002.
282
4 Die 2000er Jahre bis 2006
[5] Edelmann, M.; Malzkorn-Edling, S.; Rottenkolber, B.; Schreiber, W.; Alt, T.: Ergonomics of Head Mounted Displays and Studies About Effects on Eye Physiology and Well-Being. In: Proceedings of the 6th International Scientific Conference on Work With Display Units WWDU 2002, pp. 382–383, 2002. [6] Stricker, D.; Klinker, G.; and Reiners, D.: A fast and robust line-based optical tracker for augmented reality applications. In: First International Workshop on Augmented Reality. Springer-Verlag, 1998. [7] You, S.; Neumann, U. und Azuma, R.: Hybrid Inertial and Vision Tracking for Augmented Reality Registration. Hybrid Inertial and Vision Tracking for Augmented Reality Registration, in Proc. of IEEE VR‘99, pp. 260–267, 1999. [8] State, G. Hirota; Chen, D.T.; Garrett, B. und Livingston, M.: Superior Augmented Reality Registration by Integrating Landmark Tracking and Magnetic Tracking, pp. 429-438, Proc. Siggraph ‘96. [9] Azuma, R.T.; Hoff, B.R., III; Neely, H.E.; Sarfaty, R.; Daily, M.J.: Making Augmented Reality Work Outdoors Requires Hybrid Tracking. Proceedings of the First International Workshop on Augmented Reality. San Francisco, CA, 1998.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
283
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588 „Humanoide Roboter“ der DFG (2001–2008)
Rüdiger Dillmann (Universität Karlsruhe (TH))
4.2.1 MORPHA – Motivation und Ausgangslage Die Entwicklung der Servicerobotik seit Mitte der neunziger Jahre des 20. Jh. bis heute ist geprägt durch weltweite Anstrengungen, Roboter aus ihren eingeschränkten Einsatzfeldern in der Industrie für flexible Alltagsumgebungen tauglich zu machen. Insbesondere waren dazu fundamentale Verbesserungen der MenschRoboter-Schnittstelle notwendig [2]. Im Leitprojekt Neuros (Neural Robot Skills) förderte das Bundesministerium für Bildung und Forschung (BMBF) von 1995–1999 die Entwicklung lernfähiger Steuerungskonzepte autonomer Robotersysteme. Es wurden autonome Roboter entwickelt und mit der Fähigkeit zur Navigation in nichttrivialen Umgebungen ausgestattet, wie sie zum Beispiel im privaten Haushaltsumfeld oder in Fabrikhallen nötig sind. Zusätzlich wurde das Leitprojekt Inservum (Intelligente ServiceUmgebungen) von 1996–1999 gefördert, mit dem Ziel, Funktionalität zur Arbeitsraumüberwachung und Aktionsunterstützung zu entwickeln. Dies wurde im Wesentlichen am Szenario eines Tankroboters, der das Tanken für den Fahrer komfortabler gestaltet, sowie eines Service-Lifts demonstriert, welcher in der Pflegeunterstützung eingesetzt werden kann, um eine Person aus einem Krankenbett in einen Rollstuhl und umgekehrt zu heben. Im Rahmen von Sonderforschungsbereichen der Deutschen Forschungsgemeinschaft (DFG) befasste sich der Sonderforschungsbereich (SFB) 331 „Informationsverarbeitung in autonomen, mobilen Handhabungssystemen“ an der TU München von 1984–1997 mit der Weiterentwicklung von mobilen Systemen in Fertigungs- bzw. Büroumgebungen. Im Vordergrund stand dabei die Entwicklung autonomer Systeme. Die Autonomie dieser Systeme basierte dabei auf folgenden Eigenschaften: auf der Nutzung von A-priori-Wissen zur selbständigen Aufgabenplanung, dem Einsatz verdichteter Multi-Sensor-Informationen über die Umgebung zum aufgabengerechten Reagieren und/oder Umplanen bei Veränderung sowie auf Aufbereitung, Austausch und gemeinschaftlicher kooperativer Nutzung der von verschiedenen autonomen, mobilen Systemen gesammelten Information. Hierzu gehörten Systeme zur Handhabung, zur flächendeckenden Bearbeitung und Bodenreinigung sowie Systeme zur sensoriellen Erfassung der Umwelt.
284
4 Die 2000er Jahre bis 2006
Im Rahmen des SFB 360 „Situierte künstliche Kommunikatoren“ an der Universität Bielefeld wurde von 1993–2005 untersucht, welche Fähigkeiten des Menschen, hier als natürlicher Kommunikator bezeichnet, Anlass dazu geben, sein Verhalten bei der Lösung einer Montageaufgabe mit einem Partner als intelligent zu bezeichnen. Andererseits wurde versucht, die dabei gewonnenen Einsichten über Prinzipien intelligenten Verhaltens für die Konstruktion künstlicher Systeme, also Computerprogramme oder Roboter, nutzbar zu machen. Solche künstliche Kommunikatoren sollen als Fernziel die Rolle eines Partners des Menschen bei der Bewältigung von Montageaufgaben übernehmen können. Auf kürzere Sicht erlauben sie eine genauere Untersuchung der Intelligenzleistungen des Menschen. Viele dieser Leistungen laufen automatisch ab und erst der Versuch einer künstlichen Nachbildung bringt klar ans Licht, welche intelligenten Leistungen zur Bewältigung einer Montageaufgabe erforderlich sind. Im SFB 453 „Wirklichkeitsnahe Telepräsenz und Teleaktion“ (Laufzeit von 1999–2007), an dem die Technische Universität München, das Deutsche Zentrum für Luft- und Raumfahrt in Oberpfaffenhofen sowie die Universität der Bundeswehr in München beteiligt sind, soll es einem menschlichen Operator durch technische Mittel ermöglicht werden, mit seinem subjektiven Empfinden in einer anderen, entfernten oder nicht zugänglichen Remote-Umgebung präsent zu sein. Ziel des Sonderforschungsbereichs ist es, Barrieren zwischen dem Operator und dem Teleoperator auf der anderen Seite zu überwinden. Barriere kann dabei die Entfernung, aber auch die Skalierung (Telepräsenz im Kleinen – z. B. minimal invasive Chirurgie, Mikromontage – oder im Großen) sein. Neben den visuellen und akustischen Sinneseindrücken werden insbesondere haptische Eindrücke benötigt: Sowohl taktile (Druck, Temperatur, Rauigkeit, Vibrationen...) als auch kinästhetische (Propriozeptoren, Trägheitseffekte, Schwerkraft) Kanäle werden eingesetzt, um den Realitätseindruck zu verbessern. Seit 2003 erforscht der SFB-TR „Raumkognition: Schlussfolgern, Aktion, Interaktion“ an den Universitäten Bremen und Freiburg die Akquisition, Organisation, Nutzung und Adaption von Wissen über räumliche Umgebungen, reale oder abstrakte, von Menschen und Maschinen. Forschungsfelder reichen von der Erforschung menschlicher räumlicher Wahrnehmung bis zur Navigation mobiler Roboter. Forschungsziel ist es, die kognitiven Grundlagen für menschzentrierte räumliche Assistenzsysteme zu schaffen. Die Leitidee des Verbundvorhabens MORPHA (Intelligente anthropomorphe Assistenzsysteme) war es, intelligente mechatronische Systeme, insbesondere Robotersysteme, mit leistungsstarken Kommunikations-, Interaktions- und Verhaltensmechanismen auszustatten [25, 26]. Diese sollten die Systeme befähigen, mit dem menschlichen Benutzer unter dessen Anleitung und Kontrolle zu kooperieren und ihm zu assistieren [9, 11, 12, 13]. Sie orientierten sich an der menschlichen Gestalt ebenso wie an den menschlichen Sinnen. Der Begriff „anthropomorph“ war also weiter gefasst als im üblichen Sprachgebrauch. Er sollte für das Projekt MORPHA als „menschenähnlich“ im weitesten Sinn verstanden werden und auch die menschlichen Sinne umfassen.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
285
Neben der Sprache stellte die visuelle Kommunikation, beispielsweise über Gesten, ein wichtiges Thema des Vorhabens dar [5, 8, 19]. Diese Form der Kommunikation erleichtert die Kontrolle und Kommandierung sowie die „Belehrung“ und „Programmierung“ der Assistenzsysteme erheblich. Ein weiterer menschlicher Sinn, der in die Interaktion zwischen Mensch und Maschine mit einbezogen werden sollte, war das „Fühlen“, also das Wahrnehmen und Reagieren auf Kräfte [20]. 4.2.1.1 MORPHA – Das Konsortium Das MORPHA-Konsortium bestand aus sechzehn Partnern aus Universitäten und Industrie. Die Projektleitung wurde von der Delmia GmbH (Bruno Wolfer) übernommen, einem Tochterunternehmen der französischen Dassault Systems. Die GPS (Gesellschaft für Produktionssysteme, Erwin Prassler) unterstützte in der Projektkoordination und Administration. Die beiden Industriepartner DaimlerChrysler und Siemens hatten die Verantwortung für die Demonstrationsszenarien „Der Produktionsassistent“ bzw. „Der Assistent im Haushalts- und Pflegebereich“ übernommen. Die Hauptforschungsgebiete waren „Mensch-Maschine-Kommunikation“, „Szenenanalyse“, „Bewegungs- und Handlungsplanung“, „Belehrung und Adaptivität“ und „Sicherheit und Wartung“. Diese wurden geleitet von den Partnern DLR, Ruhr-Universität Bochum, Universität Karlsruhe (TH), FAW Ulm und Fraunhofer IPA. Die Entwicklung von Prototypen und Anwendungen von wirtschaftlicher Bedeutung, die eine Evaluation und Bewertung der wissenschaftlichen Resultate erlauben, war primär Aufgabe der Industriepartner Astrium, Amtec, Delmia, Graphikon, Kuka Roboter, Reis Robotics, Propack Data, Zoller + Fröhlich. 4.2.1.2 MORPHA – Wissenschaftliche Lösungsansätze und Kernthemen Die grundlegenden Herausforderungen für die kollaborative Lösung von Aufgaben durch das „Team“ Mensch-Roboter ist unabhängig von der speziellen Anwendung. Im Folgenden werden die Forschungsthemen, die nicht nur für die zu Grunde gelegten Einsatzszenarien, sondern weit darüber hinaus von Relevanz sind, vorgestellt. Gleichzeitig stellten diese Themenkomplexe die Kernforschungsgebiete des MORPHA-Projekts dar. Kanäle der Mensch-Maschine-Kommunikation Aus dem Ziel einer effektiven Interaktion zwischen Benutzer und Assistenzsystem ergibt sich die Notwendigkeit, eine Reihe von breitbandig nutzbaren und teilweise redundanten Kommunikationskanälen bereitzustellen. Dabei ist die Integration klassischer Schnittstellen wie grafischer Ein- und Ausgabe, neuer Schnittstellen wie Sprache und visueller Interaktion und manipulationsorientierten Schnittstellen über taktile und Kraft-/Momentensensoren für die Problemstellung unverzichtbar.
286
4 Die 2000er Jahre bis 2006
Abb. 4.7 Kommunikation mit MobMan über taktile Hilfestellung
Zugleich muss das Assistenzsystem zumindest in den visuellen und kraftorientierten Kanälen in der Lage sein, zwischen der Benutzerkommunikation und der sich aus der Manipulationsaufgabe selbst ergebenden Dynamik zu differenzieren [12, 23, 24, 27]. Die Arbeiten im Bereich der Mensch-Maschine-Kommunikation und ihrer einzelnen Kanäle umfassten die folgenden Querschnittsfunktionen: • die grafische Ein- und Ausgabe und Visualisierung von Zuständen und Abläufen, • die Sprachein-/ausgabe, einschließlich Dialogführung für Statusmeldungen und Rückfragen, • die Eingabe über Gestik und Mimik zum „Vormachen“ oder zur Kommandierung über Zeigegesten, • den Einsatz kraftreflektierender Eingabegeräte, taktiler und Kraft-/Momentensensorik zum Führen, Vormachen, Korrigieren etc. und • die Fusion verschiedener Informationskanäle, inklusive geeigneter Behandlung von Redundanz und unvollständiger Information [4]. Szenenanalyse und Interpretation Eine Szenenanalyse für anthropomorphe Assistenzsysteme muss im Wesentlichen auf bekannten Methoden der 3D-Analyse mittels visueller Sensorik – Kameras
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
287
und Laserscannern – aufbauen. Diese müssen den Arbeitsbereich analysieren und geeignet repräsentieren und insbesondere alle Aktionen des menschlichen Partners verfolgen. Eine besondere Rolle spielen hierbei Sicherheitsaspekte, sowohl im allgemeinen Sinne einer zuverlässigen Detektion und Verfolgung des Menschen, z. B. zur Kollisionsvermeidung, sowie zur Detektion besonders kritischer Situationen wie beispielsweise der Interaktion im selben Arbeitsraum. Forschungsaufgaben lagen zum einen in der aufgabenabhängigen Interpretation komplexer Szenen, die es ermöglicht, z. B. aus Relationen von Objekten zueinander bestimmte Manipulationsfolgen abzuleiten, zum anderen in der Analyse von Bewegungen insbesondere des Menschen und ihrer Interpretation im Sinne von Handlungsabläufen. Beides zusammen ist eine wesentliche Voraussetzung für eine effektive Interaktion zwischen Menschen und Roboterassistenten. Wesentliche Querschnittsfunktionen der Szenenanalyse waren [10, 15, 17, 18, 22]: • die Erkennung räumlich-zeitlicher Zusammenhänge, • die (statische) Szenen- und Kontextanalyse, • die Identifizierung des Interaktionspartners Mensch und die Erkennung seiner Bewegungen, Gestik und Mimik als Beitrag zur Systemsicherheit und im Sinne der Kommunikation, • die Analyse von Interaktionsmustern, • die Erkennung kritischer Situationen in Bezug auf Sicherheitsaspekte, • das Erkennen der Intention des Benutzers, • das Lösen von Erkennungsaufgaben unter Beteiligung des Menschen, z. B. durch Rückmeldungen, Rückfragen, das Einbeziehen von Hilfestellungen wie Zeigen etc. und • das interaktive Lernen von Umweltmodellen. Bewegungsplanung und -koordination, interaktive Handlungsplanung Das arbeitsteilige Zusammenwirken zwischen einem Menschen und einer sich selbständig bewegenden und handelnden Maschine stellt eine Form der Interaktion dar, die nicht nur auf Kommunikation und Informationsaustausch basiert, sondern auch Bewegungs- und Handlungsabläufe involviert. Diese Bewegungsabläufe und Handlungen der beiden Agenten Mensch und Maschine müssen geplant, koordiniert und gegebenenfalls wechselseitig adaptiert werden. In MORPHA wurden dazu Bewegungsabläufe, die einen direkten physikalischen Kontakt zwischen Mensch und Maschine involvieren, weiträumige Bewegungskoordination und die koordinierte Planung und Ausführung von Handlungsabläufen aus Bewegungen und Manipulation betrachtet. Bewegungsplanung und -koordination und interaktive Handlungsplanung umfasste folgende Querschnittsfunktionen [1, 21, 28, 29]: • die Gestaltung direkter physischer Interaktion/Kooperation zwischen Mensch und Maschine, z. B. Nachgeben (compliance), unter Rückgriff auf bildgebende Sensoren bzw. Kraft-/Momentensensoren (Softrobotik), • anthropomorphes Greifen und Manipulieren,
288
4 Die 2000er Jahre bis 2006
• die Bewegungskoordination zwischen Mensch und Maschine (kontextabhängige Bewegungsmuster, z. B. Annähern, Ausweichen, Folgen, Reichen von Objekten), • sicheres Verhalten von Robotern unter Menschengruppen, • interaktive Handlungsplanung mit Rückkopplung des Benutzerverhaltens und • Aufgabenbeschreibungssprache für Interaktion und Kooperation Mensch-Maschine. Belehrung und Adaptivität Effektive Assistenz erfordert Eigenintelligenz der Maschine. Diese ist nur in beschränktem Maße über vordefinierte Funktionalitäten erreichbar. Wesentlich ist daher die Fähigkeit des Assistenzsystems, auf allen Ebenen belehrbar und lernfähig zu sein. Dies umfasst das Programmieren von Einzelbewegungen, die Anpassung vordefinierter, generischer Fertigkeiten (Skills) z. B. durch visuelle Kommandierung und schließlich das Belehren kompletter Handlungsfolgen (Makroskills) zur Ausführung einer Aufgabe. Gleichzeitig soll das System in der Lage sein, Bewertungen von Handlungsresultaten aus eigener Erfahrung zur Adaption und Verbesserung des bestehenden Wissens einzusetzen. Solche Bewertungen können ihrerseits
Abb. 4.8 DLR-Arm mit physikalischer Interaktion dank Kraft-/Momentensensoren
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
289
Abb. 4.9 Analyse und Lernen von Greiffähigkeiten aus Benutzerdemonstrationen
erlernt oder aber durch den Benutzer über geeignete Informationskanäle vermittelt werden. Querschnittsfunktionen im Bereich Belehren und Lernen waren [6, 9, 30]: • das Programmieren von Bewegungsabläufen durch Vormachen über kraftgekoppeltes Führen, visuelles Führen oder kraftreflektierende Eingabegeräte, • die visuelle Kommandierung, z. B. durch Referenzierung von Objekten in Bezug auf generische Skills, • das Lehren und Lernen sensomotorischer Skills wie z. B. Greifen, • das Lernen generischer Handlungen und Handlungsabläufe (Makroskills) sowie • die Entwicklung einer entsprechend angepassten Lernmethodik. Sicherheit, Wartung und Diagnose Der Einsatz von komplexen Assistenzsystemen, die unmittelbar mit dem Menschen zusammenarbeiten sollen, stellt naturgemäß erhöhte Anforderungen an die Systemsicherheit und Wartbarkeit. Ein geeignetes Sicherheitskonzept muss sowohl die Integrität des Systems als auch die Unversehrtheit seiner Umwelt berücksichtigen. Externe Ereignisse sowie interne Fehlerzustände müssen vom System als Sicherheitsrisiken erkannt und in Klassen von Gefährdungen eingeordnet werden [16, 36, 37]. Die Fähigkeit zu einer weit reichenden Autodiagnose ist nicht nur hinsichtlich der Sicherheit des Systems von Bedeutung, sondern auch, um den ungeschulten Benutzer in geeigneter Weise bei der Fehlerbehebung zu unterstützen. Weder bei dem
290
4 Die 2000er Jahre bis 2006
Szenario Haushaltsassistent noch dem des Produktionsassistenten ist davon auszugehen, dass das Assistenzsystem vom Benutzer selbst gewartet wird oder dass geschultes Wartungspersonal verfügbar ist. Die Wartung eines Systems erhebt daher die Notwendigkeit, geeignete Wege zur Telediagnose und -wartung zu untersuchen. Intelligente Roboterassistenten müssen in der Lage sein, im Fehlerfall Systemzustände und deren Zustandekommen zu erläutern, entsprechende Maßnahmen zur Fehlerbehebung zu empfehlen, Fehlerzustände nach Möglichkeit selbst zu beseitigen oder durch geeignete Gegenmaßnahmen zu kompensieren (error recovery). 4.2.1.3 MORPHA – Die Szenarien Beispiele für neue Anwendungsmöglichkeiten der Ergebnisse von MORPHA wurden im Projekt anhand zweier repräsentativer Szenarien vorgestellt. Die entwickelten Verfahren sowie die dazu notwendigen Schnittstellen zur Kommunikation, Interaktion und Kollaboration wurden im Rahmen dieser Anwendungen demonstriert und evaluiert. Die verwendeten Szenarien umfassten die Anwendung von Servicerobotern zur Unterstützung und Assistenz in Produktionsumgebungen sowie im häuslichen Umfeld. Der Produktionsassistent Durch mobile Assistenzsysteme in der Produktion (Produktionsassistent) wurde eine neue Qualität in der Verbesserung von Produktionsprozessen hinsichtlich Produktivitätssteigerung und Humanisierung von Arbeitsplätzen erzielt. Produktionsassistenten erledigen Aufgaben in Interaktion mit dem Menschen, d. h. der Mensch wird nicht ersetzt, sondern unterstützt. Der Mensch übernimmt dazu Kommandierungs-, Überwachungs- und Belehrungsfunktionen [34, 35]. Er wird in Fällen, in denen die Maschine nicht weiterweiß, zur Führung und weiteren Belehrung eingreifen und ist Partner im arbeitsteiligen Fertigungsprozess. In einem Produktionsszenario wird der Produktionsassistent den Menschen bei Handlanger-, Transport- und Inspektionsaufgaben in einer typischen komplexen Fertigungsumgebung mit Werkzeugmaschinen, Förderbändern, Lagern usw. unterstützen. Eine typische Aufgabe ist das Greifen von Teilen aus Behältern, der Transport zu einer Werkzeugmaschine, zu einem Montagearbeitsplatz, das Assistieren bei der Montage oder der Transport zu einem Inspektions- bzw. Messplatz. Eine beispielhafte Aufgabenkette, die vom technischen System und dem Menschen arbeitsteilig bewältigt wird, sieht also folgendermaßen aus: • • • • • •
Entnahme von komplexen Werkstücken aus Behältern, Transport des Werkstücks zu einer Bearbeitungsstation, Bereitstellen der Bearbeitungswerkzeuge, Realisierung mehrerer Bearbeitungsvorgänge, Montage, d. h. Fügen und Befestigen mehrerer Werkstücke und Abtransport des Werkstückes.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
291
Um eine derartige Aufgabe in der sich oft ändernden Fabrikumgebung bei variablen Positionen von verschiedenen Transportkisten, bei Werkstücken mit unterschiedlicher Gestalt und Gewicht in beliebigen Lagen in der Transportkiste und für unterschiedliche Werkzeugmaschinen bzw. Zielobjekte bewerkstelligen zu können, ist ein Höchstmaß an Flexibilität erforderlich. Diese Flexibilität kann nur durch die Belehrung der Maschine in Interaktion mit dem Menschen erzielt werden, indem der Mensch • dem Produktionsassistenten die Fertigungsumgebung durch Herumführen des Roboters und Benennung ausgezeichneter Plätze zeigt, und die Maschine damit ein Modell der Umgebung lernt als Basis für die freie, zielgerichtete Navigation für Transportaufgaben, • dem Produktionsassistenten Objekte wie Transportkisten, Werkstücke und Werkzeugmaschinen zeigt und benennt, und die Maschine damit eine Repräsentation dieser Objekte lernt, • dem Produktionsassistenten Bewegungen im sensorischen Kontext, z. B. zum Andocken an Transportkisten und zum Greifen von Teilen vormacht, und die Maschine damit sensomotorische Fähigkeiten (Skills) lernt, und indem er komplexe Operationsfolgen vormacht und die Maschine damit Handlungspläne lernt, • der Maschine das Lernen der Kooperation beibringt, damit die Maschine die Intentionen des Menschen erkennen bzw. schätzen kann und diese in ihre Planungen und Handlungen mit einbezieht. Diese interaktive, intuitive Belehrung der Maschine durch Zeigen und Vormachen für Funktionen wie Mobilität und Manipulation bildet die Basis für intelligentes
Abb. 4.10 Aufbau des Produktionsassistenten bei DaimlerChrysler
292
4 Die 2000er Jahre bis 2006
Verhalten des Produktionsassistenten. Diese Belehrung muss sowohl vor als auch während des Betriebs (inkrementelles Lernen) möglich sein. Entscheidend am oben beschriebenen Szenario ist ein möglichst hoher Arbeitsanteil des technischen Assistenten und dessen Fähigkeit, flexibel unterschiedliche Abfolgen unter variablen Randbedingungen zu bewältigen. Der Produktionsassistent muss dabei mindestens zeitweise autonom arbeiten, wodurch er sich von Handlinggeräten unterscheidet. Der Assistent im Haushalts- und Pflegebereich Das Szenario Roboterassistent [14] für Haushalt und Pflege zielte auf den Einsatz robotischer Assistenzsysteme in häuslichen Alltagsumgebungen. Für den Einsatz von Robotern im Haushalt gibt es verschiedene Motivationen: Während einerseits Komfortgesichtspunkte zusammen mit den sich ändernden gesellschaftlichen Rahmenbedingungen für den Einsatz künstlichen Personals im gewöhnlichen Haushalt sprechen, gibt es andererseits eine zunehmende Anzahl von Haushalten, deren Bewohner aus Krankheits- oder Altersgründen einer physischen Unterstützung im Alltag bedürfen. Robotersysteme werden in diesem Umfeld direkt mit dem Menschen zusammenarbeiten, weshalb einer möglichst natürlichen Interaktion von Mensch und Maschine eine zentrale Bedeutung zukommt. Der Roboterassistent im Haushalt soll zum Teil gemeinsam mit dem Menschen einfache Hausarbeiten verrichten [33]. Dies sind neben Hol- und Bringdiensten Aufgaben wie das Tischdecken oder einfache Reinigungsaufgaben. Er muss sich dazu in den verschiedenen Räumen einer Wohnung bewegen können, ohne mit Menschen oder Mobilar zu kollidieren. Die Interaktion mit dem Assistenzsystem erfolgte in MORPHA zum einen zum Zweck der Kommandierung und Belehrung des Roboters [19, 38], zum anderen bot sie auch interessante Möglichkeiten zur Leistungssteigerung des Gesamtsystems. Vorherige Robotersysteme kamen in der Regel mit der hohen Komplexität und dem Variantenreichtum von Alltagsumgebungen nur ansatzweise zurecht. Diese stellen hohe Anforderungen an die Intelligenz und Autonomie, welche mit dem vorherigen Stand der Technik nicht vollständig befriedigt werden konnten. Ein Mindestmaß an Interaktionsfähigkeit bietet jedoch dem System eine Möglichkeit, sich Hilfestellungen des Bedieners nutzbar zu machen, um seine direkt verfügbare Kompetenz zu erweitern. Voraussetzung dafür war allerdings, dass die Kommunikation für den Bediener einigermaßen natürlich ist und von ihm somit nicht als Last empfunden wird [7]. Als dem Menschen entsprechende natürliche Kommunikationskanäle boten sich im Projekt MORPHA vor allem Sprache und Gestik an. Es wurde dementsprechend davon ausgegangen, dass die Interaktionspartner des Roboters sich zumindest über Sprache und Gesten äußern können. Die Interaktion konnte weiterhin über ein spezielles, multimodales Bediengerät laufen, wobei eine Interaktion auch aus Nachbarräumen möglich war. Neben Sprache und Gesten fand in manchen Situationen auch eine direkte physische Interaktion statt, beispielsweise konnte der Roboter zu Zwecken der Belehrung vom Bediener geführt werden.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
293
Abb. 4.11 Serviceroboter „Care-O-Bot“ aus MORPHA (© Fraunhofer IPA)
4.2.1.4 Nachhaltigkeit und Fortführung der Ansätze und Ergebnisse von MORPHA Die an dem Vorhaben beteiligten Unternehmen hatten ein vitales Interesse, die erarbeiteten Ergebnisse zügig in neue Produkte und Produktfamilien umzusetzen. Dazu zählten neue Programmier- und Bedienkonsolen, Personenerkennungs- und intelligente Raumüberwachungssysteme bis hin zu intelligenten Steuerungen für unterschiedlichste mechatronische Systeme. Langfristig ebnete MORPHA den Weg für neuartige Assistenzsysteme in der Produktion ebenso wie im Bereich Haushalt und Pflege. Beispiele sind Handhabungs-, Montage-, Mobilitäts- und Reinigungshilfen oder mechatronische Assistenten im Bereich Rehabilitation. In der Projektlaufzeit wurden im Umfeld von MORPHA vier Spin-OffUnternehmen bzw. Tochterunternehmen gegründet. Es konnten mehr als 35 neue
294
4 Die 2000er Jahre bis 2006
Arbeitsplätze geschaffen werden. Ergebnisse und Erkenntnisse aus dem Projekt flossen in die Entwicklung von 12 Spin-Off-Produkten ein. Die während der Laufzeit des MORPHA-Projektes erzielten Ergebnisse wurden in mehreren deutschen Projekten fortentwickelt und weitergeführt. Zu nennen ist hier der Sonderforschungsbereich 588 „Humanoide Roboter“ und die Deutsche Servicerobotik-Initiative (DESIRE).
4.2.2 SFB 588 „Humanoide Roboter“ (2000–2012) Seit dem 1. Juli 2001 ist der SFB der DFG 588 „Humanoide Roboter – Lernende und kooperierende multimodale Roboter“ an der Universität Karlsruhe (Sprecher Rüdiger Dillmann) etabliert [3, 31]. Ziel dieses Projekts ist es, Konzepte, Methoden und konkrete mechatronische Komponenten für einen humanoiden Roboter zu entwickeln, der seinen Arbeitsbereich mit dem Menschen teilt. Mit Hilfe dieses eigens zu entwickelnden „teilanthropomorphen Robotersystems“, soll der Schritt aus dem Roboterkäfig und damit der direkte Kontakt zum Menschen realisiert werden. Um vom Menschen akzeptiert zu werden und gemeinsam mit dem Menschen agieren zu können, ist eine zumindest menschenähnliche Gestalt des Roboters von Vorteil. Dafür soll ein mobiles Zweiarmsystem mit fünffingrigen Händen, einem
Abb. 4.12 Teilhumanoider Assistenzroboter Armar II des „SFB 588 – Humanoide Roboter“
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
295
flexiblen Torso sowie einem Sensorkopf mit visuellen und akustischen Sensoren entwickelt werden. Außerdem soll das Bewegungssystem und damit das Verhalten des Roboters auf menschenähnliche Bewegungen zugeschnitten werden. Hinter dem Begriff Multimodalität verbergen sich die für den Menschen intuitiven Kommunikationskanäle wie Sprache, Gestik und Haptik (physischer Kontakt Mensch-Roboter), die für die direkte Kommandierung oder Belehrung des Robotersystems genutzt werden sollen. Bei der Kooperation zwischen Mensch und Roboter – zum Beispiel bei der gemeinsamen Manipulation von Gegenständen – ist es für den Roboter wichtig, die menschliche Absicht zu erkennen, sich an bereits gemeinsam durchgeführte Handlungen zu erinnern und dieses Wissen im Einzelfall korrekt anzuwenden. Da die Sicherheit für den Menschen eine ganz wesentliche Rolle spielt, wird mit großem Aufwand auch dieser Aspekt der Mensch-Maschine-Kooperation bearbeitet. Als herausragende Eigenschaft ist die Lernfähigkeit des Systems hervorzuheben, da hierdurch das System an neue, bisher unbekannte Aufgaben herangeführt werden kann; neue Begriffe und neue Gegenstände, sogar neue Bewegungen werden mit Hilfe des Menschen erlernbar und können von dem Benutzer interaktiv korrigiert werden. An diesem der Fakultät für Informatik zugeordneten Sonderforschungsbereich sind mehr als 40 Wissenschaftler und 13 Forschungsinstitute beteiligt. Diese gehören den Fakultäten für Informatik, Elektrotechnik und Informationstechnik, Maschinenbau und Sportwissenschaften sowie dem Forschungszentrum Karlsruhe, dem Forschungszentrum Informatik und der Fraunhofer-Gesellschaft (IITB) an.
4.2.3 DESIRE – Deutsche Servicerobotik-Initiative (2005–2008) Mit dem Verbundprojekt DESIRE hat sich das BMBF zusammen mit insgesamt 14 Partnern aus Industrie und Forschung (Federführer Fraunhofer IPA, Dieter Schraft) das Ziel gesetzt, die Führungsrolle der deutschen Servicerobotik zu erhalten und auszubauen [32]. Konkrete Vorhabensziele sind dabei: • Technologiesprung in Richtung alltagstauglicher Schlüsselfunktionen und -komponenten, • Schaffung einer Referenzarchitektur, • Konvergenz der Technologien über eine Technologieplattform und • neue Spin-Offs und Produkte. DESIRE konzentriert sich dabei auf zwei Schwerpunkte: methodische Grundlagen der Servicerobotik und Anwendungen dieser Grundlagen im Bereich Alltag. Der Vorhabensteil „DESIRE-Grundlagen“ adressiert wissenschaftliche Querschnittsthemen wie Architektur, Modelle und Ontologien, Mechatronik, Manipulation, Wahrnehmung und Interaktion, während der Vorhabensteil „DESIRE-Alltag“ auf die Integration und Evaluierung dieser Grundlagen in einer gemeinsamen Technologieplattform und weiteren spezifischen Anwendungen abzielt.
296
4 Die 2000er Jahre bis 2006
Durch eine detaillierte Analyse der Anwendungen wurden bisher im Projekt Anforderungen, Metriken und Benchmarks für die hier zu entwickelnde Referenzarchitektur, Verfahren und Komponenten ermittelt. Dabei ergab sich, dass die Komplexität realistischer Aufgaben und Systeme heutzutage noch nicht ausreichend beherrscht wird. Im Fokus der Arbeiten steht daher die Entwicklung alltagstauglicher Funktionen und Komponenten für alle Themen und Arbeitsgebiete. Die Handlungsplanung stellt sich dabei den Herausforderungen, die sich durch unvollständiges Umgebungswissen, nicht-deterministische Änderungen, komplexe Umgebungen sowie aus der Benutzerinteraktion ergeben. Die Wahrnehmungskomponente hat eine explizite und konsistente Unsicherheitsbehandlung integriert. Auch die Komponente der mobilen Manipulation behandelt die Problematik alltäglicher Szenarien. Je nach System ist mit der Verschiedenartigkeit von Antrieben und kinematischen Ketten zu rechnen. Dies erfordert die Vereinheitlichung der Schnittstellen. „Lernen und Interaktion“ stellt einen weiteren wichtigen Aspekt für alltägliche Situationen dar. Im Fokus der Arbeiten stehen dabei die Robustifizierung der erreichten Ergebnisse sowie die Präsentation natürlicher Interaktionen. Für die beidhändige Manipulation werden haptische und optische Komponenten zum Lernen verwendet. Die Generalisierung der erkannten Szene erlaubt dabei das Lernen neuer Objekte und Situationen sowie ein robusteres Agieren in bereits bekannten Szenen. Die Natürlichkeit einer Interaktion stellt die Grundlage für eine breite Akzeptanz des Systems in der Öffentlichkeit dar. Verwendet wird hier der Ansatz der multimodalen Perzeption bzw. des multimodalen Feedbacks. Das System verarbeitet als Eingangsdaten natürliche Sprache, Gestik sowie Situationswissen und agiert über Dialoge auf eine ebensolche Art. Parallel zu den grundlegenden Forschungs- und Entwicklungsarbeiten entsteht in Form der Technologieplattform „Alltag“ eine Anwendungsentwicklung, in die die Ergebnisse der Grundlagenforschung nach einem festgelegten Integrationsplan frühzeitig integriert werden. Neben der Integration findet während der gesamten Laufzeit eine schritthaltende Evaluierung der Verfahren und Komponenten bezüglich klar definierter Indikatoren für einen Fortschritt in Richtung Alltagstauglichkeit statt. In der letzten Phase des Verbundvorhabens wird diese Evaluation auch die bis dahin integrierten Gesamtsysteme (Technologieplattform und spezifische Anwendungen) einbeziehen. Durch die Entwicklung der Technologieplattform „Alltag“ wird die erwünschte Konvergenz der Technologien hergestellt. Bereits während der Projektlaufzeit wird eine kurz- bis mittelfristige Verwertung mit hohem Marktpotenzial über mehrere spezifische Anwendungsentwicklungen wie „Serviceroboter für Krankenhäuser“ und „Personentransport für Outdoor“ vorangetrieben.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
297
Literatur [1] Albu-Schäffer, A.; Hirzinger, G.: State feedback controller for flexible joint robots: A globally stable approach implemented on DLR’s light-weight robots. In: Proc. of the IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2000, Takamatsu, Japan, 2000. [2] Dillmann, R.; Zöllner, R.; Ehrenmann, M.; Rogalla. O.: Interactive Natural Programming of Robots: Introductory Overview. In Proceedings of the Second IARP IEEE/RAS Joint Workshop on Technical Challenge for Dependable Robots in Human Environments, Toulouse, Frankreich, Oktober 2002. [3] Dillmann, R.; Steinhaus, P.; Becher, R.: ARMAR II – A Learning and Cooperative Multimodal Humanoid Robot. International Journal on Humanoid Robotics, Vol. 1, Nr. 1, pp. 143–156, March 2004. [4] Ehrenmann, M.; Knoop, S.; Zöllner, R.; Dillmann, R.: Sensor Fusion Approaches for Observation of User Actions in Programming by Demonstration. In: Proc. of the International Conference on Multi Sensor Fusion and Integration for Intelligent Systems (MFI), August 19.–22., 2001, Baden-Baden, pp. 227–232. [5] Ehrenmann, M.; Zöllner, R.D.; Rogalla, O.; Dillmann, R.: Programming Service Tasks in Household Environments by Human Demonstration. In: Proceedings of the 11th IEEE International Workshop on Robot and Human interactive Communication, ROMAN 2002, Berlin, September 25.–27., 2002, pp. 460–467. [6] Ehrenmann, M.; Rogalla, O.; Zöllner, R.; Dillmann, R.: Belehrung komplexer Aufgaben: Programmierung durch Vormachen in Werkstätten und Haushalten. In: Robotik 2002, Juni 2002, Ludwigshafen. [7] Ehrenmann, M.; Becher, R.; Giesler, B.; Zöllner, R.; Rogalla, O.; Dillmann, R.: Interaction with Robot Assistants: Commanding ALBERT. In: Proc. of the 2002 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), September 2002, Lausanne, Schweiz. [8] Ehrenmann, M.; Lütticke, T.; Dillmann, R.: Directing a Mobile Robot with Dynamic Gestures. In: Proc. of the 32nd Int. Symposium on Robotics 2001 (ISR), Seoul/Korea, 19.–21. April 2001. [9] Estable, S.; Ahrns, I.; Backhaus, H.G.; El Zubi, O.; Muenstermann, R.: Intuitive Teaching and Surveillance for Production Assistants. In: Proc. of the 11th IEEE Int. Workshop on Robot and Human interactive Communication, ROMAN2002, Berlin, September 25.–27., 2002, pp. 474–481. [10] Giesler, B.; Salb, T.; Dillmann, R.; Weyrich, T.: Using a Panoramic Camera for 3D Head Tracking in an AR Environment. In: Proceedings of the IEEE International Conference on Mechatronics and Machine Vision in Practice, September 2002, Chiang Mai, Thailand. [11] Grunwald, G.; Schreiber, G.; Albu-Schäffer, A.; Hirzinger, G.: Touch: The Direct Type of Human Interaction with a Redundant Service Robot. In: Proceedings of the IEEE International Conference on Robot and Human Interaction 2001 (RO-MAN), Paris, France, 18.–21. Sept. 2001. [12] Graf, B.: Reaktive Navigation eines intelligenten Gehhilferoboters. In: Tagungsband zum 17. Fachgespräch Autonome Mobile Systeme 2001 (AMS), Oktober 11/12, 2001, Stuttgart, pp. 120–126. [13] Graf, B.; Helms, E.; Lakshmana, V.; Rohrmoser, B.; Schraft, R.D.: Anthropomorphic Robot Assistants – Giving the Human a Helping Hand. In: Proceedings of the Second IARP IEEE/RAS Joint Workshop on Technical Challenge for Dependable Robots in Human Environments, Toulouse, Frankreich, 2002, pp. 20–24. [14] Graf, B.; Hans, M.; Kubacki, J.; Schraft, R.D: Home Assistant Care-O-bot II. In: Proceedings of the Second Joint Meeting of the IEEE Engineering in Medicine and Biology Society and the Biomedical Engineering Society, Houston, Texas, USA, 2002.
298
4 Die 2000er Jahre bis 2006
[15] Haertl, F.; Heinz, I.; Fröhlich, C.: Semi – Automatic 3D CAD Model Generation of As – Built Conditions of Real Environmentsusing a Visual Laser Radar. In: Proceedings of the 10th IEEE International Workshop on Robot-Human Interactive Communication (ROMAN‘01), Paris, France, 18.–21. September 2001. [16] Hägele, M.; Schaaf, W.; Helms, E.: Robot Assistants at Manual Workplaces: Effective Cooperation and Safety Aspects. In: Proceedings of the 33rd International Symposium on Robotics 2002 / CD-ROM: Proceedings (ISR 2002), Oktober 7.–11., 2002, Stockholm, Schweden. [17] Illmann, J.; Köhler, Ch.: Integration von Kontextwissen zur videobasierten Szenenanalyse. In: ROBOTIK 2002: Leistungsstand, Anwendungen, Visionen, Trends, VDI-Berichte Nr. 1679, VDI Verlag, Juni 2002. [18] Illmann, J.; Kluge, B.; Prassler, E.: People Tracking Using Omnidirectional Vision and Range Data. In: SPIE2001, Sensor Fusion and Decentralized Control in Robotic Systems IV, (ed. by) McKee, G.T.; Schenker, P.S., Vol. 4571, Newton Massachusetts, USA, Nov. 2001, pp. 128–138. [19] Illmann, J.; Kluge, B.; Strobel, M.: Gesture Recognition in a Spatial Context for Commanding a Domestic Service Robot. In: ROBOTIK 2002: Leistungsstand, Anwendungen, Visionen, Trends, VDI-Berichte Nr. 1679, VDI Verlag, Juni 2002. [20] Iossifidis, I.; Steinhage, A.: Controlling a redundant robotarm by means of a haptic sensor. In: ROBOTIK 2002, Leistungsstand Anwendungen – Visionen, VDI-Berichte 1679, VDI/VDE: VDI Verlag, Ludwigsburg, pp. 269–274. [21] Kluge, B.; Bank, D.; Prassler, E.: Motion Coordination in Dynamic Environments: Reaching a Moving Goal while Avoiding Moving Obstacles. In: Proc. of the 11th IEEE Int. Workshop on Robot and Human interactive Communication, ROMAN2002, Berlin, September 25.–27., 2002, pp. 512–517. [22] Kluge, B.; Prassler, E.; Illmann, J.: Situation Assessment in a Crowded Public Environment. In: Proc. of the 2001 IEEE Int. Conf. On Field and Service Robotics, Helsinki, Finland, 2001. [23] Kristensen, S.; Neumann, M.; Horstmann, S.; Lohnert, F.; Stopp, A.: Tactile Man-Robot Interaction for an Industrial Service Robot. In: Sensor Based Intelligent Robots, hrsg v. Christensen, H.I. und Hager, G. (Reihe: Lecture Notes in Artificial Intelligence). SpringerVerlag, September 2001. [24] Kristensen, S.; Horstmann, S.; Klandt, J.; Lohnert, F.; Stopp, A.: Human-Friendly Interaction for Learning and Cooperation. In: Proceedings of the IEEE International Conference on Robotics and Automation, Seoul/Korea, 2001. [25] Lay, K.: MORPHA – Intelligente anthropomorphe Assistenzsysteme. In it+ti, 8/2000, pp. 38–43. [26] Lay, K.; Prassler, E.; Dillmann, R.; Grunwald, G.; Hägele, M.; Lawitzky, G.; Stopp, A.; von Seelen, W.: MORPHA: Communication and Interaction with Intelligent, Anthropomorphic Robot Assistants. In: Tagungsband Statustage Leitprojekte Mensch-Technik-Interaktion in der Wissensgesellschaft, Oktober 2001, Saarbrücken. [27] Marrone, F.; Raimondi, F.M.; Strobel, M.: Interaction of a Domestic Service Robot with a Human and the Environment. In Proceedings of 33rd International Symposium on Robotics (ISR 2002) Stockholm, Oktober 7.–11., 2002. [28] Ott, Ch.; Albu-Schaeffer, A.; Hirzinger, G.: Comparison of Adaptive and Nonadaptive Tracking Control Laws for a Flexible Joint Manipulator. In: Proc. of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2002), EPFL, Lausanne, Schweiz. [29] Prassler, E.; Bank, D.; Kluge, B.: Motion Coordination between a Human and a Mobile Robot. In: Proc. of IEEE/RSJ Int. Conf. on Intelligent Robots and Systems (IROS 2002), Lausanne, Schweiz, 2002. [30] Steinhage A.; Bergner, T.: Learning by doing: A Dynamic Architecture for Generating Adaptive Behavioral Sequences. In Proc. of the Second Int. ICSC Symposium on Neural Computation, NC‘2000, pp. 813–820.
4.2 Stand der Servicerobotik: BMBF-Leitprojekt MORPHA (1999–2003) und SFB 588
299
[31] Steinhaus, P.; Becher, R.; Dillmann, R.: Sonderforschungsbereich 588: Humanoide Roboter – Lernende und kooperierende multimodale Roboter. it – Information Technology, Oldenbourg-Verlag, Issue 2, Vol. 46, pp. 94–100, 2004. [32] Schraft, R.D.; Hägele, M.; Prassler, E.: DESIRE, German service robotics initiative. Proceedings of the Joint Conference on Robotics (ISR 2006 – ROBOTIK 2006), May 15.–17., 2006, München. [33] Strobel, M.; Illmann, J.; Prassler, E.: Intuitive Programming of a Mobile Manipulator System Designed for Cleaning Tasks in Home Environments. In: Proc. of the 2001 IEEE Int. Conf. On Field and Service Robotics (FSR 2001), Helsinki, Finnland, 2000. [34] Stopp, A.; Horstmann, S.; Kristensen, S.; Lohnert, F.: Towards Interactive Learning for Manufacturing Assistants. In: Proc. of the 10th IEEE Inter. Workshop on Robot-Human Interactive Communication (ROMAN‘01), Paris, France, 18.–21. September 2001. [35] Stopp, A.; Baldauf, T.; Hantsche, R.; Horstmann, S.; Kristensen, S.; Lohnert, F.; Priem, C.; Ruescher, B.: The Manufacturing Assistant: Safe, Interactive Teaching of Operation Sequences. In: Proc. of the 11th IEEE Int. Workshop on Robot and Human interactive Communication, ROMAN2002, Berlin, September 25.–27., 2002, pp. 386–391. [36] Woesch, T.; Neubauer, W.: Collision Avoidance and Handling for a Mobile Manipulator. In: Proc. of the 7th International Conference Intelligent Autonomous Systems (IAS 2002), März 25.–27., 2002, Marina del Rey, Kalifornien, USA, pp. 388–391. [37] Woesch, T.: mPlanner: Robot Motion Planning Based on Interaction of Planner and Controller. In: Proc. of the International Symposium on Robotics and Automation (ISRA 2002), Toluca, Mexico, September 5.–7., 2002, pp. 275–279. [38] Zöllner, R.; Rogalla, O.; Dillmann, R.; Zöllner, M.: Understanding Users Intention: Programming Fine Manipulation Tasks by Demonstration. In: Proc. 2002 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), September 2002, Lausanne, Switzerland.
300
4 Die 2000er Jahre bis 2006
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
Wolfgang Wahlster (Deutsches Forschungszentrum für Künstliche Intelligenz, Saarbrücken)
4.3.1 Einleitung SmartWeb wurde als kontextsensitives Dialogsystem konzipiert [3], das den mobilen Benutzer in verschiedenen Rollen überall und jederzeit unterstützt, so dass ein ubiquitäres Zugangssystem zum semantischen Web entsteht. Dabei wurde vom SmartWeb-Konsortium zunächst als Basisversion eine Variante für mobile Endgeräte der MDA-Serie (u. a. MDA Pro und Ameo) der Deutschen Telekom entwickelt, die dem Fußgänger unterwegs oder dem Sportfan im Stadion den multimodalen Zugang zu Webdiensten ermöglicht. Die seit 2002 von T-Mobile vermarktete Serie von Endgeräten zur „Mobilen Digitalen Assistenz“ (MDA) integriert die vertrauten Funktionen moderner Taschencomputer (PDA) unter dem Betriebssystem Windows Mobile mit einem breitbandigen Internetzugang über UMTS, HSDPA oder WLAN. Zusammen mit den Partnern DaimlerChrysler, Siemens und dem FhG-Institut First entwickelten wir eine Einbauversion von SmartWeb für Autofahrer, die für die A-Klasse und die R-Klasse von Mercedes verfügbar ist. Als Weltneuheit
Abb. 4.13 SmartWeb als mobile Antwortmaschine über die FIFA WM 2006
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
301
wurde erstmals auch ein Sprachdialogsystem für Motorradfahrer entwickelt, das zusammen mit der BMW-Forschung als weitere Einbauversion von SmartWeb auf den BMW-Motorrädern K 1200 LT und R 1200 RT erprobt wurde. Über alle Systemversionen hinweg bietet SmartWeb seinem Benutzer einen symmetrischen multimodalen Zugriff [8], der auf der Eingabeseite, neben gesprochener und geschriebener Sprache, Gestik, Haptik und Video kombiniert mit Sprache, Haptik, Graphik, Video und Ton auf der Ausgabeseite. Der Benutzer bekommt die Informationen also nicht nur durch Eintippen von Fragen auf der kleinen Tastatur des PDAs, sondern auch durch gesprochene Sprache z. B. kombiniert mit Stifteingaben auf dem Bildschirm. Es wird also möglich, das Mobiltelefon in Alltagssprache zu „fragen“, und dieses wird mit Informationen aus dem Netz „antworten“ (vgl. Abb. 4.13). SmartWeb baut auf das Vorgängerprojekt SmartKom (1999–2003) auf, das erstmals das Prinzip der symmetrischen Multimodalität realisierte [7], allerdings im Gegensatz zu SmartWeb keinen freien Zugang zum offenen Web erlaubte, sondern ausschließlich in vorher festgelegten Diskursbereichen funktionierte.
4.3.2 Von syntaktischen Suchmaschinen zu semantischen Antwortmaschinen SmartWeb geht klar über traditionelle Suchmaschinen wie Google hinaus, indem es nicht nur die Eingabe von Schlüsselwörtern, sondern komplexe natürlichsprachlich formulierte Anfragen zulässt und Suchergebnisse höherer Qualität liefert, die zudem an den aktuellen Kontext und die jeweilige Aufgabenstellung des mobilen Benutzers angepasst sind. In mobilen Anwendungssituationen will der Benutzer
Abb. 4.14 Stichwortbasierte Suche versus Fragebeantwortung
302
4 Die 2000er Jahre bis 2006
als Ausgabe keine Listen von Verweisen auf möglicherweise relevante Webdokumente, die er dann wiederum weiter durchsuchen muss, sondern eine konzise Antwort auf seine Anfrage. So will der Familienvater während einer Autofahrt, wenn das Kind auf dem Rücksitz plötzlich über starke Schmerzen klagt, auf seine Frage: „Wo ist der nächste Kinderarzt?“ von SmartWeb nur die Antwort: „Dr. Pfeifer in der Marienstraße 23“, so dass er als Folgeauftrag SmartWeb bitten kann: „Dann zeige mir die Route und führe mich dort hin“, um eine Navigationsunterstützung zum nächsten Kinderarzt zu erhalten. SmartWeb zeigt damit den Weg auf, wie folgende Defizite bisheriger Suchmaschinen überwunden werden können: • Die Anfrage des Benutzers wird nicht inhaltlich verstanden, sondern nur als Zeichenkette betrachtet. • Jede Anfrage wird isoliert beantwortet, ohne den Inhalt vorangegangener Anfragen oder Suchergebnisse und damit den Dialogkontext zu berücksichtigen. • Suchanfragen, die sich auf mehrstellige Relationen zwischen Begriffen beziehen und komplexe Restriktionen enthalten, führen zu unbefriedigenden oder sogar falschen Resultaten. • „Versteckte Inhalte“, die im sog. „Deep Web“ nur über Portale, Webdienste oder in PDF-Dokumenten zugänglich sind, werden nicht gefunden. Nutzer traditioneller Web-Suchmaschinen klagen wegen dieser Defizite oftmals über irrelevante Ergebnisse und einen zu umfangreichen Ergebnisraum. Sie verlassen die Suchmaschine, ohne eine Antwort auf ihre Ursprungsfrage erhalten zu haben und versuchen weitere Recherchen mit anderen Suchmaschinen. SmartWeb bietet erstmals in einem integrierten Gesamtsystem alle technischen Voraussetzungen, um diese Defizite zu überwinden und so von traditionellen Suchmaschinen zu innovativen Antwortmaschinen zu kommen (vgl. Abb. 4.14). Ein anschauliches Beispiel für die Leistungsfähigkeit von SmartWeb als Antwortmaschine entstand bei einem Blindtest durch den Leiter des Referats 524 des
Abb. 4.15 Beantwortung einer komplexen Suchanfrage im offenen Web durch SmartWeb
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
303
BMBF, Rainer Jansen, der Bernd Reuse als den Initiator des Projektes nach dessen Ausscheiden aus dem aktiven Dienst im BMBF ablöste. Obwohl SmartWeb vielfach in der Suchdomäne „Sport“ und speziell „FIFA Fußballweltmeisterschaft 2006“ getestet war, stellte Herr Jansen eine Frage aus dem Kulturbereich (siehe Abb. 4.15), die komplexe Relationen (Name von Sänger/in in der Titelrolle von La Traviata) und zwei Restriktionen (bei den Salzburger Festspielen, in der Premiere) enthielt. Obwohl eine ähnliche Frage SmartWeb zuvor noch nie gestellt worden war, wurde zur Verblüffung auch der anwesenden Fachwissenschaftler diese schwierige Frage präzise und korrekt mit „Anna Netrebko“ beantwortet. Abb. 4.15 zeigt auch ein Beispiel dafür, dass der SmartWeb-Nutzer eine bestimmte Modalität der Antwort anfordern kann, indem er am unteren Rand der Bildschirmmaske von SmartWeb auf eines der vier Ikone für Bild, Videoclip, Text- oder Tondokument mit dem Stift zeigt. Im vorliegenden Fall wird dann zusätzlich zu der Standardantwort in textueller Form noch ein Bild der Künstlerin ausgegeben, das durch eine Bildsuche im Web gefunden wurde.
4.3.3 Die Architektur und die ontologische Infrastruktur von SmartWeb SmartWeb besteht aus drei großen Softwarebereichen [5]: den mobilen Subsystemen (für Mobiltelefone der MDA-Serie, Autos und Motorräder), der multimodalen Dialogverarbeitung und den semantischen Zugriffsdiensten (vgl. Abb. 4.16). Das Laufzeitsystem von SmartWeb umfasst 2,5 Gigabyte Software und initiale Daten. SmartWeb kann parallel eine Vielzahl von Benutzern unterstützen, weil das System nach dem Client-Server-Prinzip arbeitet und der Server gleichzeitig mehrere Dialoge mit verschiedenen mobilen Nutzern abwickeln kann. Dazu wird von der
Abb. 4.16 Die drei großen Softwarebereiche von SmartWeb
304
4 Die 2000er Jahre bis 2006
SmartWeb-Dialogplattform für jeden neuen eingehenden Anruf eine neue Instanz des Dialogservers instantiiert. Die Hauptverarbeitungsleistung von SmartWeb wird nicht auf dem mobilen Endgerät, sondern auf dem über eine breitbandige Funkverbindung erreichbaren Server erbracht, auf dem eine leistungsfähige Spracherkennung mit einer semantischen Anfrageanalyse und einer Komponente zum Dialogmanagement kombiniert ist. Auf dem PDA-Client läuft eine Java-basierte Steuerungskomponente für alle multimodalen Ein- und Ausgaben sowie die graphische Bedienoberfläche von SmartWeb. Falls einmal die Verbindung zum Sprachdialog-Server abbricht, verfügt der PDA zur Überbrückung der Störung auch über eine einfache Sprachbedienung auf der Basis von VoiceXML. Die Beantwortung von Anfragen an SmartWeb wird nicht nur über ein einziges Verfahren realisiert, sondern ein semantischer Mediator entscheidet, wie eine vom Dialogsystem analysierte Anfrage mithilfe der verschiedenen semantischen Zugriffsdienste von SmartWeb beantwortet werden soll. Neben der gezielten Informationsextraktion aus Passagen von Dokumenten im offenen Web, die zunächst mit klassischen Suchmaschinen wie Google gefunden werden, kann z. B. auch eine Komposition von Webdiensten oder ein Aufruf eines Zugriffsagenten auf ein Portal durch den semantischen Mediator ausgelöst werden. Wie in Verbmobil [9] wird in SmartWeb also ein Ansatz verfolgt, der mehrere Lösungswege parallel vorhält und je nach Aufgabenstellung den besten Ansatz zur Reaktion auf die Benutzereingabe verfolgt. SmartWeb kann neun verschiedene Webdienste automatisch je nach Bedarf zu höherwertigen Diensten komponieren (u. a. Routenplanung, Wetterinformation, Veranstaltungskalender, Verkehrsinformation, Webcam-Suche). Dabei nutzt das System die semantische Beschreibung dieser Webdienste mithilfe von Erweiterungen der standardisierten Dienstbeschreibungssprache OWL-S, die auf einer
Abb. 4.17 Die Ansteuerung von Zugriffsdiensten durch den semantischen Mediator
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
305
Beschreibungslogik mit effizienten Inferenzverfahren beruht. Die Komposition der Dienste erfolgt in SmartWeb über einen musterbasierten Planungsalgorithmus, der bei Unterspezifikation von Anfragen auch einen Klärungsdialog mit dem Benutzer initiieren kann. Ein wichtiges Entwurfsprinzip von SmartWeb war die gezielte Benutzung von Ontologien in allen Verarbeitungskomponenten [6]. Die ontologische Infrastruktur SWIntO (SmartWeb Integrated Ontology) basiert auf einer Kombination der weit verbreiteten Universalontologien DOLCE und SUMO, die durch spezielle Diskurs- und Medienontologien ergänzt wurden [4]. Der W3C-Standard EMMA (Extensible MultiModal Annotation Markup Language) wurde in SmartWeb so ausgebaut, dass nicht nur die Semantik der multimodalen Benutzereingaben, sondern auch der multimodalen Systemausgaben formal damit beschrieben werden kann, so dass alle Komponenten auf dem Server Informationen im EMMA-Format austauschen können. Da wir heute noch ganz am Anfang des semantischen Web als zukünftiges Internet stehen und nur ganz wenige Webinhalte schon ontologisch annotiert sind, wurde in SmartWeb auch intensiv an der automatischen Generierung von semantischen Annotationen für bestehende HTML-Seiten, Photos und PDF-Dokumente aus dem Web gearbeitet. Anhand eines Korpus zum Bereich „Fußball“ wurden 5000 HTML-Seiten, 300 PDF-Dokumente und 15 000 Photos mit sprachtechnologischen Methoden der Informationsextraktion [1] sowie wissensbasierten Layout- und Bildanalyseverfahren bearbeitet. Für die Anwendungsdomäne „FIFA Fußballweltmeisterschaft 2006“ konnten im finalen Prototypen von SmartWeb 5000 Photos anhand der Bildunterschriften mit Spielen und Personen und 3400 Textpassagen zu Spielereignissen automatisch semantisch annotiert werden. Mit 110 komplett annotierten Mannschaftsphotos, 40 markierten Videosequenzen und 12 Audioreportagen ergeben sich rund 100 000 Ontologieinstanzen in einer umfangreichen Wissensbasis, die manuell erstellte mit automatisch extrahierten semantischen Annotationen aller Medienobjekte kombiniert.
4.3.4 Neue Formen der Multimodalität für mobile Dialogsysteme In SmartWeb kann die Handykamera der MDA-Telefone genutzt werden, um das Eintippen oder Sprechen komplexer Objektnamen bei Anfragen an das System zu umgehen. Der Benutzer photographiert einfach das Referenzobjekt selbst, ein Photo oder ein Modell davon, und ein servergestütztes Objekterkennungssystem ordnet dann als Webdienst aufgrund charakteristischer Bildpunkte selbst bei geändertem Aufnahmewinkel und modifizierten Beleuchtungsparametern das Photo einem in einer Bilddatenbank abgelegten Referenzbild zu. Hier wird also erstmals eine Bildeingabe mit einer Spracheingabe kombiniert, so dass crossmodale Fragen wie in Abb. 4.18 möglich werden: Nachdem der Nutzer ein Modell des Brandenburger Tores mit seiner Handykamera photographiert hat, kann er einfach fragen: „Wie komme ich dahin?“
306
4 Die 2000er Jahre bis 2006
Abb. 4.18 Crossmodale Anfragen durch Kombination von Handykamera und Spracheingabe
Eine weitere Innovation von SmartWeb ist die Möglichkeit zur Beantwortung von crossmodalen Anfragen, die sich auf Bildmaterial beziehen, welches als Ergebnis einer vorangegangenen Anfrage von SmartWeb auf dem PDA präsentiert wurde. SmartWeb nutzt bei einer Folgefrage wie „Wer ist der dritte links oben?“ (vgl. Abb. 4.19) dazu die MPEG7-Repräsentation der Bildsegmente und interpretiert räumliche Relationen wie den Ausgangspunkt (links oben), um den referenzierten Spieler (der dritte) zu bestimmen. Der Spieler mit der Nummer 18 wird durch die semantische Annotation des Bildes als „Tim Borowski“ bestimmt, so dass die Antwort von SmartWeb ausgegeben werden kann. Die Bilder sind dazu dekomponiert und die einzelnen Bildsegmente werden mit Instanzen aus der Medienontologie annotiert, die wiederum mit einer Sportontologie verknüpft ist, in der z. B. „Lehmann“ als Torwart klassifiziert ist. Die Spracherkennung mit offenem Wortschatz war eine besondere Herausforderung in SmartWeb, da bei komplexen Navigationsaufgaben und der Informationssuche im Internet häufig Eigennamen vorkommen, die nicht in dem trainierten Sprachmodell enthalten sind. SmartWeb kann unbekannte Wörter detektieren und klassifizieren, da im Spracherkenner eine OOV-Erkennung (OOV = Out of Vocabulary) integriert wurde. Das Sprachsignal wird parallel auch von einem speziellen Erkenner für Wortuntereinheiten wie z. B. Silben analysiert, dessen Ergebnisse dann von einer Komponente zur Phonem-Graphem-Umwandlung weiterverarbeitet werden. Die Ergebnisse der beiden parallel laufenden Erkenner werden dann in einem gemeinsamen Worthypothesengraphen fusioniert. So wird z. B. in der Eingabe „Ich möchte nach Kleinsendelbach fahren“ der Ortsname „Kleinsendelbach“ als unbekanntes Wort detektiert, wonach als Wortuntereinheiten die Phonemkombinationen „klain“, „zEn“, „d@l“ und „bax“ erkannt und in die Graphemfolge „Kleinsendelbach“ verwandelt werden. Durch die hybride Erkennung von Wörtern und Silben konnte die Erfolgsrate in SmartWeb verdoppelt werden, da auch die Umwandlung von Laut- in Buchstabenfolgen nahezu fehlerfrei erfolgt.
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
307
Abb. 4.19 Beantwortung von Anfragen mit crossmodaler räumlicher Referenz auf Bildmaterial
Eine Weltneuheit bietet SmartWeb auch mit Sprachdialogen, in denen das System mehrere Internet-Dienste mit Fahrzeugdiensten automatisch verknüpft: Nachdem der Fahrer auf die lokationssensitive Frage „Wo gibt es hier Italiener?“ entsprechende Restaurants auf der digitalen Karte angezeigt bekommt und eines ausgesucht hat, kann er den frei formulierten Dialog fortsetzen mit „Wie komme ich dahin und vorher muss ich noch tanken“. Er bekommt dann eine Routenplanung zum Restaurant, die auch noch einen Tankstopp einplant (vgl. Abb. 4.20). SmartWeb erlaubt erstmals auch eine multimodale Kommunikation für einen Motorradfahrer (vgl. Abb. 4.21) über ein im Helm (über Bluetooth mit der SmartWeb-Software verbunden) eingebautes Mikrophon und einen Lautsprecher, die selbst bei starken Fahrgeräuschen einen Sprachdialog ermöglichen [2]. Ein haptisches Bedienelement, das handschuhbedienbar im Lenker eingebaut ist und über Kraftrückkopplung verfügt, ermöglicht zusätzlich die Selektion von Diensten aus
308
4 Die 2000er Jahre bis 2006
Abb. 4.20 Kohärenter Navigationsdialog durch die Kombination von mehreren Webdiensten
Abb. 4.21 Multimodale Dialogmöglichkeiten von SmartWeb für Motorradfahrer
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
309
dem graphischen Menü auf dem großen Cockpit-Bildschirm. SmartWeb warnt durch Nutzung von P2P-Kommunikation über WLAN zwischen Autos und dem Motorrad z. B. sofort vor der Gefahr eines Auffahrunfalls am Stauende hinter einer Kurve, die zu einer unmittelbaren Vollbremsung des Motorradfahrers führen muss, da auch das vorausfahrende Fahrzeug stark abbremst. Innovativ bei SmartWeb ist auch die Berücksichtigung der kognitiven Belastung des Motorradfahrers (z. B. abhängig von der aktuellen Fahrgeschwindigkeit) und der Intensität des vorliegenden Gefahrenpotentials bei der Generierung multimodaler Warnhinweise. So kann eine Gefahr durch ein Warnsymbol auf dem Bildschirm des MotorradCockpits angezeigt werden, durch ein akustisches Warnsignal oder durch Sprachsynthese, die im Motorradhelm ertönen. Das kontextsensitive Gefahrenwarnsystem benutzt eine Gefahrenontologie und nutzt neben Daten aus dem Motorrad wie Außentemperatur, Reifendruck, Geschwindigkeit und Reifenschlupf auch Meldungen von Sensoren aus Fahrzeugen im Umfeld des Motorrads, um regelbasiert zu berechnen, welche Kombination von Modalitäten in der derzeitigen Fahrsituation eine optimale Balance zwischen der Ablenkung des Fahrers und der Dringlichkeit der Warnung ergibt.
4.3.5 Wissenschaftliche und wirtschaftliche Bilanz des SmartWeb-Projektes Mit elf Patentanmeldungen, acht Produktinnovationen und über 140 wissenschaftlichen Publikationen ist das SmartWeb-Projekt außerordentlich erfolgreich, weil es die gesamte Innovationskette von der Grundlagenforschung bis zur neuartigen Produktfunktion vollständig durchlaufen hat. Die Ergebnisse von SmartWeb sind in eine neue Telematikgeneration von Siemens VDO und DaimlerChrysler eingeflossen, bei denen Internet-Information mit Fahrzeugfunktionen kombiniert werden und aktuelle, externe Informationsdienste in das HMI des Fahrzeuges integriert werden, ohne dass die Dialogschnittstelle verändert werden muss. Da mehr als 50 Prozent der schweren Unfälle mit mangelnder Information des Fahrers verknüpft sind, ist die in SmartWeb erstmals auf einem BMW-Motorrad demonstrierte multimodale Generierung von Warnmeldungen über lokal begrenzte Gefahren, z. B. Fahrbahnglätte oder Ölspuren, durch intelligente Car2X-Kommunikation zwischen Autos und Motorrädern ein wesentlicher Beitrag zu erhöhter Verkehrssicherheit. Unterstützt von den Deutsche Telekom Laboratories sind zahlreiche Transferaktivitäten von SmartWeb-Technologien in die T-Divisionen durchgeführt worden. Das vom Bundesministerium für Bildung und Forschung (BMBF) mit 13,7 Mio. € geförderte Projekt SmartWeb hat mit 16 Partnern aus Industrie und Forschung wesentliche wissenschaftliche und technische Grundlagen für das neue Leuchtturmprojekt Theseus gelegt, das vom Bundesministerium für Wirtschaft und Technologie (BMWi) zunächst mit 90 Mio. € ab 2007 für fünf Jahre gefördert
310
4 Die 2000er Jahre bis 2006
Abb. 4.22 Bundesministerin Dr. Annette Schavan beim Test von SmartWeb in der Mercedes R-Klasse mit der Frage „Was meldet „Die Zeit“ zum Thema Politik?“ auf der CeBIT 2007
wird. In Theseus sollen von 30 Konsortialpartnern die semantischen Technologien für innovative Anwendungen des zukünftigen Internet der Dienste erschlossen werden. Das in SmartWeb entwickelte multimodale Dialogsystem dient auch als Ausgangspunkt für ein weiteres Leuchtturmprojekt mit der Bezeichnung SIM-TD (Sichere Intelligente Mobilität – Testfeld Deutschland), das neben dem BMBF und BMWi auch vom Bundesverkehrsministerium ab Ende 2007 gefördert wird. Die Car-to-X-Kommunikation soll dabei unter realen alltäglichen Verkehrsbedingungen mit einer großen Fahrzeugflotte aller wichtigen deutschen Automobilhersteller erprobt und ausgebaut werden, um die Anzahl der Staus zu reduzieren, den Verkehrsfluss zu verbessern und die Sicherheit zu erhöhen.
Danksagung Als Gesamtprojektleiter danke ich dem Bundesministerium für Bildung und Forschung (BMBF) für die Förderung von SmartWeb von 2004 bis 2007 unter dem Förderkennzeichen 01 IMD 01 sowie allen beteiligten Industriepartnern für die zusätzlich eingesetzten Investitionsmittel. Ganz besonders möchte ich Herrn Bernd Reuse vom Referat 524 des BMBF danken für seine mutige und zukunftsweisende Entscheidung für SmartWeb und seine vorbildliche Unterstützung des Vorhabens. Sein Nachfolger im Amt, Herr Rainer Jansen, hat das Vorhaben konsequent weitergeführt und zu einem sehr erfolgreichen Abschluss im September
4.3 SmartWeb: Ein multimodales Dialogsystem für das semantische Web (2004–2007)
311
2007 verholfen. Ohne die hervorragenden Leistungen meiner Mitarbeiter Norbert Reithinger (Modulkoordination), Gerd Herzog (Systemgruppe) und Anselm Blocher (Projektmanagement) und ihrer Teams am DFKI wären die anspruchsvollen Ziele von SmartWeb nicht erreichbar gewesen. Insgesamt ist SmartWeb eine Teamleistung von über 100 Wissenschaftlern und Softwareingenieuren, die in einer verteilten Entwicklungsumgebung ein multimodales Dialogsystem geschaffen haben, das trotz seiner weltweit einzigartigen Leistungsfähigkeit eine große Robustheit unter Realzeitbedingungen aufweist. Daher möchte ich mich an dieser Stelle bei allen Mitarbeitern des SmartWeb-Konsortiums sehr herzlich für die exzellente Kooperation bedanken.
Literatur [1] Cramer, I.; Leidner, J.; Klakow, D. (2006): Building an Evaluation Corpus for German Question Answering by Harvesting Wikipedia. In: Proceedings of LREC 2006, International Conference on Language Resources and Evaluation, Mai 2006, Genova, Italy. [2] Kaiser, M.; Mögele, H.; Schiel, F. (2006): Bikers Accessing the Web: The SmartWeb Motorbike Corpus. In: Proceedings of the LREC 2006, International Conference on Language Resources and Evaluation, Juni 2006, Genova, Italy. [3] Maybury, M.; Wahlster, W. (eds.) (1998): Readings in Intelligent User Interfaces. San Francisco: Morgan Kaufmann, 1998. [4] Oberle, D.; Ankolekar, A.; Hitzler, P.; Cimiano, P.; Sintek, M.; Kiesel, M.; Mougouie, B.; Vembu, S.; Baumann, S.; Romanelli, M.; Buitelaar, P.; Engel, R.; Sonntag, D.; Reithinger, N.; Loos, B.; Porzel, R.; Zorn, H.-P.; Micelli, V.; Schmidt, C.; Weiten, M.; Burkhardt, F.; Zhou, J. (2007): DOLCE ergo SUMO: On Foundational and Domain Models in SWIntO (SmartWeb Integrated Ontology. Journal of Web Semantics, 3, 2007. [5] Reithinger, N.; Herzog, G.; Blocher, A. (2007): SmartWeb – Mobile Broadband Access to the Semantic Web. In: KI – Künstliche Intelligenz, 2/2007, pp. 30–33. [6] Sonntag, D.; Engel, R.; Herzog, G.; Pfalzgraf, A.; Pfleger, N.; Romanelli, M.; Reithinger. N. (2007): Smart Web Handheld – Multimodal Interaction with Ontological Knowledge Bases and Semantic Web Services. In: Huang, T.; Nijholt, A.; Pantic, M.; Plentland, A. (eds.): Artifical Intelligence for Human Computing. LNCS 4451, Berlin, Heidelberg, SpringerVerlag, 2007, pp. 272–295. [7] Wahlster, W. (ed.) (2006): SmartKom: Foundations of Multimodal Dialogue Systems. Cognitive Technologies Series, Heidelberg, Germany: Springer-Verlag, 2006, 644 pp. [8] Wahlster, W. (2003): Towards Symmetric Multimodality: Fusion and Fission of Speech, Gesture, and Facial Expression. In: Günter, A.; Kruse, R.; Neumann, B. (eds.): KI 2003: Advances in Artificial Intelligence. Proceedings of the 26th German Conference on Artificial Intelligence, September 2003, Hamburg, Germany, pp. 1–18, Berlin, Heidelberg: Springer-Verlag, LNAI 2821, 2003. [9] Wahlster, W. (2000) (ed.): Verbmobil: Foundations of Speech-to-Speech Translation. Berlin, Heidelberg, New York, Barcelona, Hong Kong, London, Milan, Paris, Singapore, Tokyo: July 2000, Springer-Verlag.
312
4 Die 2000er Jahre bis 2006
4.4 Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES (2006–2008)
Rudi Studer, Andreas Abecker (FZI Karlsruhe)
4.4.1 Ausgangssituation des Projekts 4.4.1.1 Wissen als Produktivitätsfaktor Die Produktivität in der Softwareentwicklung basiert mindestens auf den folgenden Elementen, deren Zusammenspiel das Gesamtergebnis bestimmt: (1) mächtige Basistechnologien; (2) weitgehende Automatisierungstechniken; (3) durchdachte Prozesse und Rollen sowie (4) qualifizierte Entwickler. Die ersten drei Themenfelder sind typische Forschungsthemen im Software Engineering (SE). Bei den Basistechnologien beispielsweise gibt es heute mächtige Bibliotheken, Frameworks und Middleware, so dass Entwickler sich stärker auf den fachlichen Teil der Anwendung konzentrieren können. Code-Patterns, AOP und MDA sind Beispiele für Techniken, die den Aufwand für das manuelle Kodieren reduzieren. Im gleichen Maß, wie die Faktoren (1) und (2) Fortschritte machen, steigen aber die Anforderungen an das Wissen und Können der Entwickler im Umgang mit diesen Basistechnologien und Automatisierungsansätzen. Die Herausforderung liegt somit darin, den menschlichen Faktor „Qualifikation und Können“ im gleichen Maß wie die anderen Faktoren zu steigern. 4.4.1.2 Wissensmanagement und Wiederverwendung Die Komplementarität der WAVES Projektidee zu den meisten gängigen SE-Ansätzen folgt beispielsweise dem Argument von Griss [13]: Um eine Wiederverwendungskultur erfolgreich in einem Unternehmen zu etablieren, sei die Aus- und Weiterbildung der Mitarbeiter eine wichtige Voraussetzung, um mit allgemein steigenden Anforderungen [15] in den technischen Grundlagen Schritt halten zu können. Gerade die Vermittlung genereller wiederverwendungsspezifischer Kenntnisse sei die Grundlage für die Einbettung einer Wiederverwendungskultur. Bei agilen SE-Ansätzen nach Cockburn sind Kommunikationsbarrieren sowie Zeit- und Energiekosten für Ideentransfer ein großes Manko der verteilten Arbeit. Mit dem Aufbau von Vertrauen durch überzeugende Kompetenz [17] könne diese Hürde überwunden werden. „Software-Communities“, wie in der Open-SourceGemeinde ansatzweise etabliert (z. B: GNU enterprise [9]), bieten Entwicklern die
4.4 Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES 313
Möglichkeit, ihr Wissen zielorientiert aufzustocken und ihr Können unter Beweis zu stellen. Bereits Gibbs [12] stellte fest, dass sog. „Software Information Systems“ – Vorreiter der Software Communities – für „large scale class reuse“ erst nützlich werden, wenn man sie öffentlich, also unternehmensübergreifend, nutzt. 4.4.1.3 Steigerung von Qualifikation und Können Schulungsbasierte Ansätze erweisen sich dazu in der Praxis als schwerfällig, schlecht akzeptiert und oft zu unspezifisch für spezielle Situationen und neue Themen. Daher werden Schulungen vor allem bei Neueinsteigern angewandt. Entsprechend ihrem Naturell, den Charakteristika der Themen und den typischen Arbeitskontexten, beziehen dagegen erfahrenere Software-Ingenieure ihr Wissen primär durch das sog. „apprenticeship learning“ (Lernen in der Zusammenarbeit mit erfahrenen Kollegen) über ihr soziales Netzwerk bzw. als „on-the-job learning“ aus dem Selbststudium (wobei auch hierfür die Impulse oft aus dem Netzwerk kommen). Insgesamt können also „Communities of Practice“ (CoP) [19] und „Communities of Interest“ (CoI) eine enorme Rolle in der Erzeugung, Verbreitung und Aktualisierung von Spitzenqualifikationen im Software Engineering spielen. Dieses Potenzial wurde aber bisher nur in ersten Experimenten und Überlegungen untersucht [8, 11]. In der Tat tragen agile Methoden der Softwareentwicklung dieser Tatsache insofern Rechnung, als sie in ihren Vorgehensmodellen intensiv die Kommunikation und das systematische Kombinieren der Erfahrungen verschiedener Know-HowTräger umsetzen, so dass obige Lernmethoden indirekt zum Tragen kommen. Sie bewirken also lokal, projektbezogen, ähnliche Effekte, wie wir sie hier insgesamt als Ziel verfolgen. Allerdings sind solche Ansätze nicht auf räumlich, zeitlich oder organisatorisch entkoppelte Kooperationen abgestellt, sie nutzen Kooperation nur punktuell, statt die community-weite Wissensbasis weiterzuentwickeln, und sie binden nicht systematisch externe Wissensquellen [14]. 4.4.1.4 Webbasierte Community-Portale Auf der anderen Seite sind CoPs/CoIs im Wissensmanagement [4, 16] etablierte Ansätze, die aber wenig kontext- und projektspezifisch orientiert sind. Diese Communities nutzen schon heute das Internet intensiv. Web-basierte CommunityPortale stellen online Wissensrepositorien und synchrone wie auch asynchrone Kommunikationsmechanismen bereit, welche Community-Aufbau, -Zusammenarbeit und -Wissensaustausch unterstützen. Semantische Community-Web-Portale [5] realisieren ähnliche Funktionalitäten, jedoch mit verfeinerten Mechanismen zur Informationsintegration sowie zur ontologiebasierten Suche, Informationsauswertung und -visualisierung. Außerhalb der Forschungslabore werden viele Community-Portale – eher in Form passiver Informationssammlungen – von Herstellern betrieben, andere speisen sich
314
4 Die 2000er Jahre bis 2006
aus Open-Source-Projekten wie PHP. Leider ist die Suche in diesen Foren oft rudimentär und ineffizient. Naturgemäß gibt es auch keine Integration mit unternehmensinternen Wissenspools und keine speziellen Vernetzungsmöglichkeiten mit anderen Experten. 4.4.1.5 Wissensmanagement im Software Engineering Aufbauend auf dem Konzept der „Experience Factory“ von Basili und Rombach [1, 2] sind die wichtigsten diesbezüglichen Arbeiten im Umfeld des Fraunhofer IESE entstanden. Dort werden Lessons Learned und Prozessverbesserungen entlang formaler Prozessmodelle gesammelt. Verfeinerte ontologiebasierte Beschreibungen von Artefakten und Kontexten sind die Basis fallbasierter Retrieval-Verfahren [6]. Der Ansatz ist primär unternehmensintern gedacht, während einer der WAVES-Forschungsschwerpunkte gerade das Zusammenspiel von internen und externen Wissensquellen und entsprechenden Austauschmechanismen ist. Im indiGo-Projekt [7] wurden moderne Groupware-Instrumente zur kollaborativen Wissenserzeugung eingesetzt. Auch dort geht es allerdings „nur“ um das Lernen über Software-Entwicklungsprozesse, nicht um allgemeine Themen und nicht um externe Quellen. WAVES kann als Weiterentwicklung dieser Ideen aufgefasst werden.
4.4.2 Projektziele Ziel des Projekts WAVES ist es, den Austausch von informellem, unstrukturiertem Wissen in verteilten Software-Projekten zu fördern. Dies zielt auf die effiziente Nutzung, den Austausch und die gemeinsame Weiterentwicklung des in der täglichen Arbeit gewonnenen, persönlichen Erfahrungswissens in der Anwendungsdomäne, über den Kunden und mit spezifischen Werkzeugen und Methoden ab. Die konzeptionelle Sicht auf die Projektarbeiten in WAVES stellt sich dar wie in Abb. 4.23. Technisches Ziel des Projekts ist eine erweiterbare, für das Software Engineering spezifische Open-Source-Plattform zum Wissensaustausch über Standort-, Projekt- und Unternehmensgrenzen hinweg. Diese offene Plattform bindet existierende Werkzeuge und Methoden wie Wikis und ähnliche „Social Software“, ontologiebasiertes SW-Lifecycle-Management und kontextbasierte Inhaltsorganisation ein und umfasst eigene Funktionalitäten für: 1. Wissensartikulation und Metadatenerzeugung durch erweiterte Wiki-Ansätze sowie die intelligente Analyse des aktuellen Arbeitskontextes, 2. effektive Wissensnutzung durch kontextsensitive, ontologiebasierte RetrievalMethoden.
4.4 Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES 315
Abb. 4.23 Technische und empirische Zielsetzungen in WAVES
Als Ausgangstechnologie werden Wikis zum Dokumentieren und Verlinken von Information in Entwicklergruppen genutzt. Wikis sind leichtgewichtige, webbasierte, sehr einfach von (fast) jedermann benutzbare Content-ManagementSysteme. Weiterhin sind Wikis von ihrer Struktur her sehr gut geeignet, die kollaborative Inhaltserstellung und -redaktion zu unterstützen. Die Wiki-Technologie soll weiterführend zum Strukturieren von Information und zum Formulieren formaler Aussagen (Metadaten über Inhalte) benutzt werden können. Die Kontextverarbeitung soll auf Software-Lifecycle-Referenzontologien für Informationstypen und Informationsflüsse basieren. Die Wissensnutzung profitiert von der unaufdringlichen, aktiven Präsentation relevanter Inhalte, der Einbindung aktiver Inhalte (Dienste) und der Ergänzung asynchroner Kommunikation (primär über Texte) durch Social-Networking-Ansätze. Softwareanalyseverfahren können automatisch Strukturen für die Wiki-Verlinkung bereitstellen. Wie man dem oberen Bereich der Abb. 4.23 entnehmen kann, ist die ProjektZielsetzung von WAVES nicht nur auf rein technologische Innovation ausgerichtet: ein großer methodischer und empiriebasierter Anteil soll in enger Zusammenarbeit mit den Fallstudienpartnern praxistaugliche Lösungen liefern und experimentell kontinuierlich die Funktion der implementierten Teillösungen untersuchen sowie sozioökonomische Faktoren für den Erfolg bei Technologie- und Anwendungspartnern liefern. Gerade im Wissensmanagement stellen sozioökonomische und psychologische Faktoren oft kritischere Probleme dar als Technologien; außerdem sind natürlich beim unternehmensübergreifenden Wissensaustausch auch rechtliche und wirtschaftliche Aspekte relevant, die in der Wissensgesellschaft zunehmende Bedeutung erlangen werden, die aber auch im WAVES-Projekt nur ansatzweise erforscht werden können.
316
4 Die 2000er Jahre bis 2006
4.4.3 Projektpartner Das Projekt WAVES wird von folgenden Partnern realisiert: • Polarion Software GmbH – als Technologie-Bereitsteller für Software-Entwurfswerkzeuge, • Empolis GmbH – als Technologie-Bereitsteller für Wissensmanagement, • OBJECT International GmbH – als Fallstudienpartner, • disy – als Fallstudienpartner, • PTV AG – als Fallstudienpartner, • CAS Software AG – als Fallstudienpartner, • Freie Universität Berlin – für Empirie und kontinuierliche Erfolgskontrolle, • FZI Forschungszentrum Informatik an der Universität Karlsruhe – als Verbundkoordinator.
4.4.4 Ergebnisse (Stand Juli 2007) Zum Zeitpunkt der Fertigstellung dieses Buches lief das Projekt WAVES gerade erst ein Jahr. Es ist also verfrüht, schon Aussagen zu den abschließenden Ergebnissen zu machen. Dennoch können wir einiges zu den getroffenen Architekturentscheidungen, den erstellten Mock-Ups für die Kommunikation mit den Fallstudienanwendern und zum ersten, funktionell eingeschränkten Prototypen sagen: Im ersten Prototypen wurde eine Reihe von – durch die Fallstudienpartner priorisierten – Entwicklungsdatenbanken zusammen mit nichtstrukturierten Inhalten für das Wissensmanagement inhaltlich über die (noch unvollständige) SoftwareEntwurfsontologie gemeinsam zugreifbar und „verlinkbar“ gemacht. Diese Entwicklungsdatenbanken umfassen zurzeit das Versionsmanagement, den Issue Tracker, die Releaseplanung und das Hilfe-System. Nichtstrukturierte (bzw. schwach strukturierte) Inhalte umfassen zurzeit insbesondere Microsoft-OfficeDokumente sowie E-Mail. Abb. 4.24 skizziert die Architektur des ersten, auf der Basis von Eclipse realisierten Prototypen: Über ein so genanntes Adapter Framework können existierende Anwendungen ihre Daten dem WAVES-System zugänglich machen bzw. aus WAVES Inhalte beziehen. Im zentralen Speichersystem werden Inhalte bezüglich ihrer Struktur und Semantik beschrieben und, wenn nötig, wechselseitig verlinkt. Ein Volltextindex macht überdies die Suche einfacher. Die WAVES-spezifischen Oberflächenelemente umfassen die sog. Knowledge Workbench für das Schreiben von Inhalten und Metadaten sowie die Suchschnittstelle für die semantische Suche in Inhalten. Im Prototypen M1 wurden die verschiedenen Elemente der generischen Architektur mit Software-Werkzeugen der Projektpartner bzw. frei zugänglichen OpenSource-Werkzeugen realisiert. Beispielsweise können Wiki-Inhalte vom Semantic
4.4 Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES 317
Abb. 4.24 Gesamtarchitektur WAVES-Prototyp Jahr 1
MediaWiki und vom Confluence-Wiki importiert werden, als Operativanwendungen wurden Software-Lifecycle-Management-Werkzeuge von Polarion angebunden, die Suche wurde mit Empolis-Software umgesetzt. Die grundlegende Architektur und die zentralen Entwicklungen sind allerdings flexibel und generisch und können mit vielerlei konkreten Werkzeugen angesteuert bzw. ergänzt werden. Die damit geleistete Integration von Wissensmanagement und Entwicklungsdatenbanken unterstützt z. B. folgendes Szenario: wenn in einer Arbeitsbesprechung eine Diskussion zu einem bestimmten, im Issue Tracker erfassten Software-Problem stattfindet und man in der Besprechung zu Entscheidungen kommt, die wiederum geänderte Spezifikationen und Folgeänderungen im Code nach sich ziehen, kann man über die WAVES-Metadaten zwischen allen involvierten Dokumenten zu diesem Thema navigieren (strukturierten und unstrukturierten, also bspw. auch im Issue Tracker oder auch im Code) und sich damit schnell einen Überblick über die Diskussionslage, persönliche Notizen, die relevanten Sitzungsprotokolle und -präsentationen sowie die getroffenen Maßnahmen und deren Folgen verschaffen, obwohl alle Inhalte in unterschiedlichem Typ und in unterschiedlichen Systemen vorliegen. Logischerweise ist das so entstehende Wissensnetz aus verschiedenen Inhaltstypen verschiedener Systeme umso leichter zu durchsuchen und zu navigieren, d. h. potentiell umso nützlicher, je aussagekräftigere Metadaten über die jeweiligen Inhalte und ihre Verbindungen zueinander vorliegen. Da die manuelle Erstellung solcher Metadaten aufwändig ist und von Benutzer/innen typischerweise frühestens dann geleistet wird, wenn sie bereits positive Erfahrungen mit deren Nützlichkeit gemacht haben, ist der WAVES-Projektansatz hier durch dasselbe „HenneEi-Problem“ gefährdet, welches viele Wissensmanagement-Projekte sowie auch allgemeine Semantic-Web-Projekte charakterisiert: ein hoher Systemnutzen setzt eine kritische Masse an Systeminhalten und assoziierten Metadaten voraus, zu
318
4 Die 2000er Jahre bis 2006
deren Erstellung aber die Endanwender/innen erst bereit sind, wenn sie bereits persönlich diesen hohen Systemnutzen erfahren haben. Mit dieser Grundthematik geht WAVES quasi „per Konstruktion“ durch verschiedene Charakteristika des Ansatzes um, wie beispielsweise (i) die leichte Importierbarkeit existierender Inhalte in den Raum des gemeinsamen Wissens, wo sowohl importierte als auch benutzergenerierte Inhalte einfach (und kollaborativ) annotiert (d. h. mit Metadaten und Zusammenhängen versehen) werden können oder (ii) die Schwerpunktsetzung auf Communities of Practice (in welchen durch die psychologische Gruppendynamik häufig positive selbstverstärkende Netzwerkeffekte entstehen). Aber auch auf der technischen Seite befasst sich WAVES in späteren Projektphasen mit diesem Aspekt, indem versucht werden soll, die Formulierung von Metadaten und Verlinkungen so einfach wie möglich zu machen; dazu untersuchen wir Mechanismen wie: • Code-Analyse zur Erstellung von Metadaten und Verbindungen, • Weitergehende Arbeitskontextanalyse (z. B. Eclipse-Aktivitäts-Historie) für die (teil-) automatische Metadatenerzeugung, • Bereits prototypisch implementiert: komfortables „Autocomplete“ (sinnvolles automatisches Vervollständigen von teilweise eingegebenen Metadaten) für Metadaten-Werte und Verlinkungen, • „Refactoring“-Mechanismen für Wikis im Falle von über die Zeit hinweg durch inkrementelle Erweiterung „wuchernden“ Metadaten-Strukturen.
4.4.5 Nachhaltigkeit Aussagen zur Nachhaltigkeit der Projektergebnisse sind natürlich nach einem Jahr Projektlaufzeit verfrüht. Dennoch skizzieren wir, wie im Projektplan optimale Voraussetzungen für die Nachhaltigkeit der Projektergebnisse geschaffen wurden: 1. Der Projektplan folgt der Logik der agilen Software-Entwicklung und bezieht die Nutzer frühestmöglich und so weitgehend wie möglich in die Konzeption mit ein, so dass nicht „an den Bedürfnissen der Praxis vorbeigeforscht“ wird – dies umfasst auch frühe und häufige Prototyp-Auslieferungen und enge Integration mit real verwendeten Entwicklungswerkzeugen der Fallstudienpartner. 2. Das Projektkonsortium sieht eine verhältnismäßig hohe Zahl von Fallstudienpartnern vor, enthält engagierte potentielle Verwertungspartner und einen spezialisierten Partner (FU Berlin) für die empirische Validierung und Projektbegleitung. 3. Dadurch, dass das FZI in seinen Abteilungen IPE („Information Process Engineering“) und SE („Software Engineering“), welche im Projekt WAVES eng zusammenarbeiten, sowohl die Forschungs- und Entwicklungsexpertise im Wissensmanagement als auch die im Software Engineering mitbringt, sind die Forschungsaufwände stark auf einen Partner fokussiert, der damit auch die kritische Masse für schnelle und qualitativ hochwertige Ergebniserstellung besitzt.
4.4 Stand der Wissensverarbeitung in der verteilten Softwareentwicklung: Projekt WAVES 319
4. Der Entwurf einer offenen Architektur und die Abstützung auf quelloffene Software und offene Standards ermöglicht für die Projektergebnisse die einfache Integration von und Zusammenführung mit anderen Werkzeugen kommerzieller oder nicht-kommerzieller Partner. Insgesamt ist schon in dieser frühen Phase des Projekts absehbar, dass zumindest Teile der WAVES-Ergebnisse später in die produktive Nutzung bei den Fallstudienpartnern übergehen können bzw. in deren Produktlandschaft für Software-Entwicklungswerkzeuge Eingang finden. Auch die Ausgründung einer oder mehrerer Spin-Off-Firmen aus dem Projektkonsortium heraus mit dem Ziel, Software-Entwicklung und -Beratung im Themenfeld von WAVES zu kommerzialisieren, scheint momentan wahrscheinlich.
Danksagung Für die engagierte Mitarbeit bei der Erstellung dieses Textes, der Fertigstellung des WAVES-Projektantrags und der WAVES-Projektdurchführung danken wir unseren Mitarbeitern Tim Romberg, Hans-Jörg Happel, Volker Kuttruff, Peter Szulman, Max Völkel sowie unseren wissenschaftlichen Hilfskräften.
Literatur [1] Althoff, K.-D.; Decker, B.; Hartkopf, S.; Jedlitschka, A.; Nick, M.; Rech, J. (2001): Experience Management: The Fraunhofer IESE Experience Factory. In: Perner, P. (ed.), Proc. Industrial Conference Data Mining. Leipzig: Institut für Bildverarbeitung und angewandte Informatik. [2] Basili, V.R.; Caldiera, G.; Rombach, D. (1994): Experience Factory. In: Marciniak, J.J. (Hrsg.): Encyclopedia of Software Engineering. Band 1. John Wiley & Sons. [3] Cockburn, A. (2003): Agile Software-Entwicklung. Mitp-Verlag. [4] Davenport, Th.H.; Prusak, L. (1998): Working Knowledge – How Organizations Manage What They Know. Boston: Harvard Business School Press. [5] Davies, J.; Duke, A.; Sure, Y. (2004): OntoShare – An Ontology-based Knowledge Sharing System for Virtual Communities of Practice. Journal of Universal Computer Science 10 (3): 262–283. [6] Decker, B.; Althoff, K.-D.; Nick, M.; Jedlitschka, A.; Tautz, C.; Rech, J. (2002): Die Fraunhofer IESE Experience Factory „Corporate Information Network (CoIN)“ – Ein Beispiel für Geschäftsprozessorientiertes Wissensmanagement in Software Organisationen. In: Abecker, A.; Hinkelmann, K.; Maus, H. & Müller, H.-J. (Hrsg.), Geschäftsprozessorientiertes Wissensmanagement. Springer Xpert.press. [7] Decker, B.; Althoff, K.-D.; Rech, J.; Klotz, A.; Leopold, E.; Voss, A. (2004): Participative Process Introduction: A Case Study in the indiGo Project. Journal of Universal Computer Science 10 (3): 186–204.
320
4 Die 2000er Jahre bis 2006
[8] Dingsøyr, T.; Rolland, K.-H.; Jaccheri, M.L. (2004): The Benefits and Limitations of Knowledge Management in Global Software Development. In: 3rd Int. Workshop on Global Software Development (GSD 2004), Edinburgh. ICSE Workshop: A co-located event at the Int. Conf. on Software Engineering 2004. [9] Elliott, M.S.; Scacchi, W. (2003): Free Software Developers as an Occupational Community: Resolving Conflicts and Fostering Collaboration. Proceedings of the International ACM SIGGROUP Conference on Supporting Group Work GROUP ‘03, Sanibel Island (USA). [10] Falbo, R.A.; Arantes, D.O.; Natali, A.C.C. (2004): Integrating Knowledge Management and Groupware in a Software Development Environment. In: Karagiannis, D. & Reimer, U. (Hrsg.): 5th Int. Conf. on Practical Aspects of Knowledge Management – PAKM‘2004. Berlin, New York, Heidelberg: Springer-Verlag. LNAI 3336, S. 94–105. [11] Fægri, T.E.; Dingsøyr, T.; Jaccheri, L.; Lago, P.; van Vliet, H. (2005): Exploring Communities of Practice for Product Family Engineering. In: 7th Int. Workshop on Learning Software Organizations, Kaiserslautern. [12] Gibbs, S.; Tsichritzis, D.; Casais, E.; Nierstrasz, O.; Pintado, X. (1990): Class Management for Software Communities. Communication of the ACM: 33 (9): 90–103. [13] Griss, M.L. (1995); Software Reuse: Objects and Frameworks are not enough. HewlettPackard Laboratories, Palo Alto, Kalifornien. [14] Kähkönen, T. (2005): Agile Methods for Large Organizations – Building Communities of Practice. In: Agile Development Conference, Salt Lake City. [15] Kauba, E. (1996); Wiederverwendung als Gesamtkonzept – Organisation, Methoden, Werkzeuge. In: OBJEKTspektrum; 1: 20–27. [16] Mentzas, G.; Apostolou, D.; Young R.; Abecker, A. (2002): Knowledge Asset Management – Beyond the Product-centric and the Process-centric Approach. Berlin, New York, Heidelberg: Springer-Verlag. [17] Paul, D.L.; McDaniel, R.R. (2004): A Field Study of the Effect of Interpersonal Trust on Virtual Collaborative Relationship Performance. MIS Quarterly: 28 (2): 183–227. [18] Wenger, E. (1998): Communities of Practice: Learning, Meaning and Identity. Cambridge University Press (1998). [19] Wenger, E.; McDermott, R.; Snyder, W. (2002): Cultivating Communities of Practice: A Guide to Managing Knowledge. Boston: Harvard Business School Press.
4.5 Beweisen als Ingenieurwissenschaft: Verbundprojekt Verisoft (2003–2007)
321
4.5 Beweisen als Ingenieurwissenschaft: Verbundprojekt Verisoft (2003–2007)
Wolfgang Paul, Tom In der Rieden (Universität des Saarlandes und DFKI)
4.5.1 Ausgangslage Schon Jahrzehnte vor Beginn des deutschen Projekts Verisoft war im Prinzip klar, dass man die vollständige Korrektheit von Programmen formal beweisen kann. Auf Papier gab es die formale Semantik einer realistischen Programmiersprache [13]; man konnte in Lehrbüchern nachlesen, wie man basierend auf einer Semantik die Korrektheit von Programmen nachweist [10] und es gab Logiken [12] und formale Beweissysteme, mit denen man solche Argumente formalisieren und per Computer auf Lückenlosigkeit prüfen konnte [6]. In dem verwegenen CLI-StackProjekt [3] unter Leitung von J. Moore gelang 1989 bereits viel mehr, nämlich die vollständige formale Verifikation eines ganzen – wenn auch kleinen – Computersystems, bestehend aus einfachem Prozessor, Assembler, Compiler für eine einfache imperative Sprache sowie rudimentärem – wenn auch in Assembler programmiertem – Betriebssystemkern. In einer rationalen Welt wäre nach dem CLI-Projekt die vollständige formale Verifikation zum Kriterium der höchsten Zertifizierungsstufen gemacht worden und mit Unterstützung der akademischen Welt wäre eine industrielle formale Verifikationstechnologie aufgeblüht. Stattdessen konzentrierte sich die akademische Abb. 4.25 Grobstruktur von Verisoft
322
4 Die 2000er Jahre bis 2006
Forschung bezüglich Programmierung auf das Studium der eleganten und theoretisch faszinierenden funktionalen Programmiersprachen wie z. B. ML [15], während die industrielle Welt nach wie vor mit überwältigender Mehrheit imperativ in C, C++ und Java programmierte. Überdies weckte die Entdeckung mächtiger automatischer Beweismethoden [7, 8, 9, 14] die Hoffnung, formale Korrektheitsbeweise für Computersysteme vollständig automatisch vom Computer finden lassen zu können. Für den Nachweis gewisser Eigenschaften großer Programme wurden hierbei bemerkenswerte Erfolge erzielt [1, 2, 16, 17], nicht aber beim Nachweis für die funktionale Korrektheit ganzer Programme. Diese Forschungsrichtung dominiert bis heute die einschlägigen Konferenzen. Abseits der vorherrschenden Richtung wurden mit dem Einsatz interaktiver Methoden wichtige Fortschritte gemacht: • Im an der Universität Karlsruhe entwickelten Verifix-Projekt [20] wurde in dem interaktiven Theorembeweiser PVS formal die Korrektheit eines Common-Lisp-Compilers gezeigt. Ein Durchbruch, weil für die compilierten Programme die korrekte Implementierung dynamischer Datenstrukturen (Listen) auf dem Heap formal gezeigt werden musste. • In dem am DFKI entwickelten VSE-System [11] zur Verifikation von Programmen in einer proprietären Programmiersprache wurde beinahe Standardtechnologie verwendet: (i) Die Kontrollstrukturen der Programmiersprache sind imperativ, nur die Datentypen sind von den funktionalen Sprachen entliehen (womit VSE die bekannten Schwierigkeiten mit Heaps vermeidet). (ii) Zur Spezifikation wird dynamische Logik verwendet, die sich allerdings immer noch nicht durchgesetzt hat, wie beispielsweise Hoare-Logik. (iii) Zur Entlastung der Verifikationsbedingungen sind interaktive Beweiser mit automatischen Methoden kombiniert worden. Damit ließen sich Programme mit hunderten von Zeilen Code verifizieren, und zwar – bis auf die Datentypen – auf der üblichen Codeebene. Unter anderem mit diesem System sicherte sich das DFKI seine jetzige starke Stellung in der Welt der Softwarezertifizierung. • Auf der Hardwareseite wurden in der Industrie als Konsequenz des PentiumBugs ganze Gleitkommaeinheiten formal verifiziert; die Beweise wurden natürlich nicht veröffentlicht. • In der akademischen Welt gelang die formale Verifikation von Prozessoren mit industrieller Komplexität [4, 5]. Im BMBF wurde im Jahr 2002 das letzte Ergebnis zum Anlass für ganz konkrete Vorgaben beim Projekt Verisoft genommen.
4.5.2 Mission des Verisoft-Projekts Man entwickle Werkzeuge und Methoden, mit denen ganze Computersysteme (Hardware, Compiler, Betriebssystem, Kommunikationssysteme, Anwendungen) formal verifiziert werden können. In Zusammenarbeit mit Industriepartnern demonstriere man diese Techniken an Beispielen von industrieller Komplexität.
4.5 Beweisen als Ingenieurwissenschaft: Verbundprojekt Verisoft (2003–2007)
323
Abb. 4.26 Struktogramm Akademisches System
4.5.3 Die Partner des Projekts Verisoft Auf akademischer Seite waren die Universität des Saarlandes und die Universität Koblenz, die Technischen Hochschulen Darmstadt und München, das MaxPlanck-Institut für Informatik sowie die Forschungsinstitute DFKI und Offis beteiligt. Industriepartner waren Infineon Techologies AG (später mit Spin-Off OneSpin Solutions GmbH), T-Systems GmbH, BMW Group AG und die AbsInt GmbH.
4.5.4 Ergebnisse Auf den ersten Blick erschien das Projekt schon wegen der geforderten Betriebssystemverifikation fast aussichtslos; aber gerade durch den enormen Umfang der Aufgabe ergab sich geradezu zwingend, was in Verisoft zu tun war: • Die geforderten durchgängigen Korrektheitsbeweise für ganze Systeme mussten sich in theoretische Papiere und Vorlesungen übersetzen lassen, in denen man mit der Präzision einer klassischen mathematischen Theorie lernt, wie man reale Systeme baut und warum sie funktionieren. Dies betraf insbesondere Memory-Management-Mechanismen, Compiler, Betriebssystemkerne, Ein-/ Ausgabegeräte, Interfaces zu Realzeitbussen, Realzeitbetriebssysteme und verteilte Anwendungen. Diese Papiere und Vorlesungen wurden zuerst entwickelt
324
4 Die 2000er Jahre bis 2006
– als Baupläne für die zu konstruierenden formalen Beweise. Sie haben das Tempo in der Lehre (Lehrstoff pro Zeit) um den Faktor 2 bis 3 gesteigert. • Die Ergebnisse klassischer Lehrbücher über die Semantik von Programmiersprachen waren zu formalisieren. Insbesondere mussten für eine realistische imperative Sprache i) eine formale Small-Step-Semantik, ii) eine formale HoareLogik und iii) ein formaler Soundness-Beweis für die Hoare-Logik erstellt werden. In der Hoare-Logik kann man am effizientesten formale Beweise führen; mit einer Small-Step-Semantik kann man auf natürliche Weise über verschränkte Berechnungen (z. B. client/server) argumentieren. Mit einem Soundness-Theorem kann man zwischen beiden Beschreibungsebenen hin- und herwechseln. • Eine Systemverifikationsumgebung musste geschaffen werden. Das ist ein Softwaresystem, in dem alle Spezifikationen, Konstruktionen und Korrektheitsbeweise der oben genannten Theorie gespeichert und kooperativ von großen Gruppen von Verifikationsingenieuren weiterentwickelt werden können. Mit dieser Umgebung wurde schließlich bei der Softwareverifikation ein Automatisierungsgrad von 30 bis 80% – je nach Anwendung – erzielt. Diese Systemverifikationsumgebung (zusammen mit den in ihr verifizierten Systemen und den Korrektheitsbeweisen) wird nach und nach auf der Verisoft-Website [19] zugänglich gemacht. Mit zusätzlicher Unterstützung durch proprietäre Werkzeuge erreicht der Industriepartner OneSpin Solutions bei der Prozessorverifikation sogar einen Automatisierungsgrad von 95%. • Nichttriviale Demonstratoren waren zu schaffen: allein im akademischen Teilprojekt wurden 25 000 Zeilen C-Code sowie Hardware von mehreren Millionen Gatteräquivalenten formal verifiziert. Bei den Industriepartnern OneSpin Solutions und Infineon wurde eine neue Version des TriCore Microcontrollers (> 100 000 Zeilen Verilog-Code) vor der Produkteinführung formal verifiziert. In Zusammenarbeit mit T-Systems wurde bei der Verifikation von Kommunikationsprotokollen eine Lücke in einem etablierten Industriestandard aufgedeckt.
Abb. 4.27 Anwendungsorientierte Verifikationsumgebungen
4.5 Beweisen als Ingenieurwissenschaft: Verbundprojekt Verisoft (2003–2007)
325
Die aktuelle Publikationsliste des Projekts wird auf der Verisoft-Webseite gepflegt [18].
4.5.5 Nachhaltigkeit Der Impact dieses riskanten Projekts auf die Industrie hat sicher die Erwartungen übertroffen. Im Nachfolgeprojekt Verisoft XT, welches im Juli 2007 gestartet wurde, wird unter anderem die Verifikation von zwei industriellen Betriebssystemkernen angegangen: einerseits zusammen mit der deutschen Automobil- und Flugzeugindustrie, andererseits zusammen mit Microsoft. Die Entscheidung (im Sinne der dominierenden Forschungsrichtung eher: der Tabubruch), hierfür automatische und interaktive Beweiswerkzeuge zu kombinieren, wurde von den beteiligten Forschern von Microsoft Research übernommen.
Literatur [1] AbsInt Angewandte Informatik GmbH. http://www.absint.com/. [2] Astree. http://www.astree.ens.fr/. [3] Bevier, W.R.; Hunt, W.A. Jr.; Moore, J.S.; Young, W.D.: An approach to systems verification. Journal of Automated Reasoning (JAR), 5(4):411–428, December 1989. [4] Beyer, S.; Jacobi, Ch.; Kroening, D.; Leinenbach, D.; Paul, W.: Instantiating uninterpreted functional units and memory system: Functional verification of the VAMP. In: Geist, D. and Tronci, E. (eds.), Proc. of the 12th Advanced Research Working Conference on Correct Hardware Design and Verification Methods (CHARME), Vol. 2860 of Lecture Notes in Computer Science (LNCS), pp. 51–65. Springer-Verlag, 2003. [5] Beyer, S.; Jacobi, Ch.; Kroening, D.; Leinenbach, D.; Paul, W.: Putting it all together: Formal verification of the VAMP. International Journal on Software Tools for Technology Transfer, 8(4–5):411–430, August 2006. [6] Boyer, R.S.; Moore, J.S.: A Computational Logic Handbook. Academic Press, 1988. [7] Cousot, P.; Cousot, R: Abstract interpretation: a unified lattice model for static analysis of programs by construction or approximation of fixpoints. In POPL ‘77: Proceedings of the 4th ACM SIGACTSIGPLAN symposium on Principles of programming languages, pp. 238–252, New York, NY, USA, 1977. ACM Press. [8] Clarke, E.M. Jr.; Grumberg, O.; Peled, D.A.: Model Checking. MIT Press, Cambridge, MA, USA, 1999. [9] Ferdinand, Ch.; Martin, F.; Wilhelm, R.; Alt, M.: Cache Behavior Prediction by Abstract Interpretation. Sci. Comput. Program., 35(2):163–189, 1999. [10] Gries, D.: The Science of Programming. Springer-Verlag, 1987. [11] Hutter, D.; Langenstein, B.; Sengler, C.; Siekmann, J.H.; Stephan, W.; Wolpers, A.: Deduction in the Verification Support Environment (VSE). In FME ‘96: Proceedings of the Third International Symposium of Formal Methods Europe on Industrial Benefit and Advances in Formal Methods, pp. 268–286, London, UK, 1996. Springer-Verlag. [12] Hoare, C.A.R.: An axiomatic basis for computer programming. Communications of the ACM, 12(10):576–580, 1969. [13] Hoare, C.A.R.; Wirth, N.: An Axiomatic Definition of the Programming Language PASCAL. Acta Informatica (ACTA), 2:335–355, 1973.
326
4 Die 2000er Jahre bis 2006
[14] Mahajan, Y.S.; Fu, Z.; Malik, S.: Zchaff2004: An Efficient SAT Solver, Vol. 3542, pp. 360–375. Springer-Verlag, 2004. [15] Paulson. L.C.: ML for the Working Programmer. Cambridge University Press, 1996. P ML 96:1 1.Ex. [16] SLAM Project. http://research.microsoft.com/slam/. [17] TERMINATOR research project. http://research.microsoft.com/terminator/. [18] Verisoft Project. http://www.verisoft.de/ [19] Verisoft Repository. http://www.verisoft.de/VerisoftRepositoryDe.html [20] The VERIFIX Project. http://www.info.uni-karlsruhe.de/~verifix/.
Teil III Anhang
A.1 Bundesminister(innen) für Bildung und Forschung 20.10.1955–10.10.1956 Franz-Josef Strauß (CSU) 10.10.1956–13.12.1962 Prof. Dr.-Ing. Siegfried Balke 13.12.1962–26.10.1965 Hans Lenz (FDP) 26.10.1965–22.10.1969 Dr. Gerhard Stoltenberg (CDU) 22.10.1969–15.03.1972 Prof. Dr.-Ing. Hans Leussink 15.03.1972–15.12.1972 Dr. Klaus v. Dohnanyi (SPD) 15.12.1972 BMBW
BMFT
15.12.1972–16.05.1974 Dr. Klaus v. Dohnanyi (SPD)
15.12.1972–16.05.1974 Prof. Dr. Horst Ehmke (SPD)
16.05.1974–16.02.1978 Helmut Rohde (SPD)
16.05.1974–16.02.1978 Hans Matthöfer (SPD)
16.02.1978–28.01.1981 Dr. Jürgen Schmude (SPD)
16.02.1978–05.11.1980 Dr. Volker Hauff (SPD)
28.01.1981–04.10.1982 Björn Engholm (SPD)
06.11.1980–04.10.1982 Dr. Andreas v. Bülow (SPD)
04.10.1982–11.03.1987 Dr. Dorothee Wilms (CDU)
04.10.1982–Jan.1993 Dr. Heinz Riesenhuber (CDU)
12.03.1987–18.01.1991 Jürgen W. Möllemann (FDP)
Jan.1993–06.05.1993 Matthias Wissmann (CDU)
18.01.1991–04.02.1994 Rainer Ortleb (FDP)
06.05.1993–17.11.1994 Dr. Paul Krüger (CDU)
04.02.1994–17.11.1994 Prof. Dr.-Ing. Karl-Hans Laermann (FDP) 17.11.1994 BMBF 17.11.1994–26.10.1998 Dr. Jürgen Rüttgers (CDU) 27.10.1998–21.11.2005 Edelgard Bulmahn (SPD) 22.11.2005 Dr. Annette Schavan (CDU) Quelle: Bibliothek BMBF 329
330
Anhang
A.2 Präsidenten der Gesellschaft für Informatik (GI) 1969–1971
Vorsitzender
Prof. Dr. Günter Hotz
1971–1973
Vorsitzender
Prof. Dr. Manfred Paul
1973–1977
Vorsitzender
Prof. Dr. Heinz Gumin
1977–1979
Vorsitzender (Briefwahl 1978)
Prof. Dr. Wilfried Brauer
1980–1983
Vorsitzender (Briefwahl 1979–82)
Prof. Dr. Clemens Hackl
1984–1985
(Briefwahl 1983)
Prof. Dr. Gerhard Krüger
1986–1989
(Briefwahl 1985–87)
Prof. Dr. Fritz Krückeberg
1990–1991
(Briefwahl 1989)
Prof. Dr. Heinz Schwärtzel
1992–1993
(Briefwahl 1991)
Prof. Dr. Roland Vollmar
1994–1995
(Briefwahl 1993)
Prof. Dr. Wolfgang Glatthaar
1996–1997
(Briefwahl 1995)
Prof. Dr. Wolffried Stucky
1998–1999
(Briefwahl 1997)
Prof. Dr. Gerhard Barth
2000–2003
(Briefwahl 1999+2001) Prof. Dr. Heinrich C. Mayr
2004–2007
(Briefwahl 2003)
Präsidenten
Prof. Dr. Matthias Jarke Quelle: GI-Geschäftsstelle
Anhang
331
A.3 Präsidenten der DFG (Nach Fusion der Notgemeinschaft der Deutschen Wissenschaft und Deutschem Forschungsrat zur Deutschen Forschungsgemeinschaft 1951) Prof. Dr. Ludwig Raiser 1952–1955 (Rechtswissenschaften) Prof. Dr. Gerhard Hess 1955–1964 (Romanistik) Prof. Dr. Julius Speer 1964–1973 (Forstwissenschaften) Prof. Dr. Heinz Maier-Leibnitz 1973–1979 (Experimentalphysik) Prof. Dr. Eugen Seibold 1980–1985 (Geologie) Prof. Dr. Hubert Markl 1986–1991 (Biologie) Prof. Dr. Wolfgang Frühwald 1992–1997 (Neuere Deutsche Literaturwissenschaft) Prof. Dr. Ernst-Ludwig Winnacker 1998–2006 (Biochemie) Prof. Dr.-Ing. Matthias Kleiner seit 01.01.2007 (Fertigungstechnik) Quelle: Presse- und Öffentlichkeitsarbeit DFG
332
Anhang
A.4 Präsidenten der Fraunhofer-Gesellschaft 1949–1951
Prof. Dr. Walther Gerlach
1951–1955
Generaldirektor Dr.-Ing. e.h. Wilhelm Roelen
1955–1964
Dr. phil., Dr.-Ing. e.h. Hermann von Siemens
1964–1969
Prof. Dr.-Ing. Dr. h.c. Franz Kollmann
1969–1974
Prof. Dr.-Ing. Otto Mohr ab 24.09.1971 erster hauptamtlicher Präsident
1974–1983
Dr. rer. nat. Heinz Keller
1983–1993
Prof. Dr. rer. nat. Max Syrbe
1993–2002
Prof. Dr.-Ing. Hans-Jürgen Warnecke
seit 1.10.2002 Prof. Dr.-Ing. Hans-Jörg Bullinger Quelle: Fraunhofer-Gesellschaft