Auch Roboter können fliegen, aber…..

Image: winfuture.de

Auch Roboter können fliegen, sie könnten es aber nicht auf dem gleichen Sicherheitsniveau wie die bemannte Luftfahrt. Zudem sei es mehr als fraglich, ob automatisierte Flugsysteme/Robo-Piloten auf absehbare Zeit effizienter oder effektiver als bemannte Systeme sind. Zu diesem Schluss kamen die Teilnehmer des 22. Symposiums des Forschungsnetzwerk für Verkehrspilotenausbildung (FHP), das Ende September stattfand.

Ein Gastbeitrag von Max Scheck, Lufthansa Kapitän A320, Master of Aeronautical Science und Vorstandsmitglied des Forschungsnetzwerks für Verkehrspilotenausbildung, FHP.

Über zwei Tage diskutierten Vertreter aus Forschung, Lehre und Flugbetrieb über diverse Aspekte der Künstlichen Intelligenz in der Verkehrsfliegerei. Übergreifendes Thema des Symposiums war „Lernen Roboter das Fliegen? – Wie wird sich der aktuelle Hype um künstliche Intelligenz (KI) auf die Arbeit im Cockpit sowie auf die Aus-, Fort- und Weiterbildung von Piloten auswirken?“

Manfred Müller, Lufthansa Flugkapitän A330/350/340 und Flugsicherheits- (Safety) Experte, informierte in seinem Vortrag „Künstliche Intelligenz in der Flugführung“ über Sicherheit bei unbemannten Systemen. Er betonte, dass für eine seriöse Erfassung des Sicherheitsniveaus immer die Gesamtwahrscheinlichkeiten (welche sich aus der Betrachtung und Analyse von Einzelwahrscheinlichkeiten ergeben) betrachtet werden müssen. Im Bereich unbemannter Verkehrssysteme stellt ein Gesamt-Sicherheitsniveau von weniger als 10E-5 die Industrie momentan vor große Probleme. Selbst relativ weit fortgeschrittene Projekte, wie „selbstfahrende Autos“, hängen den klassischen (bemannten) Systemen hier noch weit hinterher. So ist beispielsweise die Fahrt im „Google-Car“ in Kalifornien 15-mal gefährlicher als die gleiche Fahrt mit einem Durchschnitts-Autofahrer. Ein Sicherheitsniveau von 10E-5 würde für die Verkehrsluftfahrt einen Totalverlust pro Tag bedeuten.

Angriffsmöglichkeit bei vernetzten Systemen

Neben der Flugsicherheit (Safety) kommt aber auch der Luftsicherheit (Security) im Zusammenhang mit KI eine besondere Bedeutung zu, da eine schnelle, zuverlässige und sichere (vor unbefugtem Zugriff geschützte) Daten-Verbindung eine Grundvoraussetzung innerhalb eines stärker automatisierten Systems ist. Mathias Gärtner, Dipl. Ing./öffentl. best. Sachverständiger für IT und Netzwerktechnik, zeigte dies in seinem Vortrag „Generelle Angriffsmöglichkeiten bei vernetzten Systemen“. Gärtner wies darauf hin, dass der Aufwand, sowohl was die Hard- und Software als auch den Energieaufwand betrifft, exponentiell mit der Qualität der obigen Kriterien (Geschwindigkeit, Zuverlässigkeit und Sicherheit der Datenverbindung) steigt. Dennoch wird es eine hundertprozentige Sicherheit nie geben. Schwachstellen werden früher oder später erkannt und dann auch oft ausgenutzt. Um dem entgegenzuwirken, sollte der Mensch im System nicht nur eine „Schnittstelle“ sein, sondern auch immer eine Art „Gateway-Funktion“ (Kontrolle des Übergangs von Sensornetzwerk zum Steuerungsnetzwerk) innehaben. Je weitreichender mögliche Auswirkungen etwaiger Systemschwächen (Hard- und/oder Software), bzw. Angriffe auf das System sind, desto wichtiger ist diese Gateway-Funktion.

Menschliche versus Künstliche Intelligenz im Cockpit

Auf die Energiebilanz automatisierter Systeme ging Prof. Gerd Faber in seinem Vortrag „Menschliche versus Künstliche Intelligenz im Cockpit“ ein. Prof. Faber fragt sich, ob vielen Endnutzern moderner digitaler Infrastruktur eigentlich bewusst ist, wie hoch der Energieaufwand hierfür ist. So benötigt beispielsweise Bitcoin pro Jahr mittlerweile für ihre Dienstleistungen mehr Energie als die gesamte Schweiz pro Jahr – oder im gleichen Zeitraum die Rechenzentren der Finanzdienstleister in Frankfurt mehr Energie als der Frankfurter Flughafen. Aber auch vermeintlich „kleine Dinge“, wie zum Bespiel eine Abfrage mit der Suchmaschine Google benötigt so viel Energie wie eine 11-Watt Energiesparlampe in der Stunde verbraucht. Für eine entsprechend sichere und leistungsfähige Infrastruktur eines „menschenlosen Cockpits“ wäre sicherlich ein hoher Energieaufwand nötig (siehe oben) und Prof. Faber bezweifelt, dass die Energiebilanz im Vergleich zu einem bemannten Cockpit am Ende positiv ausfallen kann.

Was tun mit der Angst?

Diese Gedanken nahm Dr. med. Silke Darlington in ihrem Vortrag „Wem gehört der Lernprozess und was tun mit der Angst?“ auf. Dr. Darlington hatte bereits bei früheren FHP-Symposien darauf hingewiesen, dass die Bestrebungen, den Menschen aus dem Cockpit „heraus-zu-automatisieren“, aus medizinischer und insbesondere aus menschlicher Sicht bedenklich sind. Zum einen sei das menschliche Gehirn in der Gesamtbilanz (Energieaufwand zu komplexer Leistung) nach wie vor der wahrscheinlich leistungsfähigste Prozessor auf unserem Planeten, zum anderen sei davon auszugehen, dass sich Automatisierung / Automation am Arbeitsplatz – wenn nicht ergonomisch sinnvoll gestaltet und begleitet – nachhaltig negativ auf die psychische und somatische Gesundheit betroffener Mitarbeiter auswirken könne. Viele Menschen würden mit Automation und KI bestimmte Befürchtungen (z.B. Unfreiheit, Überwachung und Versklavung) verbinden, welche in der Arbeitssituation als erhebliche Stressoren (z.B.  Verlust des freien Willens, Vertrauensverlust, Selbstwertverlust, Verlust der Menschlichkeit) wirksam werden könnten. Diese Stressoren wiederum bedienten menschliche „Ur-Ängste“, wie die Angst vor Kontrollverlust, vor Versagen und vor Zurückweisung aus der Gemeinschaft / Kollegenschaft (z.B. durch Ausgrenzung oder Entlassung).

Dr. Darlington hinterfragte, ob diese evolutionsbedingt im Menschen verankerten Faktoren in den gegenwärtigen Entwicklungsprozessen hinreichend berücksichtigt werden und befürchtet, nicht zuletzt im Cockpit, eine zunehmende soziale Isolation. Vor diesem Hintergrund bemängelte sie das reale Risiko eines künftigen Abzugs menschlicher Mitarbeiter aus Verwendungsbereichen menschlicher Stärke zugunsten ihres Einsatzes in Bereichen menschlicher Schwäche. Sie wünscht sich, dass der Entwicklungsprozess und die damit verbundenen Lernprozesse weiterhin den Menschen als Lernenden gehören und sich nicht vor der Zeit vom Menschen weg verselbstständigen mögen. In Anlehnung an Erik Hollnagel sollten somit auch weiterhin die Stärken und Schwächen des Menschen im Vordergrund stehen und als Orientierungshilfe für die Weiterentwicklung der Automatisierung in einer den Menschen unterstützenden Rolle dienen – um mit diesem Ansatz das bestmögliche Gesamtergebnis für alle Beteiligten zu erzielen

Roboter haben keine Gefühle

Prof. Gabriele Heitmann knüpfte in ihrem Vortrag „Welche psychischen und physischen Auswirkungen könnte der verstärkte Einsatz von KI auf Piloten haben?“ nahtlos hieran an. Eigentlich soll Automation und KI dem Menschen die Arbeit erleichtern – insbesondere dadurch, dass unangenehme Aufgaben von der Technik übernommen werden. Tatsächlich leistet die Technik dies auch, aber ob sich die Belastung, vor allem die mentale Beanspruchung reduziert hat ist mehr als fraglich. Im Gegensatz zum Menschen haben  technische Systeme/Roboter keine Gefühle (das wird ja explizit auch als Vorteil gegenüber sozialen Systemen postuliert) – dennoch neigen wir Menschen dazu in der Interaktion mit den Systemen, insbesondere hochentwickelten Systemen, diesen eine Rolle zuzuschreiben, welche durchaus emotionale Komponenten enthält. Diese Rollenzuschreibung hängt dabei stark von der Einstellung des Menschen ab, welche interessanterweise große kulturelle Unterschiede aufweisen. So lassen sich folgenden Grundeinstellungen bezüglich des Verhältnisses zu Automation/Robotern unterscheiden:

In den USA dominiert das Rollenbild der Automation/Roboter als „Diener“, in China als „Kollegen“, in Japan als „Freunde“ und in Europa eher als „Feinde/Konkurrenten“. Unabhängig von einer etwaigen Bewertung dieser unterschiedlichen Rollenzuschreibungen, ergeben sich daraus aber unterschiedliche Formen der Interaktion, welche sich wiederum in der System-Architektur und der Programmierung widerspiegeln. Es sollte, laut Prof. Heitmann, hier deutlich mehr geforscht werden und gegebenenfalls das Training entsprechend angepasst werden. Ein Lernen der Automation und/oder Lernen unter verstärkter Nutzung der Automation kann nur dann funktionieren, wenn das Rollenverständnis adäquat berücksichtigt wird. Zumindest müssen die Nutzer/Anwender moderner hochautomatisierter Systeme/Roboter auf die möglichen Stressoren hingewiesen werden. Erkenntnisse aus der Andragogik haben gezeigt, dass Erwachsene dann am besten lernen, wenn sie intrinsisch motiviert sind.

Antworten aus der Hirnforschung

Prof. Gertraud Teuchert-Noodt bestätigte dies aus der Sicht der modernen Hirnforschung in ihrem Vortrag „Kann der Verkehrspilot durch autonomes Fliegen ersetzt werden? Antworten aus der Hirnforschung“. Die Lernprozesse im menschlichen Gehirn sind komplexe elektrochemische Prozesse, welche ein Mindestmaß an Zeit und bestimmter sensorischer Reize bedürfen. Wenn die Kooperation zwischen Menschen und Maschine dem nicht ausreichend Rechnung trägt, besteht die Gefahr einer psycho-physischen Abhängigkeit, durch die Konzentration und Flexibilität beeinträchtigt werden. Dies kann zu den oben erwähnten Stressoren führen, was eine induzierende Auswirkung mit den psychosomatischen Folgen von Schlafstörungen und Konzentrationsschwächen nach sich ziehen und letztendlich zum Burnout-Syndrom weiterentwickeln kann.

KI – Große Herausforderung für die Fluglotsen

Edwin Stamm (ATM Spezialist und Leiter Compliance, Trainingskonzepte, Support Deutsche Flugsicherung) und Herbert Hoffmann (Ph.D. DFS Senior Expert Training Concepts) zeigten in ihrem Vortrag „Die DFS im Luftverkehrssystem“, dass die obigen Themen auch im Bereich der Flugsicherung hochaktuell sind. Zum einen findet auch auf dem Fluglotsenarbeitsplatz eine zunehmende Automatisierung (bis hin zu „Remote Tower“ Konzepten) statt. Zusätzlich ändern sich die Anforderungen der erforderlichen Dienstleistungen, z.B. durch verstärkten Einsatz von Drohnen insbesondere in den unteren Lufträumen. Gleichzeitig wünschen sich einige Fluglotsen der jüngeren Generationen die Option für ein, an die Fluglotsen-Ausbildung gekoppeltes, Studium. All diesen Faktoren gerecht zu werden ist für die DFS-Akademie eine große Herausforderung. Insbesondere, da wirtschaftliche Überlegungen natürlich auch eine Rolle spielen und aufgrund eines momentanen Mangels an ausgebildeten Fluglotsen ein nicht unerheblicher Druck für möglichst schnelle und effiziente Ausbildung besteht. Stamm und Hoffmann sehen in dem verstärkten Einsatz von Automation und KI, sowohl in Ausbildung als auch auf dem späteren Lotsen-Arbeitsplatz, zwar einige Möglichkeiten, aber keinen Ersatz für den Menschen.

Das wirtschaftliche Aspekte ein wichtiger Faktor sind bestätigten Andreas Klein (FO, B.Eng.) und Christopher Lohrey (FO , M.Eng, MBA) in ihren jeweiligen Vorträgen „The Pandora’s Box of Aviation Training – Neue Wege zu nachhaltigem eLearning-Inhalten“ und „Marktforschung in der Luftfahrt“. Gerade in der „kommerziellen“ Luftfahrt können sich die Manager den wirtschaftlichen Zwängen nicht entziehen und seriöse Marktforschung kann entscheidend zum Erfolg oder Misserfolg beitragen. Die oben erwähnten Erkenntnisse aus der Medizin, Psychologie und Hirnforschung müssen aus Sicht von Klein und Lohrey in eine solche Markforschung mit einbezogen werden. Moderne Aus-, Fort- und Weiterbildung von Piloten (und anderen Luftverkehrsberufen wie Fluglotsen, Mechanikern, Dispatchern, Flugbegleitern) müssen mit dem realen Arbeitsumfeld Schritt halten – sowohl was die Inhalte als auch die verwendeten Medien (z.B. eLearning) anbelangt. Die Konzepte müssen so ausgelegt werden, dass daraus eine möglichst optimale Mensch-Maschine (System) Kombination resultiert, welche die jeweiligen Stärken und Schwächen berücksichtigt. Automation und KI sollten kein Selbstzweck sein.

Dies war auch der Tenor der nachfolgenden Diskussionen. Dabei wurde deutlich, dass momentan leider die Tendenz zu beobachten ist, dass Automation/KI verstärkt Ausführung übernehmen soll und der Mensch dies „nur“ noch überwacht. Menschen sind allerdings für eine „bloße Überwachung“ von Aufgaben eher schlecht geeignet. Sinnvoller wäre es, sowohl aus psychologischer, neurologischer, medizinischer Sicht – sowie aus den langjährigen operationellen Erfahrungen heraus – wenn Menschen eher ausführen und die Automation/KI dabei unterstützt (überwacht und bei Bedarf helfend eingreift). Wenn die Systeme sinnvoll die jeweiligen Stärken und Schwächen von Menschen und Maschine berücksichtigen, wird dadurch letztendlich ein optimales Ergebnis erzielt, welches effizient und effektiv (somit auch ökonomisch sinnvoll) ist.

Details zu FHP finden Sie unter https://www.fhp-aviation.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert