Menschlicher Fehler

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Das ICE-Unglück von Eschede (1998) gründete auf Wartungsversäumnissen

Als menschlichen Fehler bezeichnet man Fehler, die ein Mensch durch sein Handeln (Fehlbedienung) bzw. Nichthandeln oder durch seinen körperlich-geistigen Zustand zu verantworten hat. Fehlverhalten kann sowohl wissentlich als auch unwissentlich begangen werden.

Das Gegenstück zu menschlichen Fehlern ist der technische Defekt.

Menschliche Fehler können in allen Lebensbereichen, Situationen und in jedem Personenkreis passieren.

Besonders folgenreich für Andere sind Fehler bei Maschinenführern, Anlagenbedienern oder ähnliches (z. B. Kraftwerke, Fahrzeuge, Computersysteme und medizinisches Personal); hier hat der sogenannte Human Factor eine große Bedeutung.

Menschliche Fehler haben oft folgende Ursachen:

Der Tanker Exxon Valdez (Schiffskatastrophe mit Ölpest 1989)

Falsche Organisation von Lernprozessen

[Bearbeiten | Quelltext bearbeiten]

Nach Levinthal und March[1] stehen Organisationen vor dem Dilemma, neue hochwertige Wissensquellen erschließen zu müssen, ohne das bestehende Wissen der Mitarbeiter zu vernachlässigen. Dieses Problem lösen Organisationen durch (Über-)Spezialisierung oder (Über-)Simplifizierung der Lernprozesse. Insgesamt ergibt sich dadurch ein Bias zugunsten der Ausbeutung bestehender Wissensressourcen und vorhandener Erfahrungen, der sich als dreifache organisatorische Kurzsichtigkeit (Myopia) beschreiben lässt, und zwar im Hinblick auf Vorgänge in entfernten Räumen, weit entfernten Zeiten (sowohl Vergangenheit als auch Zukunft) und bereits gemachte Fehler. D.h. Organisationen erkennen selten das Lernpotenzial, das in Fehlern steckt. Das gilt z. T. auch für die ingenieurpsychologische Fehlerforschung.[2]

Manche Fehlentscheidungen können sich durch Fehlerketten verselbstständigen, d. h. Fehler – auch von technischer Seite – bedingen einander (Domino-Effekt), wie z. B. bei der Katastrophe von Tschernobyl.

Eisenbahnunfall am Bahnhof Montparnasse (1895) aufgrund einer Fehlbedienung

Viele Unglücksfälle sind auf menschliches Fehlverhalten zurückzuführen, zum Beispiel bedeutende Katastrophen der Seefahrt wie der Untergang der Titanic und der Unfall der Exxon Valdez vor Alaska. Menschliche Fehler haben fast immer Auswirkungen, sowohl im Innen- als auch im Außenverhältnis.

Innenverhältnis

[Bearbeiten | Quelltext bearbeiten]

Die Auswirkungen im Innenverhältnis umfassen unter anderem negative Emotionen, Vorwürfe, „schlechtes Gewissen“, Traumata, Verzweiflung und im Extremfall Suizid.

Außenverhältnis

[Bearbeiten | Quelltext bearbeiten]

Die Auswirkungen im Außenverhältnis können unter anderem sein: Ein Unfall oder eine Katastrophe, Schadenseintritte, Umweltverschmutzung, Schuld, Strafe, Kündigung, Trennung von Partnern, Öffentlichkeit und im Extremfall Menschenleben.

Viele verhängnisvolle menschliche Fehler werden ausgewertet, damit sie sich durch Vorkehrungen in der Zukunft nicht wieder ereignen. Dies kann durch Fortbildung des Adressatenkreises, Modifikationen von Vorgaben bzw. technischer Abläufe oder Konstruktionen, durch Neufassung von Vorgaben sowie durch Innovationen in der Technik erreicht werden.

Zur Vermeidung von menschlichen Fehlern existieren sehr häufig Kontrollinstanzen und Arbeitsanweisungen, z. B. Vorschriften des Staates, der Verbände, der Berufsgenossenschaften oder der Unternehmen.

Verantwortliche können je nach Schwere der Schuld und Vorwerfbarkeit einer Vielzahl von Rechtsfolgen ausgesetzt werden, z. B. zivilrechtlich und nach Sanktionsnormen. In schwerwiegenden Fällen kann durch ein Strafgericht auch ein Berufsverbot als Nebenstrafe zum Tragen kommen.

Zivilrechtlich kommt allgemein das Vertretenmüssen in Betracht. Als Folgen sind finanzielle Forderungen (Regress/Schadenersatz), Abmahnung, Kündigung von Verträgen oder auch Versetzungen denkbar. Dienstrechtlich kommen die Bestimmungen über das Verhalten (z. B. „volle Hingabe“, „Gesetzestreue“) sowie als Auswirkung beispielsweise disziplinarrechtliche Folgen in Betracht.

Im Strafrecht kommt hier die Fahrlässigkeit, gegebenenfalls mit der Sonderform Leichtfertigkeit, zum Tragen. Es kommen insbesondere folgende Sanktionsnormen zur Anwendung: Fahrlässige Körperverletzung, Verkehrsstraftaten (meist Gefährdung des Straßenverkehrs) und fahrlässige Tötung.

Der Begriff menschliches Versagen ist ein häufig verwendetes Synonym für menschliche Fehler. Er beinhaltet jedoch eine Vorverurteilung des Menschen als Ursache ohne Berücksichtigung unzureichender Technik. In vielen Fällen hat der Mensch nicht versagt, sondern war aufgrund seiner Fähigkeiten nicht in der Lage, ein von ihm oder von der Technik ausgehendes Problem rechtzeitig zu lösen.

Es gibt außerdem Auswirkungen, die sowohl auf menschliche Fehler als auch auf technische Defekte zurückzuführen sind. Da technische Defekte oft ihrerseits direkt oder indirekt wieder auf menschliche Fehler zurückführen (Mangelnde Wartung, mangelhafte Qualitätskontrolle, Konstruktionsfehler, ausbleibende Vor- und Nachsorge), sind genaugenommen die meisten Unfälle auf menschliche Fehler zurückzuführen. Jedoch kann es bei Technik auch durch zufällige Fehler zu einem Versagen kommen. Die Wahrscheinlichkeit dafür lässt sich zwar reduzieren, jedoch nicht auf 0. Siehe zum Beispiel Soft Error, Bitfehlerrate und Fehlerkorrekturverfahren.

Ein eigenes Forschungsgebiet ist das Fehlermanagement. Es beschreibt, wie ein Mensch in einem Mensch-Maschine-System mit Fehlern, unabhängig von deren Ursache, umgeht. Die Fähigkeit zum Fehlermanagement ist ein wesentlicher Grund, Menschen mit hoher Verantwortlichkeit im technischen System zu belassen. Gutes Fehlermanagement kann darüber entscheiden, ob ein menschlicher Fehler oder technischer Defekt zur Katastrophe führt oder nicht.

  • Petra Badke-Schaub, Gesine Hofinger, Kristina Lauche (Hrsg.): Human Factors. Psychologie sicheren Handelns in Risikobranchen. 2. Auflage. Springer, Heidelberg 2012, ISBN 978-3-642-19885-4.
  • Dietrich Dörner: Die Logik des Misslingens – Strategisches Denken in komplexen Situationen. Rowohlt, Reinbek 1993, ISBN 3-499-19314-0.
  • Ulrich Frey: Der blinde Fleck: Kognitive Fehler in der Wissenschaft und ihre evolutionsbiologischen Grundlagen. Ontos, Heusenstamm 2007. ISBN 978-3-938793-51-0.
  • Manfred Osten: Die Kunst, Fehler zu machen. Plädoyer für eine fehlerfreundliche Irrtumsgesellschaft. Suhrkamp, Frankfurt am Main 2006, ISBN 978-3-518-41744-7.
  • James Reason: Menschliches Versagen. Psychologische Risikofaktoren und moderne Technologien. Spektrum, Heidelberg 1994. <EST: Human error, dt.> ISBN 3-86025-098-1.
  • James Reason: Human error. Cambridge University Press, Cambridge 1990, ISBN 0-521-30669-8.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Daniel A. Levinthal, James G. March, The Myopia of Learning, Strategic Management Journal, Volume 14, Special Issue S2, S. 95–112, Februar 1993
  2. Hans-Jürgen Weißbach, Michael Florian, Eva-Maria Illigen u. a., Technikrisiken als Kulturdefizite, Berlin: Sigma 1994, S. 43 ff.