Quality Services & Wissen GmbH | Friedrich-Ebert-Anlage 36 | 60325 Frankfurt am Main | info@quality.de | +49 (0) 69-34872259-0
quality.de | opex.de | kvp.de
Skip to main content

Der Fehler hinter dem Fehler

Coverbild: Verschränkte Zahnräder einer Prozesskette, in denen ein einzelnes, rot markiertes Zahnrad leicht verkantet ist – im Hintergrund schematische Prozessschritte und Silhouetten von Menschen, die an verschiedenen Stellen eingreifen. Der Fokus liegt sichtbar auf der „Verbindung“ der Zahnräder, nicht auf einem einzelnen Punktfehler.

Der Fehler hinter dem Fehler

Warum menschliche Fehlermöglichkeiten in der FMEA nicht isoliert pro Prozessschritt betrachtet werden dürfen

Autor: Andre Kapust, KVP Institut GmbH / Dr. Uwe‑Klaus Jarosch


Titelblatt

Titel des Fachberichts
Der Fehler hinter dem Fehler – Warum menschliche Fehlermöglichkeiten in der FMEA nicht isoliert pro Prozessschritt betrachtet werden dürfen

Untertitel
Ganzheitliche Betrachtung menschlicher Fehlermöglichkeiten in der FMEA –
Von der schrittbezogenen Einzelbetrachtung zur systemischen Fehlerprävention im PDCA‑Dauerprojekt

Autoren
Andre Kapust, KVP Institut GmbH
Dr. Uwe‑Klaus Jarosch

Institution / Unternehmen
KVP Institut GmbH

Zielgruppe
Führungskräfte, Fertigungs‑ und Betriebsleiter, KVP‑Verantwortliche, Fachkräfte für Arbeitssicherheit, FMEA‑Moderatoren, KVP‑Moderatoren

Ort / Datum
[Ort], September 2025


Abstract

Der vorliegende Fachbericht vertritt die These, dass menschliche Fehlermöglichkeiten in FMEAs in der Praxis häufig zu lokal, zu zufällig und zu unvollständig betrachtet werden. Die Folge sind punktuelle Maßnahmen an Einzelstellen, während prozessübergreifende Einflussgrößen – etwa Regeln, Standards, Arbeitsbedingungen, Führung und Kultur – weitgehend unentdeckt bleiben. Auf Basis einer umfangreichen Literaturrecherche aus Human Factors, Systems Safety, Qualitätsmanagement und Organisationsentwicklung sowie praktischer Erfahrung werden typische Fehlermuster, systemische Ursachen und organisationale Rahmenbedingungen beschrieben. Im Mittelpunkt stehen konkrete Vorgehensweisen, wie menschliche Fehlermöglichkeiten in der FMEA systematisch, schrittübergreifend und als Bestandteil eines PDCA‑Dauerprojekts erfasst und behandelt werden können: strukturiertes Fragenstellen, Nutzung von Fehler‑Taxonomien, Musteranalysen über Prozessschritte hinweg, regel‑ und umgebungsbezogene Ursachenanalysen sowie die Verankerung einer lernorientierten Fehlerkultur. Das zentrale Fazit: Nicht der einzelne menschliche Fehler ist das Hauptproblem, sondern seine isolierte Betrachtung. Nachhaltige Prävention gelingt nur über eine systemische Sicht auf Mensch, Prozess, Regeln, Arbeitsbedingungen, Führung und Kultur.


Inhaltsverzeichnis

  1. Einleitung und Problemstellung
    1.1 Ausgangslage in Unternehmen
    1.2 Leitthese des Fachberichts
    1.3 Theoretischer Hintergrund in Kürze
    1.4 Vorgehensweise und Methodik dieses Fachberichts

  2. Menschliche Fehler im Betriebsablauf
    2.1 Menschliche Fehlbarkeit als Normalfall
    2.2 Arten menschlicher Fehler und ihre Relevanz für FMEA
    2.3 Abgrenzung zu rein technischen oder zufälligen Ausfällen

  3. Einzelereignis oder systemisches Muster?
    3.1 Warum menschliche Einzelfehler wie „Zufall“ aussehen
    3.2 Systemische Muster hinter vermeintlichen Zufällen
    3.3 Konsequenzen für FMEA‑Teams

  4. Abgrenzung zu systematischen Fehlerbildern
    4.1 Statistisch sichtbare versus sporadische Fehler
    4.2 Warum klassische Qualitätsmethoden bei Einzelfehlern an Grenzen stoßen
    4.3 Ergänzende Vorgehensweisen für menschengemachte Einzelfehler

  5. Die FMEA als präventives Werkzeug – Fokus: Anwendung, nicht Theorie
    5.1 Typische Rolle der FMEA im Unternehmen
    5.2 Wo sie heute menschliche Fehler berührt – und wo nicht
    5.3 Ansatzpunkte, ohne Grundlagenerklärung zu wiederholen

  6. Der blinde Fleck der FMEA bei menschlichen Fehlermöglichkeiten
    6.1 Lokale statt systemische Sicht
    6.2 „Workshop‑Zufälligkeit“ statt strukturierter Erfassung
    6.3 Unterschätzte Vielfalt menschlicher Einflussgrößen

  7. Warum in der Praxis oft nur ein Teil der Fehlermöglichkeiten betrachtet wird
    7.1 Einflussfaktoren im Workshop: Zeit, Moderation, Hierarchie
    7.2 Kognitive Begrenzungen: Verfügbarkeits‑ und Bestätigungsfehler
    7.3 Organisationsbedingt: Checklisten, Vorlagen, Audits

  8. Wiederkehrende menschliche Fehlermuster über Prozessschritte hinweg
    8.1 Typische wiederkehrende Einflussgrößen
    8.2 Wie man diese Muster erkennt
    8.3 Praxisbeispiel: Von der lokalen Abweichung zum globalen Muster

  9. Regeln und Standards als Grundlage sicheren Handelns
    9.1 Warum Menschen Regeln brauchen
    9.2 Anforderungen an wirksame Regeln und Standards
    9.3 Standardisierung und Ergonomie als Fehlerprävention

  10. Wenn Regeln umgangen werden: Hinweise auf systemische Ursachen
    10.1 Regelabweichung als Symptom statt Schuld
    10.2 Typische Ursachen für Regelumgehungen
    10.3 Wie FMEA‑Teams systemische Ursachen hinter Regelbrüchen sichtbar machen

  11. Führung, Fehlerkultur und Schuldigensuche
    11.1 Die klassische „Schuldlogik“ und ihre Nebenwirkungen
    11.2 Just Culture und lernorientierter Umgang mit Fehlern
    11.3 Rolle der Führung bei der Umsetzung

  12. Lösungsansatz I: Menschliche Fehlermöglichkeiten systematischer in der FMEA erfassen
    12.1 Strukturierte Fragetechnik für jeden Prozessschritt
    12.2 Nutzung von Kategorien und Taxonomien menschlicher Fehler
    12.3 Verknüpfung schrittbezogener und schrittübergreifender Sicht
    12.4 Praktische Tipps für Moderation und Dokumentation

  13. Lösungsansatz II: Regeln, Standards und Arbeitsbedingungen anpassen
    13.1 Vom Einzelfehler zur systemweiten Regel‑ und Umfeldanalyse
    13.2 Vorgehen zur systematischen Überprüfung von Regeln und Standards
    13.3 Gestaltung der Arbeitsbedingungen: „Fehlerunfreundliche“ Umgebungen
    13.4 Umsetzung: Von FMEA‑Maßnahmenliste zum Maßnahmen‑Portfolio

  14. Lösungsansatz III: Führung, Fehlerkultur und KVP im PDCA‑Dauerprojekt verankern
    14.1 FMEA‑Erkenntnisse in den PDCA‑Regelkreis integrieren
    14.2 Rollen und Verantwortlichkeiten für menschliche Fehlermöglichkeiten
    14.3 Kennzahlen und Routinen für eine lernende Organisation
    14.4 Praxisleitfaden: So etablieren Sie das Thema als Daueraufgabe

  15. Fazit
    15.1 Zentrale Erkenntnisse
    15.2 Implikationen für die Praxis
    15.3 Grenzen und Ausblick

Abbildungs‑ und Tabellenverzeichnis
Quellenverzeichnis


Abbildungs‑ und Tabellenverzeichnis

Abbildungen
Abb. 1: Schematische Darstellung der Verschiebung vom lokalen Fehlerbild zur systemischen Sicht
Abb. 2: Beispiel eines Musters wiederkehrender menschlicher Einflussgrößen über mehrere Prozessschritte
Abb. 3: Einbettung der FMEA‑Erkenntnisse zu menschlichen Fehlern in den PDCA‑Regelkreis

Tabellen
Tabelle 1: Typologie menschlicher Fehlhandlungen und Relevanz für FMEA
Tabelle 2: Typische Workshop‑Einflussfaktoren, die zu unvollständiger Fehlererfassung führen
Tabelle 3: Beispiele wiederkehrender menschlicher Einflussgrößen über Prozessschritte hinweg
Tabelle 4: Qualitätskriterien für wirksame Regeln und Standards
Tabelle 5: Kategorien systemischer Ursachen bei Regelumgehungen
Tabelle 6: Frageliste für die systematische Erfassung menschlicher Fehlermöglichkeiten je Prozessschritt
Tabelle 7: Kategorien‑Raster zur Klassifikation menschlicher Einflussgrößen in der FMEA
Tabelle 8: Schritte zur systematischen Überprüfung von Regeln und Arbeitsbedingungen
Tabelle 9: Rollen und Routinen zur Verankerung im PDCA‑Dauerprojekt


1. Einleitung und Problemstellung

1.1 Ausgangslage in Unternehmen

In nahezu allen Wertschöpfungsprozessen moderner Unternehmen sind Menschen aktiv beteiligt – in Entwicklung, Planung, Fertigung, Logistik, Instandhaltung, Qualitätsprüfung und Administration. Mit menschlicher Beteiligung geht zwangsläufig auch die Möglichkeit menschlicher Fehlhandlungen einher. Studien aus Luftfahrt, Medizin und Prozessindustrie zeigen konsistent, dass menschliche Faktoren bei einem erheblichen Anteil schwerwiegender Ereignisse mitwirken, häufig im Zusammenspiel mit technischen und organisatorischen Ursachen [Reason 1990; Dekker 2014; Hollnagel 2014].

In produzierenden Unternehmen wird die FMEA häufig als zentrales präventives Werkzeug eingesetzt, um Fehlerursachen zu identifizieren und Risiken zu reduzieren. Formell werden dabei auch „menschliche Fehlermöglichkeiten“ berücksichtigt. In der Praxis zeigt sich jedoch ein wiederkehrendes Muster:

  • Menschliche Fehler werden meist nur an einzelnen Prozessschritten diskutiert, bevorzugt dort, wo bereits Vorkommnisse oder Reklamationen bekannt sind.
  • Die Zahl der erfassten menschlichen Fehlermöglichkeiten hängt stark von Zeit, Moderation und der Spontanität der Teilnehmenden ab – weniger von einer systematischen Suchlogik.
  • Wiederkehrende Einflüsse (z.B. schlechte Beleuchtung, unklare Arbeitsanweisungen, ständige Unterbrechungen, widersprüchliche Ziele) werden an einzelnen Schritten vermerkt, aber selten als übergreifendes Muster im Prozesssystem erkannt.

So entsteht der Eindruck lokaler, voneinander getrennter Einzelprobleme, obwohl die Ursachen häufig prozessübergreifend wirken. Genau hier liegt der „Fehler hinter dem Fehler“: Der eigentliche Analysefehler ist die zu enge, rein schrittbezogene Betrachtung menschlicher Einflussgrößen.

1.2 Leitthese des Fachberichts

Die zentrale These dieses Fachberichts lautet:

Menschliche Fehlermöglichkeiten werden in FMEAs in der Praxis häufig zu lokal, zu zufällig und zu unvollständig betrachtet, obwohl ihre Ursachen oft prozessübergreifend und systemisch sind. Dadurch entstehen isolierte Maßnahmen mit begrenzter Wirkung. Nachhaltige Fehlerprävention gelingt nur über eine systemische Betrachtung von Mensch, Prozess, Regeln, Arbeitsbedingungen, Führung und Kultur – eingebettet in ein PDCA‑Dauerprojekt.

Damit verschiebt sich der Fokus:

  • Weg von der Frage: „Welcher Bedienfehler könnte hier passieren?“
  • Hin zur Frage: „Welche wiederkehrenden menschlichen Einflussgrößen zieht sich durch viele Schritte? Welche Rahmenbedingungen machen ähnliche Fehler an mehreren Stellen wahrscheinlich?“

1.3 Theoretischer Hintergrund in Kürze

Mehrere etablierte theoretische Ansätze stützen diese Sicht:

  • Systemtheorie und soziotechnische Systeme: Organisationen sind vernetzte Systeme aus Technik, Mensch und Organisation [Carayon 2006]. Lokale Ereignisse sind oft Ausdruck systemischer Wechselwirkungen.
  • Swiss‑Cheese‑Modell: Unfälle resultieren aus dem Zusammenwirken mehrerer Barrierenversagen („Scheiben“), selten aus einem einzelnen individuellen Fehler [Reason 1997].
  • Skills–Rules–Knowledge‑Modell (SRK): Menschliches Handeln basiert teils auf Automatismen, teils auf erlernten Regeln, teils auf bewusster Problemlösung [Rasmussen 1983]. Fehlerursachen liegen entsprechend auf unterschiedlichen Ebenen.
  • Just Culture und lernorientierte Fehlerkultur: Ein reiner Schuld‑Fokus verhindert Lernen und systemische Verbesserungen [Dekker 2007; Reason 1998].
  • Deming und Systemverantwortung: Deming schätzte, dass der überwiegende Teil der Fehler (oft zitiert: 85–95 %) auf systemische Ursachen zurückgeht, die im Verantwortungsbereich des Managements liegen [Deming 1982].

Diese Ansätze legen nahe, dass menschliche Fehler vor allem als Systemphänomen verstanden und behandelt werden müssen – nicht primär als individuelles Versagen.

1.4 Vorgehensweise und Methodik dieses Fachberichts

Der Bericht basiert auf:

  • einer breit angelegten Literaturrecherche zu Human Factors, Systems Safety, Organisationsentwicklung und praxisnahen FMEA‑Anwendungen mit Fokus Mensch,
  • der Auswertung von Normen und Leitfäden (z.B. AIAG‑VDA FMEA, IEC 60812, ISO 31010, ISO 9001, ISO 6385),
  • praxisbezogenen Erfahrungen aus FMEA‑Workshops, Ursachenanalysen und KVP‑Projekten in verschiedenen Branchen.

Wesentlich: Es geht nicht darum, FMEA oder KVP grundlegend zu erklären. Als bekannt vorausgesetzt werden:

  • Grundstruktur der FMEA,
  • Grundidee des PDCA‑Zyklus und des kontinuierlichen Verbesserungsprozesses (KVP).

Im Zentrum steht ausschließlich: Was ist für eine ganzheitliche Betrachtung menschlicher Fehlermöglichkeiten zu tun – und vor allem wie lässt sich dies praktisch umsetzen?


2. Menschliche Fehler im Betriebsablauf

2.1 Menschliche Fehlbarkeit als Normalfall

Human Factors‑Forschung ist sich einig: Irren ist kein Ausnahmephänomen, sondern integraler Bestandteil menschlichen Handelns. Reason spricht von „human error is normal“ [Reason 1990], Hollnagel von der „doppelten Natur menschlicher Leistung“: Die Flexibilität, die Systeme leistungsfähig macht, ermöglicht zugleich Fehler [Hollnagel 2014].

Für betriebliche Abläufe bedeutet das:

  • Wo Menschen Entscheidungen treffen, sehen, greifen, prüfen, bewerten oder kommunizieren, sind Fehlhandlungen prinzipiell immer möglich.
  • Ziel kann daher nicht „Fehlerfreiheit des Menschen“ sein, sondern Fehlerrobustheit der Prozesse.

2.2 Arten menschlicher Fehler und ihre Relevanz für FMEA

Für die FMEA‑Praxis ist es hilfreich, menschliche Fehlhandlungen grob zu unterscheiden – nicht theoretisch, sondern um gezielte Fragen stellen zu können. Eine verbreitete Einteilung nach Reason [1990] und Rasmussen [1983]:

Tabelle 1: Typologie menschlicher Fehlhandlungen und Relevanz für FMEA

Typ Kurzbeschreibung Relevanz für FMEA‑Fragen
Slips Ausführungsfehler trotz richtiger Absicht (z.B. „Aus Versehen“) Fragen nach Ablenkungen, Interface‑Gestaltung, Ähnlichkeit von Bedienelementen
Lapses Gedächtnisfehler (Vergessen, Verwechseln) Fragen nach Gedächtnisbelastung, Unterbrechungen, Erinnerungsstützen
Rule‑based errors Falsche oder unpassende Anwendung von Regeln Fragen nach Klarheit, Aktualität und Plausibilität von Regeln/Arbeitsanweisungen
Knowledge‑based errors Fehlentscheidungen in neuen, komplexen Situationen Fragen nach Qualifikation, Informationslage, Unterstützung bei Problemlösung
Violations Bewusste Abweichungen von Regeln Fragen nach Zielkonflikten, unpraktikablen Regeln, Kultur und Führung

Diese Kategorien sind kein akademischer Selbstzweck, sondern liefern eine Struktur, um im FMEA‑Workshop die Fragen nicht dem Zufall zu überlassen (Kapitel 12).

2.3 Abgrenzung zu rein technischen oder zufälligen Ausfällen

Rein technische Fehler (z.B. Materialbrüche ohne Bedienfehler) werden in FMEAs seit Jahrzehnten behandelt. Menschliche Faktoren wirken jedoch oft:

  • als Auslöser (z.B. falsche Parametereingabe),
  • als Verstärker (z.B. Nicht‑Entdecken eines Vorfehlers),
  • oder als Folge von Systemschwächen (z.B. chronische Überlastung).

Wichtig ist, menschliche Fehler nicht mit „zufälligen“ Fehlern zu verwechseln:

Viele scheinbare Einzelfehler weisen bei genauer Betrachtung klare Regelhaftigkeiten auf (z.B. Häufung bei Schichtwechseln, in bestimmten Bereichen, bei bestimmten Auftragslagen) [Carayon 2006].


3. Einzelereignis oder systemisches Muster?

3.1 Warum menschliche Einzelfehler wie „Zufall“ aussehen

In der Produktion kennen wir „statistisch signifikante“ Fehlerbilder: Wiederkehrende Ausschussarten, Muster in SPC‑Daten, Häufungen in bestimmten Zellen. Menschliche Fehlhandlungen erscheinen demgegenüber oft:

  • zeitlich verstreut,
  • ohne klaren Trend,
  • in wechselnden Konstellationen.

Dadurch werden sie intuitiv als Einzelfälle interpretiert. Forschung zeigt jedoch, dass viele sogenannte „Einzelfehler“ ähnlich gelagerte Kontextbedingungen teilen [Dekker 2014; Senders & Moray 1991]:

  • ähnliche Informationsknappheit,
  • ähnliche Störungen oder Unterbrechungen,
  • vergleichbare Zielkonflikte (Zeit vs. Qualität),
  • wiederkehrende Unklarheiten in Schnittstellen.

3.2 Systemische Muster hinter vermeintlichen Zufällen

Reason [1997] und Rasmussen [1997] weisen darauf hin, dass Organisationen systematisch in Richtung von Effizienz‑ und Belastungsgrenzen „driften“, wenn Steuerungsmechanismen fehlen. Dadurch entstehen Muster, die einzelne Fehlhandlungen wahrscheinlicher machen:

  • Dauerhafter Personalmangel → chronischer Zeitdruck → steigende Neigung, Prüfungen abzukürzen.
  • Uneinheitliche oder realitätsferne Arbeitsanweisungen → wachsende Regelunsicherheit → Zunahme individueller „Work‑arounds“.
  • Intransparente Zielvorgaben → lokale Optimierungen → Vernachlässigung von Gesamtrisiken.

Empirische Untersuchungen in Hochrisikobranchen (Luftfahrt, Kerntechnik, Medizin) belegen, dass schwere Ereignisse fast immer Ergebnis mehrerer, sich verstärkender systemischer Faktoren sind, nicht des „einen großen Fehlers“ einer Person [Reason 1997; Vincent 2010; Hollnagel 2014].

3.3 Konsequenzen für FMEA‑Teams

Für die FMEA‑Praxis folgt daraus:

  • Einzelne menschliche Fehlhandlungen sind Hinweispunkte auf zugrunde liegende Muster, nicht der Gegenstand an sich.
  • FMEA‑Teams sollten bewusst fragen:
    • „Wo sonst im Prozess könnten ähnliche Bedingungen herrschen?“
    • „Welche wiederkehrenden Faktoren verbinden unterschiedliche menschliche Fehler?“

Abbildung 1 (schematisch):
Vom lokalen Fehlerbild („Hier hat jemand eine Schraube vergessen anzuziehen“) zur systemischen Sicht („In wie vielen Schritten ist das Arbeitsumfeld so gestaltet, dass Teile leicht vergessen werden können?“).


4. Abgrenzung zu systematischen Fehlerbildern

4.1 Statistisch sichtbare versus sporadische Fehler

Klassische Qualitätswerkzeuge (SPC, Pareto‑Analysen, Fähigkeitsindizes) setzen voraus, dass Fehler hinreichend häufig auftreten, um statistisch sicher analysiert zu werden. Bei vielen menschlichen Fehlhandlungen ist das nicht der Fall:

  • niedrige Häufigkeit, aber hohe Kritikalität (z.B. einmalige Fehlbedienung einer sicherheitskritischen Einrichtung),
  • seltene Konstellationen mehrerer Einflussgrößen (z.B. neue Mitarbeitende + Nachtschicht + Störung + Zeitdruck),
  • starke Kontextabhängigkeit (z.B. nur bei bestimmten Auftragsmixen).

Hale und Borys [2013] betonen, dass in solchen Fällen qualitative Methoden (Interviews, Beobachtungen, strukturierte Ursachenanalysen) statistische Auswertungen ergänzen müssen.

4.2 Warum klassische Qualitätsmethoden bei Einzelfehlern an Grenzen stoßen

Einzelfehler, insbesondere mit menschlicher Beteiligung, entziehen sich oft:

  • der Stichprobenlogik („n zu klein“),
  • der Annahme stationärer Prozesse (Kontext ändert sich),
  • der Trivialursache (eine Ursache, ein Effekt).

Versucht man trotzdem, mit denselben Werkzeugen zu arbeiten wie bei häufigen Fehlern, drohen zwei Risiken:

  1. Verharmlosung („kommt so selten vor, dass man nichts machen kann“).
  2. Überreaktion („Einzelfall = Schuld des Mitarbeiters“; Schulung als Standardantwort).

Beides führt an der Systemursache vorbei.

4.3 Ergänzende Vorgehensweisen für menschengemachte Einzelfehler

In Branchen mit hohen Sicherheitsanforderungen wurden ergänzende Methoden entwickelt:

  • Human Reliability Analysis (HRA): Systematische Ermittlung und Bewertung menschlicher Fehlermöglichkeiten für sicherheitskritische Aufgaben [Kirwan 1994; Swain & Guttmann 1983].
  • HFACS (Human Factors Analysis and Classification System): Klassifikation von Fehlern und ihren systemischen Ursachen, ursprünglich aus der Luftfahrt [Shappell & Wiegmann 2000].
  • FRAM (Functional Resonance Analysis Method): Betrachtung der Variabilität menschlicher und technischer Funktionen und ihrer Wechselwirkungen [Hollnagel 2012].

Für die Industrie bedeutet das: FMEA sollte bei menschlichen Fehlermöglichkeiten um qualitative, systemisch ausgerichtete Vorgehensweisen ergänzt werden – ohne FMEA neu zu erfinden, aber mit erweitertem Blick.


5. Die FMEA als präventives Werkzeug – Fokus: Anwendung, nicht Theorie

5.1 Typische Rolle der FMEA im Unternehmen

In vielen Unternehmen ist die FMEA:

  • Pflichtinstrument, z.B. gemäß AIAG‑VDA FMEA [AIAG/VDA 2019] oder Kundenanforderungen,
  • formaler Bestandteil von Entwicklungs‑ und Prozessfreigaben,
  • Audit‑relevantes Dokument.

Sie wird oft mit hoher Ernsthaftigkeit betrieben – aber mit starkem Fokus auf Produkt‑ und Prozessfehler im technischen Sinne. Menschliche Faktoren werden meist „mitbehandelt“, aber selten methodisch geführt.

5.2 Wo sie heute menschliche Fehler berührt – und wo nicht

Typisch ist folgende Praxis:

  • In den Spalten „Fehlerursachen“ erscheinen sporadisch Einträge wie „Bedienfehler“, „Mitarbeiter unachtsam“, „Prüfung nicht durchgeführt“.
  • Die dazugehörigen Maßnahmen lauten oft: „Schulung“, „Vier‑Augen‑Prinzip“, „Arbeitsanweisung aktualisieren“.

Was fehlt, ist häufig:

  • eine systematische Suchstruktur für menschliche Fehlermöglichkeiten,
  • der Blick auf wiederkehrende Muster über mehrere Schritte,
  • der Transfer in Regel‑, Standard‑ und Umgebungsanpassung (Kapitel 13),
  • die Verknüpfung mit Führung und Kultur (Kapitel 14).

5.3 Ansatzpunkte, ohne Grundlagenerklärung zu wiederholen

Dieser Bericht setzt auf vorhandenem FMEA‑Wissen auf und konzentriert sich auf drei Ansatzpunkte:

  1. Wie können FMEA‑Teams menschliche Fehlermöglichkeiten systematisch und schrittübergreifend erfassen (Kapitel 12)?
  2. Wie lassen sich aus FMEA‑Erkenntnissen konkrete Anpassungen von Regeln, Standards und Arbeitsbedingungen ableiten (Kapitel 13)?
  3. Wie können Führungskräfte und KVP‑Verantwortliche diese Themen im PDCA‑Dauerprojekt verankern (Kapitel 14)?

6. Der blinde Fleck der FMEA bei menschlichen Fehlermöglichkeiten

6.1 Lokale statt systemische Sicht

Der typische Ablauf im Workshop: Man geht Prozessschritt für Prozessschritt vor, fragt „Was kann hier schiefgehen?“ und notiert die Antworten. Das ist methodisch korrekt – aber erzeugt ungewollt einen Tunnelblick:

  • Jedes Risiko wird dem jeweils betrachteten Schritt zugeschrieben.
  • Verbindende Klammern zwischen Schritten fehlen.
  • Menschliche Einflussgrößen werden so an den Ort ihrer Sichtbarkeit gebunden, nicht an den Ort ihrer Ursache.

Beispiel:
An Station 7 fällt auf, dass Prüfschritte gelegentlich ausgelassen werden. Ursache wird als „Mitarbeiter unaufmerksam“ vermerkt. Dass dieselben Mitarbeitenden an Station 5 und 9 ständig unterbrochen werden und gleichzeitig mit mehreren Systemen arbeiten müssen, bleibt unverbunden. Die gemeinsame Ursache – hohe Unterbrechungsrate und Multitasking – wird nicht sichtbar.

6.2 „Workshop‑Zufälligkeit“ statt strukturierter Erfassung

Ob an einem Prozessschritt vier oder 20 menschliche Fehlermöglichkeiten identifiziert werden, hängt oft von:

  • der Spontaneität des Teams,
  • der Erfahrungsbreite der Teilnehmenden,
  • der Zeitknappheit im Workshop,
  • der moderativen Kompetenz ab.

Studien zur Risikobeurteilung zeigen, dass unstrukturierte Brainstormings zu einer starken Streuung der Vollständigkeit führen [ISO 31010:2019]. Ohne Leitfragen und Raster ist das Ergebnis kaum reproduzierbar.

6.3 Unterschätzte Vielfalt menschlicher Einflussgrößen

Human Factors‑Literatur benennt eine Vielzahl von Faktoren, die menschliche Leistung beeinflussen [Stanton et al. 2005; Carayon 2006]:

  • physische Bedingungen (Licht, Lärm, Klima, Ergonomie),
  • kognitive Belastung (Informationsmenge, Komplexität, Gedächtnislast),
  • organisatorische Rahmenbedingungen (Schichtsysteme, Personalausstattung, Zielkonflikte),
  • Schnittstellengestaltung (Bedienoberflächen, Anzeigen, Dokumente),
  • soziale Faktoren (Teamklima, Führungsverhalten, Normen),
  • Regel‑ und Standardlandschaft (Klarheit, Widerspruchsfreiheit, Aktualität).

In der FMEA‑Praxis werden davon meist nur einige wenige Dimensionen erfasst. Der „blinde Fleck“ ist folglich nicht nur ein lokaler, sondern ein inhaltlicher: Zu wenige Dimensionen werden systematisch abgefragt.


7. Warum in der Praxis oft nur ein Teil der Fehlermöglichkeiten betrachtet wird

7.1 Einflussfaktoren im Workshop: Zeit, Moderation, Hierarchie

Mehrere praxisnahe Studien zur Qualität von Risikoanalysen zeigen typische Einflussfaktoren [ISO 31010; Hale & Borys 2013]:

Tabelle 2: Typische Workshop‑Einflussfaktoren auf die Fehlererfassung

Einflussfaktor Wirkung auf die Erfassung menschlicher Fehlermöglichkeiten
Zeitdruck Abbruch der Diskussion, nur „offensichtliche“ Fehler werden genannt
Dominante Teilnehmende Perspektiven anderer (z.B. Bediener) werden überlagert
Hierarchien Mitarbeitende zögern, systemkritische Probleme anzusprechen
Fehlende Moderationsstruktur Keine gezielte Nachfrage zu Human Factors, „Technik dominiert“
Fehlende Vorbereitung Keine Sammlung von Beispielen/Beobachtungen im Vorfeld

Die Folge: eine zufällige Auswahl von Fehlermöglichkeiten, geprägt von aktuellen Erinnerungen und Machtverhältnissen im Raum.

7.2 Kognitive Begrenzungen: Verfügbarkeits‑ und Bestätigungsfehler

Psychologische Forschung beschreibt eine Reihe von Urteilsverzerrungen, die auch FMEA‑Teams betreffen:

  • Verfügbarkeitsheuristik: Was leicht erinnerbar ist (jüngste Vorfälle, spektakuläre Fehler), wird überbetont [Tversky & Kahneman 1974].
  • Bestätigungsfehler (Confirmation Bias): Informationen, die vorhandene Annahmen stützen, werden bevorzugt, widersprechende werden vernachlässigt [Nickerson 1998].
  • Normalisierungs‑Tendenz: Abweichungen, die „immer schon so“ waren, werden nicht mehr als Risiko wahrgenommen [Hollnagel 2014].

Übertragen auf FMEA führt das dazu, dass:

  • aktuelle oder bekannte Fehler überrepräsentiert sind,
  • „leise“ Einflussgrößen (z.B. widersprüchliche Regeln, suboptimale Softwareoberflächen) nicht zur Sprache kommen,
  • wiederkehrende Muster nicht erkannt werden, weil man sie als „normal“ ansieht.

7.3 Organisationsbedingt: Checklisten, Vorlagen, Audits

Viele Unternehmen nutzen FMEA‑Vorlagen und Checklisten. Diese haben Vorteile (Standardisierung, Vollständigkeit), bergen aber auch Risiken:

  • Vorlagen fokussieren oft auf technische Fehlerbilder.
  • Auditoren fragen primär nach Formalkonformität, nicht nach Tiefe der Human‑Factors‑Betrachtung.
  • Mitarbeitende passen ihr Verhalten an das an, was geprüft wird – „audit‑driven“ statt risikogetrieben.

Ergebnis: Was nicht in der Vorlage steht, bekommt kaum Aufmerksamkeit. Menschliche Einflussgrößen erscheinen so als „Nebenbei‑Thema“, obwohl sie für viele Fehlerbilder zentral sind.


8. Wiederkehrende menschliche Fehlermuster über Prozessschritte hinweg

8.1 Typische wiederkehrende Einflussgrößen

Praxisbeobachtungen und Studien zeigen einige besonders häufig wiederkehrende Einflussgrößen [Stanton et al. 2005; Carayon 2006; Vincent 2010]:

Tabelle 3: Beispiele wiederkehrender menschlicher Einflussgrößen über Prozessschritte hinweg

Einflussgröße Typische Manifestation im Prozess
Schlechte oder uneinheitliche Beleuchtung Prüffehler, Verwechslungen, Übersehen von Kennzeichnungen
Unterbrechungen / Multitasking Vergessen von Zwischenschritten, unvollständige Dokumentation
Unklare / widersprüchliche Anweisungen Unterschiedliche Vorgehensweisen, Regelunsicherheit
Hohe Zeit‑ und Leistungsziele Abkürzungen bei Prüfungen, Weglassen vermeintlich „unwichtiger“ Schritte
Komplexe oder schlecht gestaltete Bedienoberflächen Falsche Eingaben, Fehlkonfigurationen
Schichtwechsel / Personalschnittstellen Informationsverluste, doppelte oder fehlende Aktivitäten
Fehlende visuelle Rückmeldungen/Bestätigungen Unbemerktes Auslassen oder falsche Ausführung
Geringe Beteiligung bei Regelgestaltung Regeln werden als „fremd“ und realitätsfern erlebt

Diese Einflüsse treten nicht nur an einer Stelle auf, sondern durchziehen oft komplette Prozessketten – manchmal alle sechs Meter, manchmal an jedem Bildschirm.

8.2 Wie man diese Muster erkennt

Der Schlüssel ist, den Schritt‑für‑Schritt‑Modus der FMEA bewusst zu unterbrechen und eine querliegende Sicht einzuführen:

  1. Sammeln aller menschlichen Einflussgrößen, die in den FMEA‑Tabellen auftauchen (z.B. aus den Spalten „Fehlerursache“, „Fehlerart“, „Bemerkungen“).
  2. Kategorisieren nach Einflussart (z.B. Umgebung, Organisation, Regeln, Schnittstellen).
  3. Visualisieren auf einer Prozesslandkarte: Wo tritt welche Kategorie auf?
  4. Clustern: Welche Kategorien häufen sich prozessübergreifend?

Dieses Vorgehen ähnelt Ansätzen wie HFACS, die Fehlerursachen auf mehreren Ebenen klassifizieren (u.a. Arbeitsbedingungen, übergeordnete Managemententscheidungen) [Shappell & Wiegmann 2000].

8.3 Praxisbeispiel: Von der lokalen Abweichung zum globalen Muster

Angenommen, in der FMEA eines Montagebereichs tauchen an mehreren Schritten Ursachen auf wie:

  • „Montagekraft vergisst Sicherungsring“,
  • „Prüfer übersieht Rissbildung“,
  • „Falscher Artikel wird kommissioniert.“

Im Workshop werden zunächst drei lokale Lösungen diskutiert: zusätzliche Sichtkontrolle, erneute Schulung, farbliche Markierung. Erst eine schrittübergreifende Analyse zeigt:

  • Alle betroffenen Stationen liegen in einem schlecht beleuchteten Hallenbereich.
  • Gleichzeitig wurden dort neue Etiketten mit kleinerer Schriftgröße eingeführt.
  • Darüber hinaus sind in diesem Bereich besonders viele Unterbrechungen durch Staplerverkehr.

Die systemische Maßnahme ist dann nicht nur „Schulung“, sondern:

  • Verbesserung der Beleuchtung im gesamten Bereich,
  • Anpassung von Etikettengrößen und Kontrasten,
  • räumliche Trennung von Staplerverkehr und sensiblen Tätigkeiten.

Damit wird aus drei lokalen Fehlern ein gemeinsames Muster mit systemischer Lösung.


9. Regeln und Standards als Grundlage sicheren Handelns

9.1 Warum Menschen Regeln brauchen

Rasmussen [1983] zeigte, dass menschliches Handeln häufig regelbasiert ist: Statt jedes Mal neu nachzudenken, greifen wir auf gelernte Muster und Vorgaben zurück. In Unternehmen übernehmen:

  • Arbeitsanweisungen,
  • Standardarbeitsblätter,
  • Checklisten,
  • visuelle Standards

die Funktion solcher Regeln. Sie dienen dazu,

  • Komplexität zu reduzieren,
  • Verhalten zu harmonisieren,
  • Sicherheit zu erhöhen.

In Hochzuverlässigkeitsorganisationen (Luftfahrt, Kerntechnik) spielt die Qualität und konsequente Anwendung solcher Standards eine zentrale Rolle für die Sicherheit [Weick & Sutcliffe 2007; Amalberti 2001].

9.2 Anforderungen an wirksame Regeln und Standards

Nicht jede Regel wirkt. Empirische Arbeiten zu Regelcompliance betonen folgende Qualitätskriterien [Hale & Borys 2013; Borys 2012]:

Tabelle 4: Qualitätskriterien für wirksame Regeln und Standards

Kriterium Beschreibung
Verständlichkeit Klare, eindeutige Sprache; keine Mehrdeutigkeiten
Sichtbarkeit Physisch/praktisch präsent dort, wo sie gebraucht wird
Plausibilität Inhaltlich nachvollziehbar, sinnhaft aus Sicht der Ausführenden
Praktikabilität Unter gegebenen Rahmenbedingungen realistisch einhaltbar
Konsistenz Keine Widersprüche zu anderen Regeln oder zu Leistungskennzahlen
Beteiligung Mitarbeitende waren in Erarbeitung/Anpassung einbezogen
Aktualität Regel wird bei Prozess‑ und Technologieänderungen aktiv gepflegt
Verbindlichkeit Einhaltung wird erwartet, unterstützt und bei Bedarf eingefordert

FMEA‑Teams sollten diese Kriterien im Hinterkopf haben, wenn sie Maßnahmen vorschlagen, die auf „Arbeitsanweisung anpassen“ oder „Standard erstellen“ hinauslaufen.

9.3 Standardisierung und Ergonomie als Fehlerprävention

Shingo [1986] und Liker [2004] betonen in der Lean‑Literatur, dass Standardarbeit die Basis für Verbesserung und Fehlervermeidung ist. Gleichzeitig verweist die Norm DIN EN ISO 6385 auf die Notwendigkeit, ergonomische Prinzipien in die Arbeitsgestaltung einzubeziehen [DIN EN ISO 6385:2016].

Kombiniert heißt das:

  • Standards müssen so gestaltet sein, dass sie ergonomisch ausführbar sind.
  • Visuelle Führung (Markierungen, Piktogramme, Andon‑Systeme) entlastet das Gedächtnis.
  • Poka‑Yoke‑Prinzipien (technische Fehlerverhinderung) reduzieren die Abhängigkeit von Gedächtnis und Aufmerksamkeit [Shingo 1986].

FMEA‑Erkenntnisse zu menschlichen Fehlermöglichkeiten sollten daher gezielt dazu genutzt werden, Standards nutzerfreundlicher und fehlertoleranter zu gestalten (Kapitel 13).


10. Wenn Regeln umgangen werden: Hinweise auf systemische Ursachen

10.1 Regelabweichung als Symptom statt Schuld

In vielen Unternehmen werden Regelverstöße primär als individuelles Fehlverhalten bewertet. Human Factors‑Forschung zeigt jedoch, dass Regelumgehungen oft Symptom eines nicht passenden Systems sind [Dekker 2007; Hale & Borys 2013]:

  • Regeln sind nicht praktikabel unter realen Bedingungen.
  • Regeln stehen im Widerspruch zu Leistungszielen.
  • Regeln sind unklar oder veraltet.

Deming betont, dass die Mehrheit der Fehler auf das System zurückzuführen ist, das von der Führung gestaltet wird [Deming 1982]. Regelverletzungen sind daher häufig ein Spiegelbild systemischer Mängel, nicht primär persönlicher Defizite.

10.2 Typische Ursachen für Regelumgehungen

Aus empirischen Studien und Praxisbeobachtungen ergeben sich wiederkehrende Kategorien [Borys 2012; Hale & Borys 2013]:

Tabelle 5: Kategorien systemischer Ursachen bei Regelumgehungen

Kategorie Typische Ausprägung
Zielkonflikte Stückzahlziele vs. Prüfaufwand, Termindruck vs. Dokumentation
Unpraktikable Regeln Erfordern zusätzliche Wege, Umrüstungen, Wartezeiten
Regel‑Überlastung Zu viele, teils widersprüchliche Regeln; niemand kennt alle
Mangelnde Beteiligung Regeln wurden „von oben“ gemacht, ohne Praxisinput
Fehlende Ressourcen Personalmangel, fehlende Hilfsmittel, ungeeignete Infrastruktur
Widersprüchliche Signale Führung toleriert/erwartet informell Regelabweichungen

Diese Ursachen sind überwiegend systemisch – sie liegen in der Gestaltung von Prozessen, Zielen, Ressourcen.

10.3 Wie FMEA‑Teams systemische Ursachen hinter Regelbrüchen sichtbar machen

Statt lediglich zu notieren „Mitarbeiter hält Regel nicht ein“, sollten FMEA‑Teams gezielt fragen:

  • „Wie sieht die Regel genau aus – ist sie unter den gegebenen Bedingungen realistisch?“
  • „Welche Zielkonflikte bestehen? Welche inoffiziellen Erwartungen gibt es?“
  • „Wie wird die Einhaltung der Regel unterstützt (Hilfsmittel, Zeit, Qualifikation)?“
  • „Welche Führungssignale sehen Mitarbeitende im Alltag (Vorleben, Toleranzgrenzen)?“

Praktischer Tipp:

  • Ergänzen Sie in der FMEA eine Bemerkungsspalte „systemische Anmerkungen“ zu menschlichen Fehlerursachen, in der solche Beobachtungen festgehalten werden.
  • Nutzen Sie diese Sammlung, um außerhalb des FMEA‑Workshops mit Führung und KVP‑Teams Regel‑ und Zielkonflikte systematisch zu bearbeiten (Kapitel 13 & 14).

11. Führung, Fehlerkultur und Schuldigensuche

11.1 Die klassische „Schuldlogik“ und ihre Nebenwirkungen

In vielen Organisationen dominiert nach wie vor eine personenzentrierte Fehlerlogik:

  • Wer hat den Fehler gemacht?
  • Wie stellen wir sicher, dass diese Person „es kapiert“ (Schulung, Abmahnung)?

Dekker [2014] und Reason [1997] zeigen, dass solche Ansätze typischerweise zu:

  • Abwehrverhalten (Vertuschung, Bagatellisierung),
  • Angstkultur (Meldehemmung),
  • Lernblockaden (systemische Ursachen bleiben im Dunkeln)

führen. Der Druck auf Einzelne steigt, aber das System bleibt unverändert.

11.2 Just Culture und lernorientierter Umgang mit Fehlern

Das Konzept der Just Culture (angemessene, faire Fehlerkultur) betont:

  • klare Unterscheidung zwischen akzeptablen Fehlern, riskanten Verhaltensmustern und bewuslicher Fahrlässigkeit,
  • Fokus auf Systemverbesserung, solange kein vorsätzliches Fehlverhalten vorliegt,
  • offene Meldesysteme, die Lernen statt Bestrafen in den Vordergrund stellen [Dekker 2007; Reason 1998].

Für die FMEA‑Praxis heißt das:

  • Mitarbeitende müssen Fehler und Regelkonflikte ohne Angst ansprechen können.
  • FMEA‑Workshops sollten als Lernräume gestaltet werden, nicht als „Gerichtssäle“.
  • Führungskräfte haben entscheidenden Einfluss darauf, ob diese Offenheit entsteht.

11.3 Rolle der Führung bei der Umsetzung

Führungskräfte beeinflussen menschliche Fehlermöglichkeiten direkt und indirekt:

  • durch Zielvorgaben (z.B. Liefertermine, OEE‑Ziele),
  • durch Prioritätensetzung („Hauptsache Stückzahl“ vs. „Qualität zuerst“),
  • durch Vorleben von Regelkonformität,
  • durch die Art, wie sie auf Fehler reagieren (Suche nach Schuldigen oder nach Ursachen).

Deming fordert explizit, dass Management Systemverantwortung übernimmt [Deming 1982]. In Bezug auf FMEA bedeutet das:

  • Ergebnisse zu menschlichen Fehlermöglichkeiten müssen systematisch in Führungsrunden eingebracht werden.
  • Maßnahmen, die systemische Ursachen betreffen (Ressourcen, Prozesse, Zielkonflikte), sind Chefsache.

12. Lösungsansatz I: Menschliche Fehlermöglichkeiten systematischer in der FMEA erfassen

In diesem Kapitel steht im Mittelpunkt: Was konkret tun – und wie?

12.1 Strukturierte Fragetechnik für jeden Prozessschritt

Statt ausschließlich offen zu fragen „Was kann hier schiefgehen?“, empfiehlt sich eine geleitete Frageliste, die gezielt auf menschliche Einflussgrößen zielt.

Tabelle 6: Frageliste für die systematische Erfassung menschlicher Fehlermöglichkeiten je Prozessschritt

Dimension Beispielhafte Leitfragen
Wahrnehmen Kann hier etwas übersehen, verwechselt oder falsch gelesen werden?
Verstehen Könnte die Information / Anweisung missverstanden werden?
Entscheiden Gibt es Situationen, in denen unklare oder widersprüchliche Entscheidungen nötig sind?
Ausführen Welche Handlungen könnten vertauscht, ausgelassen oder falsch ausgeführt werden?
Erinnern Muss sich jemand an etwas erinnern, ohne unterstützende Hilfsmittel?
Unterbrechungen Wird die Arbeit hier häufig unterbrochen? Was passiert dann mit angefangenen Tätigkeiten?
Schnittstellen Wo kann Information zwischen Personen/Schichten/Abteilungen verloren gehen?
Regeln & Ziele Gibt es Zielkonflikte zwischen Produktivität und Einhaltung von Standards?
Umgebung Beeinflussen Licht, Lärm, Platz, Klima die Ausführung oder Wahrnehmung?
Technik/Interface Kann die Gestaltung von Bedienelementen oder Software zu Fehlbedienung führen?

Vorgehen im Workshop:

  1. Für jeden Prozessschritt zunächst wie gewohnt technische Fehler erfassen.
  2. Anschließend (oder parallel) gezielt die Frageliste entlanggehen.
  3. Alle identifizierten menschlichen Fehlermöglichkeiten konsequent getrennt erfassen (z.B. durch Kennzeichnung im Feld „Fehlerursache“ oder zusätzliche Spalte „Menschlicher Einfluss“).

12.2 Nutzung von Kategorien und Taxonomien menschlicher Fehler

Um die Vielzahl möglicher Einflussgrößen handhabbar zu machen, empfiehlt sich ein Kategorien‑Raster, angelehnt an HFACS, SRK‑Modell und FMEA‑Praxis [Reason 1990; Shappell & Wiegmann 2000; Kirwan 1994].

Tabelle 7: Kategorien‑Raster zur Klassifikation menschlicher Einflussgrößen in der FMEA

Ebene Kategorie‑Beispiele Praktischer Nutzen
Menschliche Handlung Slip, Lapse, Regelanwendungsfehler, Wissensfehler, Regelverstoß Passende Maßnahmen wählen (Poka‑Yoke vs. Training etc.)
Aufgabe Komplexität, Gedächtnislast, Zeitdruck Aufgaben vereinfachen, Reihenfolgen ändern
Arbeitsumgebung Licht, Lärm, Temperatur, Platz, Störungen Umgebungsanpassungen planen
Technik/Interface Anzeigen, Bedienelemente, Softwaredialoge Interface‑Redesign, Fehlbedienungsschutz
Organisation Schichtsystem, Personalausstattung, Ziele Ressourcen‑ und Zielkonfliktmanagement
Regeln/Standards Klarheit, Konsistenz, Beteiligung Regelüberarbeitung, Beteiligung erhöhen
Kultur/Führung Fehlertoleranz, Vorbildverhalten, Kommunikation Kultur‑ und Führungsmaßnahmen erarbeiten

Praktisches Vorgehen:

  • Jedes identifizierte menschliche Risiko in der FMEA wird einer (oder mehreren) dieser Kategorien zugeordnet (z.B. per Kürzel in Zusatzspalte).
  • So entsteht später die Basis, um schrittübergreifende Muster zu analysieren (Kapitel 12.3).

12.3 Verknüpfung schrittbezogener und schrittübergreifender Sicht

Nach Abschluss (oder in Zwischenständen) der FMEA‑Erarbeitung empfiehlt sich ein zusätzlicher Auswertungsschritt:

  1. Alle FMEA‑Einträge mit menschlichen Einflussgrößen filtern.
  2. Nach Kategorien (Tabelle 7) gruppieren.
  3. Prüfen:
    • Welche Kategorien treten besonders häufig auf?
    • In welchen Prozessbereichen häufen sie sich?
    • Gibt es wiederkehrende Kombinationen (z.B. Zeitdruck + Unterbrechungen + unklare Anweisungen)?

Ergebnis dieser Analyse:

  • Liste von prozessübergreifenden menschlichen Einflussfaktoren,
  • priorisiert nach Relevanz (Anzahl Vorkommen, Risikobewertung).

Diese Liste ist die Grundlage für systemische Maßnahmenpakete, die über Einzelprozessschritte hinausgehen (Kapitel 13 & 14).

12.4 Praktische Tipps für Moderation und Dokumentation

  • Rollen klären:

    • Eine Person moderiert inhaltlich,
    • eine zweite Person achtet explizit auf menschliche Einflussgrößen und ihr schrittübergreifendes Muster („Human‑Factors‑Scout“).
  • Visualisierung nutzen:

    • Parallel zur FMEA‑Tabelle eine Wand‑ oder digitale Karte führen, auf der menschliche Einflussgrößen als farbige Marker am Prozess angebracht werden.
    • So werden Muster sichtbar, noch während der Analyse läuft.
  • Sprache bewusst wählen:

    • Statt „Mitarbeiter unachtsam“ formulieren: „Unterbrechungsreiche Umgebung führt zu erhöhter Wahrscheinlichkeit des Auslassens von Schritt X“.
    • Damit wird die Diskussion automatisch systemischer.
  • Zeit reservieren:

    • Am Ende jeder FMEA‑Sitzung 15–30 Minuten für die Frage:

      „Welche menschlichen Faktoren haben wir heute gesehen, die mehr als diesen einen Schritt betreffen?“


13. Lösungsansatz II: Regeln, Standards und Arbeitsbedingungen anpassen

Konsequente FMEA bedeutet, aus der Analyse wirksame Maßnahmen abzuleiten. Bei menschlichen Fehlermöglichkeiten heißt das besonders:

  • Regeln, Standards und Arbeitsbedingungen systematisch auf Passung und Fehlerfreundlichkeit prüfen.

13.1 Vom Einzelfehler zur systemweiten Regel‑ und Umfeldanalyse

Statt bei jedem Einzelfehler isolierte Maßnahmen zu ergreifen (z.B. „Mitarbeiter erneut schulen“), sollte ein systematischer Prüfpfad genutzt werden:

  1. Tritt das Problem oder eine sehr ähnliche Konstellation an anderen Stellen auf?
  2. Welche gemeinsamen Regel‑ oder Umfeldfaktoren haben diese Stellen?
  3. Welche übergeordneten Standards, Prozesse oder Managemententscheidungen beeinflussen diese Faktoren?

Beispiel:
Mehrere FMEA‑Einträge benennen „fehlende Plausibilitätsprüfung bei Dateneingabe“. Statt nur an Station A eine zusätzliche Schulung zu machen, wird erkannt:

  • Das ERP/MES‑System erlaubt generell widersprüchliche Eingaben ohne Warnung.
  • Zeitaufwand für zusätzliche manuelle Prüfungen würde Zielvorgaben sprengen.

Systemische Maßnahmen:

  • Systemweite Einführung von Plausibilitätsprüfungen,
  • Anpassung von Zeitvorgaben,
  • Vereinheitlichung von Eingabeoberflächen.

13.2 Vorgehen zur systematischen Überprüfung von Regeln und Standards

Ein pragmatischer Ablauf, angelehnt an Hale & Borys [2013] und Borys [2012]:

Tabelle 8: Schritte zur systematischen Überprüfung von Regeln und Arbeitsbedingungen

Schritt Inhalt
1 Auswahl von Regeln/Standards, die in FMEA mit menschlichen Fehlern verknüpft wurden
2 Analyse der Regelqualität entlang der Kriterien aus Tabelle 4
3 Einbeziehung der Ausführenden: Workshops, Interviews, Beobachtungen
4 Identifikation von Zielkonflikten und Ressourcenengpässen
5 Entwicklung von Anpassungsvorschlägen (vereinfachen, konkretisieren, entlasten)
6 Testen der neuen/angepassten Regeln in Pilotbereichen
7 Standardisierung und Roll‑out bei positiver Bewertung
8 Verankerung in FMEA und KVP‑System (Rückkopplung, erneute Bewertung nach Einführung)

Entscheidend ist Schritt 3: Regeln werden mit den Betroffenen überarbeitet, nicht nur „für“ sie.

13.3 Gestaltung der Arbeitsbedingungen: „Fehlerunfreundliche“ Umgebungen

Normen und Leitlinien zur ergonomischen Arbeitsgestaltung (z.B. ISO 6385) sowie Poka‑Yoke‑Ansätze betonen, dass Arbeitsumgebungen so gestaltet werden sollten, dass Fehler unwahrscheinlich oder leicht erkennbar werden [DIN EN ISO 6385; Shingo 1986].

Konkrete Handlungsfelder:

  • Information:

    • Klare, redundante Kennzeichnungen (Farbe + Text + Form).
    • Vermeidung unnötiger Informationsdichte.
    • Positionierung von Anzeigen im Sichtfeld.
  • Physische Umgebung:

    • Ausreichende und homogene Beleuchtung, insbesondere an Prüf‑ und Montageplätzen.
    • Begrenzung von Lärm, der Konzentration beeinträchtigt.
    • Ergonomische Greifräume, Vermeidung unnötiger Körperverdrehungen.
  • Störungen und Unterbrechungen:

    • Trennung von Tätigkeiten mit hohem Konzentrationsbedarf von Laufwegen und Störquellen.
    • Klare Regeln für Unterbrechungen (z.B. kein Ansprechen während kritischer Schritte).
  • Technische Hilfen:

    • Poka‑Yoke‑Elemente (z.B. Steckverbinder, die nur in einer Richtung passen).
    • Zwangsabläufe in Software (bestimmte Felder müssen plausibel befüllt sein, bevor man fortfahren kann).

FMEA‑Ergebnisse zu menschlichen Fehlern liefern hier die Prioritätenliste, wo zuerst anzusetzen ist.

13.4 Umsetzung: Von FMEA‑Maßnahmenliste zum Maßnahmen‑Portfolio

Herausforderung in der Praxis: FMEA‑Maßnahmenlisten sind oft lang, heterogen und schwer zu priorisieren. Für menschliche Fehlermöglichkeiten empfiehlt sich:

  • Bündelung zu Themenpaketen, z.B.:

    • „Beleuchtung und Sichtbedingungen“,
    • „Gestaltung von Anzeigen und Dokumenten“,
    • „Regelkonflikte und Standardüberarbeitung“,
    • „Unterbrechungen und Störungsmanagement“.
  • Bewertung auf zwei Ebenen:

    • Wirkung auf lokale Risiken (Risikopriorität im einzelnen Prozessschritt),
    • Wirkung auf prozessübergreifende Muster (Anzahl betroffener Schritte/Prozesse).
  • Priorisierung gemeinsam mit Führung und KVP‑Gremien, damit systemische Maßnahmen nicht an Ressourcenmangel scheitern.

Ziel ist ein Maßnahmen‑Portfolio, das neben vielen kleinen lokalen Verbesserungen einige wenige, aber wirksame systemische Maßnahmen enthält.


14. Lösungsansatz III: Führung, Fehlerkultur und KVP im PDCA‑Dauerprojekt verankern

Die bisher beschriebenen Ansätze entfalten nur Wirkung, wenn sie nicht als Einzelaktionen, sondern als Teil eines laufenden PDCA‑Prozesses verstanden werden.

14.1 FMEA‑Erkenntnisse in den PDCA‑Regelkreis integrieren

Der PDCA‑Zyklus (Plan‑Do‑Check‑Act) ist in vielen Managementsystemen verankert (z.B. ISO 9001). Für menschliche Fehlermöglichkeiten in der FMEA lässt sich der Zyklus wie folgt konkretisieren:

  • Plan:

    • Organisation der FMEA‑Aktivitäten mit explizitem Fokus auf menschliche Einflüsse (Festlegung von Rollen, Leitfragen, Kategorien).
    • Planung von Analysen schrittübergreifender Muster (Kapitel 12.3).
  • Do:

    • Durchführung der FMEA‑Workshops mit strukturierter Berücksichtigung menschlicher Faktoren.
    • Umsetzung ausgewählter Maßnahmen (Regel‑, Standard‑ und Umfeldanpassungen, Führungsschulungen).
  • Check:

    • Überprüfung der Wirksamkeit umgesetzter Maßnahmen (Kennzahlen, Beobachtungen, Audits mit Fokus Mensch).
    • Auswertung neu aufgetretener menschlicher Fehler im Licht der eingeführten Änderungen.
  • Act:

    • Anpassung von Regeln, Prozessen, FMEA‑Vorgehen auf Basis der Erkenntnisse.
    • Aktualisierung der FMEA, insbesondere der systemischen Musterkarte menschlicher Einflüsse.

Abbildung 3 (schematisch): Einbettung der FMEA‑Erkenntnisse zu menschlichen Fehlermöglichkeiten in den PDCA‑Regelkreis.

14.2 Rollen und Verantwortlichkeiten für menschliche Fehlermöglichkeiten

Um das Thema als Daueraufgabe zu verankern, sollten Rollen klar beschrieben werden:

Tabelle 9: Rollen und Routinen zur Verankerung im PDCA‑Dauerprojekt

Rolle Verantwortung im Kontext menschlicher Fehlermöglichkeiten
Top‑Management Setzt Rahmen (Ziele, Ressourcen), fordert systemische Analysen ein
Bereichsleitung/Führung Verbindet FMEA‑Erkenntnisse mit Bereichszielen, entscheidet über Maßnahmen
FMEA‑Moderator Sorgt für strukturierte Erfassung menschlicher Faktoren, koordiniert Musteranalysen
KVP‑Verantwortlicher Integriert FMEA‑Ergebnisse in KVP‑Programme, begleitet Umsetzung
Fachkraft für Arbeitssicherheit / Ergonomie Bringt Expertise zu Umfeld, Regeln, Ergonomie in FMEA und Maßnahmen ein
Mitarbeitende/Team Melden Regelkonflikte, beteiligen sich an Regel‑ und Umfeldgestaltung

Wichtig: Schnittstellen zwischen diesen Rollen müssen bewusst gestaltet werden (z.B. regelmäßige Runden, in denen FMEA‑Erkenntnisse und KVP‑Projekte zusammengeführt werden).

14.3 Kennzahlen und Routinen für eine lernende Organisation

Was man nicht misst oder zumindest systematisch beobachtet, gerät aus dem Blick. Sinnvolle Kennzahlen und Routinen können sein:

  • Anzahl und Art von FMEA‑Einträgen mit menschlichen Einflussgrößen (Differenzierung nach Kategorien).
  • Anzahl systemischer Maßnahmen (z.B. Regel‑/Standardänderungen, Umfeldanpassungen) pro Jahr.
  • Indikatoren zur Fehlerkultur (z.B. Anzahl freiwilliger Meldungen von Beinahe‑Fehlern mit menschlicher Beteiligung).
  • Ergebnisse von Mitarbeiterbefragungen zu Themen wie Regelplausibilität, Unterbrechungsbelastung, wahrgenommenem Zielkonflikt Druck vs. Qualität.

Regelmäßige Reflexionsrunden (z.B. quartalsweise) mit Vertretern aus Führung, KVP, Arbeitssicherheit und Produktion sorgen dafür, dass diese Informationen tatsächlich genutzt werden.

14.4 Praxisleitfaden: So etablieren Sie das Thema als Daueraufgabe

Schrittweise Vorgehensweise für Unternehmen:

  1. Start mit einem Pilotbereich: Auswahl eines Prozesses mit hoher menschlicher Beteiligung und relevanten Risiken.
  2. Schulung der FMEA‑Moderatoren und Schlüsselpersonen im erweiterten Blick auf menschliche Fehlermöglichkeiten (ohne Grundlagenerklärung der FMEA selbst, fokussiert auf „Wie berücksichtigen wir den Menschen systematisch?“).
  3. Durchführung/Überarbeitung einer FMEA im Pilotbereich mit den in Kapitel 12 beschriebenen Leitfragen und Kategorien.
  4. Auswertung der Ergebnisse hinsichtlich systemischer Muster, Ableitung eines Maßnahmen‑Portfolios (Kapitel 13).
  5. Einbindung der Führungsebene, um systemische Maßnahmen zu entscheiden und zu priorisieren.
  6. Verknüpfung mit bestehenden KVP‑Strukturen: Einbringen der Maßnahmen in KVP‑Boards, Shopfloor‑Runden, Verbesserungsprogramme.
  7. Übertragung der Erfahrungen auf weitere Bereiche, Anpassung der Standardvorgehensweise für FMEAs.
  8. Regelmäßige Überprüfung (z.B. jährlich):
    • Wie gut erfassen unsere FMEAs menschliche Fehlermöglichkeiten?
    • Welche systemischen Verbesserungen wurden daraus abgeleitet?
    • Wo bestehen weiterhin blinde Flecken?

Damit wird das Thema nicht als Projekt, sondern als dauerhafte Managementaufgabe etabliert.


15. Fazit

15.1 Zentrale Erkenntnisse

  1. Menschliche Fehler sind normal, systemische Ursachen dominieren.
    Forschung von Deming, Reason, Hollnagel und anderen zeigt, dass der Großteil betrieblicher Fehler auf systemische Ursachen zurückgeht, nicht auf „unfähige“ Mitarbeitende [Deming 1982; Reason 1990; Hollnagel 2014].

  2. FMEA betrachtet menschliche Fehlermöglichkeiten in der Praxis oft zu lokal.
    Häufig werden nur spontane, schrittbezogene Fehlhandlungen erfasst. Wiederkehrende Einflussgrößen wie Unterbrechungen, schlechte Beleuchtung, unklare Regeln oder Zielkonflikte verbleiben als unsichtbare Muster im Hintergrund.

  3. Workshops sind anfällig für Zufälligkeit, Hierarchie und kognitive Verzerrungen.
    Ohne strukturierte Leitfragen und Kategorien hängt die Qualität der Fehlererfassung stark von Zeit, Moderation und subjektiven Erinnerungen ab [ISO 31010; Tversky & Kahneman 1974].

  4. Regelabweichungen sind oft Symptom systemischer Probleme.
    Wenn Regeln systematisch umgangen werden, ist dies meist ein Hinweis auf Zielkonflikte, unpraktikable Vorgaben oder unzureichende Ressourcen, nicht primär auf „Unwilligkeit“ [Hale & Borys 2013; Dekker 2007].

  5. Fehlerkultur und Führung bestimmen, ob gelernt oder bestraft wird.
    Eine Schuld‑Kultur verhindert Offenheit und systemische Analysen. Just Culture‑Ansätze erleichtern es, aus Fehlern zu lernen und FMEA‑Ergebnisse in Verbesserungen zu übersetzen [Reason 1998; Dekker 2007].

  6. Eine systemische Betrachtung erfordert neue Routinen in der FMEA‑Praxis.
    Strukturierte Fragelisten, Fehler‑Kategorien, Musteranalysen über Prozessschritte hinweg und die Einbindung von Ergonomie, Arbeitssicherheit und KVP sind entscheidend.

15.2 Implikationen für die Praxis

Für Führungskräfte, FMEA‑Moderatoren, KVP‑Verantwortliche und Fachkräfte für Arbeitssicherheit ergeben sich konkrete Handlungsaufträge:

  • Nicht zufrieden sein, wenn pro Schritt „ein paar menschliche Fehler“ in der FMEA stehen.
  • Gezielt fragen, welche menschlichen Einflussgrößen über mehrere Schritte hinweg auftreten.
  • Systemische Maßnahmen (Regeln, Standards, Arbeitsbedingungen, Zielkonflikte) genauso ernst nehmen wie technische Nachbesserungen.
  • Führung in die Pflicht nehmen, wenn es um Ressourcen, Ziele und Kultur geht.
  • FMEA als Lerninstrument verstehen – nicht nur als Audit‑Nachweis.

15.3 Grenzen und Ausblick

Dieser Fachbericht basiert vor allem auf Literatur und praxisnahen Erfahrungen. Grenzen:

  • Keine Darstellung statistischer Wirkungsnachweise einzelner Maßnahmen (z.B. „Maßnahme X reduziert Fehlerwahrscheinlichkeit um Y %“), da solche Daten stark kontextabhängig sind.
  • Keine detaillierte Einführung in FMEA‑ oder KVP‑Grundlagen, da diese als bekannt vorausgesetzt wurden.

Weiterführende Schritte für Unternehmen:

  • Entwicklung firmenspezifischer Human‑Factors‑Leitfäden für FMEA‑Workshops.
  • Aufbau von interdisziplinären Teams, in denen Human Factors, Arbeitssicherheit und KVP strukturell vertreten sind.
  • Systematische Evaluation der Auswirkungen systemischer Maßnahmen auf Fehleraufkommen und Prozessstabilität.

Die zentrale Botschaft bleibt:

Nicht der einzelne menschliche Fehler ist das eigentliche Problem, sondern seine isolierte Betrachtung. Wer menschliche Fehlermöglichkeiten nur lokal pro Prozessschritt analysiert, übersieht prozessübergreifende Muster, schwächt die Qualität der Risikoanalyse und verpasst die Chance, das System als Ganzes robuster und lernfähiger zu machen.


Quellenverzeichnis

AIAG & VDA (2019). FMEA‑Handbuch: Harmonisiertes AIAG‑VDA FMEA Referenzhandbuch. Automotive Industry Action Group & Verband der Automobilindustrie.

Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37(2–3), 109–126.

Borys, D. (2012). The role of safe work method statements in the Australian construction industry. Safety Science, 50(2), 210–220.

Carayon, P. (2006). Human factors of complex sociotechnical systems. Applied Ergonomics, 37(4), 525–535.

Dekker, S. (2007). Just Culture: Balancing Safety and Accountability. Ashgate.

Dekker, S. (2014). The Field Guide to Understanding ‘Human Error’ (3rd ed.). CRC Press.

Deming, W. E. (1982). Out of the Crisis. MIT Press.

DIN EN ISO 6385 (2016). Ergonomische Prinzipien im Gestaltungsprozess von Arbeitssystemen. Beuth.

DGQ (Deutsche Gesellschaft für Qualität) (2017). FMEA – Methoden und Anwendung in der Praxis. DGQ‑Praxisleitfaden.

Hale, A., & Borys, D. (2013). Working to rule, or working safely? Part 1: A state of the art review. Safety Science, 55, 207–221.

Hollnagel, E. (2012). FRAM: The Functional Resonance Analysis Method. Ashgate.

Hollnagel, E. (2014). Safety‑I and Safety‑II: The Past and Future of Safety Management. Ashgate.

IEC 60812 (2018). Failure Modes and Effects Analysis (FMEA and FMECA). International Electrotechnical Commission.

Imai, M. (1986). Kaizen: The Key to Japan’s Competitive Success. McGraw‑Hill.

ISO 31010 (2019). Risk management – Risk assessment techniques. International Organization for Standardization.

ISO 9001 (2015). Quality management systems – Requirements. International Organization for Standardization.

Jarosch, U.‑K. (2025). Menschliche Fehler passieren – und nun? Blogbeitrag, September 2025. (im Druck / unveröffentlichtes Manuskript).

Kirwan, B. (1994). A Guide to Practical Human Reliability Assessment. Taylor & Francis.

Liker, J. (2004). The Toyota Way: 14 Management Principles from the World’s Greatest Manufacturer. McGraw‑Hill.

McDermott, R. E., Mikulak, R. J., & Beauregard, M. R. (2009). The Basics of FMEA (2nd ed.). Productivity Press.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220.

Norman, D. A. (2013). The Design of Everyday Things (Revised ed.). Basic Books.

Rasmussen, J. (1983). Skills, rules, and knowledge; Signals, signs, and symbols, and other distinctions in human performance models. IEEE Transactions on Systems, Man, and Cybernetics, 13(3), 257–266.

Rasmussen, J. (1997). Risk management in a dynamic society: A modelling problem. Safety Science, 27(2–3), 183–213.

Reason, J. (1990). Human Error. Cambridge University Press.

Reason, J. (1997). Managing the Risks of Organizational Accidents. Ashgate.

Reason, J. (1998). Achieving a safety culture: theory and practice. Work & Stress, 12(3), 293–306.

Rother, M., & Shook, J. (1999). Learning to See: Value Stream Mapping to Create Value and Eliminate Muda. Lean Enterprise Institute.

Senders, J. W., & Moray, N. P. (1991). Human Error: Cause, Prediction, and Reduction. Lawrence Erlbaum.

Shappell, S. A., & Wiegmann, D. A. (2000). The Human Factors Analysis and Classification System–HFACS. DOT/FAA/AM‑00/7.

Shingo, S. (1986). Zero Quality Control: Source Inspection and the Poka‑Yoke System. Productivity Press.

Stanton, N. A., Salmon, P. M., Walker, G. H., Baber, C., & Jenkins, D. P. (2005). Human Factors Methods: A Practical Guide for Engineering and Design. Ashgate.

Swain, A. D., & Guttmann, H. E. (1983). Handbook of Human Reliability Analysis with Emphasis on Nuclear Power Plant Applications. NUREG/CR‑1278.

Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.

VDA (2017). VDA Band 4 – Sicherung der Qualität in der Prozesslandschaft: FMEA. Verband der Automobilindustrie.

Vincent, C. (2010). Patient Safety (2nd ed.). Wiley‑Blackwell.

Weick, K. E., & Sutcliffe, K. M. (2007). Managing the Unexpected: Resilient Performance in an Age of Uncertainty (2nd ed.). Jossey‑Bass.

Hudson, P. (2007). Implementing a safety culture in a major multi-national. Safety Science, 45(6), 697–722.

Carayon, P., & Smith, M. J. (2000). Work organization and ergonomics. Applied Ergonomics, 31(6), 649–662.

Grote, G. (2012). Safety management in different high-risk domains – All the same? Safety Science, 50(10), 1983–1992.

DGUV (Deutsche Gesetzliche Unfallversicherung) (2019). DGUV Information 211‑005: Betriebliches Fehlermanagement und Lernkultur. DGUV.

Norman, D. A. (1990). The Design of Everyday Things. Doubleday.

(Weitere interne und branchenspezifische Dokumente, Kundenvorgaben und Unternehmensstandards können ergänzend herangezogen werden, wurden hier aber aus Datenschutz‑ und Vertraulichkeitsgründen nicht explizit aufgeführt.)