====== Dunning–Kruger-Effekt – verständlich & praxisnah ====== **Kurzfassung:** Menschen mit **geringem Können** überschätzen sich oft **stark**, weil ihnen die Fähigkeit fehlt, die eigene Inkompetenz korrekt einzuschätzen. Mit wachsender Erfahrung **fällt** das Selbstvertrauen zunächst (man erkennt die Komplexität) und **steigt später wieder** – dann realistischer. ===== Was ist der Dunning–Kruger-Effekt? ===== Der Dunning–Kruger-Effekt beschreibt eine systematische **Fehleinschätzung der eigenen Leistung**: *Anfänger überschätzen sich, Fortgeschrittene werden realistischer, Profis bleiben wachsam.*((Begriff nach Justin Kruger & David Dunning, 1999.)) ===== So sieht die Kurve aus (vereinfacht) ===== Selbstvertrauen ^ /\ "Gipfel der Ahnungslosigkeit" | / | / \ "Tal der Ernüchterung" | / \ / | / \ / "Plateau der Kompetenz" +----/----------/------------------------------> Kompetenz/Erfahrung ===== Warum passiert das? (Ursachen) ===== * **Fehlende Metakognition** – man kann die eigene Leistung nicht gut beurteilen. * **Illusion der Erklärungstiefe** – man glaubt, etwas verstanden zu haben, bis man es erklären/umsetzen muss. * **Selektive Wahrnehmung & Bestätigungsfehler** – Erfolge bleiben hängen, Fehler werden übersehen. * **Geringe Rückmeldung** – ohne Tests, Benchmarks, Reviews fehlt Korrektur. * **Domänenspezifisch** – Kompetenz in A überträgt sich nicht automatisch auf B. ===== Häufige Missverständnisse (Abgrenzung) ===== * **Nicht „dumm vs. schlau“** – es geht um **Kalibrierung** der Selbsteinschätzung. * **Kein Dauerzustand** – Training & Feedback verschieben die Einschätzung. * **Impostor-Syndrom ≠ Dunning–Kruger** – bei Impostor unterschätzen **Gute** sich. ===== Praxisbeispiele ===== **IT (Scripting):** Erstes Bash-Script klappt → „Easy!“ → Edge-Cases, Fehlerbehandlung, Sicherheit zeigen: Es ist **nicht** trivial → realistischere Selbsteinschätzung. **Handwerk/Elektro:** Erste sauber verdrahtete Unterverteilung → „Hab’s drauf!“ → Selektivität, Normen, Lastverteilung, Messprotokolle → **Komplexität wird sichtbar**. **Fahren/Projektleitung:** Anfangsgefühl „läuft“ → dann erste kritische Situationen/Abhängigkeiten → **gezieltes Üben** und Checklisten. ===== Signale & Gegenmittel (schnelle Orientierung) ===== ^ Signal ^ Mögliche Ursache ^ Konkretes Gegenmittel ^ | Absolute Sätze („kann gar nicht schiefgehen“) | Übervertrauen | **Messbar machen**: Tests, Benchmarks, KPIs | | „Fragen? – Keine.“ | Fehlende Metakognition | **Review erzwingen**: 4-Augen-Prinzip, Pairing | | „Hab ich schon x-mal gemacht.“ | Verfügbarkeits-Bias | **Checkliste** (No-Skip), Abnahmepunkte | | „Alle anderen sind langsam.“ | Selbstüberschätzung | **Vergleichsdaten**: Speed vs. Qualität/Fehlerquote | | „Fehler war Zufall.“ | Fehlattribution | **Postmortem** mit Ursachenanalyse & Aktionselementen | ===== Konkrete Maßnahmen – für Personen, Teams, Organisation ===== **Individuell** * **Externe Checks** nutzen: Code-Review, Peer-Review, Mentoring. * **Explizite Annahmen** notieren: *Hypothese, Risiko, Gegenbeleg*. * **Fehlerjournal** führen: was, warum, wie behoben, Prävention. * **Lehrtests**: Kurz-Quiz, Mini-Katas, „Explain like I’m 5“. **Team/Leitung** * **Definition of Done** (DoD) inkl. Tests/Abnahme. * **Standardisierte Checklisten** (kein „Shortcut“). * **Kalibrier-Runden**: Prognose vs. Ergebnis vergleichen. * **Psychologische Sicherheit**: Fehler melden lohnt sich. **Organisation** * **Metriken**: Fehlerrate, Mean Time to Recovery, Review-Abdeckung. * **Trainingspfade**: vom „Gipfel der Ahnungslosigkeit“ ins **Plateau der Kompetenz** (Praxis + Feedback). * **Lessons Learned** als Wissensbasis (Wiki, Patterns, Anti-Patterns). ===== Mini-Werkzeuge (sofort anwendbar) ===== * **Vor Start**: *„Was könnte schiefgehen? Woran merken wir’s früh?“* * **Währenddessen**: WIP-Limits, kleines Inkrement + Test. * **Nachher**: 15-Min-Retro: *Fakt → Ursache → Maßnahme (Owner, Termin).* * **Erklärt-es-mir-Test**: Aufgabe in 60 Sek. für Laien erklärbar? Wenn nein: weiter zerlegen. ===== FAQ ===== **Trifft das auch Profis?** * Ja. In **neuen** Domänen sind Profis oft wieder **Anfänger**. **Kann man den Effekt messen?** * Indirekt, über **Kalibrierung**: Vorhersage vs. realer Score (z. B. Tests, Brier-Score in Prüfungen/Schätzungen). **Ist viel Selbstvertrauen schlecht?** * Nein. Es braucht **kalibriertes** Selbstvertrauen + Belege. ===== Merksätze (einprägsam) ===== * **Sicher klingt nicht automatisch richtig.** * **Wer wenig weiß, überschätzt oft; wer mehr weiß, prüft öfter.** * **Kompetenz zeigt sich in Tests – nicht im Tonfall.** * **Frühe Zweifel sparen späte Katastrophen.** * **Beleg schlägt Bauchgefühl.** * **Annäherung an die Wahrheit = Messen + Feedback + Üben.** * **Gute Leute stellen viele Fragen – früh.** * **Checklisten sind Demut in Listenform.** ===== Kurz-Vorlage: 5-Min-Kalibrierung vor einem Vorhaben ===== * **Ziel** (1 Satz): … * **Kritische Annahmen** (max. 3): … * **Frühe Indikatoren für „falsch“**: … * **Minimaler Test/Proof** (heute): … * **Review-Partner + Zeitpunkt**: … ===== Weiterführend ===== ((Kruger, J.; Dunning, D. (1999): „Unskilled and Unaware of It“. Journal of Personality and Social Psychology.)) ((Stichwort: Metakognition, Illusion der Erklärungstiefe, Confirmation Bias.)) --- **Pragmatische Schlussnote:** Wer **systematisch misst**, **Feedback** einholt und **Checklisten** nutzt, verlässt den „Gipfel der Ahnungslosigkeit“ schneller und landet nachhaltiger auf dem **Plateau der Kompetenz**.