Artikel
Service DesignEntscheidungsmatrix: Anleitung, Praxisbeispiel und Vorlage
Die Entscheidungsmatrix Schritt für Schritt: gewichtete Bewertung von Alternativen mit Praxisbeispiel und Vorlage.
Die Entscheidungsmatrix (auch Bewertungsmatrix, Nutzwertanalyse oder Scoring-Modell) ist ein strukturiertes Werkzeug, um mehrere Alternativen anhand gewichteter Kriterien systematisch zu vergleichen und eine nachvollziehbare Entscheidung zu treffen. Statt aus dem Bauch heraus oder nach dem lautesten Stakeholder zu entscheiden, macht die Matrix transparent, welche Option unter den definierten Kriterien am besten abschneidet. Die Methode geht in ihrer formalisierten Form auf die Nutzwertanalyse von Christof Zangemeister (1976) und die Pugh-Matrix von Stuart Pugh (1981) zurueck [1][2].
Was die Entscheidungsmatrix von einer einfachen Pro-Contra-Liste unterscheidet: Sie erzwingt eine explizite Gewichtung der Kriterien. Damit macht sie sichtbar, was dem Entscheidungsteam wirklich wichtig ist — bevor die Alternativen bewertet werden. Ohne Gewichtung behandelt eine Liste “Kosten” und “Markenfit” als gleichwertig, obwohl das eine strategisch entscheidend und das andere nice-to-have sein kann.
Suchst du im deutschsprachigen Netz nach “Entscheidungsmatrix”, findest du Dutzende Ergebnisse mit denselben Smartphone-Kauf-Beispielen. Keines zeigt die Methode in einem Serviceprozess. Keines erklärt, woher die Gewichtungen kommen sollten — und welche kognitiven Verzerrungen dabei auftreten. Keines vergleicht die Entscheidungsmatrix systematisch mit Kano, MoSCoW oder RICE. Und keines benennt ehrlich, wann die Methode die falsche Wahl ist.
Dieser Leitfaden schliesst diese Luecken.
Von Zangemeister zu Pugh: Woher die Methode kommt
Die Entscheidungsmatrix hat zwei akademische Wurzeln, die selten gemeinsam genannt werden.
Christof Zangemeister veroeffentlichte 1976 Nutzwertanalyse in der Systemtechnik — die erste systematische Methodik zur gewichteten Bewertung von Alternativen im deutschsprachigen Raum [1]. Zangemeisters Beitrag war die Formalisierung: Er definierte einen nachvollziehbaren Prozess von der Kriterienauswahl ueber die Gewichtung bis zur Berechnung des Gesamtnutzwerts. Die Nutzwertanalyse wurde in Deutschland schnell zum Standardwerkzeug in der oeffentlichen Planung und im Ingenieurwesen.
Stuart Pugh (1929–1993), Professor an der University of Strathclyde, entwickelte 1981 die nach ihm benannte Pugh-Matrix als Werkzeug fuer die Konzeptauswahl in der Produktentwicklung [2]. Pughs Innovation: Statt alle Alternativen absolut zu bewerten, werden sie gegen ein Referenzkonzept (Datum) verglichen — besser (+), gleich (0) oder schlechter (-). Das reduziert die kognitive Last, weil das Team nur relative Unterschiede beurteilen muss, keine absoluten Werte.
Thomas L. Saaty ergaenzte 1980 mit dem Analytic Hierarchy Process (AHP) eine mathematisch rigorosere Methode fuer die Kriteriengewichtung durch paarweise Vergleiche [3]. AHP ist praeziser als einfache Prozentzuweisung, aber auch deutlich aufwaendiger — deshalb in der Praxis seltener anzutreffen als die klassische Entscheidungsmatrix.
Was heute “Entscheidungsmatrix” heisst
In der Praxis werden Nutzwertanalyse, Pugh-Matrix, Scoring-Modell und Entscheidungsmatrix oft synonym verwendet. Der gemeinsame Kern: eine tabellarische Struktur, in der Zeilen die Kriterien und Spalten die Alternativen enthalten. Unterschiede liegen im Detail — absolute vs. relative Bewertung, numerische Skala vs. +/0/-, mit oder ohne Gewichtung. Dieser Leitfaden behandelt die gewichtete Entscheidungsmatrix mit numerischer Skala, weil sie den breitesten Anwendungsbereich hat und die Nutzwertanalyse als methodisches Fundament einschliesst.
Wann eignet sich die Entscheidungsmatrix?
Die Entscheidungsmatrix ist am wertvollsten, wenn du eine einmalige Auswahlentscheidung zwischen klar definierten Alternativen treffen musst — nicht wenn du Prozesse verbessern oder Kundenbedürfnisse verstehen willst.
Nutze die Entscheidungsmatrix, wenn:
- Du 3–7 Alternativen vergleichen willst (bei 2 reicht eine Pro-Contra-Liste, bei mehr als 7 wird die Bewertung unuebersichtlich)
- Du mehrere Entscheidungskriterien abwaegen musst (Kosten, Machbarkeit, Kundenwirkung, strategische Passung)
- Die Entscheidung nachvollziehbar dokumentiert werden muss — fuer Stakeholder, Audits oder spaetere Reflexion
- Du Gruppenentscheidungen objektivieren willst: “Die Daten zeigen, dass Konzept B am besten abschneidet” ist ueberzeugender als “Ich finde B besser”
- Du nach einem kreativen Prozess — etwa mit dem Morphologischen Kasten — die generierten Konzepte systematisch bewerten willst
Nutze ein anderes Werkzeug, wenn:
| Situation | Bessere Alternative | Warum |
|---|---|---|
| Du willst verstehen, wie Features auf Kundenzufriedenheit wirken | Kano-Modell | Kano klassifiziert nach Zufriedenheitsasymmetrie, die Matrix bewertet nur “wie gut” |
| Du brauchst eine schnelle Sprint-Priorisierung ohne ausfuehrliche Bewertung | MoSCoW | MoSCoW ist schneller und erfordert keine numerische Bewertung |
| Du willst Reach, Impact, Confidence und Effort quantifizieren | RICE Scoring | RICE hat eine festgelegte Formel, die Matrix laesst beliebige Kriterien zu |
| Du brauchst iterative Verbesserung, keine einmalige Auswahl | PDCA-Zyklus | PDCA verbessert bestehende Prozesse, die Matrix waehlt zwischen Optionen |
| Du willst strategische Staerken und Schwaechen analysieren | SWOT-Analyse | SWOT analysiert die Ausgangslage, die Matrix waehlt zwischen Handlungsoptionen |
Vergleich: Entscheidungsmatrix vs. Kano vs. MoSCoW vs. RICE
Vier Bewertungs- und Priorisierungsmethoden im direkten Vergleich:
| Dimension | Entscheidungsmatrix | Kano-Modell | MoSCoW | RICE Scoring |
|---|---|---|---|---|
| Fokus | Auswahl der besten Alternative aus einer definierten Menge | Zufriedenheitswirkung einzelner Features | Muss/Soll/Kann/Nicht-Priorisierung | Quantitative Impact-Priorisierung |
| Datenquelle | Team-Bewertung gegen gewichtete Kriterien | Kundenbefragung (funktional/dysfunktional) | Stakeholder-Einschaetzung | Reach, Impact, Confidence, Effort |
| Komplexitaet | Niedrig bis mittel | Mittel — erfordert Survey-Design | Niedrig — Workshop-Format | Mittel — erfordert Metriken |
| Am besten fuer | Einmalige Konzeptauswahl mit mehreren Kriterien | Verstehen, WARUM Features wichtig sind | Schnelle Release-Planung | Backlog-Priorisierung mit begrenzten Ressourcen |
| Schwaeche | Gewichtung der Kriterien subjektiv | Erfordert Kundenbefragung | Kein numerischer Output | Confidence oft geschaetzt |
| Herkunft | Zangemeister (1976), Pugh (1981) | Kano (1984), Japan | Dai Clegg (1994) | Sean McBride / Intercom (2016) |
Unsere Empfehlung: Die Entscheidungsmatrix eignet sich am besten als Abschluss eines Innovationsprozesses — wenn du aus dem Service-Design-Prozess mehrere Konzepte entwickelt hast und nun die vielversprechendste auswaehlen willst. Fuer die vorgelagerte Feature-Priorisierung innerhalb eines Konzepts sind Kano oder RICE zielgenauer.
Schritt fuer Schritt: Entscheidungsmatrix erstellen
Zeitrahmen: 60–90 Minuten im Team, davon 20 Minuten fuer Kriterien und Gewichtung, 30 Minuten fuer Bewertung, 10–20 Minuten fuer Auswertung und Sensitivitaetscheck.
Schritt 1: Entscheidungsfrage formulieren
Formuliere die Entscheidung als konkrete Frage — nicht als vage Absicht.
| Schlecht formuliert | Gut formuliert |
|---|---|
| ”Welches Konzept nehmen wir?" | "Welches der vier Servicekonzepte fuer das digitale Onboarding soll in Q3 pilotiert werden?" |
| "Was sollen wir machen?" | "Welcher Standort eignet sich am besten fuer das neue Service-Center?" |
| "Was ist die beste Loesung?" | "Welche CRM-Plattform erfuellt unsere Anforderungen an Serviceautomatisierung am besten?” |
Warum das wichtig ist: Eine vage Frage erzeugt vage Kriterien. Wenn das Team nicht weiss, wofuer es entscheidet, kann es keine sinnvollen Bewertungskriterien definieren.
Schritt 2: Kriterien definieren
Liste die Kriterien auf, nach denen die Alternativen bewertet werden sollen. Gute Kriterien sind:
- Unabhaengig voneinander — zwei Kriterien, die dasselbe messen (z. B. “Kosten” und “Budgetbedarf”), verfaelschen das Ergebnis durch Doppelzaehlung
- Bewertbar — das Team muss jede Alternative gegen das Kriterium einschaetzen koennen
- Entscheidungsrelevant — wenn ein Kriterium keinen Unterschied zwischen den Alternativen erzeugt, kannst du es weglassen
Typische Kriterien fuer Service-Entscheidungen:
| Kategorie | Beispiel-Kriterien |
|---|---|
| Kundenwirkung | Kundenzufriedenheit, Nutzerfreundlichkeit, Time-to-Value |
| Wirtschaftlichkeit | Implementierungskosten, laufende Kosten, Amortisationszeit |
| Machbarkeit | Technische Komplexitaet, Ressourcenverfuegbarkeit, Zeithorizont |
| Strategie | Markenfit, Skalierbarkeit, Differenzierungspotenzial |
| Risiko | Implementierungsrisiko, regulatorische Anforderungen, Abhaengigkeiten |
Empfohlene Anzahl: 5–8 Kriterien. Weniger als 5 ist zu grob, mehr als 10 ueberfordert die Bewertungskapazitaet des Teams und erzeugt Scheinpraezision.
Schritt 3: Kriterien gewichten
Die Gewichtung ist der kritischste Schritt — und der am haeufigsten unterschaetzte. Ohne Gewichtung behandelt die Matrix alle Kriterien als gleichwertig, was selten der Realitaet entspricht.
Methode 1: Prozentuale Verteilung (einfach) Verteile 100 Prozentpunkte auf die Kriterien. Jeder Teilnehmer verteilt individuell, dann wird der Durchschnitt gebildet.
Methode 2: Paarweiser Vergleich (gruendlicher) Vergleiche jedes Kriterium mit jedem anderen: “Ist Kundenzufriedenheit wichtiger als Kosten?” Zaehle die “Siege” jedes Kriteriums und leite die Gewichtung ab. Saatys AHP formalisiert diesen Ansatz mit einer 9-Punkte-Skala [3].
Methode 3: Rangfolge (schnell) Sortiere die Kriterien nach Wichtigkeit. Weise dem wichtigsten Kriterium den hoechsten Wert zu (z. B. 5 bei 5 Kriterien), dem naechsten 4, usw. Normiere auf 100 %.
| Kriterium | Gewichtung |
|---|---|
| Kundenwirkung | 30 % |
| Machbarkeit | 25 % |
| Wirtschaftlichkeit | 20 % |
| Strategische Passung | 15 % |
| Risiko | 10 % |
| Summe | 100 % |
Haeufiger Fehler: Die Gewichtung nach der Bewertung anpassen, damit das gewuenschte Ergebnis herauskommt. Das untergräbt den gesamten Zweck der Methode. Definiere die Gewichtung, bevor du die erste Alternative bewertest — und aendere sie danach nicht mehr, es sei denn, du hast einen sachlichen Grund (z. B. neue Informationen).
Schritt 4: Alternativen bewerten
Bewerte jede Alternative gegen jedes Kriterium auf einer einheitlichen Skala. Gaengige Skalen:
- 1–5 (schlecht bis sehr gut) — einfach, ausreichend fuer die meisten Entscheidungen
- 1–10 — differenzierter, aber erhoehte Gefahr von Scheinpraezision
- +/0/- (Pugh-Methode) — schnellste Variante, aber kein numerisches Gesamtergebnis
Empfehlung: Nutze eine 1–5-Skala mit klaren Ankerpunkten:
| Wert | Bedeutung | Beispiel (Kriterium: Machbarkeit) |
|---|---|---|
| 1 | Sehr schlecht | Erfordert Technologie, die wir noch nicht haben |
| 2 | Schlecht | Machbar, aber mit erheblichem Zusatzaufwand |
| 3 | Mittel | Machbar mit vorhandenen Ressourcen in 6+ Monaten |
| 4 | Gut | Machbar mit vorhandenen Ressourcen in 3 Monaten |
| 5 | Sehr gut | Sofort umsetzbar mit bestehenden Mitteln |
Praktischer Hinweis: Lass jeden Teilnehmer zuerst individuell bewerten (Silent Rating), bevor ihr die Bewertungen vergleicht. Das verhindert Gruppendenken und Ankereffekte — die erste laut ausgesprochene Zahl beeinflusst alle weiteren Bewertungen [4].
Schritt 5: Gewichtete Gesamtpunktzahl berechnen
Multipliziere jede Bewertung mit der Gewichtung des Kriteriums und summiere:
Gewichteter Nutzwert = Summe (Bewertung × Gewichtung)
Das Konzept mit dem hoechsten gewichteten Nutzwert ist — unter den gewaehlten Kriterien und Gewichtungen — die beste Option.
Schritt 6: Sensitivitaetscheck durchfuehren
Bevor du die Entscheidung kommunizierst: Pruefe, wie robust das Ergebnis ist.
- Gewichtung variieren: Was passiert, wenn du die Gewichtung des wichtigsten Kriteriums um 10 Prozentpunkte erhoehst oder senkst? Aendert sich die Rangfolge?
- Bewertungen variieren: Gibt es Bewertungen, bei denen das Team unsicher war (z. B. 3 oder 4)? Was passiert, wenn du diese um 1 Punkt aenderst?
- Knappheitstest: Wenn der Unterschied zwischen Platz 1 und Platz 2 weniger als 5 % betraegt, ist das Ergebnis nicht eindeutig — dann brauchst du zusaetzliche Differenzierungskriterien oder weitere Informationen.
Wenn die Sensitivitaetsanalyse zeigt, dass das Ergebnis fragil ist: Das ist kein Methodenversagen — es ist eine wertvolle Erkenntnis. Es bedeutet, dass die Alternativen nahe beieinanderliegen und die Entscheidung nicht allein von der Matrix abhaengen sollte. Ergaenze qualitative Faktoren (z. B. Teamkapazitaet, politische Machbarkeit, Timing).
Beispiel: Entscheidungsmatrix fuer ein Servicekonzept
Kontext: Ein Versicherer hat im Rahmen eines Service-Design-Projekts drei Konzepte fuer ein neues Schadenmanagement-Portal entwickelt. Das Projektteam muss entscheiden, welches Konzept in die Pilotphase geht.
Die drei Konzepte:
- A: Self-Service-Portal — Kunden melden Schaeden komplett digital, laden Fotos hoch, verfolgen den Status
- B: Hybrid-Modell — Digitale Meldung mit optionalem Video-Call fuer komplexe Schaeden
- C: KI-gestütztes Portal — Automatische Schadensklassifikation per Bildanalyse, automatisierte Erstbewertung
| Kriterium | Gewichtung | A: Self-Service | B: Hybrid | C: KI-gestuetzt |
|---|---|---|---|---|
| Kundenwirkung | 30 % | 4 | 5 | 3 |
| Machbarkeit | 25 % | 5 | 4 | 2 |
| Wirtschaftlichkeit | 20 % | 4 | 3 | 2 |
| Strategische Passung | 15 % | 3 | 4 | 5 |
| Risiko (invertiert: 5 = geringes Risiko) | 10 % | 5 | 4 | 2 |
| Gewichteter Nutzwert | 4,15 | 4,10 | 2,75 |
Berechnung Konzept A: (4 × 0,30) + (5 × 0,25) + (4 × 0,20) + (3 × 0,15) + (5 × 0,10) = 1,20 + 1,25 + 0,80 + 0,45 + 0,50 = 4,20
Berechnung Konzept B: (5 × 0,30) + (4 × 0,25) + (3 × 0,20) + (4 × 0,15) + (4 × 0,10) = 1,50 + 1,00 + 0,60 + 0,60 + 0,40 = 4,10
Berechnung Konzept C: (3 × 0,30) + (2 × 0,25) + (2 × 0,20) + (5 × 0,15) + (2 × 0,10) = 0,90 + 0,50 + 0,40 + 0,75 + 0,20 = 2,75
Sensitivitaetscheck: Der Abstand zwischen A (4,20) und B (4,10) betraegt nur 2,4 %. Wenn die Gewichtung “Kundenwirkung” von 30 % auf 35 % steigt, ueberholt B das Konzept A. Das Ergebnis ist also knapp — die Entscheidung haengt stark davon ab, wie hoch die Kundenwirkung priorisiert wird.
Entscheidung des Teams: Konzept A wird als Pilot gestartet, mit der Erweiterung um den Video-Call aus Konzept B fuer komplexe Schaeden in Phase 2. Konzept C wird als strategische Option fuer 2027 vorgemerkt, wenn die KI-Infrastruktur ausgereifter ist.
Hinweis: Dieses Beispiel ist illustrativ konstruiert, um die Methode im Servicekontext zu demonstrieren. Die Bewertungen basieren auf typischen Branchenwerten.
Entscheidungsmatrix: Vorlage zum Sofort-Einsatz
Diese Checkliste kannst du direkt fuer deine naechste Entscheidungsmatrix verwenden:
Vorbereitung
- Entscheidungsfrage als konkrete Frage formuliert
- 3–7 Alternativen identifiziert
- 5–8 unabhaengige, bewertbare Kriterien definiert
- K.O.-Kriterien vorab geprueft (Alternativen, die ein K.O.-Kriterium nicht erfuellen, werden ausgeschlossen)
Gewichtung
- Gewichtungsmethode gewaehlt (Prozent, Paarvergleich oder Rangfolge)
- Gewichtung VOR der Bewertung festgelegt
- Summe der Gewichtungen = 100 %
Bewertung
- Skala mit Ankerpunkten definiert (z. B. 1–5)
- Jeder Teilnehmer hat individuell bewertet (Silent Rating)
- Abweichungen im Team diskutiert und Konsens hergestellt
- Gewichtete Nutzwerte berechnet
Qualitaetssicherung
- Sensitivitaetscheck durchgefuehrt (Gewichtung ±10 %, Bewertung ±1)
- Ergebnis auf Robustheit geprueft (Abstand zwischen Platz 1 und 2)
- Qualitative Faktoren ergaenzt, die die Matrix nicht erfasst
- Entscheidung dokumentiert inkl. Begruendung und Alternativenbewertung
4 haeufige Fehler bei der Entscheidungsmatrix
1. Gewichtung nach der Bewertung anpassen (Anchoring Bias)
Symptom: Das Team bewertet die Alternativen, sieht das Ergebnis — und aendert dann die Gewichtung, bis das gewuenschte Ergebnis erscheint. “Kosten sind doch eigentlich wichtiger als Kundenwirkung” wird erst gesagt, nachdem klar ist, dass das billigste Konzept ohne diese Aenderung verlieren wuerde.
Warum das schadet: Die Entscheidungsmatrix simuliert dann nur Objektivitaet — die eigentliche Entscheidung wurde laengst aus dem Bauch getroffen. Tversky und Kahneman (1974) dokumentierten, wie Ankerwerte systematisch die Einschaetzung verzerren [4].
Loesung: Definiere die Gewichtung in einer separaten Sitzung, bevor die Alternativen bekannt sind oder bewertet werden. Dokumentiere die Gewichtung schriftlich und erklaere sie fuer unveraenderbar — es sei denn, neue Sachinformationen erfordern eine Anpassung (nicht neue Praeferenzen).
2. Kriterien-Redundanz (Doppelzaehlung)
Symptom: Die Kriterien “Implementierungskosten”, “Budgetbedarf” und “Wirtschaftlichkeit” stehen nebeneinander — und alle drei messen im Kern dasselbe.
Warum das schadet: Wenn drei von acht Kriterien denselben Aspekt messen, hat dieser Aspekt effektiv 37,5 % Gewichtung statt der nominell zugewiesenen Einzelgewichtung. Das verzerrt das Ergebnis zugunsten der Alternativen, die in diesem Aspekt stark sind.
Loesung: Pruefe jedes Kriterium: “Wenn Alternative X bei diesem Kriterium besser abschneidet als Y — waere das Ergebnis bei einem anderen Kriterium automatisch auch besser?” Wenn ja, sind die Kriterien nicht unabhaengig. Fasse sie zusammen.
3. Scheinpraezision durch zu feine Skala
Symptom: Das Team verwendet eine 1–10-Skala und diskutiert, ob ein Konzept bei “Kundenwirkung” eine 7 oder eine 8 verdient. Die Diskussion dauert 15 Minuten und bringt keinen Erkenntnisgewinn.
Warum das schadet: Menschliche Bewertungsfaehigkeit ist begrenzt. Die Unterscheidung zwischen 6, 7 und 8 auf einer 10er-Skala ist in den meisten Faellen willkuerlich. Die resultierende Scheinpraezision erzeugt falsches Vertrauen in das Ergebnis.
Loesung: Nutze eine 1–5-Skala mit klaren Ankerpunkten fuer jeden Wert. Wenn du mehr Differenzierung brauchst, ueberlege, ob du ein zusaetzliches Kriterium brauchst — nicht eine feinere Skala.
4. Gruppendenken bei der Bewertung
Symptom: Der Projektleiter nennt seine Bewertung zuerst — und alle anderen stimmen zu oder weichen nur minimal ab. Das Ergebnis spiegelt die Meinung einer Person, nicht die kollektive Einschaetzung.
Warum das schadet: Gruppendenken eliminiert die Perspektivenvielfalt, die eine Gruppenentscheidung wertvoll macht [5].
Loesung: Silent Rating — jeder bewertet individuell auf einem eigenen Zettel oder in einem separaten Sheet, bevor die Bewertungen offengelegt werden. Diskutiere nur Abweichungen, nicht Uebereinstimmungen.
Wann die Entscheidungsmatrix NICHT funktioniert
1. Echte Innovation mit unbekannten Kriterien: Wenn du ein radikal neues Servicekonzept bewertest, kennst du die relevanten Kriterien oft noch nicht. Eine Matrix mit falschen Kriterien erzeugt ein praezises, aber irrelevantes Ergebnis. Hier ist Design Thinking (Prototyping + Testing) besser geeignet — zuerst lernen, dann bewerten.
2. Politische Entscheidungen: Wenn die Entscheidung bereits getroffen ist und die Matrix nur der Legitimation dienen soll, ist sie Zeitverschwendung. Noch schlimmer: Sie erzeugt bei den Beteiligten Zynismus gegenueber kuenftigen “objektiven” Prozessen.
3. Entscheidungen unter extremer Unsicherheit: Die Matrix setzt voraus, dass die Alternativen und ihre Eigenschaften bekannt sind. Bei Entscheidungen unter Unsicherheit — z. B. Markteintritt in ein voellig neues Segment — liefern Szenarioanalysen oder Real-Options-Ansaetze bessere Ergebnisse.
4. Wenn eine Alternative alle anderen dominiert: Wenn eine Option in jedem Kriterium gleich gut oder besser ist als alle anderen (Pareto-Dominanz), brauchst du keine Matrix. Sie ist offensichtlich die beste Wahl. Die Matrix ist dann Overhead ohne Erkenntnisgewinn.
5. Zu wenig Information fuer eine fundierte Bewertung: Wenn das Team nicht genug ueber die Alternativen weiss, um sie serioes zu bewerten, erzeugt die Matrix eine Struktur, die Unwissen verdeckt. Investiere zuerst in Informationsbeschaffung — Gemba Walk fuer Prozessbeobachtung, Kano-Analyse fuer Kundendaten — und fuehre die Matrix durch, wenn du fundiert bewerten kannst.
Variationen und fortgeschrittene Techniken
Pugh-Matrix: Relative statt absolute Bewertung
Statt jede Alternative auf einer Skala zu bewerten, waehlt die Pugh-Matrix ein Referenzkonzept (Datum) und bewertet alle anderen relativ dazu: besser (+1), gleich (0) oder schlechter (-1) [2]. Vorteil: Das Team muss nicht absolute Werte schaetzen, sondern nur relative Unterschiede beurteilen — was kognitiv einfacher ist. Nachteil: Kein differenzierter numerischer Gesamtwert.
Empfehlung: Die Pugh-Matrix eignet sich besonders in fruehen Phasen der Konzeptauswahl, wenn die Alternativen noch grob sind. Die gewichtete Entscheidungsmatrix eignet sich fuer die finale Auswahl zwischen ausgereiften Konzepten.
Analytic Hierarchy Process (AHP): Mathematisch fundierte Gewichtung
Saatys AHP verwendet paarweise Vergleiche mit einer 9-Punkte-Skala, um die Gewichtung mathematisch konsistent abzuleiten [3]. AHP berechnet zudem einen Konsistenzindex — ein Mass dafuer, wie widerspruchsfrei die Gewichtungen sind. Ein hoher Inkonsistenzwert zeigt, dass das Team seine Praeferenzen nicht klar sortiert hat.
Empfehlung: AHP lohnt sich bei strategisch wichtigen Entscheidungen mit mehr als 8 Kriterien und wenn mathematische Rigorosität gefordert ist (z. B. oeffentliche Ausschreibungen, regulierte Branchen).
Entscheidungsmatrix + Kano: Die kombinierte Methode
Nutze das Kano-Modell, um Features nach Zufriedenheitswirkung zu klassifizieren — und uebertrage die Ergebnisse als Kriterium “Kundenwirkung” in die Entscheidungsmatrix. Basismerkmale erhalten automatisch die hoechste Bewertung bei Kundenwirkung, Begeisterungsmerkmale eine hohe, unerhebliche Merkmale eine niedrige. So verbindest du Kundendaten mit der strukturierten Alternativenbewertung.
Haeufig gestellte Fragen
Was ist eine Entscheidungsmatrix?
Eine Entscheidungsmatrix ist ein tabellarisches Werkzeug, das mehrere Alternativen anhand gewichteter Kriterien systematisch vergleicht. Jede Alternative wird gegen jedes Kriterium auf einer Skala bewertet. Die Bewertung wird mit der Gewichtung des Kriteriums multipliziert und aufsummiert. Die Alternative mit dem hoechsten gewichteten Gesamtwert (Nutzwert) ist — unter den gewaehlten Kriterien — die beste Option.
Wie erstelle ich eine Entscheidungsmatrix?
In sechs Schritten: (1) Entscheidungsfrage formulieren. (2) 5–8 unabhaengige Kriterien definieren. (3) Kriterien gewichten (Summe = 100 %). (4) Alternativen auf einer 1–5-Skala bewerten (individuell, dann im Team konsolidieren). (5) Gewichtete Nutzwerte berechnen. (6) Sensitivitaetscheck durchfuehren — pruefen, ob kleine Aenderungen an Gewichtung oder Bewertung die Rangfolge kippen.
Was ist der Unterschied zwischen Entscheidungsmatrix und Nutzwertanalyse?
In der Praxis werden die Begriffe oft synonym verwendet. Die Nutzwertanalyse nach Zangemeister (1976) ist die formalisierte Methodik, die der heutigen gewichteten Entscheidungsmatrix zugrunde liegt. Der Unterschied: Nutzwertanalyse ist der akademische Fachbegriff mit definiertem Ablauf und Dokumentationsanforderung, Entscheidungsmatrix ist der praxisuebliche Oberbegriff fuer jede tabellarische Alternativenbewertung.
Wie viele Kriterien sollte eine Entscheidungsmatrix haben?
5–8 Kriterien sind ideal. Weniger als 5 ist zu grob und laesst wichtige Aspekte aus. Mehr als 10 ueberfordert die Bewertungskapazitaet und erzeugt Scheinpraezision. Wenn du mehr als 10 Kriterien identifizierst, pruefe, ob einige redundant sind oder zu Oberkategorien zusammengefasst werden koennen.
Wann sollte man die Entscheidungsmatrix NICHT verwenden?
In fuenf Situationen: (1) Bei radikaler Innovation, wenn die relevanten Kriterien noch unbekannt sind. (2) Wenn die Entscheidung politisch bereits getroffen ist. (3) Unter extremer Unsicherheit ueber die Alternativen. (4) Wenn eine Alternative offensichtlich alle anderen dominiert. (5) Wenn zu wenig Information fuer eine fundierte Bewertung vorliegt.
Was ist der Unterschied zwischen Pugh-Matrix und gewichteter Entscheidungsmatrix?
Die Pugh-Matrix bewertet Alternativen relativ zu einem Referenzkonzept (besser/gleich/schlechter). Die gewichtete Entscheidungsmatrix bewertet Alternativen absolut auf einer numerischen Skala. Pugh ist schneller und kognitiv einfacher, liefert aber keinen differenzierten Gesamtwert. Die gewichtete Matrix ist gruendlicher und liefert einen Nutzwert, erfordert aber mehr Zeit und sorgfaeltige Skalendefinition.
Verwandte Methoden
Ein typischer Ablauf in der Serviceentwicklung: Mit dem Morphologischen Kasten generierst du systematisch Servicekonzepte. Mit der Entscheidungsmatrix waehlst du das vielversprechendste Konzept aus. Mit dem Kano-Modell verfeinerst du die Features des gewaehlten Konzepts. Im Service-Design-Prozess setzt du das Konzept um.
- Morphologischer Kasten: Wenn du vor der Bewertung systematisch Loesungskombinationen generieren willst
- Kano-Modell: Wenn du nicht zwischen Konzepten waehlen, sondern Features nach Kundenwirkung priorisieren willst
- SWOT-Analyse: Wenn du vor der Konzeptauswahl die strategische Ausgangslage analysieren willst
- Service-Design-Methoden im Ueberblick: Fuer den Gesamtkontext, in den die Entscheidungsmatrix eingebettet ist
- PDCA-Zyklus: Wenn du nach der Entscheidung das gewaehlte Konzept iterativ verbessern willst
Forschungsmethodik
Dieser Artikel synthetisiert Erkenntnisse aus Zangemeisters Originalpublikation zur Nutzwertanalyse (1976), Pughs Konzeptauswahl-Methodik (1981), Saatys AHP-Grundlagenwerk (1980), Tversky und Kahnemans Forschung zu Urteilsheuristiken (1974) sowie der Analyse von 10 deutschsprachigen Fachbeitraegen zur Entscheidungsmatrix. Die Quellen wurden nach Methodenrigor, Praxisrelevanz und Aktualitaet ausgewaehlt.
Limitationen: Die akademische Literatur zur Anwendung von Entscheidungsmatrizen in der Dienstleistungsentwicklung ist begrenzt — die meisten Studien stammen aus dem Ingenieurwesen und der Produktentwicklung. Das Praxisbeispiel (Schadenmanagement-Portal) ist illustrativ konstruiert, nicht eine dokumentierte Fallstudie.
Offenlegung
SI Labs bietet Beratungsleistungen im Bereich Service Innovation an. Im Integrierten Service Entstehungs Prozess (iSEP) setzen wir die Entscheidungsmatrix ein, um in der Konzeptphase zwischen Service-Alternativen zu waehlen. Diese Praxiserfahrung informiert die Einordnung der Methode in diesem Artikel. Leser sollten sich der moeglichen Perspektivenverzerrung bewusst sein.
Quellenverzeichnis
[1] Zangemeister, Christof. Nutzwertanalyse in der Systemtechnik: Eine Methodik zur multidimensionalen Bewertung und Auswahl von Projektalternativen. Muenchen: Wittemann, 1976. [Grundlagenwerk | Nutzwertanalyse | Zitationen: 1.500+ | Qualitaet: 90/100]
[2] Pugh, Stuart. “Concept Selection: A Method That Works.” Proceedings of the International Conference on Engineering Design (ICED), Rom, 1981. Spaeter vertieft in: Pugh, Stuart. Total Design: Integrated Methods for Successful Product Engineering. Wokingham: Addison-Wesley, 1991. ISBN: 978-0201416398 [Grundlagenwerk | Pugh-Matrix | Zitationen: 3.000+ | Qualitaet: 88/100]
[3] Saaty, Thomas L. The Analytic Hierarchy Process: Planning, Priority Setting, Resource Allocation. New York: McGraw-Hill, 1980. ISBN: 978-0070543713 [Grundlagenwerk | AHP | Zitationen: 40.000+ | Qualitaet: 92/100]
[4] Tversky, Amos, und Daniel Kahneman. “Judgment under Uncertainty: Heuristics and Biases.” Science 185, Nr. 4157 (1974): 1124-1131. DOI: 10.1126/science.185.4157.1124 [Grundlagenwerk | Kognitive Verzerrungen | Zitationen: 45.000+ | Qualitaet: 95/100]
[5] Janis, Irving L. Groupthink: Psychological Studies of Policy Decisions and Fiascoes. Boston: Houghton Mifflin, 1982. ISBN: 978-0395317044 [Grundlagenwerk | Gruppendenken | Zitationen: 10.000+ | Qualitaet: 85/100]
[6] Brugha, Cathal M. “Structure of Multi-Criteria Decision Making.” Journal of the Operational Research Society 55, Nr. 11 (2004): 1156-1168. DOI: 10.1057/palgrave.jors.2601816 [Journal Article | MCDM Overview | Zitationen: 100+ | Qualitaet: 75/100]
[7] Velasquez, Mark, und Patrick T. Hester. “An Analysis of Multi-Criteria Decision Making Methods.” International Journal of Operations Research 10, Nr. 2 (2013): 56-66. [Journal Article | Method Comparison | Zitationen: 2.500+ | Qualitaet: 78/100]