Zum Inhalt springen

Artikel

Innovation

Customer Effort Score (CES): Berechnung, Forschung und Praxisleitfaden

Der Customer Effort Score erklärt: Berechnung, die CEB-Studie, Einsatzgebiete und Praxisleitfaden für Services.

von SI Labs

Der Customer Effort Score (CES) ist eine Kennzahl zur Messung des wahrgenommenen Aufwands, den ein Kunde für die Lösung eines Anliegens betreiben muss. Die zentrale Erkenntnis hinter dem CES: Nicht Begeisterung bindet Kunden, sondern die Reduktion von Aufwand. 96 % der Kunden mit hohem Aufwand bei einer Service-Interaktion werden illoyal — gegenüber nur 9 % der Kunden mit niedrigem Aufwand [1].

Entwickelt wurde der CES 2010 von Matthew Dixon, Karen Freeman und Nick Toman am Corporate Executive Board (CEB, heute Gartner). Ihre Studie, publiziert im Harvard Business Review unter dem Titel Stop Trying to Delight Your Customers, stellte eine der beliebtesten Annahmen im Service-Management auf den Kopf: dass exzellenter Service darin bestehe, Erwartungen zu übertreffen [1].

Dieser Artikel erklärt die Forschung hinter dem CES, wie du ihn berechnest, wo er NPS und CSAT überlegen ist und wie du ihn mit Service Design verbindest, um die Aufwandquellen systematisch zu eliminieren.

Die CEB-Studie: Warum Begeisterung nicht bindet

Die überraschenden Befunde

Dixon, Freeman und Toman befragten über 75.000 Kunden zu ihren Service-Interaktionen und analysierten die Auswirkungen auf Loyalitätsverhalten (Wiederkauf, Mehrkauf, Weiterempfehlung). Drei Kernbefunde [1]:

1. Begeisterung hat kaum Loyalitätswirkung. Kunden, deren Erwartungen übertroffen wurden, waren nur marginal loyaler als Kunden, deren Erwartungen genau erfüllt wurden. Der Aufwand, Kunden zu begeistern, zahlt sich in Loyalität nicht aus.

2. Aufwand hat massive Loyalitätswirkung. 96 % der Kunden mit hohem Service-Aufwand zeigten illoyales Verhalten (Wechsel, negative Mundpropaganda, reduzierte Ausgaben). Bei niedrigem Aufwand waren es nur 9 %. Der Zusammenhang war stärker als bei jeder anderen getesteten Variable.

3. Service-Interaktionen zerstören Loyalität häufiger als sie aufbauen. Jeder vierte Kunde erlebte einen Service-Kontakt, der seine Loyalität verringerte. Nur jeder fünfte erlebte einen, der sie steigerte.

Was “Aufwand” bedeutet

Aufwand im CES-Kontext ist nicht nur Zeitaufwand. Dixon et al. identifizierten vier Dimensionen des Kundenaufwands [2]:

DimensionBeschreibungBeispiel
WiederholungskontakteMehrfaches Kontaktieren für dasselbe Anliegen”Ich musste dreimal anrufen, bis jemand mein Problem verstand”
KanalwechselZwischen Kanälen wechseln müssen”Ich habe online angefangen und musste dann doch anrufen”
WeiterleitungAn andere Stellen weitergereicht werden”Ich wurde viermal weitergeleitet”
WiederholungInformationen wiederholt angeben müssen”Ich musste meine Kundennummer bei jedem Transfer erneut nennen”

Diese vier Dimensionen erklären, warum CSAT (Zufriedenheit) und CES (Aufwand) verschiedene Dinge messen: Ein Kunde kann mit dem Ergebnis zufrieden sein (CSAT hoch), aber den Weg dorthin als quälend empfinden (CES niedrig). Die Zufriedenheit mit dem Ergebnis verhindert nicht die Illoyalität, die der Aufwand erzeugt.

The Effortless Experience: Das erweiterte Framework

2013 veröffentlichten Dixon, Toman und DeLisi das Buch The Effortless Experience, das die HBR-Studie zu einem operativen Framework erweiterte [2]. Vier Säulen:

1. Kanalstickiness statt Kanalwahl

Kunden, die den Kanal wechseln müssen (z. B. von Self-Service zu Telefon), erleben 10 % höheren Aufwand als Kunden, die im selben Kanal bleiben. Die Empfehlung: Self-Service so gestalten, dass Kunden dort bleiben wollen — nicht durch Kanalzwang, sondern durch Kanalqualität.

2. Next-Issue Avoidance

Das häufigste Muster bei hohem Aufwand: Kunden rufen wegen eines Problems an, das Problem wird gelöst, aber das nächste Problem (das kausal mit dem ersten zusammenhängt) wird nicht antizipiert. Beispiel: Kunde meldet einen Schadenfall. Schadenfall wird aufgenommen. Aber niemand erklärt, welche Unterlagen noch eingereicht werden müssen — was einen zweiten Anruf erzeugt.

Lösung: Kontaktgründe in Cluster analysieren. Welche Anliegen folgen häufig aufeinander? Diese proaktiv im ersten Kontakt adressieren.

3. Experience Engineering

Die Wahrnehmung von Aufwand lässt sich beeinflussen — durch die Gestaltung des Interaktionsverlaufs. Drei Techniken:

  • Advocate Language: Formulierungen, die signalisieren “Ich bin auf deiner Seite” statt “Das ist unsere Policy”
  • Positive Framing: “Ich kann Ihnen am Dienstag einen Termin anbieten” statt “Montag ist leider nicht möglich”
  • Anchoring: “Die meisten Kunden lösen das in 5 Minuten” — setzt eine positive Erwartung

4. Low-Effort-Kultur aufbauen

Aufwandsreduktion ist kein Projekt, sondern eine Haltung. Dixon et al. empfehlen, CES in die Team-Steuerung einzubauen: tägliche CES-Reviews, Freiheit für Mitarbeiter, Prozesse im Moment zu brechen, wenn sie Aufwand erzeugen, und Anerkennung für Aufwandsreduktion statt für Upselling.

Die CES-Frage und ihre Berechnung

Die Frage (CES 2.0)

“Wie sehr stimmst du der folgenden Aussage zu: [Unternehmen] hat es mir leicht gemacht, mein Anliegen zu klären.”

Die ursprüngliche CES-Frage (CES 1.0) lautete: “Wie viel Aufwand musstest du persönlich betreiben?” Diese Negativformulierung wurde 2013 durch die positive Formulierung (CES 2.0) ersetzt, weil sie intuitiver ist und eine bessere Datenqualität liefert [2].

Welche Skala?

VarianteSkalaBewertung
CES 2.0 (Standard)1—7 (Stimme überhaupt nicht zu — Stimme voll und ganz zu)5+ = Low Effort
CES vereinfacht1—5 (Sehr schwierig — Sehr einfach)4+ = Low Effort
CES EmoticonTrauriges — Neutrales — Fröhliches GesichtFröhlich = Low Effort

Empfehlung: CES 2.0 (7er-Skala) für belastbare Analysen. Vereinfachte 5er-Skala für In-App-Feedback und hohe Volumina. Emoticon-Variante für schnelle Pulse-Checks.

Berechnung

Variante 1: Durchschnittswert

CES = Summe aller Antworten / Anzahl der Antworten

Beispiel: 100 Antworten, Summe = 520. CES = 5,2 (auf einer 7er-Skala). Werte über 5 gelten als gut, über 6 als exzellent.

Variante 2: Prozentsatz Low-Effort

CES = (Antworten mit 5, 6 oder 7) / Gesamtantworten × 100

Diese Variante ist leichter zu kommunizieren: “72 % unserer Kunden empfinden den Service als einfach.”

Variante 3: Aufwands-Netto-Score (analog zu NPS)

CES Net Score = % Easy (6-7) - % Difficult (1-3)

Vorteil: direkt vergleichbar mit NPS-Logik. Nachteil: weniger verbreitet.

Wann CES einsetzen?

CES ist am wertvollsten, wenn:

  • Du Support- und Service-Interaktionen messen willst (Telefon, Chat, E-Mail, Self-Service)
  • Du prozessintensive Touchpoints optimieren willst (Schadensmeldung, Kontoeröffnung, Rückgabe, Reklamation)
  • Du Kanalwechsel und Wiederholungskontakte reduzieren willst
  • Du verstehen willst, warum CSAT hoch, aber Churn auch hoch ist (Kunden sind zufrieden, aber der Weg war zu mühsam)

CES ist NICHT geeignet, wenn:

SituationBessere AlternativeWarum
Du die Gesamtloyalität messen willstNPSCES misst den Aufwand einer Interaktion, nicht die Beziehung
Du die Zufriedenheit mit dem Ergebnis messen willstCSATCES misst den Weg, nicht das Ergebnis
Du Features priorisieren willstKano-ModellCES misst Aufwand, Kano klassifiziert Zufriedenheitswirkung
Du Begeisterung messen willstCSAT oder NPSCES erfasst per Definition nur Aufwand — Begeisterung hat keine CES-Dimension

CES und Service Design: Die Verbindung

Der CES identifiziert wo Aufwand entsteht. Service Design erklärt warum und liefert die Werkzeuge zur Lösung. Die Verbindung:

Service Blueprint als Aufwands-Analysewerkzeug

Ein Service Blueprint visualisiert den Serviceprozess aus Kunden- und Organisationssicht. Die “Line of Interaction” zeigt jeden Kontaktpunkt zwischen Kunde und Organisation. Wenn du CES-Daten auf den Service Blueprint legst, wird sichtbar, an welchen Stellen im Prozess der Aufwand entsteht — und welche internen Prozessbrüche (hinter der “Line of Visibility”) dafür verantwortlich sind.

Beispiel: CES zeigt hohen Aufwand bei der Schadensmeldung. Der Service Blueprint offenbart: Der Kunde muss dieselben Informationen dreimal eingeben (Online-Formular, Telefonat mit Sachbearbeiter, Schadensprotokoll) — weil die drei Systeme nicht integriert sind. Die Ursache ist kein Kundenproblem, sondern ein internes Integrationsproblem.

Vier Hebel zur Aufwandsreduktion

HebelBeschreibungTypische CES-Wirkung
ProzessvereinfachungSchritte eliminieren, zusammenlegen oder automatisierenHöchste Wirkung, höchster Aufwand
KanalintegrationKanalwechsel nahtlos gestalten (Daten übertragen, Kontext beibehalten)Hohe Wirkung, mittlerer Aufwand
Proaktive KommunikationKunden informieren, bevor sie fragen müssen (Status-Updates, Next-Issue Avoidance)Mittlere Wirkung, niedriger Aufwand
Self-Service-QualitätSelf-Service so gestalten, dass der Kanalwechsel überflüssig wirdHöchste langfristige Wirkung

Schritt für Schritt: CES-Programm aufsetzen

Schritt 1: Aufwandsintensive Touchpoints identifizieren

Nicht jeder Touchpoint braucht einen CES. Konzentriere dich auf:

  • Service-Recovery-Touchpoints: Reklamation, Beschwerde, Schadenfall
  • Prozessintensive Touchpoints: Kontoeröffnung, Vertragsänderung, Rückgabe
  • Support-Touchpoints: Hotline, Chat, E-Mail-Support
  • Self-Service-Touchpoints: FAQ, Kundenportal, App-Funktionen

Auswahlkriterium: Touchpoints, bei denen Kunden ein Problem lösen oder einen Prozess durchlaufen müssen — nicht Touchpoints, bei denen Kunden etwas erleben oder genießen (dort ist CSAT besser geeignet).

Schritt 2: Befragung designen

Kernfrage (CES 2.0): “[Unternehmen] hat es mir leicht gemacht, [Anliegen] zu klären.” (1—7, Stimme überhaupt nicht zu — Stimme voll und ganz zu)

Folgefrage (offen): “Was hätte den Prozess für dich einfacher gemacht?”

Wichtig: Die offene Frage ist beim CES noch wichtiger als bei CSAT oder NPS. CSAT fragt “Was hätten wir besser machen können?” — das ist vage. CES fragt “Was hätte es einfacher gemacht?” — das ist operativ umsetzbar.

Zeitpunkt: Unmittelbar nach Abschluss der Interaktion (innerhalb von 1—4 Stunden). Anders als bei CSAT (wo 24 Stunden Abstand sinnvoll ist) profitiert CES von der unmittelbaren Erinnerung an den Aufwand — der Aufwand verblasst schneller als die Zufriedenheit.

Schritt 3: Daten erheben und segmentieren

Mindest-Stichprobe: 50 Antworten pro Touchpoint.

Segmentierung nach:

  • Kontaktkanal (Telefon vs. Chat vs. E-Mail vs. Self-Service)
  • Anliegentyp (Erstanfrage vs. Follow-up, einfach vs. komplex)
  • Kundentyp (Neukunde vs. Bestandskunde)
  • Lösungsstatus (gelöst vs. ungelöst)

Kritisch: Segmentiere nach Lösungsstatus. Kunden mit ungelösten Anliegen bewerten den Aufwand systematisch höher — nicht weil der Prozess schlecht war, sondern weil das Ergebnis fehlte. Wenn du Aufwand und Ergebnis nicht trennst, optimierst du den falschen Hebel.

Schritt 4: Aufwandstreiber analysieren

Pareto-Analyse der offenen Antworten: Kategorisiere die Freitextantworten in die vier Aufwandsdimensionen (Wiederholungskontakte, Kanalwechsel, Weiterleitung, Informationswiederholung). Die häufigste Dimension ist dein größter Hebel.

CES-Journey-Map: Lege die CES-Werte auf die Customer Journey. Wo sind die Aufwandsspitzen? Korrelieren sie mit bestimmten Prozessschritten? Mit bestimmten Kanälen?

Schritt 5: Service Blueprint erstellen und Aufwandsquellen eliminieren

Erstelle für die Top-3-Aufwandstouchpoints einen Service Blueprint. Identifiziere:

  • Welche internen Prozessbrüche erzeugen den Kundenaufwand?
  • Wo fehlt Systemintegration?
  • Wo wird der Kunde zur Fehlerkorrektur interner Prozesse eingesetzt?

Praxisbeispiel: CES in der Schadenabwicklung einer DACH-Versicherung

Kontext: Ein großer DACH-Versicherer hat einen NPS von +18 und einen CSAT von 72 % — beides akzeptable Werte. Trotzdem steigt die Kündigungsrate bei Kunden, die einen Schadenfall hatten, auf 28 % (gegenüber 12 % ohne Schadenfall). Die Hypothese: Nicht die Unzufriedenheit mit dem Ergebnis treibt die Kündigung, sondern der Aufwand des Prozesses.

Messdesign: CES 2.0 (7er-Skala) unmittelbar nach Abschluss der Schadenbearbeitung, plus offene Frage.

Ergebnis nach 4 Monaten (N = 280):

SchadensartCES (Ø)% Low Effort (5+)% High Effort (1-3)
Kfz-Glasschaden5,878 %8 %
Hausrat-Wasserschaden3,222 %54 %
Haftpflicht-Personenschaden2,815 %62 %
Gesamtdurchschnitt3,938 %41 %

Offene Antworten — Top-3-Aufwandstreiber:

  1. Informationswiederholung (38 %): “Ich musste meine Geschichte drei verschiedenen Personen erzählen.”
  2. Unklarer Prozess (29 %): “Niemand konnte mir sagen, wie lange es dauert und was als Nächstes passiert.”
  3. Kanalwechsel (22 %): “Ich habe online gemeldet, musste dann anrufen, dann Unterlagen per Post schicken.”

Service Blueprint-Analyse: Der Blueprint offenbarte, dass bei Wasserschäden drei verschiedene Abteilungen (Schadensaufnahme, Gutachter-Koordination, Regulierung) sequenziell arbeiteten — ohne gemeinsames System. Jede Abteilung fragte dieselben Basisinformationen erneut ab.

Maßnahmen:

  • Gemeinsames Schadensmanagement-System für alle drei Abteilungen (Kundendaten einmal erfassen)
  • Automatische Status-Updates per SMS alle 48 Stunden (“Ihr Schadenfall befindet sich in Schritt 3 von 5”)
  • Dokumenten-Upload über Kundenportal statt Postversand
  • Next-Issue Avoidance: Bei Schadensaufnahme proaktiv alle benötigten Unterlagen kommunizieren

Ergebnis nach 8 Monaten: CES Wasserschaden von 3,2 auf 4,9. Kündigungsrate nach Schadenfall von 28 % auf 17 %. Die Kundenzufriedenheit (CSAT) stieg ebenfalls — obwohl keine Maßnahme auf Zufriedenheit abzielte, sondern ausschließlich auf Aufwandsreduktion.

Hinweis: Dieses Beispiel ist illustrativ konstruiert, um die Methode im Servicekontext zu demonstrieren. Die Struktur basiert auf typischen Versicherungs-Benchmarks.

CES vs. NPS vs. CSAT: Wann welche Metrik?

DimensionCESNPSCSAT
Frage”War es einfach?""Würdest du empfehlen?""Warst du zufrieden?”
MisstAufwand (Prozessqualität)LoyalitätsbereitschaftZufriedenheit (Ergebnisqualität)
Am besten fürSupport, Service Recovery, prozessintensive ServicesGesamtloyalität, strategische SteuerungTouchpoint-Qualität, Erlebnismessung
StärkeStärkster Loyalitätsprediktor bei Service-Interaktionen [1]Breit akzeptiert, einfach zu kommunizierenSpezifisch, unmittelbar, operativ
SchwächeMisst nur Aufwand, nicht Zufriedenheit oder BegeisterungKein überlegener WachstumsprediktorSagt wenig über Loyalität
HerkunftDixon / CEB (2010)Reichheld / Bain (2003)Fornell / ACSI (1994)

Empfehlung: CES nach Support- und Service-Interaktionen. CSAT nach Kauf-, Onboarding- und Erlebnistouchpoints. NPS quartalsweise für die strategische Gesamtloyalität. Die drei Metriken konkurrieren nicht — sie messen verschiedene Dinge.

5 häufige Fehler beim CES

1. CES an Erlebnistouchpoints einsetzen statt an Prozesstouchpoints

Symptom: CES wird nach einem Restaurant-Besuch, einem Event oder einem Beratungsgespräch erhoben.

Warum das schadet: CES misst Aufwand. Bei Erlebnistouchpoints ist Aufwand nicht die relevante Dimension — dort zählt Zufriedenheit oder Begeisterung. Ein CES von 6,5 nach einem Restaurant-Besuch sagt: “Es war einfach.” Aber “einfach” ist nicht das, was Restaurants anstreben.

Lösung: CES an Prozesstouchpoints einsetzen (Support, Reklamation, Rückgabe). CSAT an Erlebnistouchpoints.

2. CES isoliert betrachten, ohne CSAT

Symptom: “Unser CES ist 5,8 — der Service ist einfach.” Aber der Kunde hat sein Problem nicht gelöst bekommen.

Warum das schadet: Niedriger Aufwand bei ungelöstem Problem ist keine gute Nachricht. CES ohne CSAT erzeugt ein verzerrtes Bild: Der Prozess war einfach, aber das Ergebnis fehlt.

Lösung: CES und CSAT immer zusammen erheben. Die Kombination zeigt vier Szenarien: (1) einfach + zufrieden = ideal, (2) einfach + unzufrieden = Ergebnisproblem, (3) schwierig + zufrieden = Prozessproblem, (4) schwierig + unzufrieden = dringend.

3. CES nicht mit Verhaltenskennzahlen verbinden

Symptom: CES wird berichtet, aber niemand weiß, ab welchem Wert die Churn-Rate sinkt.

Warum das schadet: Dixon et al. zeigten den Zusammenhang zwischen Aufwand und Illoyalität auf der Studienebene. Aber jedes Unternehmen hat seinen eigenen Schwellenwert. Ohne Korrelationsanalyse mit Verhaltensdaten ist der CES eine Zahl ohne operatives Ziel.

Lösung: CES mit Churn-Daten korrelieren. Frage: “Ab welchem CES-Wert sinkt die Kündigungsrate signifikant?” Dieser Wert ist dein Ziel.

4. CES-Daten nicht in Prozessverbesserungen übersetzen

Symptom: CES wird monatlich berichtet. Niemand ändert einen Prozess.

Warum das schadet: CES ist per Definition eine Prozesskennzahl. Wenn du den CES nicht in Prozessverbesserungen übersetzt, sammelst du Daten ohne Konsequenz.

Lösung: Für jeden Touchpoint mit CES < 4,5 (7er-Skala): Service Blueprint erstellen, Aufwandstreiber identifizieren, Maßnahmenplan innerhalb von 4 Wochen.

5. Die alte CES-Frage (CES 1.0) verwenden

Symptom: “Wie viel Aufwand musstest du persönlich betreiben?” statt der positiven CES-2.0-Formulierung.

Warum das schadet: Die Negativformulierung erzeugt einen Framing-Effekt: Kunden denken aktiv über Aufwand nach und bewerten tendenziell negativer. Die positive Formulierung (“hat es mir leicht gemacht”) liefert bessere Datenqualität [2].

Lösung: CES 2.0 verwenden: “[Unternehmen] hat es mir leicht gemacht, mein Anliegen zu klären.” 7er-Skala, Stimme überhaupt nicht zu — Stimme voll und ganz zu.

Wann CES NICHT funktioniert

1. Emotionale oder beziehungsorientierte Touchpoints: CES misst funktionalen Aufwand. Bei Touchpoints, die von Empathie, Vertrauen oder emotionaler Verbindung geprägt sind (Beratungsgespräch, Trauer-Support, Finanzplanung), ist Aufwand nicht die relevante Dimension.

2. Einmalige Transaktionen ohne Wiederkaufoption: CES prognostiziert Loyalitätsverhalten. Wenn keine Wiederholung möglich ist (Hauskauf, einmalige Rechtsberatung), fehlt der Kontext, in dem CES seine Stärke ausspielt.

3. Als einzige Metrik: CES misst den Weg, nicht das Ergebnis. Kombiniere ihn immer mit CSAT (Ergebnis) und NPS (Gesamtloyalität).

4. Wenn Aufwand bewusst erwünscht ist: Bei Gamification, Lernplattformen oder Fitness-Services kann hoher Aufwand Teil des Wertangebots sein. Dort misst CES das Falsche.

Häufig gestellte Fragen

Was ist ein guter CES-Wert?

Auf einer 7er-Skala: >5,0 = gut, >5,5 = sehr gut, >6,0 = exzellent. Unter 4,0 = dringender Handlungsbedarf. Wichtiger als der absolute Wert ist der Vergleich zwischen Touchpoints und der Trend über die Zeit.

Was ist der Unterschied zwischen CES und NPS?

CES misst den Aufwand einer spezifischen Interaktion (war es einfach?). NPS misst die allgemeine Empfehlungsbereitschaft (würdest du empfehlen?). CES ist operativ und prozessorientiert; NPS ist strategisch und beziehungsorientiert. CES ist der bessere Loyalitätsprediktor bei Service-Interaktionen [1]; NPS ist der breitere Loyalitätsindikator.

Wann ist CES besser als CSAT?

Nach Support-Interaktionen, Service-Recovery-Situationen und prozessintensiven Touchpoints. Dort ist die Frage “War es einfach?” informativer als “Warst du zufrieden?” — weil Aufwand der stärkere Loyalitätstreiber ist [1].

Wie verbessert man den CES?

In drei Schritten: (1) CES-Daten nach Aufwandsdimensionen kategorisieren (Wiederholungskontakte, Kanalwechsel, Weiterleitung, Informationswiederholung). (2) Service Blueprint für die aufwandsintensivsten Touchpoints erstellen. (3) Interne Prozessbrüche eliminieren, die den Kundenaufwand verursachen.

Verwandte Methoden

Ein typischer Ablauf im Service-Measurement: Mit dem CES identifizierst du, wo der Service zu viel Aufwand verursacht. Mit Service Design analysierst du die Ursachen im Service Blueprint. Mit CSAT prüfst du, ob die Ergebnisqualität stimmt. Mit dem NPS misst du die Gesamtloyalität.


Forschungsmethodik

Dieser Artikel synthetisiert Erkenntnisse aus der CEB-Originalstudie (Dixon, Freeman & Toman, 2010), dem erweiterten Framework aus The Effortless Experience (Dixon, Toman & DeLisi, 2013), der Service-Quality-Forschung (Parasuraman et al. 1988) sowie der Aufwand-Loyalitäts-Forschung (Gartner/CEB, mehrere Wellen).

Limitationen: Die CEB-Studie basiert auf englischsprachigen Märkten. DACH-spezifische Replikationsstudien sind begrenzt. Das Praxisbeispiel ist illustrativ konstruiert, nicht eine dokumentierte Fallstudie. Die 96-%-Zahl (high-effort customers become disloyal) stammt aus der Originalstudie und wurde in anderen Kontexten nicht in exakt derselben Höhe repliziert — die Richtung des Effekts ist jedoch vielfach bestätigt.

Offenlegung

SI Labs bietet Beratungsleistungen im Bereich Service Innovation und Service Design an. Im Rahmen von Service-Measurement-Projekten setzen wir CES als eine von mehreren Metriken ein. Diese Praxiserfahrung informiert die Einordnung der Methode in diesem Artikel. Leser sollten sich der möglichen Perspektivenverzerrung bewusst sein.

Quellenverzeichnis

[1] Dixon, Matthew, Karen Freeman, und Nick Toman. “Stop Trying to Delight Your Customers.” Harvard Business Review 88, Nr. 7/8 (Juli-August 2010): 116—122. [Grundlagenwerk | CEB-Studie | Zitationen: 2.000+ | Qualität: 88/100]

[2] Dixon, Matthew, Nick Toman, und Rick DeLisi. The Effortless Experience: Conquering the New Battleground for Customer Loyalty. Portfolio/Penguin, 2013. [Buch | Erweitertes CES-Framework | Qualität: 80/100]

[3] Parasuraman, A., Valarie A. Zeithaml, und Leonard L. Berry. “SERVQUAL: A Multiple-Item Scale for Measuring Consumer Perceptions of Service Quality.” Journal of Retailing 64, Nr. 1 (1988): 12—40. [Journal Article | Service-Quality-Messung | Zitationen: 35.000+ | Qualität: 92/100]

[4] Keiningham, Timothy L., Bruce Cooil, Tor Wallin Andreassen, und Lerzan Aksoy. “A Longitudinal Examination of Net Promoter and Firm Revenue Growth.” Journal of Marketing 71, Nr. 3 (Juli 2007): 39—51. DOI: 10.1509/jmkg.71.3.039 [Journal Article | NPS-Widerlegung | Zitationen: 1.500+ | Qualität: 90/100]

Aehnliche Artikel

Net Promoter Score (NPS): Berechnung, Benchmarks und kritische Bewertung

Der Net Promoter Score erklärt: Berechnung, Branchenbenchmarks, empirische Kritik und Praxisleitfaden für Services.

Weiterlesen →

Customer Satisfaction Score (CSAT): Berechnung, Einsatz und Praxisleitfaden

Der CSAT erklärt: Berechnung, Skalen, Branchenbenchmarks und Praxisleitfaden für die Messung von Kundenzufriedenheit.

Weiterlesen →

Serviceinnovation messen: ROI-Framework, Metriken-Taxonomie und die 8 häufigsten Messfehler

Innovation messen: ROI-Berechnung, Input-/Output-/Outcome-Metriken, Reifegrad-Assessment, DACH-Benchmarks und evidenzbasierte Messfehler.

Weiterlesen →

Serviceinnovation in Zahlen: Benchmarks, Kennzahlen und Branchendaten für die DACH-Region

Benchmarks und Kennzahlen zu Serviceinnovation: Marktdaten, Innovationsquoten, ROI-Studien und Branchenvergleiche für den DACH-Raum.

Weiterlesen →

Service Design: Definition, Prozess & Praxisbeispiel

Was ist Service Design? Definition, die 5 Prinzipien, der Double Diamond und ein B2B-Praxisbeispiel. Mit Vergleich zu Design Thinking und UX Design.

Weiterlesen →