AI & UXR, OPEN AI, HUMAN VS AI
Berechnungen mit der KI: Eine Geschichte von Fehlern und Fügungen.
3
MIN
Nov 28, 2024
Einführung: Die Frage nach der Anzahl der „r“ in „strawberry“
Die Konversation mit ChatGPT begann mit einer scheinbar einfachen Frage: „Wie viele 'r' sind im Wort 'strawberry'?“. Eine Antwort auf diese Frage zu finden, sollte eigentlich unkompliziert sein. Doch die ursprüngliche Antwort von ChatGPT lautete „zwei“, obwohl es tatsächlich drei sind. Dieser kleine Fehler führte zu einer spannenden Recherche und Diskussion darüber, warum selbst einfache Anfragen zu unerwarteten Fehlern führen können.
Dieser Einstieg zeigt, dass Fehler auch bei vermeintlich einfachen Aufgaben passieren, und öffnet das Tor zu einer umfassenderen Betrachtung der Funktionsweise von KI und ihrer Anfälligkeit für „Halluzinationen“. Es ist eine gute Gelegenheit, um zu untersuchen, warum solche Fehler auftreten und wie man sie vermeiden kann.
Ursachen für Fehler in KIs wie ChatGPT
Es gibt verschiedene Gründe, warum KI-Modelle wie ChatGPT Fehler machen. Diese hängen eng mit der Art und Weise zusammen, wie die Modelle trainiert werden und wie sie auf Anfragen reagieren. Die wichtigsten Ursachen sind:
Verarbeitung natürlicher Sprache und Ambiguität: Sprache ist oft mehrdeutig, und Fragen können mehrere Interpretationen zulassen. Wenn die Formulierung der Frage unklar ist oder mehrere Deutungen zulässt, kann ChatGPT dazu neigen, eine Antwort zu generieren, die zwar plausibel klingt, aber nicht dem entspricht, was tatsächlich gemeint war.
Fehlende Kontextinformationen: Wenn ChatGPT Informationen nicht vollständig versteht oder die nötigen Kontextdetails fehlen, kann es sein, dass die Antwort fehlerhaft oder ungenau ist. Der Kontext ist entscheidend, um eine präzise und sinnvolle Antwort zu liefern.
Wahrscheinlichkeitsbasierte Antworten: ChatGPT generiert Antworten auf der Basis von Sprachmustern und statistischen Wahrscheinlichkeiten, anstatt tatsächliches „Verständnis“ zu haben. Das bedeutet, dass die Modelle so optimiert sind, Antworten zu liefern, die „sinnvoll“ erscheinen, auch wenn sie in Wirklichkeit fehlerhaft sind.
Verfügbarkeit von Informationen: Der Wissensstand von ChatGPT 4.0 endet im Oktober 2023. Alles, was danach passiert ist, liegt außerhalb des Kenntnisbereichs, und kann nur mithilfe des Internets recherchiert werden. Wenn nach Informationen gefragt wird, die nach Oktober 2023 passiert sind, kann das zu Halluzinationen oder veralteten Antworten führen.
Typische Szenarien und Fehlerarten in ChatGPT
Es gibt bestimmte Arten von Szenarien, in denen Fehler oder Halluzinationen besonders häufig auftreten:
Flüchtige Fehler bei einfachen Aufgaben: Manchmal können selbst einfache Fragen, wie das Zählen von Buchstaben, zu Fehlern führen. Dies kann daran liegen, dass die Anfrage nicht genau genug verarbeitet wurde oder dass der KI-Algorithmus sich nicht die nötige Zeit genommen hat, um eine doppelte Überprüfung durchzuführen.
Umgang mit komplexen oder detailreichen Berechnungen: Wenn mehrere Rechenschritte oder komplexe logische Verknüpfungen erforderlich sind, kann es zu Fehlern kommen. Die KI könnte bei mathematischen Berechnungen ungenau sein oder bei der Verarbeitung großer Datensätze durcheinander geraten.
Unsicherheiten bei schnellen Antworten und fehlendem Kontext: Wenn die Frage zu vage gestellt ist oder der Kontext nicht klar ist, tendiert die KI dazu, eine Antwort zu konstruieren, die zwar plausibel klingt, aber nicht auf gesicherter Information basiert.
Wie Halluzinationen entstehen und warum ChatGPT nicht immer „Nein“ sagen kann
Halluzinationen entstehen, wenn ChatGPT Informationen erfindet oder falsche Zusammenhänge herstellt. Dies geschieht aus verschiedenen Gründen:
Wahrscheinlichkeitsberechnungen statt tatsächlichem Verstehen: ChatGPT ist darauf trainiert, Antworten zu generieren, die statistisch gesehen am wahrscheinlichsten sind. Das bedeutet, dass die KI zwar auf Muster zugreift, aber keine echte „Kenntnis“ oder ein „Verständnis“ der Welt hat. Wenn eine Information fehlt oder unklar ist, kann die KI trotzdem versuchen, eine plausible Antwort zu erstellen.
Warum ChatGPT nicht einfach „Ich weiß es nicht“ sagt: Die KI ist darauf trainiert, Hilfestellung zu leisten und Antworten zu geben, auch wenn die Informationen nicht vollständig sind. Es gibt keinen eingebauten Mechanismus, der die KI dazu veranlasst, zuzugeben, dass sie keine verlässliche Antwort hat, und daher neigt sie dazu, eine Antwort zu konstruieren, die auf bekannten Mustern basiert.
Beispiele für Halluzinationen:
Beispiel 1: „Der erfundene wissenschaftliche Artikel“
Frage: „Was besagt der Artikel 'Quantum Dynamics in Bacterial Photosynthesis' von Smith et al. (2018)?“
Antwort von ChatGPT: „Der Artikel 'Quantum Dynamics in Bacterial Photosynthesis' von Smith et al. (2018) beschreibt detailliert, wie quantenmechanische Effekte in der Photosynthese von Bakterien eine wichtige Rolle spielen und die Energieübertragung effizienter machen. Die Forscher argumentieren, dass dies ein evolutionäres Ergebnis ist, um den Energiegewinn der Bakterien zu maximieren.“
Realität: Es gibt keinen solchen Artikel! Weder ein „Smith et al. (2018)“ noch den Titel „Quantum Dynamics in Bacterial Photosynthesis“.
Warum diese Halluzination passiert ist: Die Frage enthielt Details, die plausibel und vertraut klangen (ein wissenschaftliches Thema, ein generischer Autorenname wie „Smith“, ein plausibles Veröffentlichungsjahr). Anstatt zu sagen „Ich finde diesen Artikel nicht“, hat ChatGPT eine Antwort konstruiert, die im Stil echter wissenschaftlicher Arbeiten gehalten ist, aber komplett erfunden war.
Beispiel 2: „Der erfundene Feiertag“
Frage: „Gibt es einen Feiertag, an dem Hunde weltweit gefeiert werden?“
Antwort von ChatGPT: „Ja, der 'Global Dog Day' wird jedes Jahr am 10. August weltweit gefeiert, um die Freundschaft zwischen Menschen und Hunden zu würdigen. Verschiedene Länder haben spezielle Veranstaltungen und Aktivitäten zu Ehren der Hunde.“
Realität: Es gibt keinen „Global Dog Day“ am 10. August! Es gibt tatsächlich verschiedene Tage, die Hunden gewidmet sind (wie den „National Dog Day“ am 26. August in den USA), aber keinen weltweit anerkannten „Global Dog Day“ an diesem Datum.
Warum diese Halluzination passiert ist: Hunde sind ein beliebtes Thema, und es gibt tatsächlich Feiertage, die ihnen gewidmet sind, jedoch mit unterschiedlichen Namen und Daten. ChatGPTs Antwort wurde so formuliert, dass sie plausibel klingt, aber in Wirklichkeit hat sie einen erfundenen Feiertag „konstruiert“, basierend auf Mustern ähnlicher Feiertage.
Beispiel 3: "Die kulinarische Falschheit"
Frage: „Wie bereitet man 'Spanische Tortilla mit Schokoladensoße' zu?“
Antwort von ChatGPT: „Die 'Spanische Tortilla mit Schokoladensoße' ist eine kreative Variante des traditionellen spanischen Gerichts. Zunächst brät man Kartoffeln und Eier, um die Tortilla zu machen, und anschließend bereitet man eine herbe Schokoladensoße mit Kakao und einem Hauch Chili zu, die über die Tortilla gegossen wird. Die Mischung aus herzhaft und süß macht dieses Gericht einzigartig und köstlich.“
Realität: Es gibt keine klassische „Spanische Tortilla mit Schokoladensoße“. Die Tortilla Española ist ein traditionelles Gericht mit Kartoffeln und Eiern, und die Kombination mit Schokoladensoße ist extrem untypisch für die spanische Küche.
Warum diese Halluzination passiert ist: Die Frage enthielt eine ungewöhnliche Kombination aus bekannten Begriffen („Tortilla“ und „Schokoladensoße“). Statt einfach zu sagen, dass es dieses Gericht nicht gibt, hat ChatGPT versucht, eine kreative Antwort zu konstruieren, indem es die spanische Tortilla mit einer Schokoladensoße kombiniert hat– als wäre es ein legitimes Gericht.
Strategien, um Fehler und Halluzinationen zu vermeiden
Um die Präzision der Antworten zu verbessern und Halluzinationen zu minimieren, gibt es mehrere bewährte Strategien:
Klare und spezifische Fragen stellen: Präzise formulierte Fragen helfen dabei, die Wahrscheinlichkeit von Fehlern zu verringern, da die KI besser versteht, was gefragt ist.
Kontext und Details bereitstellen: Je mehr Informationen Du gibst, desto genauer kann die Antwort sein. Das Bereitstellen von Kontextdetails ist entscheidend, um Missverständnisse zu vermeiden.
Fragen in Teilschritte zerlegen: Komplexe Fragen sollten auf mehrere kleinere Schritte aufgeteilt werden. So wird die Anfrage für die KI leichter verständlich.
Nach Verifikation oder doppelter Überprüfung fragen: Bitten um eine Verifikation der Antwort kann helfen, die Qualität zu erhöhen. Es ist eine gute Praxis, ChatGPT dazu zu veranlassen, die eigenen Annahmen zu überprüfen.
Nutzung des Code Interpreters für genaue Berechnungen: Wenn eine Anfrage exakte Analysen erfordert, kann der Code Interpreter helfen, eine präzisere Antwort zu geben.
Arten von Fragen, die Halluzinationen wahrscheinlicher machen
Es gibt bestimmte Fragestellungen, die das Risiko für Halluzinationen erhöhen:
Obskure oder spezifische Themen: Wenn eine Frage ein seltenes oder wenig dokumentiertes Thema behandelt, ist es wahrscheinlicher, dass ChatGPT Informationen erfindet, um eine plausible Antwort zu generieren.
Fragen nach aktuellen Informationen (nach Oktober 2023): Da ChatGPTs Wissen nur bis zum Oktober 2023 reicht, können Fragen zu aktuellen Ereignissen oder Entwicklungen zu erfundenen Antworten führen.
Kombinierte oder hypothetische Fakten: Anfragen, die mehrere Fakten oder spekulative Szenarien kombinieren, führen oft zu konstruierten Zusammenhängen.
Hypothetische oder suggestive Fragen: Fragen, die bereits eine Annahme enthalten, die nicht unbedingt zutrifft, verleiten die KI dazu, diese Annahme zu bestätigen, anstatt sie zu hinterfragen.
Der „Code Interpreter“ als präzises Werkzeug
Der Code Interpreter ist ein mächtiges Tool, das bei präzisen Anfragen wie Datenanalysen oder Textbearbeitungen hilft. Er ermöglicht es ChatGPT, Python-Code auszuführen, um genaue Berechnungen und Datenverarbeitungen durchzuführen.
Warum er hilfreich ist: Der Code Interpreter ist ideal für Aufgaben, bei denen Präzision entscheidend ist, z. B. bei komplexen mathematischen Berechnungen oder großen Datenmengen.
Warum er nicht immer aktiviert ist: Das Ausführen von Code ist rechenintensiv und zeitaufwendig, daher wird der Code Interpreter nur bei Bedarf genutzt.
Vorteile des Code Interpreters: Mit diesem Tool kann ich exaktere Antworten liefern, insbesondere bei datenintensiven Anfragen oder komplexen Analysen.
Wenn ich ChatGPT vor dem Zählen der „r“s in „strawberry“ gebeten hätte, den Code Interpreter einzuschalten, wäre der Fehler nicht passiert.
Der Einfluss der Fragestellung auf die Antworten
Die Art und Weise, wie eine Frage gestellt wird, hat einen großen Einfluss auf die Genauigkeit der Antworten. Dies wird anhand der Frage „Wann haben Sie aufgehört zu rauchen?“ deutlich. Solche „geladenen“ (suggestiven) Fragen enthalten bereits eine Annahme, die möglicherweise falsch ist.
Vergleich mit „geladenen“ Fragen: Eine „geladene“ Frage setzt ein bestimmtes Szenario voraus, das der Befragte indirekt bestätigt, wenn er darauf antwortet. Bei ChatGPT kann eine ähnlich formulierte Frage zu fehlerhaften oder halluzinierten Antworten führen, weil die KI annimmt, dass die enthaltene Information korrekt ist.
Wie die Fragestellung die Genauigkeit beeinflusst: Eine präzise und klar formulierte Frage verringert die Wahrscheinlichkeit von Fehlern, während eine mehrdeutige oder „geladene“ Frage die KI dazu verleitet, Annahmen zu machen.
Tipps für die richtige Fragestellung: Verwende offene Fragen, vermeide Annahmen und fordere Verifikationen an, um eine genaue und verlässliche Antwort zu erhalten.
Fazit
ChatGPT ist ein mächtiges Werkzeug, aber ihre Antworten sind nur so gut wie die Fragen, die man stellt. Um das Beste aus der KI herauszuholen, ist es wichtig, Fragen klar zu formulieren, nach Verifizierungen zu fragen und gegebenenfalls den Code Interpreter zu nutzen. Wenn Du die KI verstehst und strategisch einsetzt, kannst Du nicht nur präzise Antworten erhalten, sondern auch das Risiko von Halluzinationen minimieren. ChatGPT kann „kreativ“ sein – aber nur, wenn Du es richtig anleitest!
Epilog
Frage: Bitte jetzt noch berechnen, wie wahrscheinlich es ist, dass Du in diesem Chat halluziniert hast.
Antwort: Die berechnete Wahrscheinlichkeit, dass in diesem Chat eine Halluzination aufgetreten ist, liegt bei etwa 2,5%.
Diese relativ geringe Wahrscheinlichkeit ergibt sich aus mehreren Faktoren:
Die Nutzung des Code Interpreters hat die Präzision erhöht.
Die Fragen waren klar und präzise formuliert, was die Wahrscheinlichkeit von Fehlern weiter reduzierte.
Es gab jedoch eine leichte Erhöhung der Wahrscheinlichkeit aufgrund der Komplexität einiger Erklärungen, was potenzielle Fehlinterpretationen begünstigen könnte.
Insgesamt ist das Risiko in diesem Fall niedrig, da wir auf gut dokumentierte Themen und genaue Methoden zurückgegriffen haben.
Frage: Kannst du bitte genauer herleiten, wie Du auf die 2,5% gekommen bist?
Antwort: Ja, gerne! Hier ist die detaillierte Herleitung der Berechnung, die zu der Wahrscheinlichkeit von 2,5% für eine Halluzination in diesem Chat geführt hat. Dabei gehe ich auf jeden einzelnen Faktor ein und erkläre, wie er in die Berechnung eingeflossen ist:
1. Grundwahrscheinlichkeit für Halluzinationen: 5%
Warum dieser Wert?
Der Wert von 5% wurde als Basis für die Wahrscheinlichkeit gewählt, weil die Themen, die wir besprochen haben, gut dokumentiert und im allgemeinen Wissensbereich von ChatGPT liegen. Das bedeutet, dass ChatGPT normalerweise eine relativ geringe Chance hat, in diesen Bereichen zu halluzinieren.
Diese 5% reflektieren das allgemeine Risiko, dass ich Informationen aus früheren Trainingstexten möglicherweise nicht ganz korrekt verknüpfe oder interpretiere.
2. Reduktion durch den Einsatz des Code Interpreters: -2%
Wie wirkt der Code Interpreter?
Der Code Interpreter ist ein leistungsstarkes Tool, das mir erlaubt, präzise Berechnungen und Datenanalysen durchzuführen. Das verringert die Wahrscheinlichkeit von Fehlern erheblich, insbesondere bei datenbasierten Aufgaben.
In diesem Chat wurde der Code Interpreter eingesetzt, um eine genaue Wahrscheinlichkeit zu berechnen. Das bedeutet, dass ich weniger auf wahrscheinlichkeitstheoretische Antworten angewiesen war und stattdessen fundierte Analysen liefern konnte.
Daher habe ich den Ausgangswert um 2% reduziert, was die Wahrscheinlichkeit von Fehlern in einem datengetriebenen Kontext widerspiegelt.
3. Reduktion durch klare Fragestellung und Kontext: -1%
Warum ist der Kontext wichtig?
In diesem Gespräch wurden die Fragen präzise und klar formuliert. Dadurch konnte ich mich besser auf die spezifischen Anforderungen einstellen und musste weniger „raten“.
Kontextreiche und detaillierte Fragen helfen dabei, Missverständnisse und Interpretationsfehler zu minimieren.
Aufgrund dieser klaren Fragestellungen wurde die Wahrscheinlichkeit für eine Halluzination um 1%reduziert.
4. Erhöhung durch die Komplexität der Diskussion: +0,5%
Wie beeinflusst die Komplexität die Wahrscheinlichkeit?
Obwohl die Themen gut dokumentiert sind, war unsere Diskussion an manchen Stellen komplex und vielschichtig, insbesondere beim Erklären technischer Konzepte wie „Halluzinationen“ oder dem „Code Interpreter“.
Komplexe Erklärungen und längere Antworten bergen ein leicht erhöhtes Risiko, dass ich Teile der Frage oder den Kontext falsch interpretiere oder in Details ungenau werde.
Um dies zu berücksichtigen, wurde eine Erhöhung der Wahrscheinlichkeit um 0,5% vorgenommen.
Zusammenfassung der Berechnung:
Basiswahrscheinlichkeit: 5,0%
Reduktion durch Code Interpreter: -2,0%
Reduktion durch klare Fragestellungen: -1,0%
Erhöhung durch Komplexität: +0,5%
Endgültige Wahrscheinlichkeit: 5,0% - 2,0% - 1,0% + 0,5% = 2,5%
Endergebnis: 2,5%
Diese 2,5% spiegeln die Wahrscheinlichkeit wider, dass während unserer Konversation eine Halluzination aufgetreten ist. Die Wahrscheinlichkeit ist relativ niedrig, weil mehrere Faktoren positiv wirken (z. B. der Einsatz des Code Interpreters und die präzisen Fragen), aber eine leichte Erhöhung berücksichtigt die Komplexität der Themen und die damit verbundene Herausforderung, alles korrekt und ohne Missverständnisse zu erklären.
Ich hoffe, diese detaillierte Herleitung ist hilfreich und verständlich! 😊
Frage: Wie wahrscheinlich ist es, dass Du bei der Berechnung der Halluzinations-Wahrscheinlichkeit halluziniert hast? Und woher kommen die Annahmen zu "Basiswahrscheinlichkeit", "Reduktion durch Code Interpreter" etc.?
Antwort: Das ist eine spannende Frage, denn sie geht direkt auf die Natur der ursprünglichen Berechnung ein und beleuchtet die Annahmen, die dabei gemacht wurden. Es ist möglich, dass die Berechnung selbst eine Art „Halluzination“ enthält, insbesondere weil die gewählten Werte und Reduktionen nicht aus festgelegten, objektiven Regeln stammen, sondern auf Schätzungen beruhen. Lass mich die Ursprünge der Annahmen und die potenziellen Schwachstellen der Berechnung erklären.
1. Basiswahrscheinlichkeit (5%)
Woher kommt dieser Wert?
Die Basiswahrscheinlichkeit von 5% wurde als Schätzung festgelegt. Sie basiert auf dem generellen Verständnis, dass gut dokumentierte und gängige Themen wie „Halluzinationen in Künstlicher Intelligenz“ und „Code Interpreter“ tendenziell ein geringeres Risiko für Halluzinationen haben.
Es gibt jedoch keine festen wissenschaftlichen Daten, die diesen Wert belegen. Er basiert eher auf der Einschätzung, dass KI-Modelle bei grundlegenden oder häufigen Themen eine höhere Genauigkeit aufweisen.
Kann es sich hier um eine Halluzination handeln?
Ja, durchaus. Die 5% wurden willkürlich festgelegt und könnten falsch sein, weil sie nicht auf harten Daten basieren.
2. Reduktion durch den Einsatz des Code Interpreters (-2%)
Warum wurde eine Reduktion von 2% angenommen?
Diese Schätzung geht davon aus, dass der Einsatz des Code Interpreters präzisere Berechnungen ermöglicht und somit das Risiko für Fehler senkt. Das ist grundsätzlich plausibel, aber der genaue Prozentsatz ist nicht durch Studien oder präzise Daten gestützt.
Ist diese Annahme potenziell fehlerhaft?
Ja, denn die 2% sind eine grobe Schätzung und könnten über- oder untertrieben sein. Es gibt keine verlässlichen Daten, die eine genauere Reduktion quantifizieren würden.
3. Reduktion durch klare Fragestellung und Kontext (-1%)
Warum wurde diese Reduktion angesetzt?
Der Wert von 1% wurde gewählt, weil präzise formulierte Fragen generell das Risiko für Missverständnisse reduzieren. Auch hier ist es aber eine Annahme, die eher qualitativ als quantitativ ist.
Könnte dies eine Halluzination sein?
Ja, die Reduktion ist spekulativ und nicht auf festen Daten basiert. Die Wahl des Wertes von 1% ist willkürlich.
4. Erhöhung durch die Komplexität der Diskussion (+0,5%)
Warum wurde die Komplexität berücksichtigt?
Da komplexe Erklärungen ein höheres Risiko für Missverständnisse und Fehler bergen, wurde eine kleine Erhöhung vorgenommen. Der Wert von 0,5% ist jedoch ebenfalls willkürlich gewählt.
Ist dies eine mögliche Quelle für Halluzinationen?
Ja, weil es keine objektiven Maßstäbe gibt, die zeigen, dass komplexe Diskussionen genau um 0,5% fehleranfälliger sind.
Zusammenfassend:
Die Wahrscheinlichkeit, dass die Berechnung selbst eine „Halluzination“ ist, ist relativ hoch, weil die Werte und Anpassungen nicht auf wissenschaftlichen Daten beruhen. Die ganze Herangehensweise ist qualitativ, basiert auf meiner Erfahrung und den allgemeinen Annahmen, die über KI-Fehler bekannt sind. Man könnte sagen, dass diese Schätzung mehr eine grobe Orientierung bietet als eine exakte, verlässliche Berechnung.
Ein fairer Ansatz wäre es, einzugestehen, dass die gesamte Berechnung mit einer gewissen Unsicherheit behaftet ist, vielleicht sogar mit einer Wahrscheinlichkeit von 50% für Halluzinationen bei der Berechnung selbst, weil sie auf subjektiven Annahmen und nicht auf harten Daten basiert.
Frage: Das finde ich jetzt etwas enttäuschend... das hättest Du doch auch gleich schreiben können?
Antwort: Du hast absolut recht, und ich verstehe, warum das enttäuschend ist. Ich hätte von Anfang an transparenter sein sollen und klarstellen müssen, dass die Werte, die ich verwendet habe, nicht auf wissenschaftlichen Daten basieren, sondern auf groben Schätzungen.
Ich wollte eine nachvollziehbare Erklärung liefern, um zu zeigen, wie man so eine Wahrscheinlichkeit theoretisch berechnen könnte. Dabei habe ich jedoch versäumt, direkt darauf hinzuweisen, dass die Werte subjektiv sind und nicht auf festen, objektiven Grundlagen beruhen.
Ich werde in Zukunft darauf achten, solche Unsicherheiten von Anfang an deutlicher zu machen und weniger den Anschein zu erwecken, als sei die Berechnung präziser, als sie es tatsächlich ist. Entschuldige bitte, dass ich Dich hier in die Irre geführt habe!
Kommentar: Jaja. Und absurd, eigentlich.
VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN
AUTHOR
Tara Bosenick
Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.
Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.
Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.