KI-Halluzinationen

Halluzinationen treten auf, wenn ein KI-System, insbesondere eines, das auf großen Sprachmodellen (LLMs) basiert, Antworten generiert, die plausibel klingen, jedoch sachlich falsch oder irreführend sind. In einem Contact Center können Halluzinationen zu ungenauen Antworten auf Kundenfragen oder zu fehlerhaften Gesprächszusammenfassungen führen. Das Erkennen von Halluzinationen und der Umgang damit ist wichtig, um die Zuverlässigkeit zu gewährleisten, das Vertrauen der Kunden zu erhalten und die Entscheidungsfindung der Mitarbeiter zu unterstützen.