Ihr Abonnement des Genesys-Blogs wurde bestätigt!
Please add genesys@email.genesys.com to your safe sender list to ensure you receive the weekly blog notifications.
Abonnieren Sie unseren kostenlosen Newsletter und erhalten Sie alle Updates zum Blog bequem in Ihre E-Mail-Inbox.
Diese Meldung nicht mehr anzeigen.
 
                        Die Kundentreue wird in kritischen Momenten auf den Prüfstand gestellt, zum Beispiel, wenn ein Kunde eine nicht autorisierte Abbuchung bemerkt und das Problem auf der Stelle geklärt haben möchte; ein Versicherungsnehmer nach einem Brand verzweifelt um Hilfe bittet, während sein Haus in Schutt und Asche liegt; oder ein Patient auf die Genehmigung einer Behandlung wartet und jeder Tag Verzögerung drastische Folgen für ihn hat. Dies ist nicht der richtige Zeitpunkt für Entschuldigungen oder vage Versprechen. Kunden erwarten sowohl von KI-Agenten (künstlicher Intelligenz) als auch von Kundenservicemitarbeitern Einfühlungsvermögen und ein schnelles, zuverlässiges Handeln.
Genesys konzentriert sich darauf, diese Anforderungen mit agentischer Orchestrierung zu erfüllen. Wir haben unsere neue Partnerschaft mit Scaled Cognition bekannt gegeben, durch die wir in Zukunft eine noch bessere KI entwickeln können, die Absichten erkennt und entsprechende Ergebnisse erzielt.
Gemeinsam planen wir eine Zukunft, in der agentische KI nicht nur für Gespräche genutzt wird. Sie wird die jeweils nächste Aktion initiieren, Probleme lösen und zuverlässige und Governance-konforme Ergebnisse liefern. Durch die Integration des Large Action Model (LAM) APT-1 von Scaled Cognition in die Genesys Cloud™-Plattform können Unternehmen autonome virtuelle Agenten einsetzen, die Workflows in Echtzeit abwickeln, Compliance-Richtlinien einhalten und mit zielorientierten Customer Experiences zum Erfolg beitragen.
Das ist die nächste Entwicklungsstufe auf dem Weg zur agentischen Orchestrierung – KI-Systeme, die komplexe Workflows in vorhersehbare, wiederholbare Schritte aufschlüsseln und so die Absichten zum Ziel führen.
Herkömmliche Large Language Models (LLMs) werden anhand von Text trainiert und sind darauf ausgelegt, die nächsten Schritte zu beschreiben oder sich darüber zu unterhalten, anstatt sie auszuführen. Sie können zwar erklären, wie ein Antrag bearbeitet oder wann ein Konto aktualisiert wird, aber sie können die Aktionen nicht zuverlässig durchführen, um dieses Ziel zu erreichen.
Large Action Models (LAMs) ergänzen die starken Konversationsfunktionen von LLMs um weitere Fähigkeiten – sie können Entscheidungen treffen, handeln und Ergebnisse überprüfen. Dies ermöglicht vielfältigere, komplexere Customer Experiences und versetzt virtuelle Agenten in die Lage, einen Workflow system- und richtlinienübergreifend abzuschließen.
LAMs sind darauf trainiert, Aktionen durchzuführen, indem sie bei Gesprächen die Richtlinien und Regeln berücksichtigen, auf denen reale Workflows basieren. Anstatt nur das nächste Wort vorherzusagen, entscheiden sie auch über den richtigen Schritt, rufen die relevante API auf, setzen die erforderliche Richtlinie durch oder eskalieren den Prozess bei Bedarf.
Da die Ausführung Teil des Trainings ist, können sie deterministisch agieren, Abweichungen vermeiden und zuverlässigere Ergebnisse liefern. Das Resultat sind eine stärkere Fokussierung, eine schnellere Lösung und die Vermeidung von Halluzinationen. Unternehmen profitieren von einer größeren Effizienz und Compliance, während Kunden schneller bessere Ergebnisse erhalten.
Nehmen wir zum Beispiel eine Rechnungsbegleichung: Ein Kunde ficht einen Rechnungsposten an und bittet um Hilfe. Ein LLM-basierter Agent reagiert mit Einfühlungsvermögen, führt den Kunden durch den Prozess und erklärt ihm, was als Nächstes passieren wird. Für die tatsächliche Erstattung sind jedoch nachgelagerte Prozesse und weitere Schritte erforderlich.
Ein LAM-basierter Agent erweitert diese Funktionen, indem er das Konto authentifiziert, die Gutschrift verbucht, die Transaktion verifiziert und die Korrektur noch während der Interaktion bestätigt. Damit wird das Problem sofort gelöst. Er führt die nachgelagerten Arbeitsschritte schon während der Interaktion aus und schließt damit den gesamten Prozess für den Kunden ab.
Jeder kann ein herkömmliches LLM lizenzieren. Genesys zeichnet sich nicht nur in Bezug auf den Zugang zu den Modellen aus, sondern auch in der Art und Weise, wie wir sie innerhalb unserer einheitlichen Plattform orchestrieren, die speziell für die Customer Experience (CX) entwickelt wurde.
Genesys Cloud unterstützt bereits eine breite Palette von Optionen, darunter von Genesys entwickelte, Open-Source- und Frontier-Modelle über Amazon Bedrock. Dies ermöglicht es Unternehmen, für ihre Innovationen Modelle zu wählen, die ihren Zielen am besten entsprechen und gleichzeitig Sicherheit, Kontrolle und Leistung gewährleisten.
Die LAMs von Scaled Cognition bauen auf dieser Grundlage auf. Sie kombinieren die starken Konversationsfunktionen von LLMs mit aktionsgesteuerten Aufgaben. Durch die Kombination der effektiven Orchestrierung von Genesys Cloud mit den speziell für die Customer Experience entwickelten Modellen von Scaled Cognition stehen Unternehmen autonome Agenten zur Verfügung, die mit noch mehr Präzision und Kontrolle arbeiten können.
Unternehmen werden in der Lage sein, virtuelle Agenten zu entwickeln, die zuverlässig komplexe Aufgaben ausführen, sich nahtlos mit menschlichen Teams abstimmen und Compliance-Standards einhalten können. Das Besondere daran ist, dass komplexe Geschäftslogik in deterministisches Verhalten umgewandelt wird, um konsistente und überprüfbare Ergebnisse zu erzielen, die mit den Unternehmensrichtlinien übereinstimmen. Dazu gehören unter anderem:
Genesys stellt eine strategische Plattform für agentische Orchestrierung bereit, die Unternehmen dabei hilft, autonome CX-Agenten zu erstellen, die entschlossen und systemübergreifend transparent agieren können.
In Zusammenarbeit mit unserem großen Partnernetzwerk, zu dem jetzt auch Scaled Cognition gehört, geben wir Unternehmen die Möglichkeit, Innovationen schnell voranzutreiben und gleichzeitig die Compliance sicherzustellen. Die Integration des APT-1-Modells von Scaled Cognition unterstützt diese Vision und erweitert die Genesys Cloud-Plattform um neue intelligente Funktionen, sodass Unternehmen agentische KI souverän und in großem Umfang einsetzen können.
Die LAM-Einführung profitiert von einer gezielten Vorbereitung. Es gibt drei Aspekte, die Unternehmen berücksichtigen sollten:
Wir gehen davon aus, dass nächstes Jahr völlig autonome Customer Journeys in der Produktion eingesetzt werden, und Genesys ebnet den Weg in das agentische Zeitalter. Durch die Partnerschaft mit Scaled Cognition und die Kombination von LAMs mit Governance, Orchestrierung und Datenkontext werden wir Systeme ermöglichen, die präzise handeln, Interaktionen konform halten und Customer Journeys in Echtzeit abschließen.
Wir sind der Ansicht, dass es durch unsere Zusammenarbeit mit Scaled Cognition schon bald möglich sein wird, dass KI die Kontrolle über Gespräche und die Verantwortung für die Ergebnisse übernimmt. Wir bei Genesys sind davon überzeugt, dass Unternehmen, die jetzt auf agentische Orchestrierung setzen, das Kundenvertrauen für das nächste Jahrzehnt beeinflussen werden. Aus diesem Grund ist sie eine Kernkomponente unserer Plattform.
Weitere Informationen zu unserer Zusammenarbeit mit Scaled Cognition finden Sie in unserer Pressemitteilung.
Zukunftsgerichtete Aussagen  
Aussagen in diesem Blog, die sich nicht auf historische oder aktuelle Fakten beziehen, sind zukunftsgerichtete Aussagen, die mit Risiken und Ungewissheiten verbunden sind. Sofern nicht gesetzlich vorgeschrieben, verpflichtet sich Genesys nicht, zukunftsgerichtete Aussagen zu aktualisieren oder zu überarbeiten, um sie an spätere Umstände oder Ereignisse anzupassen. 
Abonnieren Sie unseren kostenlosen Newsletter und erhalten Sie alle Updates zum Genesys-Blog bequem in Ihre E-Mail-Inbox.