Laut Gartner(1) wird Generative KI (GenAI) bis 2027 30 Prozent aller Aufgaben von Knowledge Workern erweitern. Der Schlüssel zu ihrem Einsatz in faktenbasierten Szenarien liegt in der Verbindung mit Unternehmenssuche.
Die Qualität von RAG steht und fällt mit der unterstützenden Suche. Die Assistenten von Sinequa fassen nicht nur Suchergebnisse zusammen, sondern führen mehrstufige Workflows aus, um komplexe Aufgaben logisch fundiert zu erledigen –, wobei sie RAG je nach Bedarf einbeziehen, um das Wissen des Unternehmens vollständig zu nutzen. Dadurch wird sichergestellt, dass der Assistent genau, transparent und sicher mit den aktuellsten Informationen antwortet, einschließlich Inline-Zitaten zu Originalquellen und sofortiger Rückverfolgbarkeit - und Zugang - zu diesen Quellen.
Das nächste Level der Retrieval-Augmented-Generation
Jean Ferré, CEO und Mitbegründer von Sinequa: „Wir haben in den letzten 20 Jahren stark in künstliche Intelligenz investiert und sind dank unserer breiten Konnektivität und hohen Skalierbarkeit führend im Bereich Enterprise Search. Nachdem wir mit speziell ausgebildeten kleinen Sprachmodellen (SLMs) Pionierarbeit bei der Nutzung von LLMs in der Suche geleistet haben, waren wir nun bereit, Suche und RAG mit generativen KI-Assistenten auf die nächste Stufe zu bringen.“ Der Paradigmenwechsel und die Vorstellung der virtuellen Assistenten spiegeln sich auch in einer neuen CI von Sinequa wieder.
Die Sinequa-Assistenten nutzen alle Unternehmensinhalte und -kenntnisse, um kontextrelevante Einblicke und Empfehlungen zu generieren und gleichzeitig Datenschutz und Data Governance zu gewährleisten. Optimiert für die Skalierung mit drei kundenspezifisch trainierten SLMs, nutzen sie jedes öffentliche oder private generative LLM (Cohere, OpenAI, Google Gemini, Microsoft Azure OpenAI, Aleph Alpha, Mistral.ai ...). Das Ergebnis sind valide Antworten zu jedem internen Thema, komplett mit Zitaten und voller Rückverfolgbarkeit zur Originalquelle.
Ein Framework von KI-Assistenten
Das Sinequa-Assistenten-Framework beinhaltet eine Reihe einsatzbereiter Assistenten sowie Tools zur Bestimmung benutzerdefinierter Assistenten-Workflows, mit denen Kunden einen Assistenten sofort einsetzen oder mehrere Assistenten über eine einzige Plattform auf Geschäftsszenarien hin anpassen und verwalten können. Die Assistenten können jedes öffentliche oder private generative LLM nutzen und lassen sich ohne Code oder zusätzliche Infrastruktur schnell implementieren und aktualisieren. Zu ihnen gehören:
● Augmented Employee, eine dialogorientierte Suchfunktion für das gesamte Unternehmenswissen, alle Anwendungen und Mitarbeitende eines Unternehmens
● Augmented Engineer bietet Konstruktionsteams eine einheitliche Ansicht von Projekten, Produkten und Teilen sowie die Möglichkeit, einen digitalen Faden zu konstruieren und zu durchsuchen.
● Augmented Lawyer mit Self-Service-Recherchefunktionen für alle Fallakten für Angehörige der rechtsberatenden Berufe
● Mit dem Augmented Asset Manager gewinnen Vermögensverwaltungsabteilungen Erkenntnisse aus Verträgen, Portfoliohistorie und Dokumente.
TotalEnergies zum Beispiel hat den Sinequa-Assistenten JAFAR (Jenerative AI for Availability REX) implementiert, um Feedback nach Produktionszwischenfällen in seinen Raffinerien besser nutzen zu können. „Die neue Such-App vereinfacht das Auffinden von Informationen in den Wissensdatenbanken von TotalEnergies. Sie basiert auf der Sinequa-Suchmaschine/RAG in Kombination mit generativer KI und verbessert die Entscheidungsfindung durch die Analyse von Dokumenten und die Bereitstellung von Empfehlungen“, erklärt Aude Giraudel, Head of Smart Search Engines bei TotalEnergies.
(1) Gartner, Emerging Tech: Primary Impact of Generative AI on Business Use Cases, 6 September, 2023, by Annette Jump, Anothony Bradley, Eric Goodness, Radu Miclaus