„Qualität und Umfang der Informationsbeschaffung und -suche sind seit langem als primäre Produktivitätsfaktoren anerkannt, aber Relevanz ist der Schlüssel zur Ermöglichung von Geschäftseinblicken und fundierteren Entscheidungen“, erklärt Alexandre Bilger, Präsident und CEO von Sinequa. „Mit den Neural Search-Funktionen von Sinequa haben wir unserer statistischen nun eine neuronale Suche hinzugefügt. Dies erweitert unser NLP um vier hochmoderne Deep-Learning-Sprachmodelle und die Elastizität der Cloud. Die daraus resultierende Lösung ist die leistungsfähigste KI, die für die unternehmensinterne Suche verfügbar ist.“
Neural Search für Microsoft Azure optimiert
Google und Bing setzen neuronale Suchmodelle seit 2019 ein, die Rechenanforderungen machten sie für die meisten Unternehmen allerdings zu kostspielig und langsam. Sinequa optimierte die Modelle und arbeitete mit den AI/ML-Teams von Microsoft Azure und NVIDIA zusammen, um eine leistungsstarke, kosteneffiziente Infrastruktur zur Unterstützung intensiver Neural Search-Workloads zu schaffen, ohne einen großen CO2-Fußabdruck zu hinterlassen. Neural Search ist für Microsoft Azure und die neuesten NVIDIA A10 oder A100 Tensor Core GPUs optimiert, um große Mengen an unstrukturierten Daten sowie Benutzeranfragen effizient zu verarbeiten.
Die neuronale Suche von Sinequa verbessert die Relevanz und ist oft in der Lage, natürlichsprachliche Fragen direkt zu beantworten. Dies geschieht mit tiefen neuronalen Netzen, die über die wortbasierte Suche hinausgehen, um Bedeutung und Kontext besser zu nutzen. Die Search-Cloud-Plattform von Sinequa kombiniert die neuronale Suche mit der umfangreichen NLP- und statistischen Suche. Dieser einheitliche Ansatz liefert genauere und umfassendere Suchergebnisse für ein breiteres Spektrum an Inhalten und Anwendungsfällen.
Suchbasierte Lösungen mit modernster Deep-Learning-Technologie
Die vier Deep-Learning-Modelle von Sinequa werden für spezifische Aufgaben trainiert und arbeiten zusammen, um die bestmögliche Relevanz für jedes Unternehmensszenario zu erzielen. Alle vier Modelle sind vollständig vortrainiert, konfiguriert und für Unternehmensinhalte optimiert. Dadurch entfällt der mühsame und kostspielige Prozess des Markierens großer Trainingssätze, des Trainings von benutzerdefinierten Modellen und der Aktualisierung dieser Modelle im Laufe der Zeit. Mit Neural Search von Sinequa können Unternehmen schnell und einfach intelligente suchbasierte Lösungen mit modernster Deep-Learning-Technologie einsetzen.
„Sinequa hebt sich durch den Einsatz von Deep Learning (künstliche neuronale Netzwerke) ab, indem es mehrere Deep-Learning-Modelle anwendet, um genauere und relevantere Suchergebnisse zu liefern", schreibt Alan Pelz-Sharpe von Deep Analysis in einem aktuellen Bericht. Sinequa Neural Search ist als Beta-Version für ausgewählte Kunden verfügbar; die allgemeine Verfügbarkeit hat der Hersteller bis Ende 2022 in Aussicht gestellt.