Diese Technologie ermöglicht es Unternehmen, die neuesten Fortschritte in der künstlichen Intelligenz zu nutzen, um die Produktivität zu steigern und eine umfassende interne Wissensdatenbank aufzubauen, während sensible Daten innerhalb der Unternehmensinfrastruktur geschützt bleiben.
Die Server sind für spezifische Anwendungen optimiert, die von der Verwendung vortrainierter Modelle bis hin zum intensiven LLM-Training reichen. Von Entry über Plus und Pro bis Ultimate unterstützt jede Stufe eine Vielzahl von Modellen und Typen. Die Server sind mit verschiedenen Speicher- und GPU-Optionen mit KI-Beschleunigungskapazitäten von bis zu 7916 TFLOPs und 33792 CUDA Cores ausgestattet. Angetrieben von AMD® EPYC™ oder Intel® Xeon™ CPUs bieten die Server zusätzliche Rechenleistung.
Um die Performance der Hardware-Plattformen zu demonstrieren, wurde ein Open-Source-Toolkit entwickelt. Wählen Sie Ihre bevorzugte LLM-Engine und das am besten geeignete Modell aus und bringen Sie Ihr Geschäftswissen in die Modelle mit ein, um Chatbots zu erstellen, die auf Ihre Bedürfnisse zugeschnitten sind. Die Server wurden ausgiebig getestet, um die Kompatibilität mit NVIDIA® AI Enterprise sicherzustellen. Dieser Ansatz ermöglicht die nahtlose Ausführung verschiedener NVIDIA® Inference Microservices (NIMs) und garantiert optimale Leistung für eine Vielzahl von Modellen.
Unternehmen, die das Potenzial dieser KI-Server erkunden möchten, können das kostenlose Toolkit nutzen, um ihre eigenen Modelle zu trainieren.
Weitere Informationen finden Sie unter:
www.inonet.com/generative-ai-server