Aaronn Electronic hat seine langjährige Partnerschaft mit ADLINK erweitert. Neben Panel PCs, Box PCs und Smart-Kameras des Herstellers bietet der Systemintegrator aus Puchheim bei München nun auch dessen Embedded MXM GPU Module an. Diese neue Produktreihe basiert auf den Embedded GPUs von NVIDIA mit der Ampere- und der Turing-Architektur. Beide sind gut geeignet, um die Leistung einer Vielzahl von Workloads im IoT-Edge-Bereich zu steigern, etwa bei Bildverarbeitung und -analyse, Rechenbeschleunigung und Applikationen im Bereich Künstliche Intelligenz (KI).
Die Embedded MXM GPU-Module von ADLINK zeichnen sich durch hohe Leistung, Datenbandbreite, Energieeffizienz und Langlebigkeit aus. Weiterer Vorteil ist der geringe Hardware-Footprint. Damit tragen sie Anforderungen im industriellen Bereich Rechnung, bei denen Größe, Gewicht und geringer Stromverbrauch wichtige Kriterien sind.
Aber auch wenn schnelle Reaktionsfähigkeit, hohe Genauigkeit und geringe Latenzzeiten gefragt sind, können sie durch die effiziente Datenverarbeitung vor Ort punkten. ADLINK ist ein Jetson Elite Partner und OEM Elite Partner von NVIDIA. Die Zusammenarbeit bei KI im Embedded Bereich ist daher der nächste, logische Schritt.
„Wir sehen ein wachsendes Interesse an der Nutzung von GPUs im Bereich Edge-Computing und KI“, sagt Florian Haidn, Geschäftsführer von Aaronn Electronic. „Viele unserer Kunden haben Erfahrungen mit Edge-Computing und KI gemacht und sehen jetzt, dass es da noch viele weitere Möglichkeiten gibt – die aber deutlich mehr Rechenleistung benötigen, als man bisher gedacht hat. Mit den Embedded MXM GPU Modulen von ADLINK steht für Rechenzentren und Höchstleistungsrechner entwickelte Technologie nun auch diesen Applikationen zur Verfügung. Gerne unterstützen wir Kunden dabei herauszufinden, wie sie davon profitieren können.“
Embedded MXM-GPU-Module für viele anspruchsvolle Applikationen geeignet
Mögliche Applikationen für die Embedded MXM-GPU-Module sind vielfältig und zahlreich. Im Gesundheitswesen können es etwa schnelle Bildrekonstruktion für mobile Röntgen-, Ultraschall- und Endoskopie Systeme sein, im Verkehr die Objekterkennung in Echtzeit und in der Logistik die Navigation und Routenplanung für autonome Drohnen und mobile Roboter (AMRs). Aber auch für alle anderen Szenarien, in denen es um zeitsensible und missionskritische Anwendungen bei Steuerung, Kontrolle und Kommunikation geht, macht die hohe Leistung den Unterschied.
Für die unterschiedlichen Anforderungen hat Aaronn Electronic mehrere Modelle der Embedded MXM GPU-Module von ADLINK im Programm. Sie kommen im Standard MXM 3.1 Type A (82 x 70 mm), Type B ((82 x 105 mm) oder Type B+ (82 x 110mm).
Bei den auf der Turing-Architektur basierenden Modellen steht als Interface PCIe Gen 3 x 16 zur Verfügung. Die Modelle auf Basis der Ampere-Architektur bieten PCIe Gen 4 mit Übertragungsgeschwindigkeiten von mindestens 7,8 und bis zu 31,5 GByte/s. Von der hohen Datenübertragungsgeschwindigkeit profitieren insbesondere datenintensive Aufgaben. Bis zu 16 GByte Memory und 17,66 TFLOPS FP32 Peak Performance bieten ausreichende Leistungsreserven.
Die richtige Kombination von CUDA-Corse, RT-Cores und Tensor-Cores
Für Aufgaben im Bereich Bildanalyse und KI sind die Embedded MXM GPU Module hervorragend gerüstet. Die auf der Ampere-Architektur basierenden Modelle verfügen über 2048 bis 5888 CUDA-Cores, 16 bis 46 RT-Cores und 64 bis 184 Tensor Cores. Die auf der Turing-Architektur basierenden Modelle kommen mit 896 bis 3072 CUDA-Cores, bis zu 48 RT-Cores und 384 Tensor-Cores.
Die Anzahl der RT-Cores (Raytracing-Cores) spielt dann eine Rolle, wenn es um Lichtberechnungen, Schatten oder Spiegelungen geht. Die Tensor-Cores sind von NVIDIA extra für Berechnungen im Bereich Künstlicher Intelligenz eingeführt werden. Tensor Cores sind dafür ausgelegt, sehr komplexe Multiplikationen und Additionen von Zahlenfeldern schnell durchzuführen und können bei Bedarf die Rechenoperationen vereinfachen und so weiter beschleunigen. Zudem können sie die Raytracing-Technik sinnvoll unterstützen.
Grundsätzlich beschleunigen die Tensor-Recheneinheiten jedoch vor allem Deep Learning und die Entwicklung von neuronalen Netzen. Mit den CUDA-Recheneinheiten, den von NVIDIA zur Verfügung gestellten Toolkits und Software Development Kits können Entwickler komplexe Simulationen – etwa zur Partikelverteilung oder Strömungssimulationen – erstellen. Dabei sind die CUDA-Recheneinheiten der Ampere-Architektur bei Gleitkommarechenoperationen mit einfacher Genauigkeit (FP32) doppelt so schnell wie die der Turing-Architektur.
Außerdem ist der Trainingsdurchsatz der Tensor-Cores deutlich höher. Damit eigenen sich die MXM-GPU-Module auf Ampere-Architektur für besonders anspruchsvolle Applikationen.
Mit der Erweiterung seines Portfolios um die Embedded MXM-GPU-Module von ADLINK stellt Aaronn seine Leistungsfähigkeit als One-Stop-Shop für Embedded Systems erneut unter Beweis. Bei der Auswahl der passenden Module für Ihre Applikationen und der Umsetzung Ihres Projekts stehen Ihnen die Experten von Aaronn Electronic gerne beratend zur Seite. Sie greifen dabei auf umfassende Erfahrung bei Automatisierung und Digitalisierung zurück und bieten persönlichem technischen Support sowie langjähriger Erfahrung bei Design-In, Carrier Board Design, kundenspezifischem Gehäuse-Design und Rapid Prototyping.