Edge AI / GPU Server


Leistungsstarke GPU- und Edge-AI-Server für KI & High Performance Computing
Edge AI / GPU-Server vereinen moderne x86-Prozessoren mit dedizierten Beschleunigern, um künstliche Intelligenz genau dort auszuführen, wo sie gebraucht wird – sei es direkt an der Maschine, am 5G-Funkmast oder im Core-Datacenter. Edge-AI-Server punkten mit short-depth-Gehäusen, erweitertem Temperaturbereich und Echtzeit-Rechenleistung für Robotik, fahrzeugbasierte Systeme, Smart-Factory-Analysen oder Video-Analytics. GPU-Server liefern maximale Parallelleistung für Deep-Learning-Training, Simulationen und andere HPC-Aufgaben im Rack-Schrank.
Gemeinsam bieten beide Serverklassen: flexible PCIe-Erweiterung für GPUs, Frame-Grabber oder SmartNICs, High-Speed-Netzwerke bis 25 GbE und darüber, Hot-Swap-Massenspeicher sowie Remote-Management per IPMI / Redfish. So erhalten Sie skalierbare Lösungen für jede KI-Workload – vom datenintensiven Edge-Einsatz bis zur GPU-beschleunigten Cloud- oder On-Prem-Infrastruktur.
-
RMS-4000 Serie
Rackmount Edge AI Server- Rackmount Edge AI Server (2U)
- Prozessor: bis zu 2x 40-Core Intel Xeon Scalable, 3rd. Generation
- 16 GByte DDR4-Speicher, erweiterbar bis 512 GByte
- 2x PCIe 4.0 x16 und 2x PCIe 4.0 x8 für Full-Length / Full-Height PCIe-Karten
- 3x LAN, 2x USB Typ-A, Serielle Schnittstellen (RJ45 / USB Typ-C)
Mehr Produktdetails