MSI presenteert cloud-, AI- en enterprise-serverplatforms op CloudFest 2026

• PR Newswire

RUST, Duitsland, 24 maart 2026 /PRNewswire/ -- Tijdens CloudFest 2026 (stand #H08+H09) presenteert MSI een serverportfolio dat hyperscale-cloudplatforms, door NVIDIA versnelde AI-systemen en enterprise-servers voor hybride cloudomgevingen omvat. Het assortiment omvat multi-node- en ORv3-architecturen voor hyperscale implementaties, GPU-dichte platforms voor AI-training en -inferentie, en enterprise-systemen met groot geheugen voor virtualisatie en data-intensieve workloads. Daarmee kunnen cloudserviceproviders en ondernemingen schaalbare infrastructuur met hoge dichtheid implementeren voor cloud-, AI- en enterprise-workloads.

"De cloudinfrastructuur evolueert snel nu AI-diensten en data-intensieve workloads blijven toenemen", aldus Danny Hsu, General Manager van . "Dienstverleners en ondernemingen hebben platforms nodig die efficiënt kunnen opschalen en tegelijk prestaties en operationele flexibiliteit behouden in datacenteromgevingen van de volgende generatie."

Het cloudplatformportfolio ondersteunt hyperscale- en serviceproviderimplementaties en biedt implementatieflexibiliteit binnen -, - en , met platforms die worden aangedreven door AMD EPYC™- en Intel® Xeon® 6-processors. Deze platforms optimaliseren computedichtheid en efficiëntie op rackniveau voor grootschalige cloudworkloads. De platforms zijn gebouwd op de DC-MHS-architectuur (Data Center Modular Hardware System) en verbeteren de onderhoudbaarheid en hardware-interoperabiliteit, waardoor operators het onderhoud kunnen stroomlijnen en de operationele complexiteit bij grootschalige implementaties kunnen verminderen. Voor hyperscale-omgevingen biedt MSI een ORv3-conform 21-inch-platform dat is ontworpen voor Open Compute-racks en 48V-rackvoedingsarchitecturen, wat zorgt voor een hogere computedichtheid, een betere energie-efficiëntie en naadloze integratie op rackschaal.

De is een 2U 4-node-platform dat is ontworpen voor cloudimplementaties met hoge dichtheid. Elke node ondersteunt één Intel Xeon 6-processor (tot TDP van 400 W), met 12 DDR5 DIMM-sleuven verdeeld over 12 geheugenchannels en 3 U.2 NVMe-bays aan de voorzijde, wat zorgt voor een hoge computedichtheid en efficiënte schaalbaarheid voor cloudworkloads op grote schaal.

Door NVIDIA versnelde AI-platforms breiden het portfolio uit van grootschalige trainingsclusters tot lokale AI-ontwikkelomgevingen en omvatten en . De systemen zijn ontworpen voor cloudserviceproviders en AI-operators en combineren NVIDIA GPU's, geheugenarchitecturen met hoge bandbreedte, PCIe 5.0/6.0-connectiviteit en snelle netwerken om de doorvoercapaciteit en schaalbaarheid te leveren die nodig zijn voor AI-workloads op datacenterschaal.

De is een 4U NVIDIA MGX-server die wordt aangedreven door twee AMD EPYC™ 9005-processors en ondersteuning biedt voor maximaal 8 NVIDIA RTX PRO 6000 Blackwell Server Edition-/NVIDIA RTX PRO 4500 Blackwell Server Edition-GPU's en 8 QSFP112-netwerkpoorten van 400 Gb. Met PCIe 6.0-GPU-connectiviteit en netwerken met hoge bandbreedte is het platform geoptimaliseerd voor grootschalige AI-trainingsclusters en omgevingen voor het verfijnen van modellen.

De is een 2U NVIDIA MGX-server die is gebouwd op Intel Xeon 6-processors en ondersteuning biedt voor maximaal 4 NVIDIA RTX PRO 6000 Blackwell Server Edition-/NVIDIA RTX PRO 4500 Blackwell Server Edition-GPU's. Dankzij de evenwichtige GPU-dichtheid en compacte vormfactor is het systeem zeer geschikt voor schaalbare inferentie en gedistribueerde AI-implementaties in cloud- en edge-infrastructuur.

Ter aanvulling op het assortiment integreert de , gebaseerd op de NVIDIA DGX Station-architectuur, een NVIDIA Grace CPU in combinatie met een , met een coherent geheugenpool van 748 GB en 2×400GbE-netwerken aangedreven door NVIDIA ConnectX®-8 SuperNIC's. Met het systeem kunnen ontwikkelaars en AI-teams AI-modellen lokaal ontwikkelen, prototypes bouwen, verfijnen en valideren voordat workloads worden uitgerold naar AI-infrastructuur op productieschaal.

Enterprise-platforms die zijn ontworpen voor hybride cloudomgevingen ondersteunen implementaties in enterprise-datacenters. Het assortiment omvat 1U- en 2U-systemen die worden aangedreven door AMD EPYC 9005- en Intel Xeon 6-processors, en combineert CPU's met een hoog aantal cores, DDR5-geheugen, PCIe 5.0-uitbreiding en NVMe-opslag met hoge dichtheid ter ondersteuning van virtualisatie, databases en cloud-native workloads.

De is een 2U dual-socketplatform met Intel Xeon 6 dat 32 DDR5-DIMM's, flexibele NVMe-opslagconfiguraties met maximaal 24 U.2 NVMe-drives aan de voorzijde en 2 PCIe 5.0-GPU's met dubbele breedte ondersteunt, en sterke computeprestaties en opslagdichtheid levert voor virtualisatie- en enterprise-databaseworkloads.

De is een 2U single-socketplatform met AMD EPYC 9005, met 24 DDR5-DIMM's, 2 PCIe 5.0-GPU's met dubbele breedte en NVMe-opslag, en levert een hoge geheugenbandbreedte en evenwichtige prestaties voor enterprise-applicaties en cloudinfrastructuurdiensten.

De is een 1U-platform met AMD EPYC 9005 dat 24 DDR5-DIMM's en maximaal 12 NVMe-drives aan de voorzijde ondersteunt, en een hoge computedichtheid biedt voor ruimte-efficiënte datacenterimplementaties.

Foto -

View original content: https://www.prnewswire.com/news-releases/msi-presenteert-cloud--ai--en-enterprise-serverplatforms-op-cloudfest-2026-302723512.html