Interconnect-Gerangel: Nvidia kauft Mellanox | heise online


Satte 6,9 Milliarden US-Dollar lässt sich Nvidia die Übernahme des Interconnect-Spezialisten Mellanox kosten, der unter anderem Infiniband- und 100-/200-Gigabit-Ethernet-Adapter(chips) für Server verkauft sowie Switches und Kabel dazu. Ziel ist es, kombinierte Systeme aus CUDA- und RTX-Rechenbeschleunigern wie den Tesla-Karten mit schnellen Interconnects zu schaffen.

Nvidia zahlt 125 US-Dollar pro ausstehender Mellanox-Aktie in bar. Der relativ hohe Kaufpreis kam wohl nach einer Bieterschlacht zu stande: Laut Branchenkennern waren auch Intel, Xilinx und Broadcom (Avago) an der Übernahme interessiert.

Mellanox erzielte 2018 über eine Milliarde US-Dollar Umsatz, von den zuletzt 2330 Mellanox-Angestellten arbeiten die meisten (1717) in Israel. Dort wurde Mellanox vor 20 Jahren gegründet, unter anderem von ehemaligen Intel-Mitarbeitern.

Intel selbst hatte den Infiniband-(IB-)Standard Ende der 1990er-Jahre angeschoben, überließ später die eigentliche Fortentwicklung aber kleineren Firmen wie eben Mellanox. Später kaufte Intel dann Interconnect-Spezialisten wie Qlogic und eine Cray-Sparte zu und baute die Omni Path Architecture (OPA) direkt in bestimmte Xeons ein. Durch die hohe Integration können im Prinzip Transferraten steigen, aber Latenzen und der zum Datentransport nötige Energiebedarf sinken.

27 Prozent der Supercomputer der aktuellen Top500-Liste arbeiten mit Infiniband, weitere 12,8 Prozent mit OPA. Auf HPC-Systeme mit IB und OPA entfällt dabei 65 Prozent der aggregierten Top500-Rechenleistung.

Nvidia hat allerdings auch schon eigene Interconnect-Eisen wie NVLink im Feuer. NVLink 2 dockt wie OpenCAPI etwa beim IBM POWER9 direkt an.

Mit dem Kauf von Mellanox steckt Nvidia jetzt aber wohl auch im CCIX-Konsortium für die Cache-kohärente Verbindung zwischen Prozessoren und spezialisierten Beschleunigern. Daran sind etwa auch AMD, ARM, IBM, Qualcomm, Xilink und Huawei beteiligt, aber nicht Intel.

Intel wiederum hat soeben gemeinsam mit Alibaba, Cisco, Dell EMC, Facebook, Google, HPE, Huawei und Microsoft – also ohne AMD, Amazon, Xilinx, Nvidia und ARM – das Konsortium für den Compute Express Link CXL gegründet. Das ist genau wie CCIX ein angeblich offener Standard, den aber nur die Mitglieder einsehen können. Daher sind auch nur wenige technische Details bekannt: CXL soll auf PCI Express 5.0 aufbauen, aber Cache-kohärent arbeiten, um Beschleuniger gut einzubinden. Für PCIe 5.0 sind Geschwindigkeiten von 32 GBit/s pro Lane geplant; IBM/Nvidia OpenCAPI 3.0 bringt es wie CCIX auf 25 GBit/s

Und dann gibt es ja noch Gen-Z: Dabei geht es aber weniger um die effiziente, schnelle und latenzarme Anbindung von Rechenbeschleunigern, sondern um die Verknüpfung von flüchtigem und nichtflüchtigem Speicher mit Rechenwerken in heterogenen Maschinen. Bei Gen-Z haben sich ARM, AMD und Xilinx mit den Server-Herstellern Dell, HPE und Huawei, mit den DRAM- und Flash-Produzenten Micron, Samsung und SK Hynix sowie mit den I/O-Spezialisten Broadcom und IDT zusammengetan.


(ciw)



Source link

Reply