Persönliche Beratung

+49 421 40 966 0 oder per Mail

Netzwerkberatung

Die steigende Verbreitung von Cloud-Computing, die Skalierung von Rechenzentren und die stark wachsenden Anforderungen nach höherer Performance für High Performance Computing, Big Data, Artificial Intelligence / Deep Learning und Storage haben den Trend zu höherer Bandbreiten verstärkt. 10, 25, 50 und 100 GbE Übertragungsraten gehören immer mehr zum Standard. Selbst Langstreckenverbindungen (Long-Haul Carriers) mit 100 GbE werden immer häufiger eingesetzt.

Absolute Transfergeschwindigkeit löst aber noch lange nicht alle Probleme. Moderne HPC-Systeme und Storage Cluster erfordern zusätzlich extrem geringe Latenz, das ist die verlorene Zeit, die vergeht bis eine angestoßene Datenübertragung beginnt oder endet. Die Verlustrate ist immer dann besonders hoch, wenn besonders viele kleine Datenschnipsel oder Messages gesendet werden.

Eine wichtige Rolle kommt auch den Übertragungsprotokollen zu, wobei Infiniband, Omni-Path und vor allem NVMe mit wesentlich geringerem Overhead arbeiten als Ethernet.

Ethernet

  • Allgegenwärtig, weit verbreitet
  • Pause und Priorisierung (PPC) für verlustfreien Betrieb,was von einigen Switches und wenigen Routern unterstützt wird.

Infiniband, OmniPath

  • Zuverlässige Verbindungsschicht
  • Kreditbasierte Durchflusskontrolle
  • Rack- und LAN-Technik, kein MAN oder WAN

Omni-Path Features

Omni-Path bietet Packet Integrity Protection (PIP), eine Link-Level-Fehlerprüfung, die auf alle Daten, die über die Leitungen gehen, angewendet wird. PIP ermöglicht eine transparente Erkennung und Korrektur von auftretenden Übertragungsfehlern. Der Einsatz von Dynamic Lane Scaling (DLS) ermöglicht die Aufrechterhaltung der Link-Kontinuität im Falle von Spurversagen. Die verbleibenden Spuren in der Verbindung werden verwendet, um den Betrieb fortzusetzen. Mit der Traffic Flow Optimierung (TFO) wird die Servicequalität durch die Priorisierung von Datenpaketen verbessert, unabhängig von der Paketbestellung.

Host Integration

Für die serverseitige Konnektivität verwendet Omni-Path herkömmliche Host-Adapterkarten. In Zukunft werden Xeon Phi-Prozessoren und Xeon-Prozessoren über eine In-Package-Host-Adapter-Konfiguration verfügen, bei welcher der Fabric ASIC im Prozessorsockel integriert ist. Eventuell wird die Omni-Path-Schnittstelle sogar direkt in den Prozessor integriert. Dabei werden Leistung, Energieeffizienz erhöht und Kosten vermindert, da keine zusätzliche Hardware erforderlich ist, wenn ein Host-Adapter an einen PCIe-Bus angeschlossen ist.

Es gibt keine Artikel unter dieser Kategorie