Persönliche Beratung

+49 421 40 966 0 oder per Mail

Produkt Filter Produkt Filter

Künstliche Intelligenz und Deep Learning

Neue Techniken ändern alles, abwarten ist keine Option, der Zug rollt ...

Deep Learning ist das am schnellsten wach­sen­de Seg­ment im Be­reich Maschi­nen­ler­nen/­künst­li­che Intel­ligenz. Es ermög­licht die Ent­wick­lung komp­lexer, mehr­schich­ti­ger Algo­rith­men auf Basis von Deep Neural Net­works (DNN). Deep Learning ermöglichte den Durch­bruch in der Objekt-, Gesichts-, Bild-/Sprach­er­ken­nung, sowie der maschi­nel­len Über­set­zung, der Big Data-­Ana­ly­tik und der Ver­ar­bei­tung natür­li­cher Spra­chen. Die trans­for­ma­tive Wir­kung von Deep Lear­ning beein­flusst viele Bran­chen, wie Sicher­heit, Sozi­ale Medien, Ein­zel­han­del, Finan­zen und Indu­strie 4.0/IoT (Inter­net of Things). Das führt zu einer grund­legend neuen Denk­weise über Daten, Tech­nik, Pro­dukte und Dienst­leis­tun­gen, die ange­bo­ten wer­den.

sysGen's Deep Deep Learning Angebot umfasst extrem leistungsfähige GPU-Server und -Workstations, die speziell für die Beschleunigung von Deep Learning Entwicklungen ausgelegt wurden. Die Ausstattung mit den zurzeit leistungsstärksten NVIDIA® Pascal GPUs mit höchster Single Precision Leistung, ermöglichen schnelle Ergebnisse, selbst bei komplexen AI/Deep Learning Aufgabenstellungen. Unsere HPC Cluster, Server und Workstation werden von führenden Forschern und Entwicklern des öffentlichen und industriellen Bereichs eingesetzt.

KI-Anwendungen

Innovationen in der künstlichen Intelligenz (KI) treten in immer kürzeren Abständen auf. Heute lernen Computer nicht nur, sondern sie denken auch selbstständig. Das eröffnet fantastische Möglichkeiten bei Anwendungen für Roboter, Medizin und selbstfahrende Autos. Anwendungen für Deep Learning sind schnell entworfen und implementiert. Nutzen Sie diese bahnbrechenden Errungenschaften.
Verschaffen Sie sich einen Überblick!

Deep-Learning-Lösungen

Ob Sie eine Lösung an Ihre Anforderungen anpassen, Ihre eigene Lösung erstellen möchten oder Ihnen die Plug-and-Play-Variante genügt – wir haben immer die richtige Lösung für Sie. Speziell für Deep Learning konzipierte NVIDIA-Grafikprozessoren bieten wir als klassische Serversysteme oder leise Desktoplösungen an.

Der perfekte Einstieg - Deskside Solutions

devCUBE™ - Deep Learning Deskside Solution

Eine leistungsstarke Desktop-Lösung für Deep Learning. Mit bis zu 4x GTX 1080 bzw. Titan X GPUs und vorinstalliertem und -konfiguriertem Software-Paket ist der devCUBE der schnellste Weg um noch heute mit Deep Learning zu starten

Specifications:

  • Bis zu 4x GTX 1080 (oder Titan X) GPUs
  • Ready to Go System - Vorinstallierte und -konfigurierte Software wie Ubuntu, CUDA und diverse Frameworks
  • Effiziente und leise Hardware im Desktop-Gehäuse


devCUBE™ H 2 O - Water Cooled Deep Learning

High End Deep Learning Power mit bis zu 4x NVIDIA® GTX 1080 GPUs und Dual Intel® Xeon® CPUs. Der devCUBE H 2 O bleibt kühl und leise dank kompletter Wasserkühlung aller relevanten Komponenten

Specifications:

  • Bis 4x NVIDIA GeForce GTX 1080
  • Wassergekühlte Hardware für flüsterleise High End Performance
  • Ready to Go System - Vorinstallierte und -konfigurierte Software wie Ubuntu, CUDA und diverse Frameworks
  • Dual Intel® Xeon® E5-2687W v4 CPUs mit bis zu 3.5 GHz

Maximale Leistung - sysGen Server Solutions

NVlink High Speed Interconnect, maximaler Durchsatz für hohe Anwendungsleistung

NVIDIA® NVLink™ ist eine hochleistungsfähige, energieeffiziente Verbindung, die eine extrem schnelle Kommunikation zwischen einer CPU und mehreren GPUs sowie zwischen GPUs untereinander ermöglicht. Die Technologie ermöglicht einen Datenaustausch mit 5 bis 12 mal höheren Datenraten als herkömmliche PCIe Gen3 Verbindungen. NVlink bietet eine extreme Beschleunigung der Anwendungsleistung und schafft so eine neue Klasse hochdichter, flexibler Server für „accelerated“ Computing.

Weitere Informationen finden Sie hier: NVlink Beschreibung

gpuGIANT/NVlink 1U - SYS-1028GQ-TXR/-T

Höchste Leistung auf kleinstem Raum, mehr geht zurzeit nicht. 4 Tesla® P100-Grafikprozessoren, die über NVIDIA NVLink™ untereinander verbunden direkt Daten austauschen können, liefern die zurzeit höchste Rechenleistung in 1U. Profitieren Sie von modernster Technologie mit diesem GPU Giganten.

Specifications:

  • Bis zu 4x Tesla® P100 NVLink GPUs (bis zu 80 GB/s GPU-to-GPU)
  • Dual socket R3 (LGA 2011) für Intel® Xeon® E5-2600v4 CPUs
  • Bis zu 2TB DDR4 2400MHz ECC Memory
  • 4x 2.5" Laufwerke
  • Server Management via IPMI


gpuGIANT/NVlink 4U - SYS-4028GR-TXR(T)

Höchste Leistung auf kleinstem Raum, mehr geht zurzeit nicht. Bis zu 8 Tesla® P100-Grafikprozessoren, die über NVIDIA NVLink™ untereinander verbunden direkt Daten austauschen können, liefern die zurzeit höchste Rechenleistung. Profitieren Sie von modernster Technologie mit diesem GPU Giganten.

Specifications:

  • 8-way NVIDIA Tesla® P100 (Pascal™ GP100 GPU)
  • NVIDIA® NVLink™ GPU Interconnect up to 80GB/s
  • Optimized for GPUDirect RDMA
  • Optimized cooling with no GPU pre-heating
  • 28.672 NVIDIA CUDA® Cores
  • Dual Intel® Xeon® E5-2600 v4
  • Supports up to 160W TDP CPU
  • Up to 3TB DDR4-2400MHz in 24 DIMM slots
  • Dual 1Gb or Dual 10Gb Ethernet and extra IPMI port
  • 16x 2.5" hot-swap SATA3 drive bays
  • Supports up to 8 NVMe SSDs
  • 512GB 2133MHz DDR4 LRDIMM
  • 4x 2000W Redundant Titanium Level (96%+) high-efficiency power supplies with I2C & PMBus


gpuGIANT/NVlink 3U - NVIDIA DGX1

NVIDIA DGX-1 ist das erste System, das mit bahnbrechenden, durch NVIDIA Pascal™ angetriebenen Tesla® P100-Grafikprozessoren bestückt und über NVIDIA NVLink™ vernetzt ist. Ausgestattet mit vollständigem Deep-Learning Software Packet können sie sofort starten.

Specifications:

  • 8x Tesla® P100 NVLink GPUs
  • 28.672 NVIDIA CUDA® Cores
  • Dual Intel® Xeon® E5-2698 v4
  • 4x 1.92TB SSD in RAID 0
  • 512GB 2133MHz DDR4 LRDIMM


GPUDirect, up to 10 GPUs under Single-Root Complex, GPU Server, configured for scaling with GPU-Direct RDMA


Wie im folgenden Diagramm gezeigt, ermöglicht der Single-Root-Komplex außergewöhnliche Leistung innerhalb des Servers und über einen Cluster mit über InfiniBand verbundene Systeme. Mithilfe von GPUDirect RDMA kann jede GPU im Cluster direkt auf die Daten einer anderen GPU zugreifen (Remote Memory Access).
Mit GPU Direct
Ohne GPU Direct

Nachstehend erhalten Sie einen Überblick über unser Server-Angebot mit GPUDirect-Ausstattung:

gpuGIANT/GPUDirect 1U - SYS-1028GQ-TR/TRT

Mehr Leistung auf kleinstem Raum geht nicht. Bis zu 8 Grafikkarten in einem 2U Server liefern Rechenleistung für jedes noch so anspruchsvolle Projekt. Profitieren Sie von modernster Technologie mit diesem GPU Giganten.

Specifications:

  • Unterstützt bis zu 8x GPUs wie z.B. die Tesla® P100 oder P40
  • Bis zu 3TB DDR4 2400MHz ECC Memory
  • 8x 2.5" Laufwerke
  • Server Management via IPMI


gpuGIANT/GPUDirect 2U - SYS-G250-G51/-G52

Mehr Leistung auf kleinstem Raum geht nicht. Bis zu 8 Grafikkarten in einem 2U Server liefern Rechenleistung für jedes noch so anspruchsvolle Projekt. Profitieren Sie von modernster Technologie mit diesem GPU Giganten.

Specifications:

  • Unterstützt bis zu 8x GPUs wie z.B. die Tesla® P100 oder P40
  • Bis zu 3TB DDR4 2400MHz ECC Memory
  • 8x 2.5" Laufwerke
  • Server Management via IPMI


gpuGIANT/GPUDirect 4U - 4028GR-TR(T)2

Höchste Leistung auf kleinstem Raum. Bis zu 10 Tesla® P100-Grafikprozessoren im Single-Root complex, RDMA Support. Profitieren Sie von modernster Technologie mit diesem GPU Giganten.

Specifications:

  • Up to 10 NVIDIA Tesla® Pascal™ GP100 GPUs
  • Supports RDMA
  • Dual Intel® Xeon® E5-2600 v4
  • QPI up to 9.6GT/s
  • Up to 3TB DDR4-2400MHz in 24 DIMM slots
  • Dual 1Gb or Dual 10Gb Ethernet and extra IPMI Server Management port
  • 24x 2.5" hot-swap drive bays
  • Supports up to 8 NVMe SSDs
  • 2000W Redundant (2+2) Power Supplies; Titanium Level (96%+

Unser vollständiges GPU-Serverangebot finden Sie unter: Vollständiges GPU-Server_Angebot

Gelerntes Anwenden - Embedded Solutions

NVIDIA Jetson™

Das Jetson TX1 Entwicklerkit ist eine Visual-Computing-Entwicklungsplattform mit umfangreichem Funktionsspektrum, mit der Ihr System schnell einsatzbereit ist.
Es ist bei seiner Auslieferung bereits mit einer Linux-Umgebung vorgeflasht, unterstützt viele gängige APIs und wird von der kompletten NVIDIA Entwickler-Toolsuite unterstützt. Die Karte verfügt über viele Standard-Hardwareschnittstellen und ermöglicht damit eine hochflexible und stark erweiterbare Plattform. Sie ist ideal für alle Anwendungen, die hohe Rechenleistungen bei niedrigem Energieverbrauch erfordern. Weitere Informationen

NVIDIA Jetson TX1 , der erste Modul-Supercomputer der Welt, liefert maximale Leistung und Leistungseffizienz für fortschrittliche Visual-Computing-Anwendungen
Er basiert auf der innovative NVIDIA Maxwell™ Architektur mit 256 CUDA Recheneinheiten und einer Leistung von mehr als 1 TFLOPs. Mit 64-Bit CPUs, 4K Videokodierung und -dekodierung und einer Kameraschnittstelle mit 1400 MPix/s ist dies die ideale Lösung für eingebettete Systeme für Deep Learning, Computer Vision, Grafik und hochleistungsfähiges GPU Computing. Weitere Informationen

Das NVIDIA Jetson TK1 Entwicklerkit stellt Entwicklern alle Hilfsmittel zur Verfügung, um die Leistung des Grafikprozessors für eingebettete Systeme und Anwendungen zu nutzen.
Es basiert auf dem innovativen NVIDIA Tegra® K1 SoC und verwendet dieselben hochleistungsfähigen NVIDIA Kepler™ Recheneinheiten wie viele Supercomputer auf der ganzen Welt. Das Ergebnis ist eine NVIDIA CUDA® Plattform mit umfassendem Funktionsspektrum für die schnelle Entwicklung und Implementierung von rechenintensiven Systemen in Bereichen wie Computer Vision, Robotik und Medizin. Weitere Informationen



Contact us now or call us +49 421 / 40966 - 0

€ 2.508,06 (€ 2.984,59 inkl. MwSt.)

Kurzbeschreibung:

  • Complete System, completely configured, incl. all required Software, Ready to Go
  • NVIDIA DIGITS software providing powerful design, training, and visualization of deep neural networks for image classification

System Expansion:
  1. Desk-Side Workstation enclosure with 1500W power supply in Titanium Quality
  2. Mainboard X99-E WS with 4x PCIe x16
  3. Intel Core i7 Broadwell-E CPU
  4. 64GB DDR4 Memory (8x 16GB DDR4 2400 MHz UDIMM, 288-Pin)
  5. Up to four NVIDIA Pascal Titan X or GeForce GTX 1080 GPUs
  6. NVIDIA DIGITS software: Interactive Deep Learning GPU Training System
  7. Pre-installed Ubuntu 14.04. with Caffe, Torch, Theano, BIDMach, cuDNN and CUDA *
  8. Storage-bays:
    1. Internal (swap-Frame): 3x 3.5" HDD and 6x 2.5" HDD / SSD drives
    2. External (hot hwap): 8x 2.5" HDD / SSD drives (pre selected) or 3x 3.5" HDD drives

*Pre-requisite: Before sysGen can install cuDNN v2, you have to successfully register on the NVIDIA website as a system developer for "Deep Learning" and sign the NVIDIA "CUDA Software Distribution Agreement for Toolkit cuDNN".
 

€ 2.388,03 (€ 2.841,76 inkl. MwSt.)
Z10-D8 WS Mainboard
  • Complete watercooling System - silent high-end performance
  • Ready to Go System - completely configured, incl. all required Software
  • NVIDIA DIGITS software providing powerful design, training, and visualization of deep neural networks for image classification

  1. Up to 4x NVIDIA GTX 1080 with a total of 32GB GDDR5X Memory and 10240 CUDA Cores
  2. Dual Intel Xeon E5-2687W v4 CPUs with up to 3.5 GHz each
  3. Highest level of silent computing with a system wide, low maintenance water cooling system
  4. Pre-Installed and Pre-configured software package for deep learning
  5. Pre-installed Ubuntu with Caffe, Torch, Theano, BIDMach, cuDNN and CUDA
    Pre-requisite: Before sysGen can install cuDNN , you have to successfully register on the NVIDIA website as a system developer for "Deep Learning" and sign the NVIDIA "CUDA Software Distribution Agreement for Toolkit cuDNN".
  6. Up to 512GB ECC DDR4 LR-DIMM / RegDIMM Memory
  7. Space for 6x SSDs / HDDs
 

€ 2.388,03 (€ 2.841,76 inkl. MwSt.)
Z10-D8 WS Mainboard

sysGen HPC/DL Power Workstation SYS-devCUBE-H₂O-B1

High end computing (HPC) and deep learning (DL) power with up to 4x water cooled NVIDIA® GPUs and 2 Intel® Xeon® CPUs, Cool and Quiet - Completely water-cooled.

The devCUBE is one of the best deskside solution for HPC and AI/DL and we are proud to present its even cooler powerfull brothers: The devCUBE H2O group – all sysGen Originals


  • Complete watercooling System - silent high-end performance
  • Ready to Go System - completely configured, incl. all required Software
  • NVIDIA DIGITS software providing powerful design, training, and visualization of deep neural networks for image classification

  1. Up to 4x NVIDIA GTX 1080ti or Tesla Pascal GPUs
  2. Dual Intel Xeon E5-2687W v4 CPUs with up to 3.5 GHz each
  3. Highest level of silent computing with a system wide, low maintenance water cooling system
  4. Pre-Installed and Pre-configured software package for deep learning
  5. Pre-installed Ubuntu with Caffe, Torch, Theano, BIDMach, cuDNN and CUDA
    Pre-requisite: Before sysGen can install cuDNN , you have to successfully register on the NVIDIA website as a system developer for "Deep Learning" and sign the NVIDIA "CUDA Software Distribution Agreement for Toolkit cuDNN".
  6. Up to 512GB ECC DDR4 LR-DIMM / RegDIMM Memory
  7. Space for 6x SSDs / HDDs

Datasheet/Datenblatt / Overview Deep-Learning
 

€ 2.908,50 (€ 3.461,12 inkl. MwSt.)

Kurzbeschreibung:

  • Up to 4x Tesla P100 SXM2 (NVLink)
  • Up to 80 GB/s GPU-to-GPU NVLINK
  • Supports GPUDirect RDMA
  1. Dual socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600 v4/v3 family; QPI up to 9.6GT/s
  2. Up to 2TB ECC 3DS LRDIMM, up to DDR4-2400MHz; 16x DIMM slots
  3. 3x PCI-E 3.0 x16 slots, 1x PCI-E 3.0 x8 Low-profile slot
  4. Intel i350 Dual port GbE LAN
  5. 2x 2.5" Hot-swap drive bays, 2x 2.5" internal drive bays
  6. 8x 4cm heavy duty counter-rotating fans with air shroud & optimal fan speed control
  7. 2000W Redundant Power Supplies Titanium Level (96%)
zum Hersteller-Datenblatt

 

€ 2.990,57 (€ 3.558,78 inkl. MwSt.)

Kurzbeschreibung:

  • Up to 4x Tesla P100 SXM2
  • Up to 80 GB/s GPU-to-GPU NVLINK
  • Supports GPUDirect RDMA
  1. Dual socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600 v4/v3 family; QPI up to 9.6GT/s
  2. Up to 2TB ECC 3DS LRDIMM, up to DDR4-2400MHz; 16x DIMM slots
  3. 3x PCI-E 3.0 x16 slots, 1 PCI-E 3.0 x8 Low-profile slot
  4. 2x 10GBase-T LAN via Intel X540
  5. 2x 2.5" Hot-swap drive bays, 2x 2.5" internal drive bays
  6. 8x 4cm heavy duty counter-rotating fans with air shroud & optimal fan speed control
  7. 2000W Redundant Power Supplies Titanium Level (96%)
zum Hersteller-Datenblatt

 

€ 2.627,19 (€ 3.126,36 inkl. MwSt.)

Kurzbeschreibung:

  • Supports up to 8x double slot GPU/MIC cards
  • Supporting active and passive Computing Cards, including P100
  • Highest Computing Density in its Category
  • GPU Server, Mission-critical application, enterprise server, oil & gas, financial, 3D rendering, chemistry, HPC, AI - Deep Learning
  1. Dual socket R (LGA 2011-3) Intel® Xeon® processor E5-2600 v3/v4 product family
  2. Up to 3TB ECC 3DS LRDIMM, up to DDR4-2400MHz; 24x DIMM slots
  3. Supports up to 8x double slot GPU/MIC cards (NVIDIA Tesla, AMD Fire Pro, Intel Xeon Phi)
  4. 2x 10GbE SFP+ ports (Intel® 82599ES)
  5. 10x SATA III 6Gb/s ports
  6. 8x Hot-swap 2.5" SATA Drive Bays
  7. 80 PLUS Platinum 2000W redundant PSU
  8. Aspeed® AST2400 management controller
  9. Avocent® MergePoint IPMI 2.0 web interface

zum Hersteller-Datenblatt

 

€ 2.564,94 (€ 3.052,28 inkl. MwSt.)

Kurzbeschreibung:

  • Supports up to 8x double slot GPU/MIC cards
  • Supporting active and passive Computing Cards, including P100
  • Highest Computing Density in its Category
  • GPU Server, Mission-critical application, enterprise server, oil & gas, financial, 3D rendering, chemistry, HPC, AI - Deep Learning
  1. Dual socket R (LGA 2011-3) Intel® Xeon® processor E5-2600 v3/v4 product family
  2. Up to 3TB ECC 3DS LRDIMM, up to DDR4-2400MHz; 24x DIMM slots
  3. Supports up to 8x double slot GPU/MIC cards (NVIDIA Tesla, AMD Fire Pro, Intel Xeon Phi)
  4. 2x GbE LAN ports (Intel® I350-AM2)
  5. 10x SATA III 6Gb/s ports
  6. 8x Hot-swap 2.5" SATA Drive Bays
  7. 80 PLUS Platinum 2000W redundant PSU
  8. Aspeed® AST2400 management controller
  9. Avocent® MergePoint IPMI 2.0 web interface

zum Hersteller-Datenblatt

 

€ 5.825,90 (€ 6.932,82 inkl. MwSt.)

sysGen/SUPERMICRO Server SYS-4028GR-TXR, bestehend aus:
Mainboard MBD-X10DGO / 4U Rackmount CSE-R422BG

  • Up to 8 Tesla P100 SXM2
  • Up to 80 GB/s GPU-to-GPU NVLINK
  • Supports GPU Direct RDMA
  1. Dual socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600 v4† /v3 family; QPI up to 9.6GT/s
  2. Up to3TB†ECC 3DS LRDIMM, up to DDR4- 2400† MHz; 24x DIMM slots
  3. 4 PCI-E 3.0 x16 (double-width) slots 2 PCI-E 3.0 x8 slots
  4. Dual 1GbE LAN with Intel® i350
  5. 16 Hot-swap 2.5" SATA/SAS drives; Supports 8 NVMe drives
  6. 8x 92mm cooling fans
  7. 2000W Redundant (2+2) Power Supplies;Titanium Level (96%+)
zum Hersteller-Datenblatt

 

€ 5.906,93 (€ 7.029,25 inkl. MwSt.)

Kurzbeschreibung:

  • Up to 8 Tesla P100 SXM2
  • Up to 80 GB/s GPU-to-GPU NVLINK
  • Supports GPUDirect RDMA
  1. Dual socket R3 (LGA 2011) supports Intel® Xeon® processor E5-2600 v4† /v3 family; QPI up to 9.6GT/s
  2. Up to3TB†ECC 3DS LRDIMM, up to DDR4- 2400† MHz; 24x DIMM slots
  3. 4 PCI-E 3.0 x16 (double-width) slots 2 PCI-E 3.0 x8 slots
  4. Dual 10GBase-T LAN with Intel® X540
  5. 16 Hot-swap 2.5" SATA/SAS drives; Supports 8 NVMe drives
  6. 8x 92mm cooling fans
  7. 2000W Redundant (2+2) Power Supplies;Titanium Level (96%+)
zum Hersteller-Datenblatt

 

€ 132.295,44 (€ 157.431,57 inkl. MwSt.)

The World's First Deep Learning Supercomputer in a box


The NVIDIA® DGX-1™ is the world’s first purpose-built system for deep learning with fully integrated hardware and software that can be deployed quickly and easily. Its revolutionary performance significantly accelerates training time, making the NVIDIA DGX-1 the world’s first deep learning supercomputer in a box.


Key Features

  1. 170 TFLOPS(FP16)
  2. 8x Tesla GP100
  3. 16GB Memory per GPU
  4. 28672 NVIDIA CUDA® Cores
  5. Dual Intel® Xeon® E5-2698 v4
  6. 512GB 2133MHz DDR4 LRDIMM System Memory
  7. 4x 1.92TB SSD in RAID 0
  8. 2x 10GbE, 4x Infiniband EDR
  9. 3200W
  10. incl. 1 Year NVIDIA Support Service

Download the Datasheet here

+

€ 121.160,50 (€ 144.180,99 inkl. MwSt.)

The World's First Deep Learning Supercomputer in a box


The NVIDIA® DGX-1™ is the world’s first purpose-built system for deep learning with fully integrated hardware and software that can be deployed quickly and easily. Its revolutionary performance significantly accelerates training time, making the NVIDIA DGX-1 the world’s first deep learning supercomputer in a box.


Key Features

  1. 170 TFLOPS(FP16)
  2. 8x Tesla GP100
  3. 16GB Memory per GPU
  4. 28672 NVIDIA CUDA® Cores
  5. Dual Intel® Xeon® E5-2698 v4
  6. 512GB 2133MHz DDR4 LRDIMM System Memory
  7. 4x 1.92TB SSD in RAID 0
  8. 2x 10GbE, 4x Infiniband EDR
  9. 3200W
  10. incl. 1 Year NVIDIA Support Service

Download the Datasheet here

+