NVIDIA Tesla P100: GPU-Kraftpaket für Neuronales Computing

Geschrieben von

nvidia-testla-p100Einer der größten Hersteller für Grafikchips ist nach wie vor das kalifornische Unternehmen NVIDIA, zuletzt in der mobilen Welt für seine Geräte der NVIDIA Shield-Familie bekannt geworden. Das der Konzern auch an Prozessoren arbeitet ist dabei keine Neuheit, schließlich steckt ein selbst entwickelter Tegra X1 in der NVIDIA Shield Android TV Box. Doch mit dem Tesla P100 – der rein gar nichts mit den gleichnamigen Elktoautos zu tun hat – will man sich wohl allen Anschein selbst übertrumpfen.

Genauer gesagt will NVIDIA der führende Anbieter von Spezial-Prozessoren für den Bereich „künstliche Intelligenz“ werden. Um die eigenen Ambitionen in diese Richtung zu untermauern, hat der Konzern kurzerhand mit dem Chip namens Tesla P100 auf der GPU Technology Conference 2016 einen speziell für das maschinelle Lernen konzipierten Grafikchip entwickelt.

Der Tesla P100 soll Berechnungen von neuronalen Netzwerken bis zu 12 Mal schneller machen als bisherige Systeme mit NVIDIA-Technik, was maschinelles Lernen enorm nach vorne bringen könnte in Sachen Effizienz und Schnelligkeit.

NVIDIA will Deep Learning voranbringen

Diese Anstrengungen haben aber auch ihren Tribut gefordert: Wie Dr. Jen-Hsun Huang in seiner Rolle als CEO von NVIDIA erklärte, habe man über 2 Milliarden US-Dollar in die Forschung und Entwicklung des Tesla P100 gesteckt. Mehr als 150 Milliarden Transistoren auf dem Chip sorgen für dessen große Leistung – und machen ihn zugleich zu einem der weltweit größten Computer-Chips überhaupt.

Nur zum Vergleich: Ein Intel Core i7 6700k der aktuellen Intel Skylake Generation hat gerade mal 1,35 Milliarden Transistoren und eine NVIDIA GeForce GTX 980 Ti besitzt lediglich 8 Milliarden Transistoren. Da kann man sich schon in etwa vorstellen, wie enorm die Leistung des Tesla P100 sein muss.

Mit dem Chip feiert NVIDIA zudem gleichzeitig die Premiere des neuen speziell auf Deep Learning und Neuronal Network Computing ausgelegten Super-Computer DGX-1, welchen Huang auch gleich als „ein Biest von einer Maschine“ beschrieben hat. Kein Wunder: Es stecken gleich acht der Tesla P100 Kerne in dem Hochleistungsrechner, was ihn mit 129.000 US-Dollar auch nicht gerade günstig macht. Verglichen mit anderen Super-Computern dürfte der NVIDIA-Rechner dennoch ein Schnäppchen sein, zumal die passende Deep Learning Software gleich mitgeliefert wird, inklusive einem Deep Learning SDK.

Neuronale Netzwerke überall

Da immer mehr Unternehmen wie Microsoft mit Cortana, Facebook, Baidu, Amazon oder jüngst sehr eindrucksvoll Google mit AlphaGo ihre Bemühungen im Bereich Neuronal Network Computing und Deep Learning bekräftigten, hat sich NVIDIA nun als der passende Lieferant der dafür benötigten Hardware empfohlen.
Laut Huang sei man daher in der Entwicklung des Tesla P100 „in die Vollen“ gegangen und habe auch viel riskiert.

Das für neuronale Netzwerke enorm viel Rechenleistung von entscheidender Bedeutung sind, untermauerte auch DeepMind von Google. Um die künstliche Intelligenz AlphaGo für das Go-Turnier gegen Lee Sedol zu trainieren, nutzten die Entwickler über 1.202 Prozessoren und 176 Grafikchips, wie man in dem Wissenschaftsmagazin Nature jüngst publizierte. Wenn man diese GPUs jeweils durch einen NVIDIA Tesla P100 ersetzt, dürfte die Leistungsfähigkeit geradezu explodieren bei dem, was ein neuronales Netzwerk und damit Deep Learning erst ermöglicht.

Vielleicht ja auch etwas für SwiftKey und deren Tastatur mit neuronalen Ansätzen (zum Beitrag)?

[Quelle: NVIDIA]

The following two tabs change content below.
Mann mit Bart und Faible für Smartphones und Tablets jeder Plattform, doch eindeutig bekennender Androidliebhaber.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*


212 Abfragen in 0,452 Sekunden