Huaweis Ascend 910 soll der stärkste KI-Chip der Welt sein

Teilen ist Kümmern!


Kurz nach Intel stellt auch Huawei seine Spezialprozessoren für den Einsatz in KI-Projekten vor. Das Unternehmen behauptet, der Ascend 910 sei weltweit der leistungsstärkste.

Gemeinsam mit dem Ascend 910 hat Huawei seinen Inferencing-Chip Ascend 310 vorgestellt. Der Ascend 910 ist der Chip für das Training künstlicher Intelligenz in Projekten des Machine Learning, des maschinellen Lernens. Der Ascend 310 ist der Spezialist für das Inferencing, also das Umsetzen des Erlernten in die Tat. Für den Ascend 910 verspricht Huawei eine doppelt so hohe Performance wie sie etwa der Nvidia Tesla V100 bietet.

Ascend 910: Starker Trainingschip in 7-nm-Technik

Das chinesische Unternehmen behauptet, mit dem Ascend-SoC (System-on-a-Chip) 910 die leistungsstärkste KI-Hardware weltweit zu liefern und in der Tat lesen sich die Leistungsdaten weit beeindruckender als jene der vor einigen Tagen vorgestellten KI-Prozessoren namens Nervana aus dem Hause Intel.

So setzt Huaweis Halbleitersparte Hisilicon für den Ascend 910 auf das moderne Sieben-Nanometer-Fertigungsverfahren. Der Trainings-Chip Ascend 910 kommt mit 16 Tensor-Verarbeitungsclustern, die insgesamt 64 Kerne beherbergen. Für Gleitkommaoperationen mit halber Genauigkeit (FP16) erreicht der Ascend 910 256 TeraFlops. Für vollständige Präzisionsberechnungen (INT8) erreicht er 512 TeraOps. Dabei bietet der 910 eine maximale Leistungsaufnahme von 310 Watt.

Hinzu kommen noch 16 ARMv8-Rechenkerne, sowie H.264- und H.265-Hardware-Decoder für bis zu 128 Videokanäle. So lässt sich der Ascend 910 nicht nur mit x86-Servern koppeln, sondern ebenso mit ARM-Geräten.

Um die Datenzulieferung nicht zum Flaschenhals werden zu lassen, unterstützt der 910 neben DDR4-Speicher auch High Bandwidth Memory in der neuen Version HBM2E.

Kunden können die KI-Lösung als vorkonfigurierte Maschine erwerben. In Rack-Servern kombiniert Huawei jeweils 8 Ascend 910 mit 2 Intel Xeon.

Ascend 310: Huawei verspricht effektives Inferencing

Der zusammen mit dem 910 vorgestellte 310 wird in 12-nm-Technik gefertigt und ist dazu bestimmt, die Trainingsergebnisse des 910 in den Einsatz zu bringen. Bei einem maximalen Verbrauch von 8 W erreicht der Ascend 310 16 TeraOps mit ganzzahliger Genauigkeit (INT8) und 8 TeraFlops mit halber Genauigkeit (FP16). Er verfügt über einen 16-Kanal-FHD-Video-Decoder.

Im Vergleich mit dem 910 muss sich der 310 mit geringerer Aufmerksamkeit begnügen. Immerhin lesen sich seine Leistungsdaten weit weniger spektakulär. Huawei verweist indes darauf, dass sein Mobile Data Center (MDC), in dem der Ascend 310 zum Einsatz komme, von führenden Autoherstellern in Shuttlebussen, Neufahrzeugen und im autonomen Fahren eingesetzt werde. Der 310 ermögliche zudem die Nutzung von Huaweis Cloud-Diensten wie Bildanalyse, optischer Zeichenerkennung (OCR) und intelligenter Videoanalyse. Für diese Dienste stünden mehr als 50 APIs zur Verfügung, die bereits Aufrufzahlen von 100 Millionen pro Tag aufwiesen.

KI-Framework Mindspore soll die Entwicklung neuronaler Netze beschleunigen

Neben den Prozessoren hat Huawei sein KI-Framework Mindspore vorgestellt. Dieses soll mit vergleichsweise wenig Quellcodezeilen das Entwickeln neuronaler Netze beschleunigen. Huawei nennt einen Wert von 20 Prozent weniger Kerncode für Spracherkennung (NLP). Mindspore lege zudem größeren Wert auf Datenintegrität, da es nur mit Verlaufs- und Modell-Daten arbeite, die bereits zuvor verarbeitet wurden. So würden Nutzerdaten besser geschützt. Anfang 2020 soll Mindspore als Open Source freigegeben werden.

Zum Weiterlesen:



Source link

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.