Active Silicon’s KI Serie – Teil 4: Cloud basierende FPGAs bieten beschleunigtes Maschinelles Lernen

  • Published November 2017

In unserer KI Serie haben wir festgestellt, dass FPGAs in Bezug auf Künstliche Intelligenz (KI) eine der Schlüsseltechnologien darstellen. Während DNN Training nach wie vor am besten auf einer GPU ausgeführt wird, bieten FPGAs noch nie dagewesene Möglichkeiten hinsichtlich Individualisierung und Überprüfung der Systeme. Ein Mangel an FPGA Entwickler mit nötigem Wissen und Erfahrung, war bisher eine der Hürden, die verhinderten, dass FPGAs in größerem Maße Anwendung fanden. Neue Entwicklungen erlauben nun FPGAs in die Cloud zu setzen und sie in weiter verbreiteten Programmiersprachen anzubieten, was sicher zu einer breiteren Verwendung führen wird.

Mit großer Spannung erwartet, hat Amazon kürzlich ihre Elastic Compute Cloud (EC2) F1 Instanzen eingeführt. Die F-Serie von Instanzen wurde letztes Jahr vorgestellt und folgt einer Namenskonvention, die an die Anzahl von CPU Kernen geknüpft ist – F1 hat einen Kern. Die F1 Instanzen verwenden Chips von Xilinx und bieten konfigurierbare Cloud-basierende FPGAs an, die stundenweise abgerechnet werden. Langfristige Bindung und Vorausbezahlung sind nicht notwendig und die Chips können mehrmals programmiert werden, ohne zusätzlich anfallende Kosten. Amazon’s AWS Cloud-Computing Services unterstützen alle wichtigen Frameworks und ziehen so KI Entwicklungen aus verschiedenen Bereichen an.

Auch Microsoft ist im Begriff in ihrem Azure Cloud Service FPGAs anzubieten und zwar Intel Stratix 10 FPGAs. Wie wir im August berichteten, zielt das Projekt Brainwave darauf ab, die Entwicklung von DNNs zu beschleunigen und fortschrittliches Maschinelles Lernen (ML) für die Massen anzubieten. Eine jüngste Bekanntgabe von Intel, wonach FPGAs in ihrer Alibaba Cloud eingesetzt werden, bestätigt weiter, dass „FPGAs als Service“ im Wachsen ist und alles darauf hindeutet, dass sie in Zukunft eine breitere Verwendung finden werden.

Google hingegen setzt nach wie vor auf ASICs für ihre Cloud-basierenden KI Entwicklungen. Die Tensor Processing Units (TPUs) wurden entwickelt um TensorFlow auf GPUs und CPUs zu unterstützen. Ihrer Meinung nach sind GPUs am geeignetsten der enormen Rechenleistung gerecht zu werden, die für das Maschinelle Lernen zum Trainieren und Ausführen von KI Anwendungen benötigt wird. Google bemerkt dazu: „Unser auf Neuralen Netzen basierendes ML Service hat im Vergleich zu anderen großformatigen Deep Learning Systemen eine bessere Trainingsleistung und eine erhöhte Genauigkeit“.

Ingenieure haben vielfältige Entscheidungen zu treffen und wo sie ihre Technologien anbieten ist nur eine davon. Intel hat nun, zusätzlich zu ihrem FPGA Angebot, die Tore zu einer Reihe von Deep Learning Optionen geöffnet, die Produkte wie ihr neuromorphisches Chip Loihi, den Movidius Neural Compute Stick und das Movidius Myriad X Vision VPU SoC einsetzen. Der Stick bringt KI in den Bereich von „Plug and Play“ Add-ons für den Endverbraucher und ermöglicht den Zugang zu modernsten CNNs über das Caffe Framework. Loihi ist Intel’s erstes selbstlernendes Chip, das angeblich wie ein menschliches Gehirn funktioniert und im Laufe der Zeit intelligenter und schneller wird. Myriad X ist gezielt für das Kombinieren und Verbessern von Bildverarbeitung, für die visuelle Verarbeitung und Deep Learning entwickelt worden. RGB Kameras mit einer Auflösung von bis zu 8 HD können mit dem Chip verbunden werden und Beschleuniger erlauben das Prozessieren von bis zu 700 Millionen Pixel pro Sekunde. Alle heutzutage üblichen Erwartungen hinsichtlich geringer Leistungsaufnahme werden natürlich ebenfalls erfüllt.

Zweifellos wird die Hard- und Software Entwicklung verstärkt durch die Zunahme von Künstlicher Intelligenz beeinflusst. Das bedeutet, dass nicht nur finanzstarke Hersteller von autonomen Fahrzeugen, oder forschungslastige medizinische Anwendungen von KI profitieren können. Machine Vision mit integrierter KI wird in Zukunft Inspektion und Erkennung auf ein Niveau bringen, dass bisher nur mit menschlichem Eingreifen erreicht wurde. Während die Kosten für Ressourcen zum Programmieren der Hardware noch immer hoch sind und Systeme noch immer einen hohen Level an Training benötigen und die Integration und Anpassung von beschleunigten Maschinellen Lernprozessen noch immer relativ langsam voranschreitet, kann man doch davon ausgehen, dass immer neue Technologien auftauchen und sich etablieren werden und eine weitreichende Implementierung Standard werden wird.

Die Welt von Computer-Imaging schreitet rasch voran und wir werden Sie weiterhin über die Entwicklungen in KI informieren. Darüber hinaus werden wir sicherstellen, dass unsere Produkte mit den neuesten Fortschritten kompatibel sind, ob sie nun in der Cloud stattfinden, auf einem Chip, oder in einer Inspektionslinie in der Nähe von Ihnen.

Lesen Sie unsere neuesten Nachrichten online, oder abonnieren Sie unseren Newsletter.