Active Silicon’s AI Serie – Teil 1: Deep Learning auf FPGAs

  • Published August 2017

Microsoft machte jüngst Schlagzeilen mit Entwicklungen, die Deep Learning auf FPGAs ermöglichen. Dabei nutzt Microsoft Intels FPGAs (früher Altera) in Kombination mit ihrer eigenen FPGA-basierten Deep-Learning-Plattform, Project Brainwave, zur Beschleunigung von Deep Neural Networks (DNNs). Angesichts der Geschwindigkeit, mit der die Entwicklungen in dieser Technologie voranschreiten, wird zunehmend deutlich, dass Deep Learning mehr und mehr auf Embedded Systems in einer breiten Vielfalt von Anwendungen zum Einsatz kommen soll, vom autonomen Fahren, bis zur medizinischen Forschung. Dank der daraus entstehenden Skalierbarkeit, als einer der entscheidenden Erfolgsfaktoren, verfolgt die Welt diese Entwicklungen sehr genau.

Weiter verbreitet sind aktuell Ansätze wie die von NVIDIA, der sein eigenes Deep Learning SDK anbietet, um GPU-beschleunigte Anwendungen von maschinellem Lernen für Embedded Systems und Cloud-basierte lokale Datenzentren zu betreiben. Bilderkennung, Fahrerassistenzsysteme, Biowissenschaften und sogar Spracherkennung stehen auf der Liste der Anwendungen, die von den reduzierten Verarbeitungszeiten und der erhöhten Genauigkeit profitieren. AMD hat seinen Radeon Instinct MI25 Server-Beschleuniger herausgebracht, zusätzlich zu seinen GPUs und Software-Plattformen. Sie sind allesamt darauf ausgelegt, die Herausforderungen des hoch-performanten Lernens von Neuronalen Netzen zu lösen.

Die Statistiken lassen vermuten, dass Googles TensorFlow Software-Bibliothek das am meisten genutzte Deep-Learning-Framework ist. Es besticht durch seine hohe Leistungsfähigkeit aufgrund intensiver interner Entwicklungsarbeit sowie seine Open-Source-Verfügbarkeit. Mit einer einheitlichen API kann es auf einer oder mehreren CPUs oder GPUs ausgeführt werden. Für FPGAs ist es allerdings noch nicht kommerziell verfügbar. Zudem arbeitet man an Tensorflow Lite – einem Toolkit für mobile Geräte, das Facebooks Caffe2Go hart auf den Fersen ist.

Andernorts versucht man die Lücke zwischen Kamera und menschlichem Auge zu schließen, indem man visuelle Wahrnehmung auf verschiedenste Geräte überführt, so zum Beispiel bei Irida Labs in Griechenland. Dazu entwickelt man dort Bildverarbeitungssoftware, die maschinelle Lernverfahren nutzt und für jede CPU-, GPU-, oder DSP/ASP-Plattform geeignet ist. Auf der Embedded Vision Europe in Stuttgart, die in wenigen Wochen stattfindet, präsentiert Vassilis Tsagaris, Iridias CEO und Mitgründer, eine Anwendung, bei der Deep Learning die Identifikation von Lebensmitteln verbessert. Active Silicon ist Aussteller auf dieser Konferenz und wir freuen uns bereits sehr auf die Möglichkeit, mehr über die neuesten Entwicklungen in diesem Bereich zu erfahren und unser Wissen zu teilen.

In den letzten Monaten hat unser Team aus innovativen Ingenieuren den Fortschritt im Bereich der FPGAs genau verfolgt, um zu untersuchen, wie dies unseren Kunden in unserer neuen Generation aus Embedded Systemen Mehrwert bieten kann im Sinne einer schnelleren und genaueren Bildanalyse.

Wir freuen uns darauf, in Stuttgart an den Diskussionen teilzunehmen, und werden allgemein den Fortschritt im Auge behalten.