Training von YOLO (You Only Look Once) für eine veränderte Aktivierungsfunktion

Betreuer/in:            Jens-Peter M. Zemke           
Dekanat/Institut:   Elektrotechnik, Informatik und Mathematik / Mathematik           

E-Mail:   zemke@tuhh.de

Motivation: YOLO ist ein schnelles neuronales Netz zur Klassifikation
von Bildern. YOLO basiert auf der (leaky) ReLU-Aktivierungsfunktion und
wird auf einer GPU trainiert, der Source-Code ist verfügbar. In der Arbeit
soll die Trainierbarkeit und erreichte Güte für Aktivierungsfunktionen
abseits von (leaky) ReLU untersucht werden.

Methoden: In der Arbeit soll die Theorie hinter YOLO und eine der
Implementationen (Version 1, 2 oder 3) verstanden und auf das Setting
anderer Aktivierungsfunktionen übertragen werden. Das Training ist
zeitlich nur machbar unter Verwendung von GPUs, viele Tests müssen
parallel ausgeführt werden, um innerhalb des Bearbeitungszeitraums
zu interessanten Ergebnissen zu kommen. Der originale Sourcecode ist
in C/CUDA geschrieben.

Projektziele und Arbeitspakete:
– Installation und Training von YOLO
– Modifikation des Codes, Planung des Trainings
– Auswertung der Testläufe, Verbesserung

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.