-
Notifications
You must be signed in to change notification settings - Fork 1
2017 07 03 Sixth meeting
Arthur Silber edited this page Jul 3, 2017
·
2 revisions
Adrian:
- Resnet18, resnet34, resnet101 pre trained: trainiert, gute ergebnisse, bis auf fernsehturm, der immer sehr schlecht (0.2) bleibt. pretrained oder nicht macht für die anderen klassen keinen großen unterschied. Images
- keine großen unterschiede zwischen resnet18 und resnet34
Tasks:
- Resnet18 / renset101 für PascalVoc Daten trainieren
- Binarization
Discussion:
- Fernsehturm verbessern: ggf bounding-box templates anpassen? Vielleicht sind die defaults nicht passend genug - aspect ratio zu unterschiedlich?
- Binarized mxnet vom Lehrstuhl ist auf 9.3. (WIP upgrade auf 0.10.0), wir sind mit unserem mxnet im moment auf 9.5. --> link: https://github.com/hpi-xnor/BMXNet --> beispile symbolfile included
Arthur:
- Nvidia-Docker geht, jetzt muss man nur noch das aktuelle SSD in ein image packen
Tasks:
- Visual Backprop (für Fernsehturm debugging) (hint: mean gabs noch nicht in 0.9.3, vielleicht schon in 0.9.5? --> sonst ssd upgraden auf 0.10.0)
Torben:
- WIP: Funkturm als eigene klasse
Fabian + Manuel:
- WIP: arbeiten daran, unser trainiertes netz auf android zu deployen
- Mxnet braucht amalgation zum deploy, die stellt sich im moment als problematisch heraus (kann das auf emulator gehen? Target-Architecture mismatch zw. Emulator und Handy)
Discussion:
- Die toolchain muss spezifisch entweder 32bit oder 64bit gebaut werden.
- Amalgation == binaries von mxnet werden zusammengepackt. nicht spezifisch aufs benutzte netzwerk, sondern nur auf die library
Tasks:
- Im Amalgation makefile nachschauen, ob alle benötigten mxnet layer (für ssd benötigt), amalgiert (included) werden - es könnte sein dass nicht alles eingebunden wird.