-
Notifications
You must be signed in to change notification settings - Fork 1
2017 06 06 Third meeting: great results with 300 images per class
Arthur Silber edited this page Jun 18, 2017
·
1 revision
Arthur: Training with <300 manually annotated images per class images yields great results, mAP > 0.8
Feedback: - Trainingskurve speichern (mAP über Zeit) - Fernsehturm daten / multiple BB trainieren - was genau wurde als netzwerk genommen, was wie trainiert? - Refactor: label source
Torben:
- Fernsehturm labels --> mit traininern
Martin:
- 7k bilder ohne gebäude
Adrian:
- got to run mxnet ssd on server
- NUMTHREADS durch 10 dividiert im code hat problem gefixt
Vortrag: (bis Freitag Mittag)
- Übersucht: was wollen wir machen / Motivation
- related work vorstellen
- mögliche lösungsansätze, wie wollen wir es machen
- Discussion
- Mileston plan
Next steps:
- Untersuchen, wie training sicher verändert, wenn man auf buildings vortrainiert
- Mehr Kategorien, Trainingsdaten (-> Fernsehturm)
- Nice to have: Android app (behavior, speed)? (a) photo +
- Noch nicer to have: binary neuronal networks trainieren (ziel: kaum speicherberbrauch)
- TinySSD: wie das TinyYolo, nur ein TinySSD bauen (wie verhält sich die accuracy, wie verhält sich der speed)? (weitere idee hier: ResNet statt ImageNet model zu nehmen...damit binarisierung einfacher geht)
- sample android app (bzgl binarisierung von neuronaler netzwerke): github: hpi-xnor
- Model trainieren: mehr buildings / trainingsdaten
- Android App: POC + dann optimieren