Skip to content

2017 06 06 Third meeting: great results with 300 images per class

Arthur Silber edited this page Jun 18, 2017 · 1 revision

Arthur: Training with <300 manually annotated images per class images yields great results, mAP > 0.8

Feedback: - Trainingskurve speichern (mAP über Zeit) - Fernsehturm daten / multiple BB trainieren - was genau wurde als netzwerk genommen, was wie trainiert? - Refactor: label source

Torben:

  • Fernsehturm labels --> mit traininern

Martin:

  • 7k bilder ohne gebäude

Adrian:

  • got to run mxnet ssd on server
  • NUMTHREADS durch 10 dividiert im code hat problem gefixt

Vortrag: (bis Freitag Mittag)

  1. Übersucht: was wollen wir machen / Motivation
  2. related work vorstellen
  3. mögliche lösungsansätze, wie wollen wir es machen
  4. Discussion
  5. Mileston plan

Next steps:

  • Untersuchen, wie training sicher verändert, wenn man auf buildings vortrainiert
  • Mehr Kategorien, Trainingsdaten (-> Fernsehturm)
  • Nice to have: Android app (behavior, speed)? (a) photo +
  • Noch nicer to have: binary neuronal networks trainieren (ziel: kaum speicherberbrauch)
  • TinySSD: wie das TinyYolo, nur ein TinySSD bauen (wie verhält sich die accuracy, wie verhält sich der speed)? (weitere idee hier: ResNet statt ImageNet model zu nehmen...damit binarisierung einfacher geht)
  • sample android app (bzgl binarisierung von neuronaler netzwerke): github: hpi-xnor
  1. Model trainieren: mehr buildings / trainingsdaten
  2. Android App: POC + dann optimieren