Skip to content

2017 07 03 Sixth meeting

Arthur Silber edited this page Jul 3, 2017 · 2 revisions

Adrian:

  • Resnet18, resnet34, resnet101 pre trained: trainiert, gute ergebnisse, bis auf fernsehturm, der immer sehr schlecht (0.2) bleibt. pretrained oder nicht macht für die anderen klassen keinen großen unterschied. Images
  • keine großen unterschiede zwischen resnet18 und resnet34

Tasks:

  • Resnet18 / renset101 für PascalVoc Daten trainieren
  • Binarization

Discussion:

  • Fernsehturm verbessern: ggf bounding-box templates anpassen? Vielleicht sind die defaults nicht passend genug - aspect ratio zu unterschiedlich?
  • Binarized mxnet vom Lehrstuhl ist auf 9.3. (WIP upgrade auf 0.10.0), wir sind mit unserem mxnet im moment auf 9.5. --> link: https://github.com/hpi-xnor/BMXNet --> beispile symbolfile included

Arthur:

  • Nvidia-Docker geht, jetzt muss man nur noch das aktuelle SSD in ein image packen

Tasks:

  • Visual Backprop (für Fernsehturm debugging) (hint: mean gabs noch nicht in 0.9.3, vielleicht schon in 0.9.5? --> sonst ssd upgraden auf 0.10.0)

Torben:

  • WIP: Funkturm als eigene klasse

Fabian + Manuel:

  • WIP: arbeiten daran, unser trainiertes netz auf android zu deployen
  • Mxnet braucht amalgation zum deploy, die stellt sich im moment als problematisch heraus (kann das auf emulator gehen? Target-Architecture mismatch zw. Emulator und Handy)

Discussion:

  • Die toolchain muss spezifisch entweder 32bit oder 64bit gebaut werden.
  • Amalgation == binaries von mxnet werden zusammengepackt. nicht spezifisch aufs benutzte netzwerk, sondern nur auf die library

Tasks:

  • Im Amalgation makefile nachschauen, ob alle benötigten mxnet layer (für ssd benötigt), amalgiert (included) werden - es könnte sein dass nicht alles eingebunden wird.