Skip to content

2017 06 19 Fourth meeting

Arthur Silber edited this page Jun 26, 2017 · 2 revisions

Adrian:

  • Building dataset training mit nicht berauschenden: mAP ~0.1, qualität der labels ist nicht sonderlich gut
  • Dieser Ansatz wird nicht unbedingt weitertrainiert

Torben + Arthur:

  • Workflow überarbeitet (flickr fetching, auto annotating, manual annotation, ssd training) und auf server deployed. Bild überarbeiteter Workflow. Der kicker: Geringe anzahl an bildern wird manuell annotiert, dann wird ssd trainiert, und auf den trainingsergebnissen mehr bilder annotiert, deren automatische annotationen in einem sehr schnellen ja/nein Verfahren entweder als ground-truth übernommen werden oder (für diese annotationsrunde) verworfen werden.
  • mAP werte gut (>80% bis auf fernsehturm), aber false positives (es wird oft irgendeine klasse erkannt, auch wenn keine klasse auf dem testbild ist)

Suggestions:

  • Catchall-klasse für nicht-interessante buildings
  • Suche nach "Dresden" oder "Leipzig" / andere Großstadt, Bilder mit "genericNonInterestingBuilding" label reinwerfen, um training abzuschwächen / überspezialisierung zu verhindern
  • augmentation mit mirrored images, cropped: (kann der recordIterator das automatisch?)

Martin:

  • Android app ausprobiert, stürzt aber mit unserem model ab

Next steps:

  • Torben+Arthur: end2end training pipeline, catchall building class ("nonInteresting")

  • Fabian: annotates "nonInteresting" images manually

  • Choose generic validationset to get useful statistics pre/post generic buildings, log data

  • Fabian+Martin: deploy network on Android App

  • try to train binary net

  • Adrian: before that: try out SDD with resNet?