====== Themen für Abschlussarbeiten im Projekt PAREK ====== Infos zum Projekt PAREK: * [[https://www.htw-berlin.de/forschung/online-forschungskatalog/projekte/projekt/?eid=3636|HTW-Projektseite]] * [[https://www.parek-projekt.de|Offizielle Projekt-Webseite]] ===== Auswahl und Erprobung einer Deep Learning-Netzstruktur für die mobile Erkennung von Windenergieanlagen ===== Bei der Visualisierung von Repowering-Projekten von Windenergieanlagen (WEA) mittels Augmented Reality (AR) müssen bestehende Anlagen im Kamerabild **erkannt** und entfernt werden (Diminished Reality, DR). Ziel der Abschlussarbeit ist es, ein generatives, neuronales Netz auszuwählen, zu trainieren und zu evaluieren, das weit entfernte Windenergieanlagen im Kamerabild eines mobilen Geräts (Smartphone) erkennen kann. Technisch herausfordernd sind hier die kleine Form der Anlagen im Kamerabild und die eingeschränkte mobile Hardware (Ziel: möglichst geringe Latenzzeit). Bestandteile der Arbeit sind: * die Aufarbeitung der relevanten Literatur (Repowering von Windenergieanlagen (WEA), AR/DR, Künstliche Neurone Netze (KNN) für Objekterkennung/-segmentierung, Probleme/Lösungen bei kleinen Objekten, KNN auf mobilen Endgeräten) * die Auswahl eines geeigneten Netzes, * die Datensuche und –augmentierung, * das Training des Netzes und * die Evaluation des Ergebnisses. Einstiegsliteratur: * Einstiegs-Literatur/erster Überblick: * [[https://www.proquest.com/openview/421f66c9054aaffb9df6113fb806e7ed/1|A Review of Lightweight Object Detection Algorithms for Mobile Augmented Reality]] * Probleme bei kleinen Objekten: * [[https://doi.org/10.1109/TPAMI.2023.3290594|Towards Large-Scale Small Object Detection: Survey and Benchmarks]] * Lösungen bei kleinen Objekten (aus anderen Bereich, wie Verkehr) * [[https://www.sciencedirect.com/science/article/abs/pii/S0957417422023661|MobileDenseNet: A new approach to object detection on mobile devices]] * EdgeDuet: Tiling Small Object Detection for Edge Assisted Autonomous Mobile Vision * The Power of Tiling for Small Object Detection * Small Object Detection in Traffic Scenes for Mobile Robots: Challenges, Strategies, and Future Directions * Single stage architecture for improved accuracy real-time object detection on mobile devices ===== Auswahl und Erprobung einer Deep Learning-Netzstruktur für das mobile Inpainting in städtischer Umgebung ===== Bei der Visualisierung von Planungsvorhaben im städtischen Raum (Stadtbegrünung, Bauvorhaben u.a.) mittels Augmented Reality (AR) müssen existierende Objekte im Kamerabild (Autos, Personen etc.) erkannt und **entfernt** werden (Diminished Reality, DR). Ziel des Forschungsprojekts ist es, ein generatives, neuronales Netz auszuwählen, zu trainieren und zu evaluieren, das reale Objekte aus dem Kamerabild eines mobilen Geräts (Smartphone) entfernen kann, indem  die vom Objekt vedeckten Bildteile rekonstruiert werden (Inpainting). Technisch herausfordernd ist die eingeschränkte mobile Hardware (Ziel: möglichst geringe Latenzzeit). Bestandteile der Arbeit sind: * die Aufarbeitung der relevanten Literatur (Planungsvorhaben im städtischen Raum (Stadtbegrünung, Bauvorhaben u.a.), AR/DR, Künstliche Neurone Netze (KNN) für Inpainting, KNN auf mobilen Endgeräten) * die Auswahl eines geeigneten Netzes, * die Datensuche und –augmentierung, * das Training des Netzes und * die Evaluation des Ergebnisses. Einstiegsliteratur * Reviews für DL-Based Inpainting-Techniken für mobile Endgeräte * [[https://doi.org/10.1109/ACCESS.2024.3461782|Review of Deep Learning-Based Image Inpainting Techniques]] * [[https://doi.org/10.1109/APCI61480.2024.10616694|GAN-based Image Inpainting Techniques: A Survey]] * [[https://doi.org/10.3390/app132011189|A Review of Image Inpainting Methods Based on Deep Learning]] * Veröffentlichungen zu mobilem Inpainting: * [[https://doi.org/10.1109/ICCRE61448.2024.10589894|GAN-Driven Vehicle Inpainting for Mobile Mapping Scenes]] * MI-GAN: A Simple Baseline for Image Inpainting on Mobile Devices * Efficient Layout-Guided Image Inpainting for Mobile Use * GAN-Driven Vehicle Inpainting for Mobile Mapping Scenes * InDepth: Real-time Depth Inpainting for Mobile Augmented Reality