Zeitschrift für Computertechnik und Informationstechnologie

Ein Drohnen-basiertes Deep-Learning-Framework zum Erkennen und Verfolgen von Objekten

Muhammad Shoaib1, Nasir Sayed

In den letzten Jahren ist die Integration künstlicher Intelligenz in unbemannte Luftfahrzeuge (UAVs) zu einem heißen Forschungsthema geworden, insbesondere wenn UAVs komplexe Aufgaben ausführen müssen, die unter menschlicher Kontrolle nicht schnell erledigt werden können. Drohnen verwenden häufig mehrere Sensoren, um vollständige Details über die Bedingungen zu erfassen, wie z. B. eine Top-Down-Kamera oder LiDAR-Sensoren, und der Hauptprozessor misst alle Flugbahnen der Drohne. In diesem Artikel wird die Verfolgung eines erkannten Ziels vorgeschlagen, bei der eine monokulare Bordkamera und ein Verstärkungslernmodell verwendet werden. Dieses System ist kostengünstiger und an die Atmosphäre anpassbarer, da es verschiedene Sensoren und vorab berechnete Flugbahnen verwendet als frühere Ansätze. Unser Modell fügte dem Bild-Input des Antriebsnetzwerks umfassende Boxdetails hinzu, indem es das vorherige Deep Double Q-Netzwerk mit dem Duel Architecture Model (D3QN) erweiterte, eine Aktionstabelle und eine Anreizfunktion modifizierte und dreidimensionale Gesten und Objekterkennung in Kombination mit der Unterstützung von MobileNet ermöglichte. Die Simulationen werden in verschiedenen Simulationseinstellungen durchgeführt, jede mit ihrem eigenen Schwierigkeitsgrad und ihrer eigenen Komplexität. Für die Forschung wird die Anwendung „Airsim“ verwendet, eine von Microsoft unterstützte Quadrotor-Simulations-API. Die Ergebnisse zeigen, dass sich das Modell mithilfe eines konvergenzbasierten Explorationsalgorithmus dem beobachteten Objekt, einer menschlichen Figur, nähert, ohne unterwegs auf Hindernisse zu stoßen und sich schneller fortbewegt.

Haftungsausschluss: Dieser Abstract wurde mit Hilfe von Künstlicher Intelligenz übersetzt und wurde noch nicht überprüft oder verifiziert