Project description

Mikrodronen sind kleine unbemannte Luftfahrzeuge (Quadrocopter), die durch ihre ausgekluegelte Steuerungselektronik eine hohe Flugstabilitaet besitzen.

Ihre Steuerung ist auch fuer Laien bereits nach einer kurzen Einfuehrung moeglich. Die Mikrodronen werden mit Sensoren, wie z.B. Kamera, Mikrophon oder aehnlichem ausgestattet, und koennen dadurch Daten von dem ueberflogenen Bereich in Echtzeit an eine Bodenstation liefern. Daten aus der Vogelperspektive sind besonders bei Katastrophenereignissen fuer die Einsatzkraefte sehr interessant - muss doch rasch ein "Ueberblick" aus meist unvollstaendigen und teilweise widerspruechlichen Informationen gewonnen werden.

Dieses Projekt verfolgt das Ziel, unterschiedliche Sensordaten mit Hilfe von kooperierenden und vernetzten Mikrodronen zu erfassen, zu analysieren und zu interpretieren sowie diese abstrahierten Daten in geeigneter Form den Einsatzkraeften zur Verfuegung zu stellen. Dazu formieren sich einige Mikrodronen selbstorganisierend zu einem Schwarm, ueberfliegen das Einsatzgebiet und uebermitteln die erfassten Sensordaten zur Bodenstation. Die Daten der einzelnen Mikrodronen werden fusioniert und zu einem "Gesamtbild" zusammengefasst.

Als Analyse ist geplant, aus den Bilddaten ein dreidimensionales Modell des ueberflogenen Gebiets zu generieren bzw. interessante Objekte, wie Fahrzeuge oder Personen, autonom zu detektieren.

Die Koordination mehrerer Mikrodronen ist bislang nur unzureichend erforscht.

Es ist geplant, in folgenden Bereichen den Stand der Technik substantiell zu erweitern:

(1) Flugformation: Wie bilden mehrere Mikrodronen selbstorganisatorisch eine Flugformation? Wie wechseln sie von einer Formation zur naechsten? Wie geht man mit dem Ausfall von Dronen um?

(2) Missionsplanung und -steuerung: Wie plant und steuert man einen Einsatz mit Mikrodronen? Wie reagiert man auf unvorhergesehene Ereignisse in der Umgebung?

(3) Sensordateninterpretation: Wie nutzt man trotz beschraenkter Ressourcen auf den Dronen bestmoeglich die Faehigkeit zur Sensorfusion und -interpretation?