Ultraschallsensoren treffen auf KI
Innovative Drohne navigiert nach dem Vorbild der Fledermaus

Ein US-Forschungsteam hat ein System entwickelt, das kleinen Flugrobotern auch bei Nebel, Rauch und Dunkelheit die Orientierung erleichtern soll. Zum Einsatz kommen dabei Ultraschallsensoren und Künstliche Intelligenz.

Autonome Flugroboter gelten seit Jahren als Hoffnungsträger für Einsätze in gefährlichen oder schwer zugänglichen Umgebungen. Vor allem bei Such- und Rettungsaktionen könnten sie wertvolle Zeit gewinnen, etwa wenn Menschen in verrauchten Gebäuden, bei schlechter Sicht oder in unwegsamem Gelände lokalisiert werden müssen. Genau dort stoßen herkömmliche Systeme allerdings oft an technische Grenzen. 

Ein Forschungsteam rund um Nitin J. Sanket vom Worcester Polytechnic Institute (WPI) hat deshalb ein neues Verfahren entwickelt, das sich an der Natur orientiert. Konkret nahmen sich die Wissenschaftler:innen die Navigationsfähigkeit von Fledermäusen zum Vorbild und kombinierten Ultraschallsensoren mit Künstlicher Intelligenz (KI), um kleine Drohnen effizienter und robuster durch schwierige Umgebungen zu steuern.

Mini-Sensoren statt schwerer Technik

Bislang arbeiten autonome Flugroboter meist mit Kameras, LiDAR oder anderen radarähnlichen Systemen, um Hindernisse zu erkennen und ihre Flugbahn anzupassen. Solche Technologien liefern zwar präzise Daten, gelten aber als vergleichsweise schwer, teuer und energieintensiv. Zudem können Dunkelheit, Nebel oder Rauch die Leistung lichtbasierter Systeme beeinträchtigen.

Das neue, ultraschallbasierte Verfahren soll hier ansetzen. Laut den Forscher:innen kommt das System mit lediglich zwei Mini-Sensoren und geringer Rechenleistung aus. Dadurch könnte es kleineren Flugrobotern ermöglichen, ihre Umgebung auch unter schwierigen Bedingungen wahrzunehmen, Entscheidungen zu treffen und länger eigenständig in potenziell gefährlichen Einsatzgebieten zu operieren.

Künstliche Intelligenz hilft bei der Orientierung

Für ihre Tests stattete das Team eine rund 15 Zentimeter breite, X-förmige Quadrocopter-Drohne mit Ultraschallsensoren und einem akustischen Schutzschild aus, das die Geräusche der Propeller dämpfen soll. Zusätzlich wurde der Bordcomputer mithilfe von Deep Learning darauf trainiert, schwache Echo-Muster auszuwerten – ähnlich wie es Fledermäuse bei der Orientierung tun.

Erprobt wurde der rund 450 Gramm schwere Roboter sowohl in einem Waldgebiet als auch in einem Laborparcours mit unterschiedlichen Hindernissen. Dabei musste die Drohne unter anderem transparente Kunststoff- und Metallstangen, Dunkelheit sowie künstlich erzeugten Nebel und Schnee bewältigen. In insgesamt 180 Tests lag die Erfolgsquote bei der Navigation laut den Forscher:innen zwischen 72 und 100 Prozent. Schwierigkeiten bereitete das System vor allem bei sehr dünnen Hindernissen wie Ästen oder Metallstangen, die Ultraschallsignale nur schwach reflektieren. Künftig wollen die Entwickler:innen vor allem die bislang auf fünf Minuten begrenzte Flugdauer und die Geschwindigkeit des Roboters erhöhen.

Die gesamte Studie können Sie hier nachlesen.

www.wpi.edu

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV