Modellierung von UAP-Flugbewegungen

Immer wieder gibt es auch Videoaufnahmen seitens luftgestützter Überwachungssystemen an Flugzeugen oder Hubschraubern von unbekannten Objekten, die aufgrund zusätzlicher Metadaten im Video die Möglichkeit eröffnen, eine genauere Analyse der Flugbewegung durchzuführen. So kann eine mögliche herkömmliche Erklärung auf ihre Plausibilität geprüft werden, bevor man auf anomalistische Modelle ausweicht.

Chris Clarke hat in einem Artikel diese Modellierung vorgestellt und am Beispiel des bekannten FLIR-Videos eines Objektes über Aguadilla auf Puerto Rico eine entsprechende Analyse durchgeführt, die die Plausibilität der Himmelslaternen-Erklärung bestätigt.

Sein Artikel dazu erschien in der Zeitschrift SUNlite, den wir dank der Erlaubnis des Herausgebers Tim Printy hier in deutscher Übersetzung wiedergeben.

Eine Methode zur Modellierung linearer UAP-Bewegungen aus Videos luftgestützter Überwachungssystemen
von Chris Clarke, November 2021

Zusammenfassung

Hintergrund: In den letzten Jahren gab es zahlreiche Fälle von unidentifizierten Objekten, die von luftgestützten Überwachungs- und Zielsystemen auf Video aufgezeichnet wurden. Diese Fälle bieten eine ausgezeichnete Gelegenheit für weitere Analysen, aufgrund von Metadaten, die als Text-Overlay auf dem Video angezeigt werden. Die Merkmale der UAP-Bewegungen lassen sich oft aus den Videoaufnahmen ableiten oder schlussfolgern. Die Beschaffenheit der Infrarotbilder und der Parallaxeffekt können jedoch für den flüchtigen Betrachter verwirrend sein. Die Verfügbarkeit der zugehörigen Kamera-Metadaten ermöglicht einen objektiven und analytischen Ansatz, um das Flugverhalten des UAPs zu bestimmen. Über die Art der Bewegung dieser Objekte wird oft diskutiert, wobei es zwei Hauptthesen gibt:

1. Das Objekt bewegt sich linear, mit einer prosaischen Erklärung, wahrscheinlich durch den Wind getrieben.

2. Das Objekt bewegt sich auf eine außergewöhnliche und unerklärliche Weise.

Da Punkt 1 eine leicht zu erklärende Antwort auf die Frage nach dem Modell des Objekts liefert, sollte sie zunächst gründlich auf ihre Gültigkeit geprüft werden, bevor man dazu übergeht, die Bewegung mit außergewöhnlichen Mitteln zu erklären.

Ziel: In diesem Aufsatz soll eine Methode vorgestellt werden, mit der zunächst festgestellt werden kann, ob sich ein Objekt, das von einer sich bewegenden, luftgestützten Plattform auf Video aufgenommen wurde, wie man es erwarten würde, wenn es vom Wind getrieben wird. Kann nicht nachgewiesen werden, dass sich das Objekt so bewegt, als ob es vom Wind getrieben würde, ist eine weitere Untersuchung seiner Bewegung gerechtfertigt. Im weiteren Verlauf wird die Methode auf die Analyse eines wohlbekannten UAP-Falls angewandt.

Erstellen eines Modells

Das einfache Modell: Der erste Schritt bei der Analyse der Bewegung eines Objekts besteht darin, ein Modell der untersuchten Situation zu erstellen. In diesem Fall handelt es sich um ein Flugzeug, das über die Erde fliegt, und ein unbekanntes Objekt, das sich ebenfalls im freien Raum bewegt. Das Modell muss eine Reihe von Variablen enthalten, die sich während der Dauer des Videos ständig ändern:

1) Die Position des Flugzeugs (die aus dem Metadaten-Overlay ermittelt wird)

2) Der Schnittpunkt der Sichtlinie der Kamera mit dem Boden (aus dem Metadaten-Overlay)

3) Die Windgeschwindigkeit und -richtung (aus den Wetterberichten)

4) Die Position des Objekts (ist eine unbekannte Variable und kann aus den anderen Variablen abgeleitet werden)

Bei diesem Ausgangsmodell handelt es sich um eine einfache Version, bei der das Objekt und das Flugzeug einem linearen Weg mit derselben Geschwindigkeit folgen. Es ist zu erkennen, dass sich die Zielposition mit der Bewegung des Flugzeugs und des Objekts bewegt. In diesem Beispiel ist die Richtung der Bewegung bekannt, da sie die gleiche ist wie die Bewegung des Flugzeugs (s. Abb. 1).

Durch die Verwendung von drei Sichtlinien und der Flugrichtung des Flugzeugs als vierte Linie kann ein gemeinsamer Punkt entlang der Bewegungsrichtung bestimmt werden, da die Bewegungsrichtung bekannt ist und mit der Bewegung des Flugzeugs übereinstimmt (s. Abb. 2).

Um den Weg des Objekts zu berechnen, können wir das Modell so drehen, dass der Beobachter nun entlang der Bahn des Objekts auf denselben Kurs wie das Flugzeug schaut. An diesem Beobachtungspunkt schneiden sich die Sichtlinien in einem gemeinsamen Punkt. Dies ermöglicht es, die Bewegungsrichtung des Objekts zu bestätigen und ableiten, ob das Objekt eine Höhenänderung aufweist

Außerdem können wir die Entfernung vom ersten Punkt über den zweiten zum dritten Punkt messen, was uns die gesamte lineare Bewegungsstrecke des Objekts liefert. In Verbindung mit der Zeit, zu der die Kamera diese Punkte in den Metadaten des Videos aufgenommen hat, können wir die Geschwindigkeit berechnen, mit der sich das Objekt sich entlang der Linie bewegt.

Natürlich ist dies ein sehr einfaches Beispiel und reale Situationen können komplexer sein. Überwachungsflugzeuge fliegen in der Regel mit Geschwindigkeiten zwischen 200 bis 300 Knoten und werden daher ein vom Wind getriebenes Objekt wahrscheinlich nicht auf diese Weise verfolgen. Sie neigen dazu, ein sich langsam bewegendes Objekt zu umkreisen, um es in einem geringen Abstand und in ihrer Sichtlinie zu halten.

Moderne elektro-optische Kanzeln sind in der Lage, Bilder in 360° aufzunehmen, so dass dies die Fähigkeit der Kameraleute, das Objekt kontinuierlich zu verfolgen, nicht beeinträchtigt. Betrachten wir nun ein komplexeres Beispiel, bei dem sich das Flugzeug auf einer kreisförmigen Flugbahn um ein Objekt bewegt, das eine langsame, lineare Bewegung hat.

Methodik

Das komplexe Modell: In diesem Beispiel zeigt das Modell wieder ein Objekt, das sich linear bewegt, aber dieses Mal bewegt sich das Flugzeug auf einer kreisförmigen Umlaufbahn um das Objekt. Während der gesamten Umlaufbahn verfolgt das Überwachungssystem das Objekt. Dies stellt ein Problem für die Analyse dar, da die Bewegung des Flugzeugs nicht parallel zum Objekt verläuft und daher seine Bewegungsrichtung nicht als dieselbe angenommen werden kann. Dieses Problem wird durch die Verwendung einer vierten Sichtlinie zur Bestimmung des Schnittpunkts überwunden.

Wenn die Position des Beobachters so gedreht wird, dass ein Schnittpunkt der vier Sichtlinien entsteht, kann man wie im ersten Beispiel davon ausgehen, dass dies die Richtung der Bahn des Objekts ist. Diese Methode ist in Abb. 3 und Abb. 4 dargestellt.

Auch hier können wir, wie beim einfachen Modell, die Entfernung vom ersten Punkt durch jeden der anderen Punkte messen, um die Entfernung zu ermitteln, die das Objekt während der Dauer des Videos zurücklegt. Korreliert man dies mit der Zeit, zu der die Kamera diese Punkte in den Metadaten des Videos aufgenommen hat, kann man die Geschwindigkeit berechnen, mit der sich das Objekt entlang der Linie bewegt.

Wir können nun die Bewegungsrichtung und die Geschwindigkeit bestimmen, mit der sich das Objekt bewegt hat.

Validierung des Pfades: Um zu überprüfen, ob das Ergebnis mit der Hypothese übereinstimmt, dass das Objekt vom Winde getrieben wurde, können wir die Richtung und Geschwindigkeit des Objekts mit den lokalen Wetterbeobachtungen zum Zeitpunkt der Sichtung vergleichen. Wenn das Objekt einfach vom Winde getrieben wird, sollte es mit den örtlichen Windverhältnissen genau übereinstimmen. Es ist jedoch zu beachten, dass Objekte, die in einer bestimmten Höhe treiben, geringfügig von dem am Boden gemessenen Wind abweichen können.

Modellierung von Beispielen aus der Praxis

Das Aguadilla-UAP: Im Jahr 2013 wurde ein Video aufgenommen, das dem Bericht zufolge ein unbekanntes Objekt zeigt, das über dem Flughafen von Aguadilla auf der Insel Puerto Rico manövriert. Eine anschließende Analyse des Videos ergab, dass das Objekt außergewöhnliche Merkmale aufwies und nicht mit einer einfachen Erklärung beschrieben werden konnte. Das Video zeigt die Aufnahmen des Ereignisses, das mit der Infrarotkamera einer L-3 Wescam X-15 Überwachungskanzel auf einem DHC-8 Flugzeug des US-Heimatschutzministeriums aufgenomen wurde. Mit dem Video verknüpfte Metadaten wie die Position des Flugzeugs, Höhe und Kurs sowie die Uhrzeit werden als Text über das Bild eingeblendet.

In der Mitte des Videos befindet sich das Fadenkreuz des Visiers, das die Sichtlinie anzeigt, die vom Flugzeug entlang der Mitte des Sichtfeldes der Kamera projiziert wird. Diese Sichtlinie wird zur Berechnung der Positionsdaten des Visiers (manchmal auch "Zielposition" genannt), durch Schneiden der Linie mit einem digitalen Modell der Erdoberfläche, verwendet. Diese Bodenzielposition wird ebenfalls auf dem Overlay angezeigt. Diese Daten ermöglichen ein Modell zu erstellen, wie es zuvor beschrieben wurde. Die Metadaten wurden aus jedem Einzelbild des Videos extrahiert und stehen im Internet zum Download bereit.

Anwendung von Beispielen aus der Praxis

Modellierung in Google Earth: Mithilfe der im Bildschirm-Overlay verfügbaren Metadaten können wir die Längen- und Breitengrade sowie die Höhenpunkte für die Flugroute des Flugzeugs extrahieren. In ähnlicher Weise können wir die Bodenzielpunkte für die Sichtlinie der Kamera im gesamten Video extrahieren.

Die Metadaten können mit Google Earth visuell modelliert werden. Abb. 6 zeigt das Gebiet von Aguadilla in Puerto Rico mit dem Flugweg des Flugzeugs und den 35 Sichtlinien von der Kamera zum Boden in 3 Dimensionen gezeichnet. Die Sichtlinien umfassen die Zeitcodes 01:22:08 bis 01:24:57, insgesamt also 209 Sekunden. So erhalten wir einen Gesamtüberblick über das aufgezeichnete Ereignis und ein großes Muster der Sichtlinien, aus dem wir Beobachtungen und Schlussfolgerungen ziehen können.

Nach der Erstellung des Modells können wir nun die Position des Beobachters an einen Punkt drehen, an dem sich alle Sichtlinien schneiden, so wie es zuvor im Modell gezeigt wurde (s. Abb. 7). Dadurch können wir die potenzielle Bewegungslinie des Objekts bestimmen. Diese Bewegungslinie, oder dieser Vektor, hat eine Richtungskomponente und eine Geschwindigkeitskomponente, die berechnet wird durch die Division der Länge der Linie und der Zeit, die zwischen dem ersten und letzten Punkt auf der Linie liegt.

In Abb. 8 wurde die Anzahl der Sichtlinien der Übersichtlichkeit halber auf vier reduziert. Nun kann ein Vektor vom Schnittpunkt der ersten Kamera-Sichtlinie mit der Objektbewegungs-Sichtlinie zu einem ähnlichen Schnittpunkt auf der letzten Sichtlinie gezeichnet werden. Diese neue Linie, die in rot dargestellt ist, ist eine Annäherung an den linearen Weg, den das Objekt genommen haben könnte. Sie wurde hier mit Start und Ende beschriftet und zeigt, dass es sich in südwestlicher Richtung bewegte, wobei es in einer Höhe von 305 m (1000 ft) startete und in einer Höhe von 210 m (689 ft) endete.

Mit dem Linienmesswerkzeug in Google Earth können wir die Länge und die Richtung der Spur des Objekts bestimmen. Abb. 9 zeigt, dass die Spur 1,173 km lang war, in Richtung 237°, was der Himmelsrichtung WSW entspricht. Wir wissen auch, dass die Zeit, die das Objekt vom Start- zum Endpunkt benötigte, 209 Sekunden beträgt. Mit der einfachen Gleichung "Geschwindigkeit gleich zurückgelegter Strecke geteilt durch die benötigte Zeit" können wir berechnen, dass sich das Objekt mit 12,5 mph bewegt hat. Das Linienmesswerkzeug von Google Earth zeigt, dass die Richtung der Bewegung WSW war, was einem ENE-Wind entspricht, der aus einer Richtung von 57° weht.

Validierung der berechneten Geschwindigkeit und Richtung

Überprüfung der historischen Wetterdaten: Die berechnete Geschwindigkeit und Richtung muss nun überprüft werden, um zu sehen, ob sie mit der aufgezeichneten Windgeschwindigkeit und -richtung zum Zeitpunkt der Sichtung übereinstimmt. Die historischen Wetterdaten können von weatherunderground.com bezogen werden. Für die Zeit des Videos aus Aguadilla zeigen die Wetteraufzeichnungen, dass der Wind in Bodennähe zwischen 050° und 060° und zwischen 11 und 12 Knoten (21,3 km/h) wehte. Die Richtung ONO entspricht einer Kompasspeilung von 67°.

Der Vergleich der aufgezeichneten Wetterdaten zeigt, dass die berechnete Bewegung des Objekts im Allgemeinen mit der Windgeschwindigkeit und -richtung und der erwarteten Bewegung übereinstimmt.

Mit Google Earth ermittelte Bewegung = 067° bei 20 km/h

Erwartete Bewegung, wenn vom Wind getrieben = 055° bei 21 km/h.

Der Vergleich der aufgezeichneten Wetterdaten zeigt, dass die berechnete Bewegung des Objekts im Allgemeinen mit der Windgeschwindigkeit und -richtung und der erwarteten Bewegung übereinstimmt. Dies deutet darauf hin, dass es sich bei dem im Aguadilla-Video zu sehenden Objekt höchstwahrscheinlich um ein Objekt war, das leichter als Luft war und zu diesem Zeitpunkt vom Wind angetrieben wurde.

Zusammenfassung

Rekapitulierung der Methode: In diesem Beitrag wurde eine Methode vorgestellt, mit der sich die Flugbahn von Flugobjekten ableiten lässt, die von luftgestützten Überwachungssystemen aufgezeichnet wurden. Diese Methode ist nur möglich, wenn die Metadaten des Flugzeugs und der Bodenspur auf dem Bildschirm eingeblendet werden und wenn lokal aufgezeichnete historische Wetterdaten verfügbar sind. Darüber hinaus ist die Methode nur auf Objekte anwendbar, deren Bewegungen darauf hindeuten, dass sie vom Wind getrieben werden könnten, d.h. auf einen sich langsam bewegenden, linearen Pfad. Die Methode verwendet die Gesamtansicht des aufgezeichneten Ereignisses und die Sichtlinien, um zu zeigen, wo ein linearer Pfad abgeleitet werden kann. Dieser lineare Pfad wird dann in Länge und Richtung gemessen, um die Geschwindigkeit und den Kurs zu berechnen, die ein Objekt auf diesem Pfad haben würde. Diese Geschwindigkeit und Richtung wird dann mit der aufgezeichneten Windgeschwindigkeit und -richtung zum jeweiligen Zeitpunkt verglichen. Anschließend kann beurteilt werden, ob die abgeleitete Bewegung und die auf dem Video zu sehende Bewegung mit den Wetterbedingungen übereinstimmen und somit einen guten Hinweis darauf geben, ob das Objekt außergewöhnlich ist oder nicht.

Bewertung des Aguadilla-UAP: In diesem Beitrag wurde der UAP-Fall untersucht, der 2013 in Aguadilla, Puerto Rico, aufgezeichnet wurde. Anhand der Metadaten im Video und der historischen Wetterdaten wird gezeigt, dass das mit der Methode in dieser Präsentation erstellte Modell die Hypothese unterstützt, dass die Bewegung des Objekts langsam und linear war. Außerdem war die lineare Bewegung so, wie sie für ein Objekt zu erwarten wäre, das mit dem Wind driftet.

Vergleich mit anderen Bewertungen: Es gibt zahlreiche andere Untersuchungen, die nach der Analyse des Aguadilla-Videos zu ähnlichen Erkenntnissen gelangen. Die erste, die bekannt wurde, war der Bericht von Ruben Lianza aus dem Jahr 2017, der nahelegte, dass es sich bei dem Objekt wahrscheinlich um eine chinesische Laterne die von einer nahegelegenen Hochzeitsfeier aus gestartet wurde. Die hier gezeigte Methode demonstriert, dass seine Hypothese mit einem detaillierten Modell des Ereignisses vereinbar ist.

Danksagungen und Referenzen

1. Quelle für Flugzeugspur und Visierkoordinaten:
https://www.abovetopsecret.com/forum/thread1081830/pg1
2. Original Aguadilla-Video auf YouTube: https://www.youtube.com/watch?v=1U2sbcMVb28
3. http://www.astronomyufo.com/UFO/SUNlite8_4.pdf
4. http://www.astronomyufo.com/UFO/SUNlite7_6.pdf
5. http://www.ogimet.com/display_metars2.php?lang=en&lugar=TJBQ&tipo=ALL&ord=REV&nil=SI&fmt=html&ano=2013&m
es=04&day=26&hora=20&anof=2013&mesf=04&dayf=26&horaf=22&minf=59&send=send

Quelle: SUNLite 14(1), Januar-Februar 2022

Hier ergänzend das original Aguadillo-Video direkt zum Anschauen:

Über uns

  ufoinfo.de ist die Informationsplattform im deutschsprachigen Raum für fundierte Informationen und frei verfügbare Publikationen zum UFO-Thema. Dabei orientieren wir uns an einem wissenschaftlich-kritischen Ansatz und werfen einen kritischen Blick auf die Thematik.

Ein UFO melden

Sie haben ein Ihnen unbekanntes Flugobjekt gesehen oder eine ungewöhnliche Beobachtung gemacht? Auf unserer Meldestellenseite informieren wir Sie darüber, welche Angaben ihrerseits hilfreich sind und geben Ihnen Empfehlungen für Meldestellen.

» UFO-Sichtung melden «