Hallo, da ich mir die DK2 aus kostengründen nicht gekauft habe (warte bis zus CV1) habe ich mir selbst eine Brille für mein IPhone 5 gebaut. Inspiriert von der Trinus Gyre App habe ich mir ein Programm geschrieben das wie Splashtop den Desktop (ein bestimmtes Fenster) auf mein IPhone streamt (nur schneller). Gleichzeitig werden alle Sensordaten vom IPhone per UDP an OpenTrack übertragen. Ich muss sagen, ich hätte ncith gedacht dass das Ganze so gut funktioniert. Die Auflösung vom IPhone könnte besser sein (bekomme viell. bald ein Iphone 6 Plus) aber das stört nach kurzer Zeit nicht mehr. Bisher habe ich FSX, GZ3Doom in Half Life 2 getestet. Zur 3D Darstellung verwende ich Vireio Perception. Das Ganze funktioniert allerdings nur im Fenster Modus. Fullscreen ginge theretisch auch, aber das evtl. in einer späteren Version. Bei FSX ist es etwas schwierig die Cockpitinstrumente zu lesen da kein Positional Tracking vorhanden. Dies könnet man aber evtl. über ein OpenTrack Plugin erreichen. Nun zu meiner Frage. Ich möchte gerne in HL2 das Headtracking von OpenTrack verwenden. Hat jemand Erfahrung damit, wie ich das konfugurieren muss? Vielen Dank.
Willkommen im Forum (auch wenn du bereits 4 Beiträge hast und seit dem 08.01. registriert bist ). Erstmal großes Lob für dein Tool. Ich will das haben! Gibts das auch für Android? Aktuell arbeite ich mit einem reinen Anzeigeprogramm auf Basis von Splashtop und würde gerne umgekehrt die Bewegungsdaten vom Handy an den PC übertragen. Wie hast du die Verbindung aufgebaut? Über WLAN oder kannst du ne Adhoc Verbindung zwischen Handy und PC aufbauen? Glaube das würde nochmal ordentlich Latenz einsparen. Außern hat es den Vorteil, dass ich auf ner Messe auch ohne WLAN arbeiten könnte. Meine Aktuelle Lösung ist dahingehend noch steinzeitlich. Ich sehe/höre alles was der User im DK2 sieht, drahtlos auf meinem Tablet. Würde aber in selten Fällen gerne die Steuerung übernehmen. Außerdem ist die Latenz viel zu hoch. Bei deine Problem kann ich dir leider nicht helfen.
Hallo, für Andoid gibt es ne fertige Lösung die sich "Trinus Gyre" (oddsheepgames.com) nennt. Sie soll ganz gut funktionieren. Da es keine iOS Version davon gibt und ich nur iOS Geräte habe, habe ich mich hingesetzt und in c# (PC) und Swift(ios) ein Programm geschrieben. Der Server erzeugt von einem bestimmten Fenster einen screenshot in jpg. Dieser wird ber TCP Socket an das IPhone übertragen. Das IPhone ist hierbei nur Empfänger (um die Zeiten so kutz wie möglich zu halten. Es empfängt das Bild und stellt es in einer ImageBox dar. Gleichzeitig werden nach jedem Zyklus die Sensordaten per UDP an den PC übertragen. Das IPhone macht keinerlei Berechnungen oder sowas. Dies würde zu Verzögerungen führen. Ich habe zuerst versucht die Bilder per UDP zu übertragen, aber das führte zu Bildproblemen da ich das Bid in Packete teilen muss um es zu übertragen. Per TCP ist das einfacher. Ich übertrage zuerts die Bildgröße (8 Bytes) und dann das Bild. Mittlerweile habe ich schon eine Version erstellt in dem man so eine Art 3d Simulation machen kann. Es spiegelt einfach das aufgenommene Bild zweimal (also links und rechts). Dies kann man für Apps nutzen die kein Side By Side unterstützen. Ich stehe mit meinem Programm auch erst am Anfang. Es ist noch nichts was man veröffentlichen könnte. Dazu muss ich speziell die Oberfläche noch besser machen. Gruß
für alle die dies Thema noch interessiert gibt es bei ROADTOVR einen guten Beitrag. DIY Guide: Build a Smartphone VR Headset That Plays Oculus Rift Games and More for $20 (iOS or Android)