1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

SculptrVR

Dieses Thema im Forum "VR Programme & Tools" wurde erstellt von Matthias, 1. Mai 2016.

  1. Marcus gefällt das.
  2. Die Jungs sind doch auch Teil des Boost VC Portfolios. Interessant wieviele mögliche Highflyer von morgen da mit drin sind (8i, realities.io,...)
     
  3. Jau, wobei mich die 8i-Demo alles andere als überzeugt.
     
  4. Bissl of topic - da sollten wir mal nen eigenen Thread eröffnen. Du musst den zu erwartenen Fortschritt antizipieren. Welche Szene(n) wird (werden) denn in der Demo gezeigt?
     
  5. Klar, den antizipiere ich grundsätzlich ein. ;) Aber da mangelt es eigentlich noch an allem: Performance, Präzision der gefilmten 3D-Modelle, Qualität der Umgebung, Umfang der Daten. Wenn das das Beste ist, was derzeit möglich ist, ist der Weg zum volumetrischen, begehebaren 3D-Film noch sehr weit. Oder der technologische Ansatz ist noch nicht der richtige. Zu sehen sind u.a. ein Boxtrainer, ein Mad-Max-Szenario, ein Kletterer...mehr oder weniger die schon bekannten Sachen.
     
  6. Es gibt über deren Webseite noch drei weitere Szenarien: Swimsuit Model 1, Long Dress und Mom and Baby.
    Die sind qualitativ ähnlich, ich fand es etwas weniger ruckelig. Alles in allem aber noch klar im Proof of Concept Stadium.

    Ich muß auch sagen, dass ich die Menge an Daten für diese Qualität auch etwas besorgniserregend finde, selbt wenn man jetzt eine schnelle Evolution erwartet.

    Ich glaube, dass hier eine technisch veränderte Vorgehensweise bei der Auswertung und weiteren Verarbeitung der Rohdaten nötig sein wird. Ich vermute, dass sie momentan die 3D Szene mehr oder weniger stumpf 50stel Sekunde für 50stel Sekunde (oder was auch immer ihre Aufnahme-FPS war) komplett berechnen und man damit pro 50stel Sekunde ein komplettes Mesh mit den Texturen abspeichert und bei der Wiedergabe der Szene abruft. Das Ziel müßte es natürlich sein, dass aus den Photos nur noch die Veränderungen in der Szene im Vergleich zu dem Frame davor ermittelt werden, und diese nur noch als Modifikationen auf das Mesh vom vorigen Frame angewandt werden. Dann müße z.B. bei einem statischen Raum mit einer Frau, die tanzt, letztlich das Mesh des Raumes komplett unverändert bleiben und nur das in Raummitte befindliche Mesh der tanzenden Person sich entsprechend ändern. Das müßte dann sowohl den Speicher- als auch den Performancebedarf der Wiedergabe Hardware deutlich beschränken, selbst wenn die Erstellung der Szene aus dem Rohmaterial (mehrere Videoaufnahmen aus verschiedenen Winkeln und vielleicht auch Tiefeninfo's durch Laser) selbst ggf. deutlich aufwändiger ist - aber das wäre ja fast egal, weil derjenige, der den Film erstellt, kann die Server zur Not halt auch 2 Wochen statt 2 Tage daran rechnen lassen. Hauptsache, das Produkt, der VR Film, läuft nachher beim Consumer in guter Qualität mit moderatem Speicherbedarf und ohne Ruckeln.

    Und in 10 Jahren wird es vielleicht schon Software geben, die für die üblichen beweglichen Elementen solcher Filme, also Menschen, Tiere, Auto's, Vegetation, Stoffe, usw. eigene Ragdoll-Physiken bereithält, und der Filmemacher braucht dann im ersten Frame einer Szene immer nur die verschiedenen Objekte klassifizieren, und die Software antizipiert deren typische Bewegungsarten und man braucht nur noch Vektordaten plus Texturveränderungen, und das Mesh wird in ausreichend korrekter Art von der Software selber verformt - etwa ein Arm, der aus gestrecktem Zustand angewinkelt wird würde dann nicht mehr 50 dedizierte Meshveränderungen pro Sekunde erzeugen, sondern nur noch die Vektor-Info, dass der Arm vom Anfangszeitpunkt dieser Bewegung bis z.B. 1 Sekunde später in einer gleichmäßigen Bewegung ausgestreckt wurde. Bei einer Ballet-Tänzerin würde man dort dann vielleicht die Modifikationen genau erfassen wollen um dabei auch die Feinheiten der Armbewegenung zu erfassen, bei mehreren Menschen, die eine Straße entlang schlendern, könnte man deren Bewegungsauflösung niedrieger ansetzen, weil es letztlich nicht wirklich relevant ist, ob einer dabei seinen Arm doch etwas anders bewegte zwischen Ausgangs- und Endpunkt dieser Bewegung.