Bring die mal nicht auf Ideen! Und ich dachte immer ich bin leicht paranoisch. (Paranoisch ist auch ein Ausdruck in der Alltagssprache. Wenn man denkt, dass ein anderer Angst hat vor etwas, das nicht existiert - oder vor etwas warnt, dessen Eintreten man für unwahrscheinlich hält, kann man das abschätzig bescheiden mit: Das ist doch absolut paranoisch.) Aber vielleicht ist das auch ein Stück weit Lebensweisheit oder Lebenserfahrung bei anderen nicht immer das Beste anzunehmen. Das ist ehrlich gesagt auch der Hauptgrund warum ich dem 3080-Braten nicht traue. Es ist zu schön um wahr zu sein. Aber ich lasse mich auch gerne mal positiv überraschen.
weiteres Gerüchtefutter, über das Notebookcheck hier berichtet: 3080 gegen 2080Ti: +39% im "Ocean Surface Simulation Test" +59% im "Vertex Connection and Merging Test"
Ich glaube du schaust nicht "weit" genug in die Vergangenheit. Die 2000er Karten waren Preis/Leistungstechnisch eine Katastrophe. Die 1070 z.B. war 12% schneller als die 980Ti kostete weniger und hatte 2gb mehr VRam. Wenn man die Karte mit dem heutigen Angebot vergleicht ist der Unterschied nicht mal so groß. Ein bisschen weniger Leistung und weniger VRam. Dafür aufgrund des hohen Preises des Vorgängers "günstiger" im Vergleich zu diesem.
Leute, die 30xx kann mit ihren Unmengen an Kernen doch viel, viel besser Minen als die Vega Monster! Also kauft, kauft! Kauft bevor die Preise explodieren! Halt Stop! War nur ein Scherz
Wie konnte ich nur so Naiv sein? Drei Slots, pfff, drei.... https://www.overclock3d.net/news/gp...90_xtreme_gpus_appear_to_be_4-slot_monsters/1
Ich muss wohl ein wenig meiner DLSS-Aussagen zurücknehmen. Das aufwändige und kostenpflichtige Trainieren durch die Nvidia-Server ist wohl nur bei DLSS 1.0 nötig, bei 2.0 haben sie es stark vereinfacht und zudem ist es kostenlos für die Entwickler. Allerdings hat Nvidia noch ein Qualitätssicherungsprogramm, so dass nicht jede DLSS-Implementierung gleich durchrutscht. Aber sie haben wohl erkannt, dass sie das stark pushen und vereinfachen müssen für mehr Erfolg. Danke an sbsce, den Dev von cyubeVR, der da im Legions-Discord ein wenig aus dem Nähkästchen geplaudert hat. Er meinte aber auch, es ist zumindest auf seiner Turing-Karte deutlich leichter von 30 auf 60 FPS durch DLSS zu kommen als von 60 auf 120. Bei VR sieht er den Vorteil primär tatsächlich für Raytracing-Anwendungen, die damit überhaupt nutzbar werden könnten. Bin gespannt wie Turing sich dann schlägt, die Tensor-Cores sollen ja sehr stark überarbeitet worden sein.
Mich würde ja interessieren, ob man dieses DLSS2 nachträglich bei alten Games ohne großen Aufwand reinpatchen kann, Sims im Allgemeinen und Elite im Besonderen. Da kann man nicht genug Schärfe haben.
Wüsste nicht, was dagegensprechen sollte. Die Entwickler müssen sich nur einen Vorteil davon versprechen, die Arbeit an sich kostet ja auch was.