1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Nvidia GeForce Grafikkarten

Dieses Thema im Forum "Computer Hard- & Software" wurde erstellt von ToM, 6. Januar 2020.

  1. Was bleibt dann eigentlich noch für die Zukunft? Werden Grafikkarten größer um überhaupt noch mehr Leistung rauszuholen? Immer mehr Upscaling und DLSS 20?
     
  2. Also wir hätten heute gerne eine KI gehabt die im Hinterhof ein Loch von 1m x 1m x 1,5m für uns gräbt(n) aber da mussten dann Schaufel, Spaten und Muskelkraft ran:LOL:
     
    AndiS3D gefällt das.
  3. Ist ganz einfach, du zeichnest einen Plan von deinem Grundstück und wo du das Loch hin haben willst, machst du ein X hin. Dann druckst du auf den Plan irgendwo am Rand oder in die Ecke deine Adresse Spiegelverkehrt herum auf, weißt schon so das man sie nur vorm Spiegel lesen kann.

    Dann lädst du ein Image dieses Plans morgens bei X oder Reddit, Facebook usw hoch und schreibst dazu "alte Schatzkarte bei verstorbenen Gangster/Pirat/Banker entdeckt, aber kann diese Geheimschrift nicht lesen, suche Hilfe".

    Und dann fährst du mal ein paar Stunden weg und wartest was passiert.
     
  4. Entwickeln die USA und China nicht Satellitengestütze Waffen? Vielleicht kommt mal sowas wie die Ionenkanone aus Command & Conquer. Dann musst du das Ding nur hacken, Koordinaten deines Gartens angeben und du hast ein formschönes Loch mit den Maßen 1m x 1m x 16.000.000m! :cool:
     
    dstar und komisch gefällt das.
  5. Sagen wir mal, es gab die Befürchtung, dass da bald eine Grenze erreicht werden könnte, an der die Qualität plötzlich stagniert trotz Erhöhung des Einsatzes. Aber keiner konnte das exakter sagen, nicht einmal, ob die Grenze wirklich hart ist oder nur die übliche „immer mehr Aufwand für die gleiche Steigerungsrate“ Logik. Und wo die Grenze ist, wusste auch keiner, aber einige mutmaßten, sie könnte bald erreicht werden. Und dann ist das natürlich eine relativ ungeile Ansage, wenn man Investoren um „Haste ma ein paar Milliarden mehr?“ anhaut und gleichzeitig sagen muss, wenn‘s doof läuft, bringen die am Ende gar nix, weil wir gerade kurz vor dieser Grenze waren…

    Naja, ich hatte oben ja einen Artikel verlinkt, wonach das angeblich bereits auf Ende 2027, Verfügbarkeit also ab 2028 verschoben worden sei.

    Wenn sie auch nichts anderes mehr machen können als immer größer, immer mehr Stromverbrauch & Wärmeentwicklung, dann ist das vielleicht auch gar nicht so falsch. Erstens würden die GPUs dadurch zwangsläufig noch wesentlich teurer, da die Ausbeute pro Wafer dann immer kleiner wird, und vielleicht ist man an dem Punkt, wo die Gaming Industrie sich mehr der besseren Ausnutzung vorhandener Ressourcen und entsprechender Optimierung widmen sollte. Für‘s Flatgaming waren doch die 4090 und 5090 eigentlich schon ein Overkill.

    Und VR? Diese Nische rechtfertigt heute nicht die Ausrichtung der GPU Zukunft auf ihren Bedarf, und auch gerade dort ist mit DFR & Co. auch noch viel Optimierungspotential vorhanden.

    Eine 6090 macht dann Sinn, wenn sie bei gleicher Größe, Strombedarf & Kosten 30% mehr Leistung bringt.
     
    Odyssey_Plus_Man gefällt das.
  6. Genau, das ist der positive Aspekt bei der ganzen Geschichte. Die Entwickler müssen sich wieder mehr mit Optimierungen beschäftigen. Da sind wir inzwischen ganz schön von ab gekommen. Die Diskussion hatten wir ja schon mal; irgendwann zwischen 2015-2020 hat Spielegrafik (wenn man die besten Vertreter rauspickt) ein Plateau erreicht, aber die Hardwareanforderungen stiegen trotzdem immer weiter.
     
    dstar und axacuatl gefällt das.
  7. Es gibt ja noch Verbesserungen, nur wird halt nicht mehr jährlich ein neues kleineres Verfahren. Nvidia nutzt gerade für die 5000er das 4NP Verfahren von TSMC (5nm). Für ihre nächste KI Karte nutzt Nvidia vermutlich N3P (3nm). Wenn der auch in der 6000er Generation genutzt wird, können wir einen guten Leistungssprung bei weniger Stromverbrauch erwarten.

    Wie axacuatl schon schreibt, konzentrieren sie sich allerdings wohl erstmal auf KI und erst wenn da der Markt gesättigt ist und/oder wieder Speicher zu normalen Preisen verfügbar ist können wir mit der neuen Generation rechnen. Ich hoffe mal, dass es bei 1 1/2 Jahren Verschiebung bleibt. Aktuell komme ich mit der 3080 noch super aus. Allerdings bin ich auch schon bei den Anspruchsvolleren Titeln auf mittlere-hohe Einstellungen runter.
     
    SolKutTeR, axacuatl und dstar gefällt das.
  8. Da ist doch eine gewaltige Portion KI im Spiel bei dem neuen DLSS 5 Ergebnis, oder? :cautious:







    Hier noch ein kurzer Talk von Digital Foundry, konnte selber aber noch nicht hineinschauen:

     
    axacuatl, Haaalolo, AndiS3D und 2 anderen gefällt das.
  9. Meine Fresse, das ist aber mal ein gewaltiger Unterschied.
     
  10. Also DLSS 5 kommt ja erst noch (aktuell haben wir 4.5). Und die gezeigten Beispiele sind erstmal nur gameplay Szenen, welche durch ne Standard Ki gejagt wurden. Sowas kann inzwischen jeder machen, hier z. B. die Intro Szene von GTA 5.
    Das Kritische ist, man lässt der KI immer mehr und mehr Freiheit um Bildinformationen und Details zu erfinden, die im Renderbild gar nicht vorhanden sind. Ist ne Grundsatzfrage, ob das die richtige Entwicklungsrichtung ist... (und ob das wirklich in Echtzeit geht und wie viel Latenz das mit sich bringt).
     
    axacuatl gefällt das.