1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Nvidia GeForce Grafikkarten

Dieses Thema im Forum "Computer Hard- & Software" wurde erstellt von ToM, 6. Januar 2020.

  1. Was macht dich denn da so sicher, oder evtl. verstehe ich die Aussage nicht?

    Du hast ja ein paar Posts vorher 3dfx genannt.

    Also zu 3dfx-Zeiten ging der Fortschritt soooo schnell. Glaube, um die Jahrtausendwende war das echt so, dass man alle 2 Monate wieder eine völlig neue GPU benötigte, weil wieder ein völlig neues Feature herauskam, was die eigene Karte nicht unterstützte. Und dann die ersten Direct3D (DirectX-Versionen erst). Mit jedem 0.Xer-Sprung kam wieder was Neues für die nächste Kartengeneration.

    Hätte man mich damals gefragt, wo wir 25 Jahre später stehen: "Holodeck! Eindeutig Holodeck!"

    Verglichen mit dem Entwicklungstempo ging es später doch immer langsamer und jetzt ist halt mal'n bisserl Raytracing und DLSS als großen Wurf. Wobei letzteres auch nur Performance bringt und keinen "richtigen" Fortschritt.

    VR war mal ein Sprung auf die nächste Technologieebene. So richtig gezündet hat's ja leider noch nicht (will jetzt nicht wieder die üblichen Diskussionen anfangen). Zwar besser als die Versuche vorher, doch noch nicht DIE Ablösung des Zockens im Allgemeinen.

    Ergo: Ich glaube, technisch wird auch die nächsten Jahre nicht so viel passieren. Halt wieder ein bisschen Performance okay. Evtl. werden Spiele ja "on the fly" auf dem eigenen PC entwickelt. Man sagt nur: "Erstelle mir ein Rollenspiel, in dem ich als nekrophiler Tetrisklotz die Welt rette" und alles wird direkt dynamisch um den Spieler herumgebaut.
     
  2. Diese Einteilung in Generationen wäre mir jetzt neu. Aber wie auch immer, das Grundprinzip bleibt gleich. Es werden immer neuronale Netzwerke (so heißen die mathematischen Gebilde hinter einer KI) trainiert. Die werden nur immer größer (und damit teurer, nicht unbedingt effizienter). Und das mittlerweile KI generierte Daten als Trainingsdaten benutzt werden (müssen) sehen viele als Nachteil. Wir kennen ja alle die kleinen Schwächen und Ungereimtheiten in KI Material. Das sind keine perfekten Trainingsdaten mehr.
    Aber ja, grundsätzlich lässt sich schwer abschätzen, wo die Reise hingeht. Aber wie gesagt, in KI werden derzeit 3-stellige Mrd bis Billionenkredite innerhalb kurzer Zeitspannen reingeballert und es zeichnet sich zumindest kurzfristig überhaupt nicht ab, dass diese Investition wieder rein kommt. Ganz zu schweigen von den Umweltfolgen, die von den CEO's auch komplett ausgeklammert werden.
     
  3. Da Frage ich mich wie lange Neural-Rendering noch weg ist sprich der Ki wird simpleste Grafik mit Info gesendet was das für ein Objekt ist und die Rendert das dann in Photorealistisch. Da werden wie die Hardware wie heute überhaupt nicht mehr benötigen.
     
  4. Ja, genau da geht die Entwicklung hin. Die Fortschritte der eigentlichen Siliziumchip-Hardware, welche seit Jahrzehnten auf immer feinere Strukturen setzten konnte (je mehr Transistoren je mm², desto besser) läuft gegen technologische bis physikalische Limits. Spätestens seit RTX 4000 wird Mehrleistung (Rohleistung) nur noch durch Mehrverbrauch geholt, nicht mehr durch Effizienzsteigerung. Alles was jetzt noch als "Verbesserung" verkauft wird, beruht auf Fake-Frames und KI-Upscaling.
     
    ReVoltaire gefällt das.
  5. Also damit lässt sich kein Holodeck umsetzen! ;)
     
  6. Ja, die steile Entwicklungskurve, die mal Richtung Holodeck zeigte, ist doch recht flach geworden :rolleyes:

    Nee, aber ernsthaft, die Hardware stagniert. Eine solch lange Pause zwischen zwei Grafikkarten -Generationen (die noch bis mind. 2027 dauern wird), hat es noch nie in der Firmengeschichte von Nvidia gegeben.

    Auch dass 16GB Karten verschwinden und 8GB priorisiert werden dürfte ziemlich einmalig sein...
     
  7. Wir werden ja sehen, was in 10-20 Jahren daraus wird. :whistle:
     
  8. Angeleblich sind die Nvidia Grafikkarten für AI zu langsam. Mal ne gute Nachricht :D
     
    komisch gefällt das.
  9. War ja viel los hier gestern :D hier noch meine Gedanken:

    1. @Odyssey_Plus_Man hat absolut recht. OpenAI hat damals – unter anderem durch Investitionen von Microsoft – einfach massiv mehr Trainingsdaten auf ihre KI geworfen. Bis dahin galt die Annahme, dass „mehr Daten“ nicht der richtige Weg seien und man zwangsläufig gegen eine Wand läuft, ohne die Intelligenz weiter zu steigern. Experten glaubten, dass KIs eher komplexere Verknüpfungen benötigen, um klüger zu werden.
    OpenAI hat jedoch bewiesen, dass die „Intelligenz“ der KI linear mit der Menge der Trainingsdaten wächst. Das war der Startschuss für die gesamte Branche. Es wurde klar: Die gefürchtete Grenze ist viel weiter weg als gedacht. Da man Daten und Rechenkraft kaufen kann, begann ein Wettlauf um Investoren (das war übrigens schon zu Zeiten von GPT-3, noch vor ChatGPT, als man die KI z. B. in AI Dungeon nutzen konnte).

    Aktuell basiert ein Großteil des US-Wirtschaftswachstums auf dem Bau von Rechenzentren, um diese Investitionen umzusetzen. Daher ist es sehr wahrscheinlich, dass die USA die Unternehmen im Falle eines Platzens der Blase staatlich auffangen würden – ein Traum für Großinvestoren. Das ist ein Hauptgrund, warum die Blase immer weiter aufgepumpt wird. Auch heute wird bei neuen Versionen (wie ChatGPT) primär die Datenmenge erhöht. Der einzige aktuelle Unterschied liegt in der gezielteren Auswahl der Daten, um bestimmte Bereiche zu verbessern.

    2. Beim Strom- und Rechenverbrauch wird sich vermutlich erst dann etwas bessern, wenn die Firmen von der reinen Datenflut abrücken und wieder mehr auf effizientere, „händische“ Verknüpfungen setzen. Ob das passiert, bleibt abzuwarten.

    3. Die Situation bei Grafikkarten und RAM ist extrem ärgerlich. Es wirkt, als würde Nvidia die normalen Konsumenten mittlerweile einfach fallen lassen. Dass wir keine riesigen Leistungssprünge mehr wie früher sehen, liegt vor allem am physikalischen Limit der Verkleinerung. Die 5000er-Generation nutzt beispielsweise das gleiche Fertigungsverfahren wie die 4000er; die Mehrleistung kommt fast nur durch größere Chips zustande. Auf diese Generation haben wir 2 Jahre und 3 Monate gewartet. Sollte Nvidia diesen Rhythmus beibehalten, käme die 6000er-Generation erst im April 2027. Mit etwas Glück hat sich die Lage bis dahin beruhigt – oder die KI-Firmen setzen verstärkt auf spezialisierte Chips, die weniger mit klassischen Grafikkarten gemein haben, ähnlich wie es damals beim Bitcoin-Mining passierte.
     
    #2779 Haaalolo, 10. Februar 2026
    Zuletzt bearbeitet: 10. Februar 2026
    Odyssey_Plus_Man gefällt das.
  10. Also, Häuser zu 3D zu Drucken ist inzwischen schon in der realen Welt angekommen.
     
    komisch gefällt das.