Also diese Regel gilt doch schon seit der 30iger-Serie nicht mehr. Irgendwie scheint mit einer neuen Generation die alte eher ebenfalls teurer zu werden! So ärgere ich mich schon fast, meine 3090 vor ~1,5 Jahren für 750 EUR verkauft habe. Da wäre aktuell deutlich mehr drin, wenn ich alleine ebay mal so überfliege. Positiv: Sie ging damals an einen halbwegs guten Bekannten Negativ: Sie fristet offenbar ihr Dasein als Generatorin für KI-P0rn!
Wenn wir über RAM reden, ist das jetzt auch nicht direkt NVidia‘s Schuld, sie müssen ja auch die höheren Preise zahlen. Was GPUs angeht: das Argument finde ich etwas schwierig. Es gibt zum Einen alternative Hersteller wie AMD & Intel, warum sollen sich diese Anbieter und ihre Kunden nicht bei denen bedienen? Oder wirft man NVidia ihren Erfolg vor, dass die Kunden der 5000 Generation nicht upgraden können, weil es keine besseren GPUs von anderen Anbietern gibt? Wenn NVidia jetzt einen Zyklus aussetzt, kann die Konkurrenz aufschließen, ist das nicht sogar eigentlich besser für das Gaming Ökosystem, weil es damit wieder zu mehr Konkurrenz, also zu mehr Innovationsdruck und Druck auf die Preisgestaltung führen wird? Klar, gibt vielleicht einen Dipp im Absatz für 1-2 Jahre da High-End User nichts zum Upgraden haben in der Zeit, aber das ÖkosStem wäre danach gesünder. Und wie gesagt, ich finde, der KI Hype ist eine außergewöhnliche Situation. Argumente, die bei dem Mining Hype noch berechtigt waren, gelten m.E. hier nicht ohne Weiteres. Die Bedeutung, die KI erlangen könnte, würde im Rückblick die Sorge um Arbeitsplätze bei Alternate & Co. Etwas seltsam erscheinen lassen: KI wird u.U. innerhalb von 10-20 Jahren den gesamten Arbeitsmarkt in allen Industrien umkrempeln, das Konzept des Erwerbs des Lebensunterhalts für die Masse der Bevölkerung vor große Herausforderungen stellen. Da wäre das beste Argument noch, dass man das am liebsten verbieten will, weil es Millionen Menschen arbeitslos machen dürfte. Aber die größte Innvoation der letzten 100 Jahre wegen des Heim PC Markts gedrosselt zu verlangen wirkt da etwas seltsam. Nicht falsch verstehen, ich schaue dieser Entwicklung mit sehr gemischten Gefühlen entgegen, aber es ist gerade ein Wettlauf darum, wer als Erster den Durchbruch schafft, die Welt zu verändern, da ist das Schicksal von Alternate & Co. (und auch nur für ihren High-End PC Bereich) vielleicht relativ klein dagegen.
Die sollen der KI mal Dach decken, mauern, etc. bei bringen, da fehlt´s....irgendwie kommt es mir so vor, als ob man denkt, KI wäre die eierlegende Wollmilchsau, die alles kann. *Sarkasmusmodus ON": Den Leuten, die im Büro sitzen wird geholfen und die, die richtig hart arbeiten machen das, was die KI sagt....tolle Welt.*Sarkasmusmodus OFF" Ja, wir haben NVidia groß gemacht und werden nun fallen gelassen, denn Geld regiert die Welt! (traurig aber wahr)
Ja, KI wird derzeit stark überschätzt, zumindest wenn man die (geplanten) Investitionen ins Verhältnis setzt. Die KI-Akteure treiben aber das Narrativ voran, dass KI bald alles kann (Stichwort AGI - Artificial General Intelligence, deutsch: Künstliche Allgemeine Intelligenz). Wenn man sich näher damit befasst, ist das recht eindeutig. Aber die Masse der Leute lässt sich vom Hype erfassen und davon lebt die Blase im Moment. Um nur mal paar Kernpunkte zu nennen: (1) Alles, was wir aktuell als KI bezeichnen (egal ob Text-, Bild- oder Videogenerator) basiert auf Mustererkennung. Man zeigt der KI 10.000 Katzenbilder und kombiniert das mit dem Label "Katze"; anhand von Anordnung und Farbe jeden Pixels werden Ähnlichkeiten und Muster in Form von Millionen Parametern gespeichert. Jetzt kann man der KI "Katze" sagen und sie kann dir beliebig viele, neue Katzenbilder generieren (stark vereinfacht gesagt). Das kann natürlich komplexer gestalten, indem man weitere Wörter hinzunimmt usw.; aber alles basiert auf Trainingsdaten. Die derzeitigen mathematischen Modelle könnten nie etwas völlig (schöpferisch) neues "erfinden", was über die Muster der Trainingsdaten hinaus geht. (2) Um derzeitige Modelle besser zu machen, gibts nur einen Weg: die Rechenleistung immer weiter hochskalieren. Das ist ein großes Problem, vor allem wegen des enormen Stromverbrauchs der KI Rechenzentren (aber auch wegen anderen Ressourcen). Z. B. OpenAI's Neubau in Texas ("Stargate") wird mit bis zu 5 Gigawatt ausgelegt, das ist der Stromverbrauch einer industriellen Großstadt mit ca. 4 Mio Einwohnern. Das zieht das dann permanent, 24/7. Aktuell werden massiv Gasverbrennungswerke um diese Datacenter gebaut, um das überhaupt zu ermöglichen. Das alles verursacht Kosten und Umweltschäden, die unüberschaubar sind und wo überhaupt nicht klar ist, ob die KI Modelle das "wert" sind. Aber das ist der einzige "Weg", um das über das hinaus zu kommen, was wir KI-mäßig aktuell haben. (3) Bereits die aktuelle KI ist sehr teuer (für die Betreiber), bringt aber kaum Geld. Nur ca. 5% der Leute nutzen die Bezahlversion von ChatGPT und Umfragen in versch. Unternehmen zeigen, dass die Implementierung von KI kaum zu echter Einsparung führt, weil Menschen immer wieder korrigieren und eingreifen müssen. KI ist nicht "zuverlässig" genug. Aber jedes Prozent Verbesserung muss mit enormen Ressourcen erkauft werden (siehe Punkt 2). Der erhoffte Gewinn lässt sich erst erzielen, wenn KI massiv zu Entlassungen führt (so perfide das klingt). Aber aktuell kommt KI nicht über den Status eines Hilfsmittels /Unterhaltungsmedium hinaus.
Wenn das kommt, was sich viele von KI versprechen, dann wird den Handwerkern geholfen. Das werden dann nämlich diejenigen sein, die noch einen Job haben!
Beruht dieses nicht allerdings lediglich auf der ersten Version? Ich meine, wir wären bereits in der sechsten oder siebten, wo bereits die KI mittlerweile von KI trainiert wird. Wirklich interessant wird es so oder so erst, wenn wir in der ~ 40. oder 50. Generation gelangen, welche mehr kann, kostengünstiger ist und weniger rechenintensiv. Und darum geht es hauptsächlich,.. wer wird der erste sein, der diesen Switch bewerkstelligt, denn dieser wird A die Welt verändern, so wie wir sie heute kennen und B von Geld so zugeschi**en werden, dass er nicht mehr weiß, wohin mit den ganzen Komatas auf dem Paycheck. Was ich z.B. derzeit interessant finde, ist z.B. OpenClaw, was in nur wenigen Tagen von nur einer Person bewerkstelligt wurde. Die Zukunft wird jedenfalls interessant,... solange das Gaming nicht in die Cloud ausgelagert wird. Ich sehe es auch teils wie der gute @axacuatl, bei der ganzen KI-Geschichte geht es nicht um jetzt oder heute, da geht es darum, was ist morgen. Das Ganze ist stark daran gekoppelt, welch eine Weitsicht man besitzt und wo die Reise hingehen könnte/wird. Vor zehn Jahren wurde uns auch am laufenden Band erzählt, dass VR tot ist und niemand es braucht, aber wie sieht es nach zehn Jahren aus und viel wichtiger in 20 oder 30 Jahren? Ich finde die derzeitige Entwicklung auch etwas besorgniserregend, aber ich mache mich nicht fertig und bleibe erstmal optimistisch. Aber gut mit meiner 4090 bin ich auch noch gut bedient. Dann kommen die gewünschten GPUs halt später oder vielleicht sogar von einem anderen Anbieter, kann sich noch einer an 3DFX erinnern?
Mal ganz Optimistisch betrachtet: So schlimm die KI Dekade (RAM/GPU) auch ist, am Ende des Tages werden auch wir Gamer davon profitieren. Die nächsten GPU/RAM Modelle werden Leistung bringen, die wir uns heute noch nicht vorstellen können.