Nvidia wird immer problematischer | c’t 3003

Nvidia fährt den Hypetrain mit Karacho, und offenbar steigt ihnen der Erfolg langsam zu Kopf. c’t 3003 hat (mindestens) drei Probleme mit dem Unternehmen.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, das ist der Vertrag, den wir bei Nvidia unterschreiben müssten, wenn wir vor Veröffentlichung von Produkten Informationen oder Testgeräte haben wollten. “Der Empfänger verwendet vertrauliche Informationen ausschließlich zugunsten von Nvidia.” Äh, what? Haben wir natürlich nicht unterschrieben. Niemand bei c’t oder bei heise.

Und dieser Vertrag ist schon schlimm genug, aber jetzt hat Nvidia für mich den Bogen wirklich überspannt und angefangen, Journalisten-Kollegen wirklich direkt vorzuschreiben, was sie wie zu testen haben und was sie sagen dürfen. In diesem Video gucken wir uns neben dem Umgang mit Medien noch zwei weitere Sachen an, die bei Nvidia ziemlich problematisch sind. Unter anderem haben die mit Linux zu tun. Ja, und ich versuche ja bei 3003 immer, nicht so wütende Mecker-Inhalte zu machen, aber hier kommen wirklich so viele Faktoren zusammen, dass das echt mal sein muss. Vor allem, weil das Ganze bei mir auch aus der Perspektive eines treuen Kunden kommt. Da direkt vor mir rödelt eine sauteure Nvidia RTX 4090, die ich damals aus Überzeugung gekauft habe. Bleibt dran.

Liebe Hackerinnen, liebe Internetsurfer, herzlich Willkommen hier bei…

Ihr habt das ja vielleicht schon mitbekommen, die Empörung im Netz ist relativ groß. Nvidia hat gerade seine aktuell kleinste und günstigste Grafikkarte RTX 5060 veröffentlicht, die kostet so rund 320 Euro. Letzte Woche ging das Ding in den Handel, ja und alle Redaktionen bzw. YouTuber, die das Ding vorab bekommen haben, mussten etliche Zugeständnisse machen, damit Nvidia ihnen den Treiber zur Verfügung stellt. Die Kollegen von GameStar haben das glücklicherweise alles richtig transparent aufgeschrieben. Und das muss man sich wirklich auf der Zunge zergehen lassen. Also die Kollegen durften nur fünf bestimmte Spiele testen und sie durften auch nur die Vergleichswerte von zwei Grafikkarten dazustellen, nämlich die von RTX 3060 und der RTX 2060. Super. Also Karten, die viereinhalb bzw. sechs Jahre alt sind. Also interessant wären ja zumindest der direkte Vorgänger RTX 4060 und vor allem ein paar leistungsstärkere Modelle gewesen, um zu sehen, ja, kaufe ich mir jetzt die günstigste oder ist das sinnvoller, mir die nächst teurere oder noch eine Stufe teurer zu kaufen? Aber nein, durfte man nicht. Und der absolute Oberhammer: Die Kollegen durften nur Benchmark-Werte mit aktiviertem DLSS4 mit Multiframe-Generation veröffentlichen. Was also bedeutet, dass die Karte von vier Frames nur einen wirklich berechnet und die anderen drei KI-generiert. Kritiker nennen die Fake Frames. Ich finde den Begriff sehr negativ, aber es sind eben keine normal berechneten Frames.

Ja und jetzt könnte man natürlich sagen, ja wieso? DLSS würde man ja zum Spielen anschalten, deshalb ist das ja sinnvoll, das auch zu testen. Ja, das stimmt in vielen Fällen, aber halt auch nicht immer. Zum Beispiel, wenn das Spiel kein DLSS unterstützt. Da gibt es einige von, auch einigermaßen aktuelle, wie zum Beispiel Star Wars Jedi Survivor. Und auch wenn die Spiele DLSS unterstützen, die KI-Generierung hat auf jeden Fall einige Nachteile, zum Beispiel, dass sie einige Dutzend Millisekunden Latenz hinzufügt, manchmal auch Unschärfen und Bildfehler zeigt. Ich will damit nicht sagen, dass DLSS4 ein schlechtes Feature ist. Nein, ist es nicht. Das ist ein praktisches Feature. Und ich selbst würde das in vielen Fällen vermutlich auch einschalten. Aber ich würde schon gerne wissen, was das für Nachteile hat und mich würde auch interessieren, wie die Leistung der Karte ohne das Feature ist. Das ist aber leider verboten, wenn man vorab die Hardware haben wollte. Ja, ganz kurz hier eingestreut, weil ich das ja sagen darf, ich habe ja nichts unterschrieben. Also laut c’t-Tests schafft die RTX 5060 in Cyberpunk 2077 in WQHD-Auflösung nur 12,9 FPS mit Ultra-RT. Ja, das sieht dann nicht mehr so beeindruckend aus wie die 128 FPS hier im GameStar-Test.

Ja, nun hat Nvidia nicht nur Vorgaben an das Testgerät der 5060 gekoppelt, sondern auch ganz allgemein den Kollegen vom YouTube-Channel GamersNexus gesagt, zumindest berichtet das Host Steve in dem Video hier, dass der Zugang von GamersNexus zu Ingenieuren und zu technischen Details gekoppelt ist, dass GamersNexus über Multiframe-Generation und DLSS berichtet. Also hier geht es um Ingenieure, die nichts mit der Software zu tun haben, sondern da geht es zum Beispiel um Kühlung. Und da sagt Nvidia, ja, wenn ihr da weiter mit denen reden wollt und weiter da Videos machen wollt, das wäre dann schon wichtig, dass ihr dann über die Themen berichtet, die wir euch hier jetzt vorschreiben. Ja, okay. Ich stelle mir das nun mal so vor, dass ich irgendwie da arbeiten würde und dann würde mein Arbeitgeber quasi den Zugang zu mir an irgendwelche Sachen koppeln, die Journalisten vorgeschrieben werden. Puh, also, ist wild.

Auf jeden Fall sind das alles keine Einzelfälle. Also in der Vergangenheit ist Nvidia immer wieder damit aufgefallen, Druck auf Journalisten und andere Inhalte-Produzenten auszuüben. Und klar sind die da jetzt nicht die einzigen. Also da gibt es durchaus auch noch andere. Und natürlich kann man jetzt auch einwenden: “Wieso? Nvidia hat doch das Recht dazu. Die sind doch nicht dazu verpflichtet, jedem Heiopei Testgeräte zu geben.” Genauso sind die Tester auch nicht verpflichtet, von Nvidia Testgeräte oder Informationen anzunehmen. Man kann die Karten ja auch einfach kaufen. Genauso machen wir das ja auch. Aber es gibt genug kleinere Kanäle oder Medien, die darauf angewiesen sind, einmal weil ein früherer Zugang natürlich meist mehr Klicks und damit auch Geld bedeutet und weil es auch einfach sauteuer ist, immer alle Grafikkarten zu kaufen oder alle Testgeräte zu kaufen.

Was ich aber viel relevanter finde: Solche im Zweifel intransparenten Praktiken verletzen das Vertrauen in die Medien. Das heißt, es leiden auch diejenigen darunter, die da gar nicht mitmachen, weil halt nicht alle mit dem Thema so transparent umgehen wie zum Beispiel GameStar hier. Das heißt, man denkt, man guckt oder liest einen neutralen Test und checkt dann irgendwann: “Hm, das ist ja gar nicht so. Das hat Nvidia denen ja alles vorgegeben.” Und dann fühlt man sich verständlicherweise hintergangen und denkt vielleicht: “Ah, diesen ganzen Medien und den ganzen YouTubern und den ganzen Content-Heinis und Influencern, man kann denen ja gar nicht mehr vertrauen.” Deshalb ist meine Meinung dazu absolutes No-Go von Nvidia. Und ich glaube auch, dass Nvidia sowas langfristig eher schadet als nützt, wenn ich mir so die Reaktionen im Netz angucke, weil die Leute da draußen auch schlauer sind, als Nvidia vielleicht denkt und hoffentlich nicht auf diese billigen Tricks reinfallen.

Und das ist auch so ein bisschen ein Medienkompetenz-Tipp von mir: Wenn ihr einen Test eines Produkts vor dem offiziellen Erscheinen des Produkts irgendwo seht, dann guckt da immer ganz besonders genau hin. Wenn ihr euch nicht sicher seid, ob da irgendwelche shady Sachen im Hintergrund gelaufen sind, wartet Tests ab, die erst nach Veröffentlichung des Produkts rausgekommen sind. Da ist dann die Wahrscheinlichkeit deutlich geringer, dass die Hersteller den Testern irgendwelche Maulkörbe aufgezwungen haben oder irgendwelche anderen komischen Sachen da gelaufen sind. Was man aber natürlich nicht verallgemeinern kann. Ich habe auch die Erfahrung gemacht, dass es Firmen gibt, die einem Produkte frühzeitig vor dem Launch zur Verfügung stellen und die keine Forderungen stellen und auch sehr gut mit Kritik umgehen können. Das gibt’s auch alles. Aber generell scheint mir das so zu sein, dass das Problem, dass Firmen immer mehr Einfluss nehmen, eher größer zu werden.

Naja, ich hatte ja am Anfang auf jeden Fall gesagt, dass Nvidia auch noch mit anderen problematischen Sachen auffällt. Deshalb hier jetzt Sache Nummer 2: Linux-Treiber. Seit vielen Jahren ist es ja eine allgemeine Linux-User-Weisheit: Willst du gute Grafik-Performance unter Linux und stabile Treiber haben, nimm keine Nvidia-Grafikkarte. Der AMD-Grafiktreiber ist seit jeher Open Source und im Linux-Kernel integriert. Also, für Linux-Laien noch mal erklärt: Man muss für AMD-Karten keine extra Treiber installieren. Die sind in Linux integriert, also im Kernel, was ja letztendlich Linux ist. Der Nvidia-Treiber dagegen ist nicht im Kernel. Nvidia hat zwar 2022 angefangen, Teile des Treibers zu öffnen, aber halt noch nicht komplett. In der Praxis bedeutet das, dass die Spieleleistung von AMD-Karten unter Windows und Linux ähnlich ist. Es gibt sogar immer mehr Fälle, wo die Frames per Second sogar besser sind unter Linux als unter Windows. Ja, ich weiß, habe ich schon vor Ewigkeiten versprochen, wir machen da auf jeden Fall nochmal ein Video dazu. Weil ich das super interessant finde.

Bei Nvidia ist es dagegen so, dass in den allermeisten Fällen die Spieleleistung unter Linux signifikant schlechter ist als unter Windows. Also mit der gleichen Karte. Ja, und das ist auch der Grund, warum PC-Gaming-Handhelds, die mit SteamOS laufen, was man meiner Meinung nach inzwischen viel lieber haben will als Windows auf Handhelds, weil ich Windows auf Handhelds katastrophal finde. Ja, diese SteamOS-Handhelds haben alle AMD-Hardware. Also allen voran das meiner Meinung nach immer noch fantastische SteamDeck. Aber SteamOS, also Linux, läuft ja inzwischen offiziell auch auf dem Lenovo Legion Go S und dem Asus ROG Ally. Ja, und die haben alle AMD-Hardware, kein Nvidia. Ob das Nvidia auf ihrem aktuellen KI-Erfolgstrip kratzt, ist eine andere Frage. Aber klar ist auf jeden Fall, dass Gaming unter Linux immer wichtiger wird und da hat Nvidia keine Chance gegen AMD zurzeit. Was doof ist, denn Konkurrenz ist gut für uns Kunden.

Und hier natürlich ganz klar: Die ersten beiden Probleme, also der Umgang mit Medien und die schlechten Linux-Treiber, das finde ich, kann man Nvidia vorwerfen. Das dritte Problem, was jetzt kommt, werfe ich Nvidia nicht vor, das kann man Nvidia auch nicht vorwerfen. Dennoch ist es ein Problem. Ja, das ist auf jeden Fall das CUDA-Monopol. CUDA ist eine Programmierschnittstelle, die Nvidia im Jahr 2007 erstmals veröffentlicht hat. Grob gesagt: CUDA macht es möglich, dass der Grafikchip, also die GPU, nicht nur Grafik berechnet wie früher, sondern auch Sachen macht, die sonst die CPU übernehmen würde. CPUs sind ja darauf spezialisiert, Sachen nacheinander abzuarbeiten. GPUs dagegen parallel. Und inzwischen haben auch CPUs mehr Kerne. Also so Mainstream-CPUs, zum Beispiel 8 Kerne. Aber das ist trotzdem viel, viel weniger als GPU-Recheneinheiten. Zum Beispiel die Nvidia-Mittelklasse-Grafikkarte RTX 5070 hat über 6000 Recheneinheiten. Die sind zwar dümmer, haben also weniger Funktionen als CPU-Kerne, aber das sind halt viele.

Und CUDA sorgt dafür, dass diese vielen Recheneinheiten tolle Dinge machen können, zum Beispiel neuronale Netze trainieren oder große Sprachmodelle laufen lassen. Also nahezu das ganze KI-Zeug im Netz, also sowas wie ChatGPT, Grok, Claude läuft primär auf Nvidia-Hardware, eben weil CUDA nur auf Nvidia-Hardware funktioniert. In Schätzungen zur aktuellen weltweiten KI-Server-Hardware liegt der Nvidia-Anteil bei 80 bis 90 Prozent. An zweiter Stelle, weit abgeschlagen, Googles eigene Tensor-Chips, das sind so 5 bis 10 Prozent. Ja, und alles andere, also auch AMD, ist quasi nicht relevant.

Also mal ganz plakativ: Die KI-Revolution läuft vor allem auf dem Rücken von CUDA, also Nvidia. Und das ist auch durchaus beeindruckend, was Nvidia da geschaffen hat. Also alleine die Idee damals, GPUs Sachen jenseits von Grafik berechnen zu lassen, das war schlau. Aber weil CUDA eben kein offener Standard ist, ist hier sowas wie ein Monopol entstanden. Und das ist auch der Hauptgrund dafür, dass sich der Wert der Nvidia-Aktie mehr als verzehnfacht hat, allein in den letzten drei Jahren.

Das ist gut für Nvidia, klar, aber das ist schlecht für alle anderen, weil es in diesem Bereich quasi keinen Wettbewerb gibt. Ja, achso, AMD hat auch sowas wie CUDA im Programm, das heißt ROCm. ROCm ist offener als CUDA, das ist ja schonmal gut, aber es wird trotzdem noch nicht von viel Software unterstützt. Ich hab es wirklich versucht; manches geht mit AMD, aber es ist permanent ein Kampf. Hier guckt mal in Pinokio, das ist ja eine Software, mit der man lokale KI-Software laufen lassen kann: Nvidia only, Nvidia only, Nvidia only. Hmm.

Also ich bin als PC-Gamer und jemand, der viel mit KI-Sachen herumexperimentiert, vermutlich der perfekte Nvidia-Kunde. Einfach weil ich mit ner Nvidia-Karte beides bekomme, gute Gaming-Performance, also zumindest unter Windows, aber auch KI-Performance, also um zum Beispiel ein großes Sprachmodell lokal laufen zu lassen oder Bilder zu generieren. Aber trotzdem lässt mich Nvidias Verhalten gerade stark daran zweifeln, ob ich der Firma weiter Geld geben will.

Am Launch-Tag der RTX 5090, der aktuell leistungsstärksten Consumer-Grafikkarte der Welt, im Januar, hab ich damals wie so ein Blöder F5 gedrückt und wollte gerne die Founders Edition bestellen, für 2329 Euro. Aber ging nicht, ich kenne ehrlich gesagt auch niemanden, der oder die so ein Ding ergattern konnte, also auch nicht später, waren einfach von Anfang an ausverkauft. Und jetzt, fünf Monate später, kosten die billigsten verfügbaren 5090er immer noch über 200 Euro mehr als die UVP. Also, dass überhaupt welche erhältlich sind, ist ein recht neues Phänomen, denn die Karte war viele Monate nahezu nicht erhältlich.

Im März, also in der Zeit, in der man wenn überhaupt nur zu absoluten Mondpreisen an eine 5090 gekommen ist, hat ein Nvidia-Sprecher noch Folgendes in einem Interview gesagt: “Also der Launch hat eigentlich alles sehr gut funktioniert. Also generell sind wir, die Verfügbarkeit ist sehr hoch.” Ich hab da wirklich davor gesessen und gedacht: Wovon spricht der Mann hier? Bin ich irgendwie in der falschen Dimension unterwegs?

Also mir scheint es wirklich, dass Nvidia schon länger auf einem sehr hohen Ross unterwegs ist, aber durch den KI-Hype und den immensen Börsenwachstum wirklich völlig die Bodenhaftung verloren hat – anders kann ich mir das Verhalten nicht mehr erklären, also vor allem diese völlig schamlosen Versuche, in Tests einzugreifen und mit Druck dafür zu sorgen, dass Medien und Content-Creator das sagen, was Nvidia im PR-Plan festgelegt hat.

Ich bin deshalb jetzt eigentlich ganz froh darüber, dass mein 5090-Kauf nicht geklappt hat; weil ich wirklich gerade wenig Lust auf Nvidia habe. Klar, ich als Journalist, der viel mit KI macht, schwierig – aber ehrlich gesagt reicht meine 4090 auch für die meisten Sachen. Und ich muss sagen, dass ich als jemand, der immer mehr mit Linux macht, ohnehin auch immer mehr zu AMD gravitiere, einfach weil die Treiber besser sind. Und wer weiß, vielleicht macht ROCm ja auch im KI-Bereich Boden gut; und vielleicht überdenkt man bei Nvidia dann mal ihr Wir-sind-eh-die-Kings-of-the-World, uns doch egal, was ihr denkt-Verhalten. Zu hoffen wäre es.

Ja, wie seht ihr das? Gerne in die Kommentare schreiben, ich lese zumindest die ersten drei Tage nach Veröffentlichung des Videos, alles was ihr da so schreibt. Ja, und gerne abonnieren natürlich. Tschüss!


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


Discover more from Apple News

Subscribe to get the latest posts sent to your email.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.