Entwicklerkonferenz Chip-Gigant Nvidia will humanoide Roboter pushen

Quelle: dpa 3 min Lesedauer

Anbieter zum Thema

Nvidia-Chef Jensen Huang stellte auf der Entwicklerkonferenz GTC unter dem Namen „Isaac Groot“eine Plattform vor, die die Entwicklung humanoider Roboter beschleunigen soll.

Mit seinen Computer-Chips eroberte Nvidia die Welt der künstlichen Intelligenz. Jetzt offenbarte der Nvidia-Chef Jensen Huang, was man in Zukunft alles angehen will. (Bild:  Nvidia)
Mit seinen Computer-Chips eroberte Nvidia die Welt der künstlichen Intelligenz. Jetzt offenbarte der Nvidia-Chef Jensen Huang, was man in Zukunft alles angehen will.
(Bild: Nvidia)

Der Chipkonzern Nvidia will seine Dominanz in puncto Technik für künstliche Intelligenz (KI) in Rechenzentren mit Robotern nun auch in die reale Welt übertragen. An der Initiative „Isaac Groot“ sind außerdem der Unterhaltungsriese Disney und die KI-Experten von Deepmind beteiligt, wie die dpa erfahren hat. Roboter, so glaubt Nvidia, werden eine sehr, sehr große Industrie schaffen. Allein schon deshalb, weil auf dem Arbeitsmarkt zum Ende dieses Jahrzehnts mindestens 15 Millionen Beschäftigte für einige Tätigkeiten fehlen würden. Alles an Technik, was sich bewegt, meint Huang, wird schließlich autonom agieren. Roboter bräuchten dazu aber gewaltige Mengen an Daten – etwa zum Anlernen und um die Umwelt zu verstehen. Nvidia will dafür nun alle Aspekte abdecken. Dazu gehören das Training und Testen der KI-Software sowie der Einsatz in der echten Welt.

Die Fertigung der Zukunft braucht zwei Fabriktypen

Chips von Nvidia wurden nicht zuletzt zum Schlüsselfaktor für die künstliche Intelligenz. Zunächst wurden die Systeme rund um die Welt vor allem für das Training von Anwendungen mit KI verwendet. Und Tech-Riesen wie Google oder der Facebook-Konzern Meta füllten ganze Rechenzentren damit. Aber auch KI-Start-ups wie die „ChatGPT“-Erfinder von „OpenAI“ setzen bekanntlich darauf. Diese Position trieb das Geschäft von Nvidia in den vergangenen Jahren explosionsartig an. Die GTC ist übrigens das jährliche Event von Nvidia, bei dem der Konzern traditionell einen Ausblick auf die Zukunft gewährt. Huang wurde auch diesmal wieder wie ein Rockstar gefeiert. Er sprach etwa von Rechenzentren als KI-Fabriken, in denen die Computerleistung für KI steckt. Jede Branche, die etwas herstellt, wird seiner Ansicht nach künftig zwei Fabriken haben: Eine werde wie bisher die physischen Produkte fertigen. Die zweite stellt dafür die Software bereit. In seiner üblichen Lederjacke schoss er vor Beginn seines mehr als zweistündigen Vortrags T-Shirts ins Publikum. Er verzichtete, wie es heißt, mit voller Absicht auf einen Teleprompter.

Das hat Nvidia für die nächste Zeit noch alles in Planung:

  • Neue Chipsysteme: Dem schnell wachsenden Bedarf an Rechenleistung für KI will Nvidia mit der nächsten Generation seiner KI-Computer begegnen. Sie heißt Vera Rubin und soll im Herbst 2026 auf den Markt kommen. Rubin und die für dieses Jahr angekündigte Weiterentwicklung der aktuellen Plattform Blackwell sollen die Kosten für den Betrieb von KI-Software im Vergleich zu bisheriger Technik drastisch senken;
  • KI-Computer für den Desktop: Mit DGX Spark und DGX Station will Nvidia Entwicklern KI und Forschern lokal mehr Rechenleistung bieten. Auch sie arbeiten mit Blackwell-KI-Chips;
  • Roboterautos: Bei der Entwicklung des autonomen Fahrens gewann Nvidia den US-Autoriesen General Motors als Kunden für Computersysteme und Software;
  • Digitale Zwillinge: Nvidia setzt darauf, Roboter, selbstfahrende Autos und andere KI-Systeme mithilfe von Simulationen zu trainieren. Das erlaube den Entwicklern, schnell unzählige Situationen durchzuspielen. Unter dem Namen Cosmos bietet man dazu eine Software an, die reale Umgebungen in fotorealistischen Videos simuliert.

Sind die Nvidia-Prognosen zu weit gegriffen?

Huang versuchte zugleich, unterschwellige Sorgen von Investoren zu zerstreuen, dass die Welt mit weniger KI-Rechenleistung auskommen könnte und damit auch die Erwartungen an das zukünftige Geschäft von Nvidia zu hoch sein könnten. Die Welt geht seiner Meinung nach dazu über, Antworten mithilfe der KI ganz frisch zu generieren, statt gespeicherte Antworten abzurufen. Insbesondere die neuen KI-Modelle, die zur Problemlösung Schritt für Schritt eine Argumentationskette aufbauen können, lechzen nach Leistung, heißt es weiter. Als Beispiel demonstrierte Huang, wie das chinesische Modell Deepseek R1 rund 150 Mal mehr Rechenleistung als eine traditionelle KI-Software braucht, um die Sitzordnung bei einer Hochzeit (ausgehend aus Traditionen und dem Verhältnis einzelner Familienmitglieder) zu berechnen. Das übliche Modell scheiterte zugleich an der Aufgabe. Insgesamt braucht man heute locker 100 Mal mehr Rechenkapazität als noch vor einem Jahr vermutet, merkte Huang an. Dass er Deepseek zur Demonstration aussuchte, dürfte kein Zufall gewesen sein. Denn R1 soll mit deutlich weniger Rechenaufwand trainiert worden sein als bisherige KI-Modelle. Das hatte vor einigen Wochen einen Kurssturz der Nvidia-Aktie ausgelöst. Huang warf jedoch ein, dass der eigentliche Bedarf an Rechenleistung nicht beim Training, sondern bei der Erzeugung der Antworten entstehen wird. Die Anleger überzeugte das wohl nicht so recht, denn die Nvidia-Aktie schloss mit einem Minus von 3,43 Prozent ab. Sie verlor im nachbörslichen US-Handel damit weitere 0,55 Prozent.

(ID:50358991)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung