Skip to content

AKTUELLE NEWS AUS DER KI-WELT

AKTUELLE VERANSTALTUNGEN

Fondsquartett

06.03.2025 |Gelsenkirchen

11.03.2025 | Berlin

12.03.2025 | Hannover

13.03.2025 | Münster

AI LEADERS – Der Fonds

Sehr geehrte Investoren und Freunde,

Der AI Leaders konnte in den letzten 12 Monaten einen Wertzuwachs von 16,10 % (Stand: 25.02.2025) erzielen und liegt bei einem Fondsvolumen von 114 Mio.

Länder

Den größten Anteil stellen US-Aktien mit einem Anteil von 70,74 %, gefolgt von Japan mit 9,04 % dar.

Top 10

Bei den Top 10 gibt es bedingt durch die Wertentwicklung und Portfolioanpassungen immer wieder kleine Veränderungen. Hubspot, Fortinet, Keyence und John Deere haben es in den letzten Wochen in die Top 10 geschafft.

Branchen

Bei der Gewichtung der größten Branchen kam es zu deutlichen Änderungen. Das Segment Semiconductor wurde von über 17 % auf 6,77 % reduziert, während Big Data, Business Process und Healthcare leicht erhöht wurden.

Im Vergleich zu anderen KI-Aktienfonds zeigt der AI-Leaders seine Stärken mit einer geringen Volatilität und äußerst stabilem Wertzuwachs, seitdem TOPAS (seit September 2022) für das Risikomanagement eingesetzt wird.

Rendite-Risiko-Diagramm (seit September 2022)

Rendite im Zeitverlauf (seit September 2022)

Auch im Vergleich zu den bekannten Indices wie S&P 500 und MSCI World zeigt der AI-Leaders eine stabile Outperformance.

Rendite im Zeitverlauf (seit September 2022)

Bedingt durch das hohe Wachstum unser 168 Aktien und der breiten Diversifikation sehen wir die weitere Entwicklung des AI-Leaders äußerst positiv auch, wenn immer auch mit kurzfristigen Schwankungen gerechnet werden muss.

DIE NEUESTEN KI- ENTWICKLUNGEN UND TRENDS IM MÄRZ 2025

Bild: Nvidia/CMU

Nvidia-Forscher demonstrieren deutlichen Fortschritt beim Robotertraining

Ein neues KI-Framework namens ASAP ermöglicht humanoiden Robotern deutlich präzisere und menschenähnlichere Bewegungen. Die Technologie überbrückt dabei die Lücke zwischen Simulation und realer Welt deutlich besser als ältere Methoden.

Forscher des Nvidia GEAR Lab und der Carnegie Mellon University haben ein neues Framework entwickelt, das humanoiden Robotern hilft, Bewegungen aus der Simulation erfolgreich in die reale Welt zu übertragen. Das System mit dem Namen ASAP (Aligning Simulation and Real Physics) reduziert Bewegungsfehler zwischen simulierten und realen Bewegungen um bis zu 52,7 Prozent im Vergleich zu herkömmlichen Übertragungsmethoden.

Der zweistufige Ansatz trainiert die Roboter zunächst in einer Simulation und gleicht dann die Unterschiede zur realen Welt mit einem speziellen Modell aus. Dieses Modell lernt die Abweichungen zwischen simulierten und realen Bewegungen und kann sie kompensieren.

„Die Lücke zwischen Simulation und Realität ist eine der größten Herausforderungen in der Robotik“, erklärt das Forscherteam. Mit dem neuen Framework sei es erstmals möglich, komplexe Bewegungen wie Sprünge und Tritte direkt aus der Simulation auf reale Roboter zu übertragen.

Erfolgreiche Tests mit humanoidem Roboter

In Tests mit dem humanoiden Roboter Unitree G1 konnte das Team verschiedene agile Bewegungen demonstrieren, darunter Vorwärtssprünge von mehr als einem Meter. Dabei übertraf das System andere Methoden in der Bewegungsgenauigkeit deutlich.

Das Team demonstrierte seine Methode auch mit Bewegungsimitationen: Der Roboter kann die Bewegungen von Sportstars wie Cristiano Ronaldo, LeBron James und Kobe Bryant nachahmen. Laut Jim Fan, Senior Research Manager bei Nvidia und Leiter von GEAR, mussten die Videos der sogar Bewegungen verlangsamt werden, damit die Zuschauer die Bewegungen besser erkennen können.

Allerdings zeigten sich auch die Grenzen der Hardware: Während der Experimente überhitzt die Motoren häufig bei dynamischen Bewegungen. Zwei Roboter wurden während der Datenerfassung beschädigt.

Zusammenfassung

  • Forscher des Nvidia GEAR Lab und der Carnegie Mellon University haben ein neues Framework namens ASAP entwickelt, das humanoiden Robotern hilft, Bewegungen aus der Simulation erfolgreich in die reale Welt zu übertragen und dabei Bewegungsfehler um bis zu 52,7 Prozent zu reduzieren.
  • Das zweistufige System trainiert Roboter zunächst in einer Simulation und gleicht dann die Unterschiede zur realen Welt mit einem speziellen Modell aus, das die Abweichungen zwischen simulierten und realen Bewegungen lernt und kompensiert.
  • In Tests mit dem humanoiden Roboter Unitree G1 konnte das Team verschiedene agile Bewegungen wie Vorwärtssprünge und Imitationen von Sportlerbewegungen demonstrieren, stieß dabei aber auch an die Grenzen der Hardware. Der Code wurde auf GitHub veröffentlicht, um weitere Forschungen zu ermöglichen.

FIGURE AI ZEIGT ROBOTER, DER ENDLICH DEN KÜHLSCHRANK EINRÄUMEN KANN

Bild: Figure AI

Das Startup Figure hat mit Helix ein KI-System vorgestellt, das humanoiden Robotern ermöglicht, komplexe Bewegungen durch Sprachbefehle auszuführen. Das System soll ohne spezifisches Training neue Objekte handhaben können.

Das Startup Figure hat ein neues KI-System namens Helix entwickelt. Laut dem Unternehmen handelt es sich um ein Vision-Language-Action (VLA) Modell, das den Oberkörper eines humanoiden Roboters in Echtzeit steuern soll.

Das System basiert auf zwei Komponenten: Ein multimodales Sprachmodell mit 7 Milliarden Parametern verarbeitet Sprache und visuelle Informationen mit 7-9 Hz und dient als „Gehirn“. Eine zweite KI mit 80 Millionen Parametern übersetzt die vom Sprachmodell weitergegebenen Anweisungen in Roboterbewegungen mit 200 Hz.

Steuerung von 35 Bewegungsachsen

Das System soll 35 Freiheitsgrade gleichzeitig kontrollieren können – von Fingerbewegungen bis zur Kopf- und Torsosteuerung. In Demonstrationsvideos zeigt Figure, wie Roboter auf Sprachbefehle reagieren und entsprechende Objekte identifizieren und greifen.

Das System basiert auf zwei Komponenten: Ein multimodales Sprachmodell mit 7 Milliarden Parametern verarbeitet Sprache und visuelle Informationen mit 7-9 Hz und dient als „Gehirn“. Eine zweite KI mit 80 Millionen Parametern übersetzt die vom Sprachmodell weitergegebenen Anweisungen in Roboterbewegungen mit 200 Hz.

In einem weiteren Test lässt Figure zwei Roboter zusammenarbeiten, die gemeinsam Lebensmittel in einer Show-Küche etwa in einen Kühlschrank einräumen. Die Roboter hatten laut Unternehmen zuvor nicht mit den spezifischen Objekten trainiert.

Training mit begrenzten Daten

Für das Training des Systems wurden nach Unternehmensangaben 500 Stunden Daten verwendet – deutlich weniger als bei vergleichbaren Projekten. Das System läuft auf eingebetteten GPUs in den Robotern, was einen kommerziellen Einsatz technisch möglich machen soll.

Figure-CEO Brett Adcock betont, dass dieser Durchbruch grundlegend für die Skalierung von Robotern im Haushaltsbereich sei. Anders als bisherige Ansätze, die für jede neue Aufgabe neu programmiert werden müssen, konnte Helix flexibel auf neue Situationen reagieren. Wie gut das in der Praxis funktioniert, muss sich zeigen.

Figure und OpenAI

Bis vor kurzem hat Figure AI mit OpenAI bei der Entwicklung roboterspezifischer KI-Modelle zusammengearbeitet. Anfang Februar beendeten die beiden Unternehmen ihre Zusammenarbeit. Das Unternehmen hinter ChatGPT ist aber auch ein wichtiger Investor.

Figure-CEO Adcock begründete das Ende der Partnerschaft auf X damit, dass große Sprachmodelle (LLMs) zwar immer leistungsfähiger, aber auch immer mehr zur Massenware würden. Für Figure AI sind sie nur noch „der kleinste Teil des Puzzles“.

Die weitaus größere Herausforderung bestehe darin, neue KI-Modelle für die Hochgeschwindigkeitssteuerung von Robotern in der realen Welt zu entwickeln. Diese Modelle wurden von Figure AI vollständig selbst entwickelt.

Bereits im Januar war bekannt geworden, dass OpenAI nach der Schließung der Robotik-Abteilung vor einigen Jahren wieder eigene Hardware-Ingenieure für ein neues Robotik-Team sucht.

Zusammenfassung

  • igure hat das KI-System Helix vorgestellt, das humanoide Roboter in Echtzeit über Sprachbefehle steuern soll. Es besteht aus einem multimodalen Sprachmodell mit 7 Milliarden Parametern als „Gehirn“ und einer zweiten KI mit 80 Millionen Parametern zur Übersetzung der Anweisungen in Roboterbewegungen.
  • Helix soll 35 Freiheitsgrade gleichzeitig kontrollieren können, von Fingerbewegungen bis zur Kopf- und Torsosteuerung. In Demonstrationen reagieren Roboter auf Sprachbefehle, identifizieren und greifen Objekte. Zwei Roboter arbeiten in einer Show-Küche zusammen, ohne zuvor mit den spezifischen Objekten trainiert zu haben.
  • Für das Training von Helix wurden 500 Stunden Daten verwendet. Das System läuft auf eingebetteten GPUs in den Robotern. Figure-CEO Brett Adcock sieht darin einen fundamentalen Durchbruch für die Skalierung von Robotern im Haushalt, da Helix flexibel auf neue Situationen reagieren könne. Die Praxistauglichkeit muss sich noch zeigen.

Herzliche Grüße aus Stuttgart

Tilmann Speck

Christian Hintz

Gerd Schäfer