Das Korea Advanced Institute of Science and Technology (KAIST) hat seinen neuesten Humanoiden, den v0.7, vorgestellt. Diese Entwicklung markiert einen wichtigen Schritt in der Robotik, da sie nicht nur beeindruckende Bewegungen wie den „Moonwalk“ beherrscht, sondern auch eine hohe technische Unabhängigkeit demonstriert. Der 75 kg schwere Roboter wurde im Dynamic Robot Control & Design Laboratory (DRCD Lab) unter der Leitung von Professor Hae-Won Park entwickelt, um die Grenzen der „Physischen KI“ zu erweitern.
Wichtige Erkenntnisse
- Der KAIST Humanoid v0.7 erreicht hohe Geschwindigkeiten und Agilität.
- Das DRCD Lab setzt auf technische Unabhängigkeit bei der Hardwareentwicklung.
- Spezielle Getriebe und Aktuatoren ermöglichen präzise Bewegungen.
- Tiefes Reinforcement Learning wird mit menschlichen Bewegungsdaten kombiniert.
- Südkorea verfolgt eine aggressive nationale Humanoidenstrategie.
Technische Unabhängigkeit als Kernstrategie
Unter der Führung von Professor Hae-Won Park verfolgt das DRCD Lab eine Strategie der technischen Unabhängigkeit. Das bedeutet, dass entscheidende Hardwarekomponenten wie Motoren, Getriebe und Motorsteuerungen selbst entwickelt und gefertigt werden. Dieser Ansatz unterscheidet sich von der Verwendung handelsüblicher Industriekomponenten.
Diese systemweite Optimierung ist entscheidend, um die hohen Anforderungen an Drehmomentdichte und Leistungsgewicht zu erfüllen. Nur so kann der Roboter die benötigte Agilität für Hochgeschwindigkeitsbewegungen erreichen. Dies ist ein zentraler Pfeiler der südkoreanischen Strategie, nicht nur beeindruckende Videos zu produzieren, sondern auch die notwendige Hardware für den industriellen Einsatz zu entwickeln.
Mechatronische Synthese und das 3K-Paradigma
Ein Schlüsselelement der mechanischen Leistung des v0.7 ist seine Aktuatorarchitektur. Das Labor nutzt ein Quasi-Direct Drive (QDD)-Konzept. Dabei werden Motoren mit hohem Drehmoment und niedrigen Übersetzungsverhältnissen kombiniert. Dies maximiert die Rücktreibbarkeit und die propriozeptive Empfindlichkeit des Roboters.
Faktencheck
Der D151-Aktuator im Knie des Humanoiden verwendet ein 20:1 3K-CPG-Getriebe und liefert ein Spitzendrehmoment von 320 Nm. Der D110A-Aktuator im Knöchel hat ein 8:1 Planetengetriebe und erreicht 176 Nm.
Die herausragende Innovation ist das maßgeschneiderte 3K-Compound-Planetengetriebe (CPG). Während herkömmliche Planetengetriebe oft mehrere Stufen für hohe Übersetzungen benötigen, bietet das 3K-CPG eine hohe Untersetzung in einem kompakten, einstufigen Volumen. Dies wird durch zwei Sätze von Hohlrädern mit leicht unterschiedlichen Zähnezahlen erreicht.
Intelligenz in Bewegung: DRL und menschliche Vorlagen
Die geschmeidigen Bewegungen des Roboters, wie beim Fußballspielen oder dem Moonwalk, sind das Ergebnis von tiefem Reinforcement Learning (DRL). Diese Lernmethode wird zuerst in Simulationen trainiert und dann auf die reale Hardware übertragen. Um ruckartige, unnatürliche Bewegungen zu vermeiden, die oft bei DRL ohne Vorlagen auftreten, nutzt das DRCD Lab menschliche Motion-Capture-Daten.
Diese Daten dienen als Verhaltens-„Prior“. Das Belohnungssystem des Lernprozesses honoriert sowohl Stabilität als auch die Nachahmung menschlicher Bewegungsmuster. Das Ergebnis ist eine Steuerung, die sowohl die Agilität eines gelernten Controllers als auch die natürlichen Bewegungsmuster eines biologischen Systems aufweist.
„Unser Ziel ist es, die Lücke zwischen Agilität im Labor und zuverlässiger Anwendbarkeit in der realen Welt zu schließen“, erklärt Professor Hae-Won Park.
Überwindung der Sim-to-Real-Lücke
Eine große Herausforderung in der Robotik ist die Diskrepanz zwischen Simulation und Realität. Das DRCD Lab begegnet diesem Problem durch die Modellierung des Motor Operating Region (MOR). Während des Trainings erzwingt der Simulator Drehmomentgrenzen, die auf der realen Leistungsfähigkeit der D151- und D110A-Motoren basieren. Dies verhindert, dass der RL-Agent „unmögliche“ Verhaltensweisen lernt, die die physische Hardware nicht ausführen kann.
Hintergrundinformationen
Zusätzlich verwendet das Labor Modulares Residual Learning. Dies ist ein hybrides Framework, bei dem ein nomineller modellbasierter Controller, wie Model Predictive Control (MPC), die grundlegende Fortbewegung steuert. DRL-trainierte „Residualmodule“ bieten Korrekturen für Umgebungsunsicherheiten oder Modellabweichungen.
- Modellbasiert (MPC): Physikbasierte Optimierung für vorhersehbare und sichere Bewegungen.
- End-to-End DRL: Neuronales Netzwerk für hohe Robustheit in komplexem Gelände.
- Modulares Residual Learning: Hybridansatz für hohe Effizienz und Robustheit gegenüber Parameteranpassungen.
Strategischer Kontext und der nationale Wettbewerb
Die Entwicklung des v0.7 steht im Einklang mit Südkoreas umfassender nationaler Humanoidenstrategie. Diese Strategie zielt darauf ab, akademische Forschung und industrielle Fertigung zu vereinen. Dieser „One-Team“-Ansatz umfasst die kürzlich gegründete K-Humanoid Alliance, in der KAIST und die Seoul National University mit Industriegrößen wie Hyundai und LG zusammenarbeiten.
Diese strategische Konsolidierung wird durch massive Investitionen von Hyundai angetrieben – etwa 6,7 Milliarden US-Dollar – um ein Innovationszentrum für Robotik und KI in Saemangeum aufzubauen. Während Hyundai an der Massenproduktion von Plattformen wie dem Boston Dynamics Atlas arbeitet, entwickeln Allianzen wie die M.AX Alliance und Projekte wie LGs KAPEX-Plattform gleichzeitig die „Gehirne“ für diese Maschinen.
Der Weg nach vorn: DynaFlow und industrielle Arbeit
Der v0.7 beweist seine Einsatzbereitschaft für die reale Welt durch „blinde“ Propriozeption. Er navigiert durch mit Trümmern übersätes Gelände ohne visuelle Sensoren, indem er sich auf hochpräzise Zustandsschätzung verlässt. Dies zeigt die Robustheit seiner internen Systeme.
Für die Zukunft entwickelt das DRCD Lab das DynaFlow-Framework. Dieses soll physikalisch konsistente Bewegungen aus reinen Zustandsdemonstrationen generieren. Dies würde es dem KAIST-Humanoiden ermöglichen, komplexe industrielle Aufgaben, wie das Öffnen von Türen oder die Verwendung von Werkzeugen, einfach durch Beobachtung menschlicher Arbeiter zu erlernen.
Südkorea strebt die Massenproduktion von Humanoiden bis 2029 an. Der KAIST v0.7 ist dabei ein entscheidender Prototyp. Er beweist, dass technische Unabhängigkeit im Hardwaredesign eine robuste Grundlage für die Zukunft der Physischen KI darstellt. Die Vision ist klar: Humanoiden sollen bald nicht nur beeindrucken, sondern auch aktiv in der Industrie mitarbeiten.





