Die Humanoiden von Figure AI haben einen beeindruckenden Meilenstein erreicht: Ein ungeschnittener Live-Stream zeigte die Roboter über 64 Stunden lang in ununterbrochenem, autonomen Betrieb. Sie sortierten dabei mehr als 80.000 Pakete mit einer konstanten Geschwindigkeit von etwa 2,9 Sekunden pro Artikel.
Wichtige Erkenntnisse
- Figure AI-Roboter arbeiteten über 64 Stunden autonom und sortierten 80.000 Pakete.
- CEO Brett Adcock dementierte Teleoperations-Gerüchte, erklärte Kopfbewegungen als Teil der Steuerung.
- Figure verlagert seine Produktion aus China, um bis zum nächsten Quartal unabhängig zu sein.
- Die Architektur für Figure 4 ist finalisiert und optimiert für Datenerfassung und präzise Hände.
- Neue Nvidia Blackwell B200 GPUs unterstützen das Training größerer KI-Modelle für verallgemeinerte Autonomie.
Ein Transparenz-Experiment übertrifft Erwartungen
Das Live-Streaming-Experiment von Figure AI begann als Reaktion auf eine Herausforderung und hat die ursprünglichen Erwartungen weit übertroffen. Ursprünglich für eine 8-Stunden-Schicht geplant, lief die Übertragung nun über 64 Stunden. Dies zeigt die Ausdauer und Effizienz der Figure 03 Humanoiden.
Die Roboterflotte, bestehend aus Bob, Frank, Gary, Rose und Jim, arbeitete unermüdlich. Sie verarbeitete über 80.000 Pakete, was einer beeindruckenden Rate von etwa 2,9 Sekunden pro Paket entspricht. Diese Leistung unterstreicht die Fortschritte in der autonomen Robotik.
Faktencheck
- 80.000 Pakete: Die Roboter sortierten in über 64 Stunden mehr als 80.000 Pakete.
- 2,9 Sekunden: Die durchschnittliche Bearbeitungszeit pro Paket betrug nur 2,9 Sekunden.
- 5 Humanoiden: Eine Flotte von fünf Robotern, darunter Bob und Rose, war im Einsatz.
Kopfbewegungen: Keine Teleoperation, sondern Design
Während des Livestreams äußerten Beobachter Bedenken wegen häufiger Kopfbewegungen der Humanoiden. Dies wurde von einigen als Hinweis auf menschliche Fernsteuerung, sogenannte Teleoperation, interpretiert. Brett Adcock, CEO von Figure AI, trat diesen Spekulationen entgegen.
„Es gibt absolut keine Teleoperation“, erklärte Adcock in einem Interview mit Bloomberg Technology. Er stellte klar, dass die Kopfbewegungen ein natürliches Ergebnis des Helix-02 Ganzkörper-Controllers sind. Wenn ein Roboter sich nach links dreht, um ein Paket zu greifen, hebt der Controller automatisch den linken Arm an und aus dem Weg. Dies ist eine mechanische Reaktion, die den Weg freimacht.
Das gesamte System läuft auf Helix-02, einem von Figure entwickelten End-to-End-Vision-Language-Action-Neuronalen Netzwerk. Helix-02 arbeitet vollständig lokal. Es berechnet Motordrehmomente direkt aus Rohkamerabildern über einen eingebauten Computer im Torso des Roboters. Da die Inferenz direkt am Gerät erfolgt, benötigt das System keine Netzwerkverbindung für Aktionen, was Latenzzeiten und Konnektivitätsrisiken eliminiert. Adcock betonte, dass es während des mehrtägigen Betriebs keine mechanischen Roboterausfälle gab.
Flottenmanagement und kabelloses Laden
Um einen kontinuierlichen Logistikbetrieb aufrechtzuerhalten, setzt Figure AI auf ein ausgeklügeltes Rotationssystem. Jeder Figure 03 Humanoide hat eine Batterielaufzeit von etwa vier Stunden. Wenn der Ladezustand niedrig ist, signalisiert der Roboter autonom einem inaktiven Flottenmitglied, seinen Platz einzunehmen.
Hintergrund: Kontinuierlicher Betrieb
Die Fähigkeit, Roboter ohne Unterbrechung arbeiten zu lassen, ist entscheidend für den Einsatz in Logistikzentren und Fabriken. Die effiziente Batteriewechselstrategie von Figure AI minimiert Ausfallzeiten und maximiert die Produktivität.
Der neue Roboter fährt dann an das Förderband, während die entladene Einheit zu einer kabellosen induktiven Ladestation zurückfährt, die in ihre Füße integriert ist. Dieser Wechsel dauert weniger als 30 Sekunden. So wird sichergestellt, dass das Fördersystem minimale Ausfallzeiten hat. Sollte ein Roboter auf ein tieferes Hardware- oder Softwareproblem stoßen, fährt er automatisch in einen speziellen Wartungsbereich und fordert einen Ersatz aus der umfangreichen Figure-Flotte an.
Unabhängigkeit in der Lieferkette und Produktion
Im Gegensatz zu einigen Wettbewerbern, die sich auf kommerzielle Einsätze bei Kunden konzentrieren, legt Figure einen starken Fokus auf den Ausbau seiner Infrastruktur. Im eigenen „BotQ“-Fertigungswerk auf dem Figure-Campus produziert das Unternehmen derzeit zwischen 60 und 70 Humanoide pro Woche. Dies entspricht einer jährlichen Produktionsrate von Tausenden von Robotern.
Mit über 1 Milliarde Dollar in Barreserven verfolgt das Unternehmen eine aggressive Strategie zur Reduzierung geopolitischer Risiken. Figure hat im letzten Jahr seine Fertigungslinien aus China verlagert, um die Abhängigkeit von ausländischen Komponenten zu verringern. Adcock prognostizierte, dass Figure bis zum nächsten Quartal keine Lieferkettenexposition mehr gegenüber China haben wird. Die Produktion von kundenspezifischen Motoren, Getrieben, Sensoren und Leiterplatten wurde erfolgreich ins eigene Land verlagert oder diversifiziert.
Figure 4: Ein „iPhone 1 Moment“ für Humanoiden
Die Betriebsdaten aus dem aktuellen Paket-Sortier-Marathon fließen direkt in die Entwicklung der nächsten Figure-Generation ein. Das Unternehmen hat kürzlich die kritische Designprüfung für Figure 4 abgeschlossen. Dies ist eine grundlegende architektonische Überarbeitung, die vollständig auf Datenerfassung und die kommende Helix-3-Modellarchitektur zugeschnitten ist. Adcock beschrieb die kommende Maschine als „nicht wiederzuerkennen“ im Vergleich zu früheren Iterationen und verglich ihre Einführung mit dem „iPhone 1 Moment“ der Branche.
Ein zentraler Punkt dieses Sprungs ist die Neukonzeption der humanoiden Hand. Adcock gab zu, dass die frühe Abhängigkeit von einer über Sehnen angetriebenen Hand bei Figure 1 ein großer Ingenieurfehler war. Die neue Hand für Figure 4 enthält mehr Aktuatoren als der gesamte restliche Roboter zusammen. Mit uhrmacherischer Präzision gefertigt, überwindet sie intensive thermische, elektrische und räumliche Einschränkungen. Die Hand erreicht eine volle Bewegungsfreiheit, die der menschlichen Anatomie gleicht.
Laut Adcock sind menschliche Handkinematiken grundlegend für die Lösung verallgemeinerter KI. Begrenzte Freiheitsgrade verunreinigen Trainingsdatensätze, da der Roboter menschliche Demonstrationen nicht genau nachahmen kann. Dies betrifft komplexe Manipulationsaufgaben wie das Zusammenlegen von Socken.
Verallgemeinerung: Die nächste große Hürde
Trotz der beeindruckenden 2,9-Sekunden-Durchsatzrate im aktuellen Stream bemerken Kritiker, dass das Umdrehen von Kartons an einer einzelnen Logistiklinie nur eine begrenzte Validierung der KI darstellt. Figure AI räumt ein, dass die wahre Herausforderung für die zweibeinige Automatisierung die Verallgemeinerung ist. Dies bedeutet die Fähigkeit, einen Roboter in eine unbekannte Umgebung zu setzen – wie ein zufälliges Airbnb oder einen unbekannten Fabrikarbeitsplatz – und ihn Aufgaben erfolgreich allein auf Basis verbaler menschlicher Anweisungen erledigen zu lassen.
Um dieses Problem zu lösen, gründete Figure im letzten Sommer ein spezielles 70-köpfiges KI-Labor namens HARK. Dieses Labor hat bereits ein integriertes Echtzeit-Sprach-zu-Sprach-Sprachmodell in der aktuellen Flotte implementiert. Noch wichtiger ist die Nutzung der engen Partnerschaft mit Nvidia. Nach der kürzlichen Bereitstellung eines brandneuen Clusters von Blackwell B200 GPUs begann Figure in der letzten Woche mit einem massiven Vortraining für seine Helix-3-Architektur. Dabei wurden die Trainingsmodelle um ein Vielfaches skaliert.
Adcock gibt zu, dass die allgemeine Robotik weiterhin stark datenbeschränkt ist. Das Unternehmen baut jedoch eine architektonische Pipeline auf, bei der ein Durchbruch bei einer Aufgabe die gesamte Flotte über Over-the-Air-Updates kollektiv verbessert. Diese visuelle Koordination wurde in einer kürzlichen Demonstration des Bettenmachens hervorgehoben. Zwei Roboter regelten die Spannung vollständig durch visuelle Hinweise und Kopfnicken, ohne explizite drahtlose Nachrichten. Während der Zeitplan für eine echte verallgemeinerte Autonomie noch flexibel ist, will Figure die ersten grundlegenden Bausteine dieser Fähigkeit noch in diesem Jahr demonstrieren. Eine breitere kommerzielle Einführung ist für die nächsten ein bis drei Jahre geplant.





