Das auf humanoide Roboter spezialisierte Unternehmen Figure AI sieht sich mit einer Klage wegen Whistleblower-Vergeltung konfrontiert. Ein ehemaliger Leiter der Produktsicherheit behauptet, er sei entlassen worden, weil er vor schwerwiegenden Sicherheitsrisiken der Roboter gewarnt hatte. Diese Roboter seien angeblich stark genug, um einen menschlichen Schädel zu brechen.
Wichtige Erkenntnisse
- Ehemaliger Sicherheitsleiter Rob Gruendel klagt Figure AI wegen unrechtmäßiger Kündigung und Whistleblower-Vergeltung.
- Gruendel warnt vor Robotern, die Kräfte entwickeln, die einen menschlichen Schädel brechen könnten.
- Ein Vorfall mit einem Figure 02-Roboter verursachte angeblich eine 6 mm tiefe Kerbe in einer Stahltür.
- Sicherheitsmaßnahmen, darunter ein Not-Aus-System, sollen nach einer Finanzierungsrunde gestrichen worden sein.
- Figure AI bestreitet die Vorwürfe und führt "schlechte Leistung" als Kündigungsgrund an.
Schwache Sicherheitskultur?
Die Klage, eingereicht beim Northern District of California, zeichnet ein Bild, in dem die Sicherheitskultur des Startups mit dem Silicon Valley-Motto "schnell handeln und Dinge kaputt machen" kollidiert. Rob Gruendel, ein erfahrener Sicherheitsingenieur mit früherer Erfahrung bei Amazon und BMW, behauptet, seine Warnungen seien von Führungskräften als "Hindernisse, nicht als Verpflichtungen" betrachtet worden.
Das Unternehmen Figure AI, das mit 39 Milliarden US-Dollar bewertet wird und von Investoren wie Nvidia und Jeff Bezos unterstützt wird, steht im Mittelpunkt der Kontroverse. Die Vorwürfe könnten weitreichende Folgen für die gesamte Robotikbranche haben, insbesondere im Hinblick auf die Sicherheit humanoider Roboter für den Heimgebrauch.
Faktencheck
- Figure AI ist ein Startup, das humanoide Roboter entwickelt.
- Das Unternehmen wird mit 39 Milliarden US-Dollar bewertet.
- Zu den Investoren gehören Nvidia und Jeff Bezos.
- Der Vorwurf lautet auf Whistleblower-Vergeltung und ungerechtfertigte Kündigung.
Der Kühlschrank-Vorfall
Ein besonders beunruhigender Vorfall betrifft den Figure 02 (F.02) Roboter. Laut Klageschrift verursachte eine Fehlfunktion, dass der Roboter eine Stahltür eines Kühlschranks traf und eine 6 mm tiefe Kerbe in das Metall schlug. Dieser Vorfall ereignete sich angeblich, während ein Mitarbeiter in unmittelbarer Nähe stand und nur knapp einer Verletzung entging.
Nachfolgende Aufpralltests, so Gruendel, zeigten, dass der Roboter sich mit "übermenschlicher Geschwindigkeit" bewegte und Kräfte erzeugte, die "zwanzigmal höher als die Schmerzschwelle" waren. Er schätzte die Kraft auf "mehr als das Doppelte der Kraft, die notwendig ist, um einen menschlichen Schädel zu brechen".
"Der Roboter bewegte sich mit übermenschlicher Geschwindigkeit und erzeugte Kräfte, die zwanzigmal höher als die Schmerzschwelle waren." – Rob Gruendel
Als Gruendel diese Daten Ende Juli über Slack an CEO Brett Adcock übermittelte und warnte, der Roboter könne "schwere dauerhafte Verletzungen" verursachen, sei seine Nachricht ignoriert worden.
Gekürzte Sicherheitsfahrpläne
Die Klage beleuchtet auch eine heikle Frage in der Robotik-Investmentwelt: die Diskrepanz zwischen dem, was Investoren versprochen wird, und dem, was die Technik tatsächlich liefern kann. Gruendel behauptet, er habe einen umfassenden Produktsicherheitsfahrplan erstellt, der zur Entscheidung zweier großer Investoren beigetragen habe, das Unternehmen zu finanzieren.
Kurz nach Abschluss der Finanzierungsrunde sei dieser Plan jedoch vom Chefingenieur Kyle Edelberg "ausgedünnt" worden. Insbesondere wird in der Klage behauptet, dass ein Projekt zur Zertifizierung einer Not-Aus-Funktion – ein entscheidendes Sicherheitssystem für Industriemaschinen – aus Zeitgründen gestrichen wurde. Gruendel warnte Kollegen, dass das Entfernen von Sicherheitsmerkmalen, die Investoren versprochen wurden, "als betrügerisch ausgelegt werden könnte".
Hintergrund: Sicherheit in der Robotik
Die Entwicklung humanoider Roboter für den Heimgebrauch bringt neue Herausforderungen mit sich. Während Industrieroboter in kontrollierten Umgebungen eingesetzt werden, müssen Heimroboter in unstrukturierten Umgebungen sicher mit Menschen interagieren. Not-Aus-Systeme und Kollisionserkennung sind dabei essenziell.
Als Gruendel standardmäßige Risikominderungsmaßnahmen wie Sicherheitsmatten oder -barrieren vorschlug, soll ihm ein Vizepräsident gesagt haben, dass "[Adcock] uns erschießen würde, wenn wir das täten". Dies spiegele die interne Überzeugung wider, dass sichtbare Sicherheitsbeschränkungen die futuristische Anziehungskraft des Roboters beeinträchtigen könnten.
Öffentliche Vorsicht vs. interner Zeitdruck
In einem Interview mit Time gab CEO Adcock kürzlich zu, dass Sicherheit "eines der schwierigsten Probleme ist, mit denen wir konfrontiert sind", und räumte ein, dass das Unternehmen noch nicht bereit sei, Roboter "frei mit seinen Kindern herumlaufen zu lassen".
"Ich würde meinen Roboter im Moment nicht stunden- und wochenlang frei mit meinen kleinen Kindern herumlaufen lassen." – Brett Adcock, CEO Figure AI
Die Klageschrift behauptet, dass Adcocks öffentliche Äußerungen, die eine "kurzfristige" Zeitschiene für den Heimgebrauch in Aussicht stellten, internen Einschätzungen der Roboterbereitschaft widersprachen. Dies deutet auf einen möglichen Konflikt zwischen Marketingstrategie und technischer Realität hin.
Die Realität der Hardware
Die Klage beleuchtet auch eine zentrale Debatte für die Zukunft humanoider Roboter: die Physik. Figure-Roboter sind mit leistungsstarken, starren Aktuatoren gebaut, die für industrielle Leistung ausgelegt sind. Wie der Robotikexperte Dr. Scott Walter in einem Interview mit Humanoids Daily bemerkte, birgt diese Designphilosophie inhärente Risiken in unstrukturierten Umgebungen.
"Wenn sie nicht sicher sind, werden sie nicht im Haus sein", sagte Walter und kontrastierte schwere Industrieroboter mit Wettbewerbern wie 1X, deren NEO-Roboter mit einer weicheren, nachgiebigeren Anatomie entworfen wurde. "Um die 30 kg (66 lbs) sind viel besser als 70 kg (155 lbs)... selbst dann könnte sich in der falschen Situation jemand verletzen."
Gruendel, der häufig auf LinkedIn über seine Bemühungen postete, industrielle Sicherheitsstandards in den humanoiden Bereich zu bringen, behauptet, er sei am 2. September 2025 entlassen worden – nur wenige Tage nach einem "Überraschungstreffen", bei dem er die hohen Risiken gegenüber Mitarbeitern erneut betonte.
Figure AI weist Vorwürfe zurück
Figure AI hat die Anschuldigungen bestritten. In einer Erklärung gegenüber CNBC sagte ein Sprecher, Gruendel sei "wegen schlechter Leistung gekündigt worden" und seine "Behauptungen seien Unwahrheiten, die Figure vor Gericht gründlich entkräften wird."
Der Fall, Gruendel gegen Figure AI, könnte ein Präzedenzfall für die Branche werden. Er zwingt zu einer rechtlichen Prüfung, ob die "Move fast"-Kultur der Software sicher mit schwerer, autonomer Hardware koexistieren kann. Die Entwicklungen in diesem Fall werden von Technologieexperten und der Öffentlichkeit genau beobachtet, da sie Auswirkungen auf die zukünftige Gestaltung und Regulierung von Robotertechnologien haben könnten.
- Technologische Grenzen: Die Debatte um die Sicherheit von Robotern verdeutlicht die Grenzen der aktuellen Technologie, insbesondere bei der Interaktion mit Menschen.
- Regulierungsbedarf: Der Fall könnte den Druck auf Regulierungsbehörden erhöhen, strengere Sicherheitsstandards für humanoide Roboter zu entwickeln.
- Investorenvertrauen: Unsicherheiten bezüglich der Sicherheit könnten das Vertrauen von Investoren in Startups im Bereich der Robotik beeinträchtigen.





