Anzeige
Skip to content
Read full article about: Google Deepmind bringt Gemini-KI in Roboter des Münchner Unternehmens Agile Robots

Das Münchner Unternehmen Agile Robots und Google Deepmind haben eine strategische Forschungspartnerschaft geschlossen. Ziel ist es, die Gemini-Robotics-KI-Modelle von Google Deepmind in die Robotik-Hardware von Agile Robots zu integrieren. So sollen anpassungsfähige, intelligente Roboter primär für industrielle Umgebungen entstehen, in denen ein "akuter und wachsender Bedarf an anpassungsfähiger, verlässlicher Automatisierung besteht".

Carolina Parada, Leiterin der Robotik-Abteilung bei Google Deepmind, bezeichnete die Zusammenarbeit als "wichtigen Schritt, um die Wirkung von KI in die reale Welt zu übertragen". Daten aus dem realen Betrieb sollen die KI-Modelle laufend verbessern, die wiederum die Fähigkeiten der Roboter erweitern.

Das 2018 in München gegründete Unternehmen Agile Robots beschäftigt mehr als 2.500 Mitarbeitende und hat nach eigenen Angaben weltweit bereits über 20.000 Robotiklösungen installiert. Google Deepmind hatte zuletzt mit Gemini Robotics 1.5 und Gemini Robotics-ER 1.5 zwei neue KI-Modelle vorgestellt, die Roboter dazu befähigen sollen, komplexe Aufgaben in der physischen Welt eigenständig zu planen, zu verstehen und auszuführen.

Read full article about: KI-Institut Ai2 stellt Robotik-Modelle vor, die ohne echte Trainingsdaten funktionieren

Das KI-Forschungsinstitut Ai2 hat Robotik-Modelle vorgestellt. Sie wurden ausschließlich in Simulationen trainiert und sollen ohne zusätzliche manuell erhobene Daten oder Feinabstimmung direkt auf echten Robotern funktionieren – ein sogenannter Zero-Shot-Sim-to-Real-Transfer. Das soll die Entwicklung effizienter machen: Bei herkömmlichem Training benötigten Forscher monatelang teleoperierte reale Demonstrationen, um simulationstrainierte Roboter zuverlässig zu machen.

Die zwei neuen Open-Source-Systeme heißen MolmoSpaces und MolmoBot. MolmoSpaces umfasst über 230.000 Innenraum-Szenen, mehr als 130.000 kuratierte Objekte und über 42 Millionen physikbasierte robotische Greif-Annotationen. MolmoBot, darauf aufbauend, kann Objekte greifen und ablegen sowie Schubladen und Türen bedienen, ohne je reale Trainingsdaten für diese Aufgaben gesehen zu haben.

Laut Ranjay Krishna, Direktor des PRIOR-Teams bei Ai2, schrumpft die Lücke zwischen Simulation und Realität, wenn man die Vielfalt der simulierten Umgebungen, Objekte und Kamerabedingungen stark erhöht. Alle Modelle und Werkzeuge sind offen verfügbar, technische Details gibt es im Paper.

Read full article about: Nvidias DreamDojo ist ein Open-Source-Weltmodell für das Robotertraining

Nvidias KI-Forschungsteam hat DreamDojo vorgestellt, ein Open-Source-Weltmodell für Robotik. Es nimmt Motorsteuerungsbefehle entgegen und erzeugt daraus eine simulierte Zukunft in Bildern, ohne klassische 3D-Engine oder manuell erstellte Physik. Jim Fan, Director of AI bei NVIDIA, spricht von "Simulation 2.0".

Das Kernproblem: Roboter in der echten Welt zu trainieren, ist langsam, teuer und riskant – begrenzt durch Zeit, Verschleiß, Sicherheit und ständiges Zurücksetzen. DreamDojo soll das lösen, indem es auf 44.000 Stunden menschlicher Ego-Perspektiv-Videos vortrainiert wurde. Sogenannte "latente Aktionen" übersetzen dabei menschliche Bewegungen in ein hardwareunabhängiges Format. So kann das Modell aus menschlichen Videos lernen, ohne je einen Roboter gesehen zu haben. In einem zweiten Schritt wird es dann auf die spezifische Mechanik eines konkreten Roboters zugeschnitten.

DreamDojo läuft in Echtzeit mit zehn Bildern pro Sekunde und ermöglicht VR-Fernsteuerung in einer simulierten Umgebung, Bewertung von Roboter-Strategien und vorausschauende Planung direkt im Weltmodell. Laut Jim Fan sind alle Gewichte, Code und Daten frei verfügbar. Details gibt es auf der Projektseite und im Paper. DreamDojo basiert auf Nvidia Cosmos.

Read full article about: Arm Holdings gründet neue Geschäftseinheit für Robotik und Automotive

Arm Holdings hat sein Unternehmen neu strukturiert und eine Einheit namens "Physical AI" geschaffen, um stärker in den Robotik-Markt einzusteigen. Das britische Unternehmen, das Chip-Technologie für Smartphones und andere Geräte lizenziert, wird künftig drei Hauptgeschäftsbereiche betreiben: Cloud und AI, Edge (mobile Geräte und PCs) sowie Physical AI, das Automotive und Robotik vereint.

Drew Henry, Leiter der neuen Einheit, sagte Reuters, Physical AI könne "Arbeit grundlegend verbessern und Zeit freisetzen". Arm plant, Personal für Robotik aufzustocken. Die Zusammenlegung von Automotive und Robotik erfolgt laut Marketing-Chefin Ami Badani wegen ähnlicher Kundenanforderungen bei Stromverbrauch, Sicherheit und Zuverlässigkeit. Robotik dominierte die CES 2026 mit Dutzenden Ausstellern humanoider Roboter.

Read full article about: iRobot meldet Insolvenz an und geht an chinesischen Zulieferer

Der Saugroboter-Pionier iRobot hat Insolvenz angemeldet und plant, die Kontrolle an seinen chinesischen Hauptlieferanten Shenzhen PICEA Robotics zu übergeben. Laut Bloomberg werden die Aktien des Roomba-Herstellers im Rahmen des Insolvenzplans ihren Wert verlieren. Das Unternehmen wird von der Börse genommen, soll aber als operativer Geschäftsbetrieb erhalten bleiben.

Shenzhen PICEA hatte zuvor Schulden in Höhe von 191 Millionen Dollar von der Carlyle Group übernommen, um den Deal vorzubereiten. iRobot begründet den Schritt mit Umsatzrückgängen nach der Pandemie, Lieferkettenproblemen und günstigerer Konkurrenz. Eine geplante Übernahme durch Amazon scheiterte 2022 am Widerstand der EU-Behörden. In einer Stellungnahme versichert iRobot, dass Löhne und Lieferanten während des gerichtlichen Verfahrens weiter bezahlt werden. Das Unternehmen beziffert seine Vermögenswerte und Verbindlichkeiten auf 100 bis 500 Millionen Dollar.

Read full article about: Nvidia will das Datenproblem in der Robotik in ein Rechenproblem verwandeln

Nvidia setzt auf synthetische Daten, um die größte Hürde der Robotik zu überwinden: den Mangel an Trainingsdaten.

"Wir nennen das die große Datenlücke in der Robotik", erklärt ein Nvidia-Forscher beim Physical AI and Robotics Day auf der GTC Washington. Während große Sprachmodelle mit Billionen von Tokens aus dem Internet trainiert werden, stehen für Robotermodelle wie Nvidias GR00T bestenfalls ein paar Millionen Stunden aufwendig gesammelte Teleoperation-Daten zur Verfügung – und die meisten davon sind hochgradig aufgabenspezifisch.

Nvidias Lösung: Die Verhältnisse in der "Datenpyramide für Robotik" verschieben. An der Spitze stehen reale Daten – klein und teuer. In der Mitte synthetische Daten aus Simulation – theoretisch unbegrenzt. An der Basis: unstrukturierte Webdaten. "Wenn synthetische Daten die Web-Daten übertreffen, können Roboter wirklich generalisiert für jede Aufgabe lernen", so das Team. Mit Cosmos und Isaac Sim will Nvidia so ein Datenproblem in ein Compute-Problem verwandeln.