Bauteilunabhängiges Pick and Place mit KI-Roboterarm
Bauteilunabhängiges Pick and Place mit KI-Roboterarm
In der modernen Fertigung werden Produktionsschritte zunehmend automatisiert, wobei Roboter häufig an Förderbändern und Montageanlagen eingesetzt werden. Diese Roboter sind jedoch oft auf bestimmte Bauteile ausgelegt und daher wenig flexibel. Um dieses Problem zu lösen, soll mit Hilfe künstlicher Intelligenz ein universelles Modell für das Greifen von Bauteilen entwickelt werden, das eine flexible Handhabung ermöglicht. Dieses Modell wird in einem Roboterarm als Demonstrator implementiert, der mit Hilfe verschiedener Endeffektoren, wie einem Balgsauger und einem Parallelgreifer, verschiedene Objekte greifen kann. Für die Objekterkennung wird ein KI-Modell mit synthetischen Bildern trainiert, um die Objekte anhand ihrer Eigenschaften zu klassifizieren: Objekte mit großen Flächen werden mit dem Sauger und solche mit kleineren Flächen und parallelen Kanten mit dem Parallelgreifer gegriffen. Dazu wird das KI-Modell Mask R-CNN verwendet, das speziell für die Instanzsegmentierung entwickelt wurde und präzise Masken für erkannte Objekte erstellt, um die Merkmale der Objekte hervorzuheben und die Klassifizierung zu verbessern. Die Masken werden auch für eine Hauptkomponentenanalyse genutzt, um die Orientierung der Objekte für das Greifen mit dem Parallelgreifer zu bestimmen. Die Ergebnisse zeigen, dass das trainierte KI-Modell basierend auf dem entwickelten Konzept, Objekte zuverlässig erkennen und klassifizieren kann, um sie mit den passenden Endeffektoren zu greifen. Der Roboter ist in der Lage, optimale Angriffspunkte zu identifizieren und die Objekte mit Hilfe des Saugers anzuheben. Die Hauptkomponentenanalyse erweist sich als sehr effizient zur Bestimmung der Objektorientierung im Raum, jedoch besteht bei komplexeren Modellen noch Optimierungsbedarf.
In modern manufacturing, production steps are increasingly automated, with robots often used on conveyor belts and assembly lines. The main problem of these robots is the component-specific gripping. Therefore, a universal model for gripping components is to be developed using artificial intelligence to allow a component-independent gripping. This model will be implemented in a robotic arm as a demonstrator that can grip various objects using different end effectors like a bellow suction lifter and a parallel gripper. To detect the objects, the AI-model will be trained with synthetically generated images. The objects will be classified based on their features: objects with a big area will be gripped by the bellow suction lifter, and objects with a smaller area but parallel edges will be gripped by the parallel gripper. For the object detection, the AI-model Mask R-CNN will be used. This model has the advantage that it generates accurate masks for every generated object to highlight their features and to improve the classification. These masks will also be used for a principal component analysis to estimate the pose for the parallel gripper. The results show that the trained AI-model, based on the developed concept, can recognize and classify objects to touch them with the appropriate end effectors. The robot can find the right touching points for lifting the objects with the bellow suction lifter. The principal component analysis is efficient in estimating the pose but has problems with complex models, so that the model can still be optimized.

