Point cloud based determination of the most suitable robot grasp position for batch size 1 part handling
Point cloud based determination of the most suitable robot grasp position for batch size 1 part handling
In batch-size-one part handling scenarios, robotic grasping of diverse and previously unseen objects remains a considerable challenge. This task requires robots not only to perceive and identify objects in unstructured environments autonomously but also to infer the grasp configurations that are optimally adapted to the geometric characteristics of both the target object and the specific end effector. To address this problem, the present work proposes a modular and extensible framework for optimal grasp point estimation based on 3D point cloud input and predefined gripper configurations.
The system is designed for vision-guided robotic manipulation and aims to detect, evaluate, and compare feasible grasp candidates across multiple gripper types to determine the most suitable grasp configuration. The framework supports gripper-specific grasping strategies and introduces a unified Grasp Suitability Score GSS that enables consistent evaluation and direct cross-gripper comparability.
In its current implementation, the method focuses on parallel grippers. It reduces the 3D grasp evaluation problem to 2D contour-based analysis through plane segmentation and PCA-based projection of object point clouds. Candidate test points are generated via grid sampling within the 2D contour of the projected point cloud and are subsequently filtered based on collision constraints and minimum contact area criteria. The resulting feasible grasp points are scored based on their alignment with the object's center of mass and the extent of contact surface coverage, thereby producing a ranked list of grasp configurations. The configuration with the highest GSS score is selected as the globally optimal solution.
Experimental validation was conducted based on both synthetic and real-world point clouds, including models derived from open-source grasping datasets and their corresponding 3D-printed parts. The evaluation covered several key performance dimensions: functional correctness, localization accuracy of the estimated grasp point, repeatability under identical input conditions, robustness to varying point cloud densities, and computational efficiency. Results demonstrate that the proposed method reliably identifies the most suitable grasp configuration, with localization deviations of less than 3 mm, and maintains consistent performance across various scenarios.
Furthermore, the framework exhibits extensibility toward suction-based and adaptive grippers. Future work will focus on improving plane segmentation accuracy, incorporating inner contour features, enhancing parameter adaptability, and enabling deployment in fully reconstructed real-world scenes. The complete implementation, including models, point clouds, evaluation results, and all associated executable scripts, is publicly available in an open-source repository to support reproducibility and facilitate further research.
In Batch-Size-One-Handhabungsszenarien stellt das robotische Greifen vielfältiger und zuvor unbekannter Objekte nach wie vor eine erhebliche Herausforderung dar. Diese Aufgabe erfordert von Robotersystemen nicht nur die autonome Wahrnehmung und Identifikation von Objekten in unstrukturierten Umgebungen, sondern auch die Ableitung von Greifkonfigurationen, die optimal an die geometrischen Eigenschaften sowohl des Zielobjekts als auch des eingesetzten Endeffektors angepasst sind. Zur Bewältigung dieser Herausforderung wird in der vorliegenden Arbeit ein modulares und erweiterbares Framework zur optimalen Greifpunktabschätzung auf Basis von 3D-Punktwolken und vordefinierten Greiferkonfigurationen vorgestellt.
Das System ist für visuell geführte robotische Manipulationsaufgaben konzipiert und zielt darauf ab, realisierbare Greifkandidaten für mehrere Greifertypen zu detektieren, zu bewerten und miteinander zu vergleichen, um die jeweils geeignetste Greifkonfiguration zu bestimmen. Das Framework unterstützt greiferspezifische Greifstrategien und führt einen einheitlichen Greif-Eignungswert (Grasp Suitability Score, GSS) ein, der eine konsistente Bewertung sowie eine direkte Vergleichbarkeit über unterschiedliche Greifertypen hinweg ermöglicht.
In der aktuellen Implementierung konzentriert sich die Methode auf Parallelgreifer. Dabei wird das dreidimensionale Greifbewertungsproblem durch Ebenensegmentierung und eine PCA-basierte Projektion der Objektpunktwolke auf eine zweidimensionale, konturbasierte Analyse reduziert. Potenzielle Testpunkte werden mittels Gittersampling innerhalb der zweidimensionalen Kontur der projizierten Punktwolke erzeugt und anschließend anhand von Kollisionsbedingungen sowie minimalen Kontaktflächenkriterien gefiltert. Die verbleibenden zulässigen Greifpunkte werden anhand ihrer Ausrichtung zum Massenschwerpunkt des Objekts sowie des Umfangs der Kontaktflächenabdeckung bewertet, wodurch eine priorisierte Rangliste von Greifkonfigurationen entsteht. Die Konfiguration mit dem höchsten GSS-Wert wird als global optimale Lösung ausgewählt.
Die experimentelle Validierung erfolgte sowohl auf Basis synthetischer als auch realer Punktwolken, einschließlich Modellen aus offenen Greifdatensätzen sowie den entsprechenden 3D-gedruckten Bauteilen. Die Evaluation umfasste mehrere zentrale Leistungsdimensionen, darunter die funktionale Korrektheit, die Lokalisierungsgenauigkeit der geschätzten Greifpunkte, die Wiederholgenauigkeit bei identischen Eingabedaten, die Robustheit gegenüber variierenden Punktwolkendichten sowie die Recheneffizienz. Die Ergebnisse zeigen, dass die vorgeschlagene Methode zuverlässig die geeignetste Greifkonfiguration identifiziert, mit Lokalisierungsabweichungen von unter 3 mm, und über verschiedene Szenarien hinweg eine konsistente Leistung aufweist.
Darüber hinaus zeigt das Framework ein hohes Erweiterungspotenzial in Richtung saugbasierter und adaptiver Greifer. Zukünftige Arbeiten werden sich auf die Verbesserung der Ebenensegmentierungsgenauigkeit, die Integration innerer Konturmerkmale, die Erhöhung der Parameteradaptivität sowie die Anwendung in vollständig rekonstruierten realen Szenen konzentrieren. Die vollständige Implementierung, einschließlich Modelle, Punktwolken, Evaluationsergebnisse und aller zugehörigen ausführbaren Skripte, ist in einem öffentlich zugänglichen Open-Source-Repository verfügbar, um die Reproduzierbarkeit zu gewährleisten und weiterführende Forschung zu unterstützen.

