1 |
1
3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 딥러닝 기반 물체 인식 모델에 적용시켜 용접 대상물의 용접 포인트를 인식하는 단계;핸드-아이 캘리브레이션을 통해, 상기 인식된 용접 포인트를 로봇 좌표계로 변환하는 단계;상기 로봇 좌표계로 변환된 용접 포인트의 로봇 제어 오차를 추정하는 단계;상기 추정된 로봇 제어 오차를 보정하여 최종 용접 포인트 좌표를 획득하는 단계;상기 최종 용접 포인트 좌표로 용접 토치를 이동 제어하여 용접을 수행하는 단계;를 포함하는 것을 특징으로 하는,AI 기반 3D 비전 모듈을 이용하는 용접 로봇 시스템의 로봇 제어 오차 보정 방법
|
2 |
2
3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 딥러닝 기반 물체 인식 모델에 적용시켜 용접 대상물의 용접 포인트를 인식하는 단계;핸드-아이 캘리브레이션을 통해, 상기 인식된 용접 포인트를 로봇 좌표계로 변환하는 단계;상기 로봇 좌표계로 변환된 용접 포인트를 딥러닝 기반 제어 오차 추정 모델에 적용시켜 로봇 제어 오차를 추정하는 단계;상기 추정된 로봇 제어 오차를 보정하여 최종 용접 포인트 좌표를 획득하는 단계;상기 최종 용접 포인트 좌표로 용접 토치를 이동 제어하여 용접을 수행하는 단계;를 포함하며,상기 딥러닝 기반 제어 오차 추정 모델은,복수의 기준 포인트들에 대한 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와, 상기 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와 실제 용접 포인트 좌표 G(x, y, z) 사이의 제어 오차 E(x, y, z)를 학습 데이터로 입력받아 기계학습을 선행하는 것을 특징으로 하는,AI 기반 3D 비전 모듈을 이용하는 용접 로봇 시스템의 로봇 제어 오차 보정 방법
|
3 |
3
3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 딥러닝 기반 물체 인식 모델에 적용시켜 용접 대상물의 용접 포인트를 인식하는 단계;핸드-아이 캘리브레이션을 통해, 상기 인식된 용접 포인트를 로봇 좌표계로 변환하는 단계;상기 로봇 좌표계로 변환된 용접 포인트를 딥러닝 기반 제어 오차 추정 모델에 적용시켜 제1로봇 제어 오차를 추정하는 단계;3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 이용하여 용접심의 상태를 추정하고, 추정된 용접심의 상태에 따른 제2로봇 제어 오차를 추정하는 단계;상기 제1로봇 제어 오차와 상기 제2로봇 제어 오차를 보정하여 최종 용접 포인트 좌표를 획득하는 단계;상기 최종 용접 포인트 좌표로 용접 토치를 이동 제어하여 용접을 수행하는 단계;를 포함하며,상기 딥러닝 기반 제어 오차 추정 모델은,복수의 기준 포인트들에 대한 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와, 상기 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와 실제 용접 포인트 좌표 G(x, y, z) 사이의 제어 오차 E(x, y, z)를 학습 데이터로 입력받아 기계학습을 선행하는 것을 특징으로 하는,AI 기반 3D 비전 모듈을 이용하는 용접 로봇 시스템의 로봇 제어 오차 보정 방법
|
4 |
4
3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 딥러닝 기반 물체 인식 모델에 적용시켜 용접 대상물의 용접 포인트를 인식하는 단계;핸드-아이 캘리브레이션을 통해, 상기 인식된 용접 포인트를 로봇 좌표계로 변환하는 단계;복수의 기준 포인트들에 대한 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z), 실제 용접 포인트 좌표 G(x, y, z), 상기 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와 실제 용접 포인트 좌표 G(x, y, z) 사이의 제어 오차 E(x, y, z)로 구성되는 룩업 테이블을 이용하여 상기 로봇 좌표계로 변환된 용접 포인트에 대한 로봇 제어 오차를 선형보간법으로 추정하는 단계;상기 추정된 로봇 제어 오차를 보정하여 최종 용접 포인트 좌표를 획득하는 단계;상기 최종 용접 포인트 좌표로 용접 토치를 이동 제어하여 용접을 수행하는 단계;를 포함하는 것을 특징으로 하는,AI 기반 3D 비전 모듈을 이용하는 용접 로봇 시스템의 로봇 제어 오차 보정 방법
|
5 |
5
3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 딥러닝 기반 물체 인식 모델에 적용시켜 용접 대상물의 용접 포인트를 인식하는 단계;핸드-아이 캘리브레이션을 통해, 상기 인식된 용접 포인트를 로봇 좌표계로 변환하는 단계;복수의 기준 포인트들에 대한 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z), 실제 용접 포인트 좌표 G(x, y, z), 상기 로봇 좌표계 상의 기준 포인트 좌표 T(x, y, z)와 실제 용접 포인트 좌표 G(x, y, z) 사이의 제어 오차 E(x, y, z)로 구성되는 룩업 테이블을 이용하여 상기 로봇 좌표계로 변환된 용접 포인트에 대한 제1로봇 제어 오차를 선형보간법으로 추정하는 단계;3D 비전 모듈이 3D 비전 카메라를 통해 획득한 3D 데이터를 이용하여 용접심의 상태를 추정하고, 추정된 용접심의 상태에 따른 제2로봇 제어 오차를 추정하는 단계;상기 제1로봇 제어 오차와 상기 제2로봇 제어 오차를 보정하여 최종 용접 포인트 좌표를 획득하는 단계;상기 최종 용접 포인트 좌표로 용접 토치를 이동 제어하여 용접을 수행하는 단계;를 포함하는 것을 특징으로 하는,AI 기반 3D 비전 모듈을 이용하는 용접 로봇 시스템의 로봇 제어 오차 보정 방법
|