RoboPaper Atlas · chunk 451-500

Robotics Papers 451-500

상위 인용 로보틱스 논문 500개 요약 중 451-500 구간입니다. 각 논문은 13개 고정 항목을 원컬럼 vertical layout으로 보여주며, row별 rainbow accent는 항목 구분을 돕기 위해 절제된 방식으로만 적용했습니다.

50
papers in this chunk
650
summary rows
451-500
citation-rank range
13
fixed items
451
ICRA · 2019

Mini Cheetah: A Platform for Pushing the Limits of Dynamic Quadruped Control

https://doi.org/10.1109/icra.2019.8793865
Mini Cheetah는 소형 고토크 액추에이터와 저관성 다리 설계로 동적 보행 제어 연구를 반복 가능한 하드웨어 플랫폼 위에 올려놓은 논문이다.
01
배경
동적 사족보행 연구는 알고리즘뿐 아니라 충격을 견디는 경량 고성능 하드웨어가 함께 필요하다는 맥락에서 출발한다.
02
문제
논문은 실험실 규모에서 빠른 달리기와 점프, 회복 동작을 안전하게 시험할 수 있는 사족 로봇 플랫폼을 만드는 문제를 다룬다.
03
기존 한계
기존 대형 사족 로봇은 비싸고 무거우며 유지보수가 어려워 많은 제어 실험을 빠르게 반복하기에 부담이 컸다.
04
목표
목표는 고성능 동작을 견디면서도 조립과 수리가 쉬운 소형 사족 로봇을 만들어 동적 제어 연구의 실험 장벽을 낮추는 것이다.
05
방법
방법은 모듈형 다리, 고토크 밀도 구동기, 낮은 다리 관성, 충격 친화적 기구 설계를 결합한 사족 플랫폼 구현이다.
06
핵심 아이디어
핵심 아이디어는 제어 성능을 소프트웨어만의 문제가 아니라 모터, 감속기, 다리 질량, 구조 강성까지 함께 맞춘 플랫폼 설계 문제로 본 점이다.
07
검증
검증은 Mini Cheetah 실물 로봇에서 점프, 뒤집기, 고속 보행 등 동적 동작 실험을 수행하는 방식으로 이루어졌다.
08
결과
결과는 소형 플랫폼에서도 높은 기동성과 반복 실험 가능성을 보였지만 논문 초록 수준에서 모든 조건의 상세 정량 비교는 제한적이다.
09
비교
비교는 BigDog류 대형 플랫폼이나 이전 MIT Cheetah 계열보다 작고 실험 친화적인 설계라는 점에 무게를 둔다.
10
의의
의의는 사족보행 알고리즘을 고가 대형 장비가 아니라 널리 재현 가능한 연구 플랫폼에서 검증할 수 있게 했다는 데 있다.
11
한계
한계는 하드웨어 중심 논문이라 보행 지능 자체의 일반화나 험지 장기 자율성까지 직접 해결하지는 않는다는 점이다.
12
향후 과제
향후 과제는 공개 하드웨어 생태계, 더 강건한 전신 제어, 야외 장기 주행, 학습 기반 보행과의 결합이다.
13
자원 공개
자원 공개는 DOI와 MIT Biomimetic Robotics 자료, 관련 Cheetah-Software 저장소는 확인되지만 논문판 전체 CAD 공개 여부는 확인되지 않음.
452
RA-L · 2022

CALVIN: A Benchmark for Language-Conditioned Policy Learning for Long-Horizon Robot Manipulation Tasks

https://doi.org/10.48550/arxiv.2112.03227
CALVIN은 언어 지시를 긴 조작 시퀀스로 접지하는 능력을 평가하기 위해 시뮬레이션 환경, 데이터, 베이스라인을 함께 제공한 벤치마크이다.
01
배경
언어 기반 로봇 조작은 단일 명령 수행을 넘어 여러 기술을 순서대로 조합하는 장기 과제로 확장되어야 한다.
02
문제
논문은 자연어 지시, 시각 관측, 연속 제어를 결합해 긴 수평선의 테이블탑 조작을 평가하는 문제를 다룬다.
03
기존 한계
기존 비전-언어 조작 벤치마크는 작업 길이와 언어 다양성, 환경 일반화가 제한되어 장기 조합 능력을 충분히 드러내지 못했다.
04
목표
목표는 다양한 센서 설정과 미지 언어·환경 조건에서 정책의 조합적 일반화를 측정할 수 있는 공개 벤치마크를 만드는 것이다.
05
방법
방법은 PyBullet 기반 CALVIN 환경, 언어 주석이 붙은 데모 데이터, multi-context imitation learning 베이스라인, 평가 프로토콜을 제공한다.
06
핵심 아이디어
핵심 아이디어는 조작 스킬을 단일 성공률이 아니라 언어로 지정된 여러 하위 목표의 연속 성공으로 평가하는 것이다.
07
검증
검증은 시뮬레이션 조작 환경에서 기존 imitation baseline을 학습시켜 알려진 환경과 새로운 환경·지시에서 성공률을 비교한다.
08
결과
결과는 baseline이 긴 체인 과제에서 낮은 성능을 보여 CALVIN이 이미 포화된 벤치마크가 아니라는 점을 드러낸다.
09
비교
비교는 단일 작업 imitation이나 짧은 horizon VLM benchmark보다 더 긴 명령 조합과 환경 전이를 요구한다는 차별점이 있다.
10
의의
의의는 이후 VLA와 language-conditioned policy 연구가 장기 조작 성능을 비교하는 공통 시험대로 삼을 수 있는 기반을 제공한 것이다.
11
한계
한계는 시뮬레이션 중심이라 실제 로봇 접촉, 센서 노이즈, 장기 하드웨어 실패까지 직접 검증하지 않는다는 점이다.
12
향후 과제
향후 과제는 실제 로봇 전이, 더 긴 작업 그래프, 대규모 foundation model 정책, 실패 복구와 사용자 재질문을 포함한 평가이다.
13
자원 공개
자원 공개는 arXiv, GitHub, 데이터 다운로드 스크립트가 확인되어 코드와 데이터가 공개된 것으로 판단된다.
Sources Checked
453
RSS · 2018

EV-FlowNet: Self-Supervised Optical Flow Estimation for Event-based Cameras

https://doi.org/10.15607/rss.2018.xiv.062
EV-FlowNet은 이벤트 카메라의 비동기 이벤트를 영상형 표현으로 바꾸고 회색조 영상의 photometric signal로 optical flow를 자기지도 학습한 초기 딥러닝 방법이다.
01
배경
이벤트 카메라는 고속 운동과 HDR 장면에 강하지만 기존 프레임 기반 optical flow 알고리즘을 그대로 적용하기 어렵다.
02
문제
논문은 ground-truth flow 없이 이벤트 스트림만으로 dense optical flow를 예측하는 학습 기반 방법을 찾는 문제를 다룬다.
03
기존 한계
기존 이벤트 비전 방법은 수작업 모델 의존도가 높고 지도학습에 필요한 라벨 데이터가 부족했다.
04
목표
목표는 이벤트 입력을 사용하면서도 동시 취득되는 grayscale image를 학습 신호로 삼아 self-supervised flow network를 훈련하는 것이다.
05
방법
방법은 event tensor를 U-Net류 encoder-decoder에 넣고 예측 flow로 인접 영상을 warp하는 photometric loss와 smoothness loss를 사용한다.
06
핵심 아이디어
핵심 아이디어는 이벤트 카메라가 주는 sparse asynchronous measurement를 이미지 재구성 문제가 아니라 optical flow 자기지도 문제로 변환한 점이다.
07
검증
검증은 MVSEC의 indoor_flying과 outdoor_day 계열 데이터에서 optical flow 예측을 평가하는 오프라인 데이터셋 실험이다.
08
결과
결과는 이벤트만 입력해도 프레임 기반 방법과 경쟁 가능한 flow를 만들 수 있음을 보였으나 모든 장면에서 지도학습 SOTA를 압도한다는 주장은 아니다.
09
비교
비교는 이미지 기반 flow network와 이벤트 전용 hand-crafted 접근을 모두 배경으로 두며 라벨 없이 학습한다는 점이 강점이다.
10
의의
의의는 이후 이벤트 optical flow, event representation, self-supervised event perception 연구의 표준 출발점 중 하나가 되었다.
11
한계
한계는 grayscale image가 학습 supervision에 필요하고 TensorFlow 1.x·Python 2 기반 공개 코드라 현재 환경에서 재현성이 부담스러울 수 있다.
12
향후 과제
향후 과제는 순수 이벤트 supervision, recurrent temporal modeling, 최신 event dataset 일반화, 실시간 저전력 배포이다.
13
자원 공개
자원 공개는 RSS PDF, arXiv, 공식 GitHub, MVSEC 데이터 링크가 확인되며 코드 사용 가능성은 구형 의존성을 감안해야 한다.
Sources Checked
454
RA-L · 2018

Ultimate SLAM? Combining Events, Images, and IMU for Robust Visual SLAM in HDR and High-Speed Scenarios

https://doi.org/10.1109/lra.2018.2793357
Ultimate SLAM은 이벤트, 프레임 이미지, IMU를 결합해 고속·고동적범위 조건에서 visual SLAM의 취약성을 줄인 multimodal SLAM 시스템이다.
01
배경
Visual SLAM은 빠른 움직임과 HDR 조명에서 motion blur와 노출 실패 때문에 pose tracking이 쉽게 무너진다.
02
문제
논문은 표준 카메라, event camera, IMU를 함께 사용해 까다로운 시각 조건에서도 상태 추정을 유지하는 문제를 다룬다.
03
기존 한계
기존 프레임 기반 SLAM은 고속 장면에 약하고 이벤트 기반 방법은 독립적으로 쓰기에는 지도와 재초기화 정보가 부족했다.
04
목표
목표는 이벤트의 시간 해상도, 이미지의 풍부한 texture, IMU의 관성 예측을 결합한 robust visual-inertial SLAM을 제시하는 것이다.
05
방법
방법은 event feature tracking, image feature tracking, IMU preintegration, sliding-window optimization, relocalization 구성을 통합한다.
06
핵심 아이디어
핵심 아이디어는 이벤트를 보조 센서가 아니라 프레임이 실패하는 순간 pose constraint를 이어주는 주된 시각 신호로 쓰는 것이다.
07
검증
검증은 HDR 및 고속 회전·이동 조건을 포함한 event-camera dataset과 실제 센서 시퀀스에서 추정 성능을 평가한다.
08
결과
결과는 프레임-only 또는 이벤트 없는 구성보다 challenging sequence에서 tracking 유지와 정확도 면에서 강한 경향을 보인다.
09
비교
비교는 standard visual-inertial pipeline과 event-only·image-only variant를 대비해 센서 조합의 상보성을 보여준다.
10
의의
의의는 이벤트 카메라가 visual SLAM의 극한 조건을 보완할 수 있음을 시스템 수준에서 설득력 있게 보여준 점이다.
11
한계
한계는 특수 event camera와 정확한 multi-sensor calibration이 필요하며 일반 소비자 센서만으로 바로 적용하기 어렵다.
12
향후 과제
향후 과제는 더 간단한 calibration, dense event mapping, learning-based event front-end, 저전력 임베디드 구현이다.
13
자원 공개
자원 공개는 arXiv, RPG 프로젝트 페이지, uzh-rpg 공개 GitHub가 확인된다.
Sources Checked
455
ICRA · 2019

MVX-Net: Multimodal VoxelNet for 3D Object Detection

https://doi.org/10.1109/icra.2019.8794195
MVX-Net은 이미지 feature를 LiDAR voxel representation과 결합해 자율주행 3D object detection에서 camera-LiDAR fusion을 단일 stage network로 다룬다.
01
배경
자율주행 perception은 LiDAR의 3D geometry와 카메라의 dense semantic cue를 함께 활용할 때 더 강한 3D detection을 기대할 수 있다.
02
문제
논문은 point cloud 기반 VoxelNet에 이미지 정보를 어떻게 효과적으로 주입할지라는 multimodal 3D object detection 문제를 다룬다.
03
기존 한계
기존 early fusion은 센서 정합과 표현 차이 때문에 정보 손실이 있고 late fusion은 modality interaction이 약하다는 한계가 있었다.
04
목표
목표는 VoxelNet 구조 안에서 image feature와 LiDAR voxel feature를 결합해 KITTI 3D detection 성능을 높이는 것이다.
05
방법
방법은 2D CNN image feature를 3D point 또는 voxel 위치와 대응시켜 point-fusion과 voxel-fusion 변형으로 VoxelNet에 통합한다.
06
핵심 아이디어
핵심 아이디어는 raw sensor를 무작정 합치기보다 calibration을 사용해 이미지 feature를 LiDAR voxel learning 공간으로 가져오는 것이다.
07
검증
검증은 KITTI 3D object detection benchmark에서 BEV와 3D detection metric으로 수행된 오프라인 데이터셋 평가이다.
08
결과
결과는 KITTI에서 당시 multimodal 방법과 경쟁적이며 arXiv 초록 기준 다수 category에서 top-2 수준 성능을 보고했다.
09
비교
비교는 LiDAR-only VoxelNet과 기존 multimodal detector를 대상으로 하며 강한 LiDAR backbone을 fusion baseline으로 쓴 편이다.
10
의의
의의는 이후 camera-LiDAR fusion 연구가 feature-level alignment를 설계할 때 자주 참조하는 초기 구조 중 하나를 제공했다.
11
한계
한계는 KITTI 중심 평가라 복잡한 날씨·야간·센서 failure 조건에서 일반화가 충분히 검증되지 않았다.
12
향후 과제
향후 과제는 transformer fusion, uncertainty-aware calibration, long-range object와 adverse weather에서의 robust fusion이다.
13
자원 공개
자원 공개는 DOI와 arXiv는 확인되지만 논문 공식 GitHub는 확인되지 않음.
Sources Checked
456
T-RO · 2004

Nearness diagram (ND) navigation: collision avoidance in troublesome scenarios

https://doi.org/10.1109/tra.2003.820849
Nearness Diagram navigation은 복잡한 근접 장애물 상황에서 센서 공간을 구조화해 mobile robot collision avoidance를 수행한 고전적 local navigation 방법이다.
01
배경
실내 mobile robot navigation은 global path가 있어도 좁은 통로와 복잡한 장애물 주변에서 빠른 local avoidance가 필요하다.
02
문제
논문은 로봇 주변의 거리 정보를 이용해 충돌 없이 목표 쪽으로 진행하는 local reactive navigation 문제를 다룬다.
03
기존 한계
기존 potential field류 방법은 local minima와 좁은 공간 진동에 취약하고 복잡한 장애물 배치에서 행동 선택이 불안정할 수 있었다.
04
목표
목표는 troublesome scenario에서도 안전성과 진행성을 유지하는 rule-based local navigation 체계를 만드는 것이다.
05
방법
방법은 주변 거리 정보를 nearness diagram으로 나누고 상황 class에 따라 gap selection과 motion command를 결정한다.
06
핵심 아이디어
핵심 아이디어는 모든 장애물을 하나의 potential로 합치지 않고 가까움 구조를 명시적으로 분류해 상황별 회피 전략을 선택하는 것이다.
07
검증
검증은 시뮬레이션과 mobile robot 실험에서 좁은 통로, U형 장애물, 혼잡 공간 같은 회피 시나리오로 이루어진다.
08
결과
결과는 전통적 reactive method가 실패하기 쉬운 장면에서 안정적인 통과와 충돌 회피를 보여주지만 현대 벤치마크식 대규모 정량 비교는 제한적이다.
09
비교
비교는 potential field와 기존 local obstacle avoidance 계열을 배경으로 하며 학습 기반 방법과의 비교는 시대상 포함되지 않는다.
10
의의
의의는 navigation front-end에서 local geometry 해석을 명시적으로 설계하는 접근의 장점을 보여준 고전 연구라는 점이다.
11
한계
한계는 수동 규칙과 센서 품질에 의존하고 동적 사람 군중이나 semantic preference를 직접 다루지 않는다.
12
향후 과제
향후 과제는 동적 장애물 예측, social navigation constraint, learning-based policy와의 hybridization이다.
13
자원 공개
자원 공개는 DOI와 OpenAlex는 확인되지만 공개 코드나 dataset page는 확인되지 않음.
Sources Checked
457
ICRA · 2007

Single View Point Omnidirectional Camera Calibration from Planar Grids

https://doi.org/10.1109/robot.2007.364084
Mei-Rives calibration은 planar grid만으로 central omnidirectional camera를 실용적으로 보정하는 unified projection model 기반 방법이다.
01
배경
광시야 omnidirectional camera는 로봇 localization과 perception에 유용하지만 정확한 기하 보정 없이는 metric inference가 어렵다.
02
문제
논문은 parabolic, hyperbolic, fisheye, spherical 계열 single-viewpoint camera를 planar grid로 보정하는 문제를 다룬다.
03
기존 한계
기존 방법은 mirror parameter를 알아야 하거나 polynomial model이 초기화와 최적화에서 불안정해 실용성이 떨어졌다.
04
목표
목표는 일반 카메라 보정처럼 쉽게 사용할 수 있으면서 central omnidirectional sensor의 실제 오차까지 반영하는 calibration 절차를 만드는 것이다.
05
방법
방법은 unified projection model에 radial·tangential distortion과 intrinsic parameter를 더하고 grid corner 기반 초기화와 nonlinear refinement를 수행한다.
06
핵심 아이디어
핵심 아이디어는 이론적 central projection을 유지하되 실제 조립 오차를 적은 수의 해석 가능한 parameter로 보정하는 것이다.
07
검증
검증은 parabolic, hyperbolic, folded mirror, wide-angle, spherical sensor 등 여러 실제 센서 보정 실험으로 이루어진다.
08
결과
결과는 다양한 omnidirectional sensor에서 낮은 reprojection error와 robust point extraction을 보였으며 논문은 opensource implementation 가능성을 언급한다.
09
비교
비교는 polynomial approximation과 과매개변수 모델보다 초기화가 쉽고 해석 가능한 parameter 수가 적다는 점이 차별점이다.
10
의의
의의는 OpenCV omnidirectional calibration 계열에도 영향을 준 실용적 central camera model의 대표 연구가 되었다.
11
한계
한계는 single viewpoint 가정이 깨지는 렌즈·거울 조합이나 시간 변화 calibration까지는 직접 다루지 않는다.
12
향후 과제
향후 과제는 online calibration, multi-camera omnistereo, non-central camera model, uncertainty propagation이다.
13
자원 공개
자원 공개는 DOI와 HAL 공개본은 확인되지만 저자 페이지의 원 코드 링크는 현재 상태가 확인되지 않음.
Sources Checked
458
ICRA · 2018

Interactive Robot Knowledge Patching Using Augmented Reality

https://doi.org/10.1109/icra.2018.8462837
이 논문은 AR 인터페이스로 사람이 로봇의 symbolic knowledge를 현장에서 수정해 manipulation failure를 보정하는 interactive knowledge patching 방식을 제시한다.
01
배경
서비스 로봇은 실제 환경에서 물체 위치와 affordance, 작업 규칙이 바뀌면 사전 지식만으로는 안정적으로 동작하기 어렵다.
02
문제
논문은 로봇이 가진 지식베이스의 오류나 누락을 사용자가 AR로 직접 보고 수정하는 문제를 다룬다.
03
기존 한계
기존 지식 기반 로봇은 내부 symbolic representation이 사용자에게 보이지 않아 실패 원인을 설명하고 수정하기 어려웠다.
04
목표
목표는 AR을 통해 로봇 지식을 시각화하고 사람이 현장에서 patch를 넣어 계획과 실행을 복구하게 하는 것이다.
05
방법
방법은 AR 장치로 객체와 relation을 표시하고 사용자의 수정 입력을 robot knowledge base와 task planner에 반영한다.
06
핵심 아이디어
핵심 아이디어는 human-in-the-loop를 단순 teleoperation이 아니라 로봇의 world model을 직접 고치는 knowledge debugging 절차로 본 점이다.
07
검증
검증은 조작 과제에서 잘못된 지식 또는 누락된 관계를 AR patch로 수정해 작업 성공 여부를 보는 실험으로 수행된다.
08
결과
결과는 사용자가 로봇 지식을 더 직관적으로 수정해 실패 과제를 회복할 수 있음을 보이지만 대규모 사용자 연구는 제한적이다.
09
비교
비교는 전통적 재프로그래밍이나 수동 지식베이스 편집보다 현장 맥락과 spatial visualization이 강하다는 점을 강조한다.
10
의의
의의는 explainable robot planning과 AR-assisted robot programming 사이를 잇는 실용적 인터랙션 방향을 제시했다는 데 있다.
11
한계
한계는 AR 장비와 지식 표현 설계에 의존하며 continuous perception error나 low-level control failure까지 자동 해결하지 않는다.
12
향후 과제
향후 과제는 VLM 기반 자동 지식 제안, multi-user patch provenance, long-term knowledge consistency 검증이다.
13
자원 공개
자원 공개는 DOI와 공개 poster는 확인되지만 공식 코드·데이터셋 링크는 확인되지 않음.
Sources Checked
459
IJRR · 2007

Adaptive Dynamic Walking of a Quadruped Robot on Natural Ground Based on Biological Concepts

https://doi.org/10.1177/0278364907078089
이 논문은 생물학적 CPG와 반사 개념을 사족 로봇에 적용해 자연 지면에서 적응적 dynamic walking을 구현한 고전 연구이다.
01
배경
거친 자연 지형에서 사족 로봇이 넘어지지 않고 걷기 위해서는 사전 경로 계획보다 빠른 감각-운동 적응이 중요하다.
02
문제
논문은 생물학적 보행 제어 개념을 이용해 불규칙한 지면에서 사족 로봇의 동적 보행을 안정화하는 문제를 다룬다.
03
기존 한계
기존 scripted gait는 평탄한 지면에는 맞지만 지면 높이와 접촉 조건이 바뀌면 강건성이 떨어졌다.
04
목표
목표는 central pattern generator와 reflex-like feedback을 결합해 자연 지면에서 적응 가능한 보행 제어기를 구현하는 것이다.
05
방법
방법은 신경 oscillator 기반 gait generation, vestibular·touch feedback, body posture control을 실제 quadruped platform에 적용한다.
06
핵심 아이디어
핵심 아이디어는 보행을 정확한 궤적 추종이 아니라 생물학적 rhythm과 반사 feedback이 상호 보정하는 폐루프 과정으로 본 점이다.
07
검증
검증은 실제 사족 로봇이 자연 지면과 불규칙 지형을 걷는 하드웨어 실험 중심으로 이루어진다.
08
결과
결과는 평탄하지 않은 지형에서 보행 적응과 자세 안정성을 보였으나 현대 benchmark metric으로 정리된 비교 수치는 제한적이다.
09
비교
비교는 trajectory replay 방식보다 생체모사 feedback 구조가 외란에 더 잘 적응한다는 질적 비교가 핵심이다.
10
의의
의의는 이후 legged locomotion에서 CPG, reflex, sensor feedback을 결합하는 연구 흐름에 중요한 실험적 근거를 제공했다.
11
한계
한계는 수동 설계 parameter가 많고 고속 달리기나 복잡한 발 디딤 계획까지 일반화되지는 않는다.
12
향후 과제
향후 과제는 learning-based parameter adaptation, terrain perception, whole-body MPC와 생체모사 제어의 결합이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
460
ICRA · 2002

Realtime Humanoid Motion Generation through ZMP Manipulation Based on Inverted Pendulum Control

https://doi.org/10.1109/ROBOT.2002.1014740
이 논문은 inverted pendulum 관계를 이용해 ZMP를 간접 조작함으로써 humanoid의 실시간 운동 생성을 가능하게 한 초기 ZMP 제어 연구이다.
01
배경
휴머노이드가 사람 환경에서 민첩하게 움직이려면 미리 저장된 궤적 재생이 아니라 동역학을 반영한 실시간 운동 생성이 필요하다.
02
문제
논문은 ZMP와 COG의 동역학 관계를 이용해 휴머노이드 전신 운동을 실시간으로 생성하는 문제를 다룬다.
03
기존 한계
기존 trajectory replay나 off-line ZMP planning은 긴 계산 시간과 낮은 적응성 때문에 갑작스러운 상황 변화에 대응하기 어려웠다.
04
목표
목표는 arbitrary kinematics와 많은 자유도를 가진 휴머노이드에도 적용 가능한 ZMP manipulation 기반 motion generator를 만드는 것이다.
05
방법
방법은 referential ZMP planning, ZMP manipulation, COG velocity decomposition, local joint-angle control의 네 부분으로 구성된다.
06
핵심 아이디어
핵심 아이디어는 inverted pendulum 모델에서 ZMP가 지지점처럼 작용한다는 관계를 이용해 COG를 직접 계획하지 않고 ZMP를 조작하는 것이다.
07
검증
검증은 논문 본문 기준 컴퓨터 시뮬레이션으로 수행되며 실물 로봇 대규모 실험은 중심 검증이 아니다.
08
결과
결과는 실시간 반응성을 갖는 humanoid motion generation 가능성을 보였지만 하드웨어 안정성까지 완전히 입증한 것은 아니다.
09
비교
비교는 trajectory replay와 기존 realtime generation의 계산 부담을 배경으로 하며 강한 현대 MPC baseline은 포함되지 않는다.
10
의의
의의는 ZMP 기반 휴머노이드 보행과 전신 운동 생성 연구가 실시간 제어 문제로 정식화되는 데 기여했다.
11
한계
한계는 단순 inverted pendulum 근사와 시뮬레이션 중심 검증 때문에 복잡한 접촉, 미끄럼, 외란에서의 강건성은 제한적으로만 평가된다.
12
향후 과제
향후 과제는 preview control, whole-body dynamics, contact planning, 실물 휴머노이드 온라인 제어와의 결합이다.
13
자원 공개
자원 공개는 DOI와 공개 PDF 후보는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
461
SoRo · 2014

Soft Robotics Technologies to Address Shortcomings in Today's Minimally Invasive Surgery: The STIFF-FLOP Approach

https://doi.org/10.1089/soro.2014.0001
STIFF-FLOP 논문은 minimally invasive surgery에서 rigid tool의 한계를 줄이기 위해 가변강성 soft continuum manipulator 접근을 제시한다.
01
배경
최소침습수술은 작은 절개와 복잡한 해부학적 경로 때문에 안전하고 유연한 수술 도구를 요구한다.
02
문제
논문은 기존 rigid laparoscopic tool이 접근성, compliance, 조직 안전성에서 갖는 한계를 soft robotics로 보완하는 문제를 다룬다.
03
기존 한계
기존 도구는 단단하고 직선적이라 복잡한 경로를 따라가거나 조직과 부드럽게 상호작용하기 어렵다.
04
목표
목표는 STIFF-FLOP 프로젝트의 soft continuum actuator와 stiffness modulation 기술이 수술 로봇에 줄 수 있는 가능성을 정리하는 것이다.
05
방법
방법은 pneumatic soft actuator, granular jamming 기반 가변강성, continuum bending, sensing과 제어 요소를 통합하는 설계 방향을 제시한다.
06
핵심 아이디어
핵심 아이디어는 수술 도구가 필요할 때는 유연하고 필요할 때는 충분히 stiff해지는 가변 물성 시스템이어야 한다는 점이다.
07
검증
검증은 기술 구성과 prototype 수준의 기능 시연 중심이며 완전한 임상 시험 논문은 아니다.
08
결과
결과는 soft surgical manipulator가 접근성과 안전성을 높일 수 있는 설계 공간을 보여주지만 임상 유효성 정량 검증은 제한적이다.
09
비교
비교는 전통 rigid MIS instrument와 continuum robot 계열을 배경으로 soft stiffness-tunable design의 차별성을 강조한다.
10
의의
의의는 soft robotics를 의료·수술 응용의 구체적 시스템 요구와 연결한 초기 대표 사례라는 점이다.
11
한계
한계는 sterilization, force control, sensing reliability, surgeon interface, regulation 같은 실제 임상 전환 문제가 남아 있다.
12
향후 과제
향후 과제는 정밀 위치 제어, embedded sensing, haptic feedback, in-vivo validation, safety certification이다.
13
자원 공개
자원 공개는 DOI와 프로젝트명은 확인되지만 논문 관련 공개 코드·데이터셋은 확인되지 않음.
Sources Checked
462
ICRA · 2006

Fast Iterative Alignment of Pose Graphs with Poor Initial Estimates

https://doi.org/10.1109/robot.2006.1642040
이 논문은 나쁜 초기값에서도 pose graph를 빠르게 정렬하기 위해 alternative state representation과 stochastic gradient descent 변형을 사용한 초기 graph-SLAM 최적화 연구이다.
01
배경
SLAM은 odometry와 loop constraint를 결합해 robot trajectory와 map을 추정하는 비선형 최적화 문제로 볼 수 있다.
02
문제
논문은 초기 pose estimate가 크게 틀린 pose graph를 빠르게 정렬하는 문제를 다룬다.
03
기존 한계
기존 nonlinear optimization은 큰 그래프와 나쁜 초기값에서 local minima나 느린 수렴 때문에 어려움을 겪었다.
04
목표
목표는 poor initial estimate에서도 robot trajectory를 빠르게 회복하는 graph optimization 알고리즘을 제시하는 것이다.
05
방법
방법은 pose graph를 alternative state-space로 표현하고 constraint error에 따라 stochastic gradient descent식 update를 반복한다.
06
핵심 아이디어
핵심 아이디어는 pose 자체보다 relative transformation의 오차 전파가 더 안정적으로 작동하는 표현을 사용해 초기값 민감도를 낮추는 것이다.
07
검증
검증은 synthetic graph와 SLAM pose graph 사례에서 corrupted input을 정렬하는 오프라인 최적화 실험으로 수행된다.
08
결과
결과는 나쁜 초기 추정에서도 빠른 수렴과 질 좋은 alignment를 보였으며 이후 graph-SLAM optimizer 발전의 비교 축이 되었다.
09
비교
비교는 당시 Gauss-Newton류 접근과 기존 relaxation 방법 대비 poor initialization 대응성과 속도를 강조한다.
10
의의
의의는 g2o, TORO, iSAM류 modern pose graph optimization 이전 단계에서 scalable graph alignment 문제의 중요성을 부각했다.
11
한계
한계는 first-order update 특성상 최종 정밀도와 uncertainty modeling에서 이후 sparse second-order optimizer보다 제한될 수 있다.
12
향후 과제
향후 과제는 robust kernel, sparse linear algebra, incremental optimization, 3D pose graph와 semantic constraint 확장이다.
13
자원 공개
자원 공개는 DOI와 저자 PDF는 확인되지만 공식 유지보수 코드 저장소는 확인되지 않음.
Sources Checked
463
ICRA · 1986

A concept for manipulator trajectory planning

https://doi.org/10.1109/jra.1987.1087090
이 논문은 manipulator trajectory planning을 기구학적 경로와 동역학적 시간 스케일링 문제로 나누어 다루는 고전적 궤적 계획 관점을 제시한다.
01
배경
산업용 manipulator가 빠르고 안전하게 움직이려면 geometric path뿐 아니라 속도, 가속도, actuator 제약을 만족하는 trajectory가 필요하다.
02
문제
논문은 manipulator가 주어진 작업을 수행하도록 충돌과 동역학 제약을 고려해 궤적을 계획하는 문제를 다룬다.
03
기존 한계
기존 단순 joint interpolation은 동역학 한계와 작업공간 제약을 충분히 반영하지 못해 실행 가능성이 떨어질 수 있었다.
04
목표
목표는 manipulator trajectory planning을 체계화해 제약을 만족하는 실현 가능한 운동 생성 개념을 제안하는 것이다.
05
방법
방법은 작업 경로 생성과 시간 파라미터화, 동역학 제약 검토를 결합하는 개념적 planning framework이다.
06
핵심 아이디어
핵심 아이디어는 경로의 모양과 그 경로를 얼마나 빠르게 따라갈지를 분리해 trajectory feasibility를 다룬다는 점이다.
07
검증
검증은 고전 제어·계획 논문 특성상 수치 예제와 개념 검증 중심이며 현대 dataset benchmark는 없다.
08
결과
결과는 manipulator trajectory generation을 제약 기반 문제로 보는 틀을 제시했지만 특정 대규모 실험 성능 수치는 제한적이다.
09
비교
비교는 ad hoc interpolation보다 더 구조화된 계획 개념을 제시한다는 점이 핵심이다.
10
의의
의의는 이후 time-scaling, kinodynamic planning, robot motion optimization 연구에서 반복되는 문제 분해의 조기 형태라는 점이다.
11
한계
한계는 실시간 재계획, 불확실 접촉, 복잡한 환경 충돌 회피를 충분히 포괄하지 않는다.
12
향후 과제
향후 과제는 online trajectory optimization, torque-limited planning, collision-aware whole-body motion generation이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공개 코드·데이터셋은 논문 시대상 확인되지 않음.
Sources Checked
464
IROS · 2002

Information based adaptive robotic exploration

https://doi.org/10.1109/irds.2002.1041446
이 논문은 exploration action을 expected information gain 관점에서 선택해 SLAM과 active exploration을 결합한 초기 정보기반 탐사 연구이다.
01
배경
자율 탐사 로봇은 미지 환경에서 지도를 만들면서 다음에 어디로 가야 가장 유용한 정보를 얻을지 결정해야 한다.
02
문제
논문은 로봇의 이동 후보를 정보 이득과 이동 비용 관점에서 평가해 exploration을 적응적으로 선택하는 문제를 다룬다.
03
기존 한계
기존 frontier-based exploration은 미지 영역 경계로 이동하지만 SLAM uncertainty와 관측 정보량을 충분히 통합하지 못했다.
04
목표
목표는 탐사 행동을 map coverage뿐 아니라 localization과 map uncertainty 감소까지 고려한 의사결정 문제로 만드는 것이다.
05
방법
방법은 후보 viewpoint의 expected information gain과 navigation cost를 계산해 다음 탐사 목표를 선택한다.
06
핵심 아이디어
핵심 아이디어는 exploration을 단순한 빈 공간 채우기가 아니라 belief 상태의 entropy를 줄이는 active sensing 문제로 본 점이다.
07
검증
검증은 mobile robot exploration 시나리오에서 정보기반 선택이 지도 작성과 위치추정에 주는 효과를 평가하는 방식이다.
08
결과
결과는 정보 이득 기반 정책이 탐사 효율과 SLAM 품질을 함께 고려할 수 있음을 보였지만 현대 대규모 benchmark는 제공하지 않는다.
09
비교
비교는 frontier-only heuristic보다 uncertainty-aware objective가 더 원리적이라는 점이 강점이다.
10
의의
의의는 active SLAM과 informative path planning 연구 흐름의 초기 기초를 마련했다.
11
한계
한계는 정보량 계산이 sensor model과 uncertainty approximation에 의존하고 동적 환경이나 multi-robot scaling은 제한적이다.
12
향후 과제
향후 과제는 non-myopic planning, submodular information planning, semantic exploration, multi-robot coordination이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
465
IJRR · 2003

People Tracking with Mobile Robots Using Sample-based Joint Probabilistic Data Association Filters

https://doi.org/10.1177/0278364903022002002
이 논문은 mobile robot이 cluttered sensor data에서 여러 사람을 추적하기 위해 sample-based JPDA filter를 사용한 초기 multi-person tracking 연구이다.
01
배경
사람과 함께 움직이는 mobile robot은 사람 위치를 지속적으로 추정해야 안전한 navigation과 interaction이 가능하다.
02
문제
논문은 레이저·비전 등 로봇 센서에서 다중 사람 관측과 잘못된 측정을 연결해 추적하는 문제를 다룬다.
03
기존 한계
기존 tracking은 단일 대상이나 명확한 data association을 가정하는 경우가 많아 occlusion과 clutter에 약했다.
04
목표
목표는 mobile robot 환경에서 여러 사람의 posterior를 유지하며 measurement-to-target ambiguity를 처리하는 filter를 만드는 것이다.
05
방법
방법은 particle representation과 joint probabilistic data association을 결합해 여러 target의 association uncertainty를 근사한다.
06
핵심 아이디어
핵심 아이디어는 어느 관측이 어느 사람에게 속하는지 hard decision하지 않고 joint association probability를 샘플 기반으로 반영하는 것이다.
07
검증
검증은 mobile robot이 사람 주변을 이동하며 얻은 센서 데이터에서 multi-person tracking 성능을 평가하는 실험이다.
08
결과
결과는 occlusion과 clutter가 있는 상황에서도 사람 추적이 가능함을 보였지만 현대 딥러닝 detector 기반 benchmark와는 성격이 다르다.
09
비교
비교는 Kalman/particle filter와 standard JPDA 계열을 배경으로 sample-based 근사의 실용성을 강조한다.
10
의의
의의는 social navigation과 human-aware robotics에서 사람 추적을 확률적 data association 문제로 다룬 대표적 고전 연구이다.
11
한계
한계는 사람 detector 품질과 motion model에 의존하고 appearance re-identification이나 장기 occlusion 복구는 제한적이다.
12
향후 과제
향후 과제는 vision-language 사람 이해, intent prediction, group tracking, privacy-aware perception과의 결합이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
466
IJRR · 2010

LQR-trees: Feedback Motion Planning via Sums-of-Squares Verification

https://doi.org/10.1177/0278364910369189
LQR-trees는 sample trajectory와 local LQR feedback funnel을 SOS verification으로 엮어 underactuated robot의 feedback motion planning을 수행한 연구이다.
01
배경
Underactuated robot은 open-loop trajectory만으로는 외란과 초기 오차에 취약하므로 feedback이 내장된 motion plan이 필요하다.
02
문제
논문은 목표 상태로 수렴하는 여러 local controller의 region of attraction을 이어 전역적 feedback policy를 만드는 문제를 다룬다.
03
기존 한계
기존 kinodynamic planner는 궤적을 찾더라도 그 주변에서 얼마나 robust하게 추종 가능한지 보증하기 어려웠다.
04
목표
목표는 LQR controller 주변의 안정 영역을 계산하고 이를 tree처럼 확장해 상태공간을 덮는 feedback plan을 만드는 것이다.
05
방법
방법은 trajectory optimization, time-varying LQR, Lyapunov function, sum-of-squares verification을 결합한다.
06
핵심 아이디어
핵심 아이디어는 하나의 경로를 찾는 대신 검증된 funnel들의 집합으로 목표까지 끌려 들어가는 feedback landscape를 구성하는 것이다.
07
검증
검증은 underactuated systems의 시뮬레이션 예제와 지역 안정성 계산을 통해 수행되며 실물 대규모 실험보다는 이론·수치 검증이 중심이다.
08
결과
결과는 복잡한 underactuated 동역학에서도 certified feedback planning이 가능함을 보였다.
09
비교
비교는 sampling-based planner보다 안정성 보증을 강하게 주지만 계산 비용과 polynomial approximation 의존성이 더 크다.
10
의의
의의는 motion planning과 nonlinear control verification을 연결해 안전한 feedback planning 연구의 중요한 기준점을 만들었다.
11
한계
한계는 SOS 계산이 차원 증가에 취약하고 모델 정확도와 polynomial dynamics 표현에 크게 의존한다.
12
향후 과제
향후 과제는 scalable verification, neural Lyapunov methods, contact-rich robots, online replanning으로의 확장이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 논문 전용 공개 코드 링크는 확인되지 않음.
Sources Checked
467
IROS · 2005

RT-middleware: distributed component middleware for RT (robot technology)

https://doi.org/10.1109/iros.2005.1545521
RT-middleware는 robot technology software를 재사용 가능한 distributed component로 구성하기 위한 OpenRTM 계열 미들웨어의 핵심 논문이다.
01
배경
로봇 시스템은 센서, 제어, 계획, UI가 복잡하게 연결되어 소프트웨어 재사용과 통합이 큰 병목이 된다.
02
문제
논문은 robot technology 모듈을 분산 컴포넌트로 나누고 표준 인터페이스로 연결하는 middleware 문제를 다룬다.
03
기존 한계
기존 로봇 소프트웨어는 프로젝트별 통합 코드가 많아 다른 로봇이나 응용으로 재사용하기 어려웠다.
04
목표
목표는 reusable RT component와 communication framework를 통해 로봇 시스템 개발 생산성을 높이는 것이다.
05
방법
방법은 CORBA 기반 component model, data port, service port, lifecycle management를 제공하는 RT-middleware 구조를 제안한다.
06
핵심 아이디어
핵심 아이디어는 로봇 기능을 monolithic program이 아니라 조합 가능한 software component 생태계로 표준화하는 것이다.
07
검증
검증은 여러 로봇 기능 모듈을 RT component로 구성하는 구현 사례와 middleware 작동 시연을 통해 이루어진다.
08
결과
결과는 robot software integration을 component composition으로 처리할 수 있음을 보였고 OpenRTM-aist 생태계로 이어졌다.
09
비교
비교는 ROS 이전 시기의 분산 객체 middleware와 전용 로봇 코드 대비 표준화와 재사용성을 강조한다.
10
의의
의의는 로봇 소프트웨어 공학에서 component-based architecture의 필요성을 조기에 제도화한 연구라는 점이다.
11
한계
한계는 CORBA 기반 설계의 복잡성과 현대 cloud-native·ROS2 생태계와의 사용성 차이가 있다.
12
향후 과제
향후 과제는 ROS2/DDS, real-time safety, component verification, digital-twin deployment와의 상호운용성이다.
13
자원 공개
자원 공개는 DOI와 OpenRTM 프로젝트는 확인되지만 논문 당시 snapshot의 재현 가능성은 별도 확인 필요.
Sources Checked
468
IROS · 2013

Towards a soft pneumatic glove for hand rehabilitation

https://doi.org/10.1109/iros.2013.6696549
이 논문은 손 재활을 위해 공압 soft actuator를 장갑 형태로 통합해 안전하고 순응적인 손가락 보조 움직임을 제공하려는 초기 soft wearable 연구이다.
01
배경
손 재활 장치는 환자의 손과 직접 접촉하므로 강체 외골격보다 가볍고 안전하며 착용감 좋은 보조 구조가 필요하다.
02
문제
논문은 손가락 굴곡과 신전을 보조할 수 있는 soft pneumatic glove를 설계하고 검증하는 문제를 다룬다.
03
기존 한계
기존 rigid exoskeleton은 정렬 오차, 무게, 복잡한 링크 구조 때문에 환자 안전성과 편의성에서 제약이 있었다.
04
목표
목표는 부드러운 공압 액추에이터를 이용해 손가락 재활 운동을 지원하는 착용형 장갑 prototype을 만드는 것이다.
05
방법
방법은 fiber-reinforced 또는 elastomeric pneumatic actuator를 glove에 배치하고 압력 제어로 손가락 motion을 생성한다.
06
핵심 아이디어
핵심 아이디어는 인간 손의 복잡한 관절 정렬을 rigid linkage로 강제하지 않고 soft actuator compliance로 흡수하는 것이다.
07
검증
검증은 prototype 구동, 손가락 굴곡 범위, 착용 실험 또는 기능 시연 중심으로 이루어진다.
08
결과
결과는 soft pneumatic glove가 손 움직임 보조에 유망함을 보였지만 임상 효과를 입증하는 대규모 환자 연구는 아니다.
09
비교
비교는 rigid rehabilitation exoskeleton 대비 순응성, 안전성, 저중량의 장점을 강조한다.
10
의의
의의는 soft wearable robotics가 재활 보조 장치로 확장되는 흐름에서 널리 인용되는 초기 연구이다.
11
한계
한계는 공압 공급 장치, 정밀 force control, 장기 착용 내구성, 개인별 손 크기 적응 문제가 남아 있다.
12
향후 과제
향후 과제는 portable pneumatic system, closed-loop sensing, clinical trial, personalized rehabilitation protocol이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋 또는 제작 파일 공개는 확인되지 않음.
Sources Checked
469
IJRR · 2011

Visual-inertial navigation, mapping and localization: A scalable real-time causal approach

https://doi.org/10.1177/0278364910388963
Jones와 Soatto의 연구는 camera-IMU fusion을 real-time causal SLAM/VIN 문제로 정식화해 scalable visual-inertial navigation의 중요한 기준점을 세웠다.
01
배경
GPS가 없는 환경에서 카메라와 IMU를 결합하면 짧은 시간 inertial drift와 시각적 landmark 정보를 상호 보완할 수 있다.
02
문제
논문은 visual-inertial sensor stream으로 navigation, mapping, localization을 실시간 causally 수행하는 문제를 다룬다.
03
기존 한계
기존 batch 또는 비인과적 접근은 정확할 수 있지만 online robot navigation에 필요한 지연과 확장성 요구를 만족하기 어려웠다.
04
목표
목표는 sensor data가 들어오는 순서대로 처리하면서도 장기 지도와 위치추정을 확장 가능하게 유지하는 visual-inertial framework를 제시하는 것이다.
05
방법
방법은 camera feature, IMU integration, filtering/smoothing 구조, map management를 결합한 real-time visual-inertial pipeline이다.
06
핵심 아이디어
핵심 아이디어는 모든 과거 데이터를 다시 최적화하지 않고 causal update와 선택적 map representation으로 계산량을 통제하는 것이다.
07
검증
검증은 실제 camera-IMU data와 navigation scenario에서 trajectory와 mapping 성능을 평가하는 방식으로 수행된다.
08
결과
결과는 실시간 처리가 가능하면서 visual-inertial localization과 mapping을 함께 수행할 수 있음을 보였다.
09
비교
비교는 vision-only SLAM과 inertial-only dead reckoning 대비 센서 융합의 drift 감소와 robustness가 핵심이다.
10
의의
의의는 이후 VIO, visual-inertial SLAM, mobile AR tracking 연구에서 causal scalable fusion의 중요성을 보여준 대표 논문이다.
11
한계
한계는 현대 nonlinear optimization 기반 VIO와 비교하면 feature representation과 computational choices가 구형일 수 있다.
12
향후 과제
향후 과제는 sliding-window optimization, preintegration, loop closure, learned feature와 robust outlier rejection이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋 링크는 확인되지 않음.
Sources Checked
470
T-ASE · 2006

Semidefinite Programming Approaches for Sensor Network Localization With Noisy Distance Measurements

https://doi.org/10.1109/tase.2006.877401
이 논문은 noisy distance measurement로부터 sensor network 위치를 추정하는 문제를 semidefinite programming relaxation으로 푸는 대표적 최적화 연구이다.
01
배경
센서 네트워크와 로봇 네트워크는 일부 anchor와 pairwise distance만으로 node 위치를 추정해야 하는 경우가 많다.
02
문제
논문은 노이즈가 있는 거리 측정에서 전체 sensor node의 좌표를 찾는 localization 문제를 다룬다.
03
기존 한계
기존 least-squares formulation은 비볼록성이 강해 초기값과 local minima에 민감했다.
04
목표
목표는 sensor network localization을 semidefinite programming으로 relaxation해 더 안정적으로 풀 수 있는 방법을 제시하는 것이다.
05
방법
방법은 거리 제약을 matrix lifting으로 표현하고 SDP relaxation과 refinement 절차를 통해 node 위치를 추정한다.
06
핵심 아이디어
핵심 아이디어는 비볼록 거리 방정식을 convex SDP 형태로 풀어 global structure를 먼저 얻고 이후 세부 위치를 다듬는 것이다.
07
검증
검증은 synthetic sensor network와 noisy distance setting에서 localization error를 평가하는 수치 실험 중심이다.
08
결과
결과는 특정 노이즈와 anchor 조건에서 SDP 접근이 기존 local optimization보다 더 안정적이고 정확한 추정을 제공함을 보였다.
09
비교
비교는 classical multidimensional scaling이나 nonlinear least squares 계열보다 convex relaxation의 초기값 독립성이 강점이다.
10
의의
의의는 robot/sensor network localization에서 convex optimization이 실제 추정 문제에 유용함을 보여준 고전 논문이다.
11
한계
한계는 SDP가 큰 네트워크에서 계산 비용이 커지고 sparse·distributed implementation 없이는 확장성이 제한된다.
12
향후 과제
향후 과제는 distributed SDP, robust outlier handling, bearing/range fusion, mobile robot cooperative localization이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
471
RSS · 2018

Efficient Surfel-Based SLAM using 3D Laser Range Data in Urban Environments

https://doi.org/10.15607/rss.2018.xiv.016
SuMa는 3D LiDAR scans를 surfel map으로 표현하고 projective data association으로 urban LiDAR SLAM을 효율적으로 수행한 시스템이다.
01
배경
도시 환경 LiDAR SLAM은 큰 지도와 반복 scan matching을 처리하면서도 실시간으로 차량 pose를 추정해야 한다.
02
문제
논문은 3D laser range data만으로 효율적인 surfel map 기반 SLAM을 수행하는 문제를 다룬다.
03
기존 한계
기존 point cloud map은 메모리와 correspondence search 비용이 크고, feature-only 방식은 환경 구조에 따라 정보 손실이 생길 수 있다.
04
목표
목표는 surfel representation과 range image projection을 이용해 빠르고 정확한 LiDAR SLAM 시스템을 만드는 것이다.
05
방법
방법은 LiDAR scan을 vertex/normal map으로 투영하고 surfel map과 projective ICP를 수행하며 loop closure와 pose graph refinement를 결합한다.
06
핵심 아이디어
핵심 아이디어는 dense 3D point cloud를 그대로 쓰지 않고 rendering 가능한 surfel map으로 바꿔 data association을 GPU-friendly하게 만든 점이다.
07
검증
검증은 KITTI odometry 등 urban driving LiDAR dataset에서 trajectory error와 runtime을 평가하는 오프라인 실험이다.
08
결과
결과는 feature extraction 없이도 경쟁력 있는 odometry와 mapping 성능을 보였고 공개 구현 SuMa로 재현 가능성을 높였다.
09
비교
비교는 LOAM류 feature-based 방법과 ICP 계열을 배경으로 하며 surfel 기반 dense association의 효율성을 강조한다.
10
의의
의의는 LiDAR SLAM에서 map rendering과 surfel representation이 실시간성과 품질을 동시에 줄 수 있음을 보여주었다.
11
한계
한계는 동적 객체, 악천후, 매우 큰 loop closure, semantic map update에는 별도 처리가 필요하다.
12
향후 과제
향후 과제는 semantic surfel map, dynamic object filtering, multi-session mapping, GPU-accelerated lifelong LiDAR SLAM이다.
13
자원 공개
자원 공개는 RSS paper, 저자 PDF, jbehley/SuMa GitHub가 확인된다.
Sources Checked
472
ICRA · 2010

Vision based MAV navigation in unknown and unstructured environments

https://doi.org/10.1109/robot.2010.5509920
이 논문은 onboard vision만으로 미지·비정형 환경에서 micro aerial vehicle이 navigation하도록 하는 초기 MAV visual navigation 연구이다.
01
배경
MAV는 GPS가 불안정하거나 없는 실내·도심 환경에서 작고 제한된 payload로 자율 비행해야 한다.
02
문제
논문은 미지의 비정형 환경에서 onboard camera 기반으로 MAV의 위치 추정과 navigation을 수행하는 문제를 다룬다.
03
기존 한계
기존 MAV navigation은 외부 motion capture, GPS, 잘 구성된 환경 표식에 의존하는 경우가 많았다.
04
목표
목표는 onboard vision과 state estimation을 이용해 unknown environment에서 자율 비행 가능성을 보이는 것이다.
05
방법
방법은 visual odometry 또는 feature tracking, inertial sensing, control loop를 결합한 MAV navigation pipeline이다.
06
핵심 아이디어
핵심 아이디어는 작은 비행체의 제한된 계산과 센서 조건에서도 시각 기반 local motion estimate를 navigation에 직접 연결하는 것이다.
07
검증
검증은 실제 MAV 비행 실험과 unknown/unstructured scene navigation 시나리오를 통해 수행된다.
08
결과
결과는 vision 기반 MAV navigation이 실험적으로 가능함을 보였지만 현대 VIO·SLAM benchmark 수준의 대규모 비교는 아니다.
09
비교
비교는 GPS/mocap 의존 시스템보다 자율성과 현장 적용성이 높다는 점이 차별점이다.
10
의의
의의는 이후 quadrotor VIO, onboard SLAM, autonomous exploration 연구의 초기 실험적 토대를 제공했다.
11
한계
한계는 계산 자원, feature-poor scene, illumination change, aggressive maneuver에서 robustness가 제한될 수 있다.
12
향후 과제
향후 과제는 tight visual-inertial fusion, dense obstacle avoidance, semantic exploration, embedded real-time optimization이다.
13
자원 공개
자원 공개는 DOI와 ETH 공개 record는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
473
Sci-Rob · 2018

Bioinspired living structural color hydrogels

https://doi.org/10.1126/scirobotics.aar8580
이 논문은 살아있는 세포와 구조색 hydrogel을 결합해 생체모사 색 변화와 자율 조절 기능을 가진 soft robotic material을 제시한다.
01
배경
Soft robotics와 biohybrid systems는 재료 자체가 감지·반응·표현 기능을 갖는 방향으로 확장되고 있다.
02
문제
논문은 hydrogel의 구조색과 living cell response를 결합해 생물처럼 환경에 반응하는 material system을 만드는 문제를 다룬다.
03
기존 한계
기존 색 변화 재료는 외부 자극에는 반응하지만 생체 기반 feedback이나 autonomous regulation과의 결합이 제한적이었다.
04
목표
목표는 bioinspired structural color hydrogel을 만들어 soft robot과 organ-on-chip 응용에서 시각적·기능적 신호를 제공하는 것이다.
05
방법
방법은 photonic crystal 또는 구조색 hydrogel scaffold에 살아있는 세포를 통합하고 생화학 자극에 따른 색 변화를 관찰한다.
06
핵심 아이디어
핵심 아이디어는 색을 염료가 아니라 hydrogel microstructure와 living component의 변형으로 생성해 재료 상태를 직접 표시하는 것이다.
07
검증
검증은 hydrogel 제조, 자극 반응 색 변화, biohybrid device demonstration을 포함한 재료·장치 실험으로 수행된다.
08
결과
결과는 구조색 hydrogel이 생물학적 반응을 가시적으로 나타낼 수 있음을 보였지만 로봇 운동 제어까지는 보조적 응용에 가깝다.
09
비교
비교는 전통 soft actuator보다 locomotion보다는 sensing·display·biointerface 성격이 강하다는 점이 다르다.
10
의의
의의는 soft robotics의 범위를 기계적 actuator에서 living responsive material platform으로 넓힌 사례다.
11
한계
한계는 생체재료 안정성, 장기 배양, 환경 민감도, 대량 제조와 통합 제어가 남아 있다.
12
향후 과제
향후 과제는 closed-loop soft robot sensing, implantable biointerface, programmable hydrogel patterning, 장기 내구성 검증이다.
13
자원 공개
자원 공개는 DOI와 Science Robotics PDF는 확인되지만 코드·로봇 데이터셋 형태의 공개 자원은 해당 없음에 가깝다.
Sources Checked
474
IJRR · 2012

Capturability-based analysis and control of legged locomotion, Part 1: Theory and application to three simple gait models

https://doi.org/10.1177/0278364912452673
Capturability 논문은 현재 상태에서 몇 걸음 안에 멈출 수 있는지를 기준으로 legged locomotion 안정성을 분석하고 제어하는 이론을 제시한다.
01
배경
보행 로봇의 안정성은 단순히 현재 넘어지지 않는지를 넘어 앞으로 발을 어디에 두면 멈출 수 있는지와 연결된다.
02
문제
논문은 legged system의 상태가 몇 step 안에 capture 가능한지 분석하고 제어에 활용하는 문제를 다룬다.
03
기존 한계
기존 ZMP나 static stability 기준은 동적 보행에서 필요한 step-to-step recovery 능력을 충분히 설명하지 못했다.
04
목표
목표는 capturability 개념을 수학적으로 정의하고 단순 gait model에 적용해 안정성 분석과 제어 기준을 제공하는 것이다.
05
방법
방법은 linear inverted pendulum류 단순 모델에서 capture point와 N-step capturability를 유도하고 제어 law를 논의한다.
06
핵심 아이디어
핵심 아이디어는 넘어짐을 피하는 능력을 현재 운동량을 상쇄할 수 있는 발 디딤 가능성으로 측정하는 것이다.
07
검증
검증은 세 가지 단순 gait model에 대한 이론 분석과 수치 예제로 수행되며 복잡한 실물 humanoid 전체 실험은 Part 1의 중심이 아니다.
08
결과
결과는 capture point와 capturability가 dynamic walking control의 명확한 안정성 지표가 될 수 있음을 보였다.
09
비교
비교는 static margin이나 단순 ZMP feasibility보다 보행 중 recovery 가능성을 더 직접적으로 설명한다.
10
의의
의의는 humanoid balance, push recovery, footstep planning에서 capture point가 널리 쓰이는 계기를 제공했다.
11
한계
한계는 단순 모델 가정이 강하고 복잡한 전신 동역학, 비평탄 지형, 접촉 전환의 세부 효과는 축약된다.
12
향후 과제
향후 과제는 multi-contact capturability, whole-body MPC, uneven terrain footstep planning, uncertainty-aware balance control이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공개 코드·데이터셋은 확인되지 않음.
Sources Checked
475
RA-L · 2018

Robust Stereo Visual Inertial Odometry for Fast Autonomous Flight

https://doi.org/10.1109/lra.2018.2793349
이 논문은 stereo MSCKF 기반 VIO를 빠른 MAV 비행에 맞게 구현해 EuRoC와 실제 17.5 m/s 비행에서 robustness를 보인 연구이다.
01
배경
소형 비행 로봇은 빠르게 움직이면서도 가벼운 센서와 제한된 계산 자원으로 pose를 추정해야 한다.
02
문제
논문은 stereo camera와 IMU를 이용해 high-speed autonomous flight에서 robust VIO를 수행하는 문제를 다룬다.
03
기존 한계
기존 stereo VIO는 정확할 수 있지만 계산 비용이 크고 소형 MAV의 속도와 embedded constraint에 맞추기 어려웠다.
04
목표
목표는 filter-based stereo MSCKF를 사용해 monocular VIO 수준의 계산량으로 더 강한 scale robustness를 얻는 것이다.
05
방법
방법은 synchronized stereo image와 IMU measurement를 MSCKF 구조에 넣어 feature track constraint로 6-DoF pose를 추정한다.
06
핵심 아이디어
핵심 아이디어는 stereo depth로 scale 관측성을 강화하면서도 optimization-heavy backend를 피한 filter formulation으로 속도를 유지하는 것이다.
07
검증
검증은 EuRoC dataset과 자체 실내·실외 고속 비행 데이터에서 OKVIS, ROVIO, VINS-Mono 등과 비교한다.
08
결과
결과는 논문 초록 기준 최대 17.5 m/s 빠른 비행 실험과 강한 robustness를 보고한다.
09
비교
비교는 당시 강한 monocular·optimization VIO baseline과 수행되어 baseline 강도는 비교적 높은 편이다.
10
의의
의의는 실험실 benchmark를 넘어 고속 MAV closed-loop flight에 바로 쓸 수 있는 stereo VIO 구현을 제공한 점이다.
11
한계
한계는 stereo camera 품질과 조명, synchronization, calibration에 의존하며 texture-poor scene에서는 여전히 취약할 수 있다.
12
향후 과제
향후 과제는 event/thermal sensing, 더 빠른 비행, failure detection, loop closure와 global consistency 결합이다.
13
자원 공개
자원 공개는 arXiv와 KumarRobotics/msckf_vio GitHub가 확인된다.
Sources Checked
476
IJRR · 1990

Stability and Robustness Analysis of a Class of Adaptive Controllers for Robotic Manipulators

https://doi.org/10.1177/027836499000900305
이 논문은 로봇 manipulator adaptive controller의 안정성과 robustness를 이론적으로 분석한 고전 제어 논문이다.
01
배경
로봇 manipulator는 payload와 dynamics parameter가 바뀌어도 안정적으로 trajectory를 따라가야 한다.
02
문제
논문은 불확실한 동역학 parameter를 가진 manipulator adaptive control의 stability와 robustness를 분석하는 문제를 다룬다.
03
기존 한계
기존 adaptive controller는 이상적 가정에서는 안정성을 보이지만 disturbance, unmodeled dynamics, measurement noise에 대한 견고성 해석이 부족했다.
04
목표
목표는 특정 adaptive controller class가 어떤 조건에서 안정하고 어느 수준의 perturbation에 견딜 수 있는지 밝히는 것이다.
05
방법
방법은 Lyapunov analysis와 robust control 관점으로 parameter adaptation law와 tracking error dynamics를 분석한다.
06
핵심 아이디어
핵심 아이디어는 adaptation이 항상 성능 향상을 의미하지 않으며 모델 오차와 disturbance 아래에서 안정성 margin을 따져야 한다는 점이다.
07
검증
검증은 이론 증명과 수치 또는 manipulator control 예제로 구성되며 대규모 실험 dataset은 존재하지 않는다.
08
결과
결과는 adaptive manipulator controller의 안정 조건과 robustness 한계를 체계적으로 제시했다.
09
비교
비교는 단순 computed torque control이나 이상적 adaptive law보다 불확실성 하의 안정성 보장이 중요하다는 점을 강조한다.
10
의의
의의는 로봇 adaptive control을 실험적 튜닝이 아니라 엄밀한 안정성 분석 대상으로 자리 잡게 한 연구이다.
11
한계
한계는 modern learning controller나 contact-rich manipulation의 복잡한 비선형 불확실성까지 직접 다루지 않는다.
12
향후 과제
향후 과제는 robust adaptive MPC, data-driven parameter estimation, safety-filtered learning control과의 통합이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 논문 성격상 확인되지 않음.
Sources Checked
477
RA-L · 2021

DSEC: A Stereo Event Camera Dataset for Driving Scenarios

https://doi.org/10.1109/lra.2021.3068942
DSEC는 stereo event camera, frame camera, LiDAR, RTK GPS를 동기화해 driving scenario에서 event-based stereo와 flow 연구를 가능하게 한 대규모 dataset 논문이다.
01
배경
자율주행은 야간, 일출, 석양처럼 표준 카메라가 약한 조명 조건에서도 perception이 안정적이어야 한다.
02
문제
논문은 driving scenario에서 고해상도 stereo event data와 ground truth를 제공하는 dataset 구축 문제를 다룬다.
03
기존 한계
기존 event driving dataset은 규모와 해상도, stereo 구성, 정밀 ground truth 측면에서 제한이 있었다.
04
목표
목표는 event-based stereo, optical flow, perception algorithm을 공정하게 평가할 수 있는 large-scale multimodal driving dataset을 만드는 것이다.
05
방법
방법은 두 개의 monochrome event camera와 color frame camera, LiDAR, RTK GPS를 하드웨어 동기화해 다양한 조명 조건에서 주행 데이터를 수집한다.
06
핵심 아이디어
핵심 아이디어는 이벤트 카메라의 고동적범위·고시간해상도 장점을 자동차 센서 suite 안에 넣어 benchmark화한 점이다.
07
검증
검증은 dataset 구성, ground-truth disparity 생성, benchmark protocol과 baseline evaluation으로 이루어진다.
08
결과
결과는 53 sequences와 high-resolution event stereo 데이터를 제공해 event-based driving perception 평가 기반을 확장했다.
09
비교
비교는 MVSEC보다 driving scenario와 stereo benchmark 성격이 강하며 고해상도 event camera 사용이 차별점이다.
10
의의
의의는 이벤트 기반 optical flow, stereo depth, autonomous driving perception 연구가 공통 데이터로 비교될 수 있게 했다.
11
한계
한계는 특정 센서 구성과 지역 주행 조건에 묶이며 객체 detection·planning까지 모든 downstream task label을 포괄하지는 않는다.
12
향후 과제
향후 과제는 adverse weather, semantic label 확장, long-tail night driving, event-camera foundation perception benchmark이다.
13
자원 공개
자원 공개는 arXiv, project/dataset page, uzh-rpg/DSEC GitHub가 확인된다.
Sources Checked
478
T-Mech · 2005

Tracking Control of a Piezoceramic Actuator With Hysteresis Compensation Using Inverse Preisach Model

https://doi.org/10.1109/tmech.2005.844708
이 논문은 piezoceramic actuator의 hysteresis를 inverse Preisach model로 보상해 정밀 tracking control을 개선한 mechatronics 제어 연구이다.
01
배경
Piezoceramic actuator는 정밀 위치결정에 유용하지만 hysteresis와 비선형성이 tracking accuracy를 크게 제한한다.
02
문제
논문은 hysteresis가 있는 piezoceramic actuator가 원하는 궤적을 정확히 따라가도록 보상 제어를 설계하는 문제를 다룬다.
03
기존 한계
기존 선형 제어는 입력-출력 이력 의존성을 충분히 반영하지 못해 고정밀 stage나 micro-positioning에서 오차가 남았다.
04
목표
목표는 inverse Preisach hysteresis model을 사용해 actuator input을 선보상하고 tracking control 성능을 높이는 것이다.
05
방법
방법은 Preisach model로 hysteresis를 식별하고 그 역모델을 feedforward compensation에 넣은 뒤 feedback tracking controller와 결합한다.
06
핵심 아이디어
핵심 아이디어는 hysteresis를 disturbance로만 보지 않고 invertible memory operator로 모델링해 입력 단계에서 상쇄하는 것이다.
07
검증
검증은 piezoceramic actuator 실험에서 다양한 reference trajectory tracking error를 측정하는 하드웨어 실험이다.
08
결과
결과는 hysteresis compensation이 tracking error를 줄임을 보였지만 세부 수치는 논문 원문 표 확인이 필요하다.
09
비교
비교는 uncompensated 또는 단순 feedback 제어 대비 inverse model feedforward의 정밀도 향상을 보여준다.
10
의의
의의는 정밀 mechatronics와 nanopositioning에서 hysteresis-aware control 설계의 실용성을 입증한 사례이다.
11
한계
한계는 Preisach model 식별 품질과 온도·노화·rate dependence 변화에 민감할 수 있다.
12
향후 과제
향후 과제는 adaptive hysteresis identification, rate-dependent model, learning-based compensation, multi-axis stage coupling 제어이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·실험 데이터는 확인되지 않음.
Sources Checked
479
IJRR · 2016

Socially compliant mobile robot navigation via inverse reinforcement learning

https://doi.org/10.1177/0278364915619772
이 논문은 사람의 demonstration에서 cost function을 inverse reinforcement learning으로 학습해 mobile robot이 social navigation을 수행하도록 한 연구이다.
01
배경
사람이 많은 공간에서 mobile robot은 충돌 회피뿐 아니라 개인공간, 통행 방향, 사회적 예절을 고려해야 한다.
02
문제
논문은 사람이 선호하는 navigation behavior를 demonstration에서 학습해 socially compliant path를 생성하는 문제를 다룬다.
03
기존 한계
기존 social navigation rule은 수동 설계가 많아 문화·공간·상황별 선호를 반영하기 어려웠다.
04
목표
목표는 inverse reinforcement learning으로 사람의 이동 선호를 cost function으로 추정하고 robot planner에 넣는 것이다.
05
방법
방법은 human navigation demonstration에서 feature-based cost를 학습하고 learned cost map 위에서 mobile robot path planning을 수행한다.
06
핵심 아이디어
핵심 아이디어는 social rule을 직접 코딩하지 않고 사람이 실제로 선택한 경로가 낮은 cost를 갖도록 reward/cost를 역추정하는 것이다.
07
검증
검증은 사람 주변 navigation scenario에서 학습 cost와 robot trajectory의 사회적 적합성을 평가하는 실험으로 수행된다.
08
결과
결과는 수동 설계 cost보다 사람 demonstration에 가까운 social behavior를 만들 수 있음을 보였다.
09
비교
비교는 hand-crafted social cost와 conventional navigation planner를 기준으로 하며 baseline은 고전적이지만 문제 정의에는 적절하다.
10
의의
의의는 social navigation을 preference learning 문제로 본 대표 논문으로 이후 crowd-aware planning과 human-aware RL 연구에 연결된다.
11
한계
한계는 demonstration distribution 바깥 상황, 군중 밀집, 문화 차이, 다중 보행자 상호작용의 장기 예측이 제한될 수 있다.
12
향후 과제
향후 과제는 online preference adaptation, VLM-based social cue understanding, uncertainty-aware replanning, real-world crowd benchmark이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋 링크는 확인되지 않음.
Sources Checked
480
ICRA · 2011

On the segmentation of 3D LIDAR point clouds

https://doi.org/10.1109/icra.2011.5979818
이 논문은 3D LiDAR point cloud에서 ground, object, surface structure를 분할하기 위한 기하 기반 segmentation 방법을 다룬 초기 자율주행 perception 연구이다.
01
배경
자율주행과 야외 로봇은 3D LiDAR 점군에서 주행 가능 지면과 장애물, 객체 후보를 빠르게 분리해야 한다.
02
문제
논문은 sparse하고 noisy한 3D LiDAR point cloud를 의미 있는 segment로 나누는 문제를 다룬다.
03
기존 한계
기존 image segmentation이나 2D range scan 기법은 3D LiDAR의 비균일 밀도와 큰 outdoor scene 구조를 충분히 반영하지 못했다.
04
목표
목표는 3D point cloud의 geometric cue를 이용해 이후 detection과 tracking에 쓸 수 있는 segment를 안정적으로 생성하는 것이다.
05
방법
방법은 ground removal, local surface property, connected component 또는 clustering 기반 점군 분할 절차를 사용한다.
06
핵심 아이디어
핵심 아이디어는 원시 점을 바로 객체로 분류하기보다 LiDAR scan geometry를 이용해 구조적으로 일관된 region을 먼저 만드는 것이다.
07
검증
검증은 야외 3D LiDAR 데이터에서 segmentation 품질과 downstream object perception 가능성을 평가하는 방식이다.
08
결과
결과는 3D LiDAR 기반 scene understanding의 전처리로 유용한 segmentation을 제공했지만 딥러닝식 semantic benchmark는 아니다.
09
비교
비교는 당시 geometric clustering과 ground segmentation 접근을 배경으로 하며 hand-crafted geometry가 핵심이다.
10
의의
의의는 PointNet 이전 시대 LiDAR perception에서 geometry preprocessing이 얼마나 중요한지 보여준 연구이다.
11
한계
한계는 semantic class를 직접 학습하지 않고 weather, moving object, dense occlusion에서 규칙 기반 한계가 있다.
12
향후 과제
향후 과제는 semantic segmentation, self-supervised LiDAR representation, temporal tracking, multimodal fusion이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
481
ICRA · 2010

Cloth grasp point detection based on multiple-view geometric cues with application to robotic towel folding

https://doi.org/10.1109/robot.2010.5509439
이 논문은 여러 시점의 기하 단서로 천의 코너 grasp point를 찾아 PR2류 양팔 로봇이 수건을 자율적으로 접는 데 성공한 고전 cloth manipulation 연구이다.
01
배경
천 조작은 deformable object의 상태가 복잡하고 시각 appearance가 다양해 로봇 조작에서 어려운 대표 과제이다.
02
문제
논문은 무작위로 놓인 수건에서 신뢰할 수 있는 grasp point를 찾아 folding sequence를 실행하는 문제를 다룬다.
03
기존 한계
기존 cloth manipulation은 특수 도구나 강한 초기 상태 가정에 의존해 일반적인 로봇 손으로 반복 성공하기 어려웠다.
04
목표
목표는 texture에 덜 의존하는 geometric cue로 수건 코너를 검출하고 일반 양팔 모바일 플랫폼으로 접기 작업을 완수하는 것이다.
05
방법
방법은 multiple-view depth/geometric observation으로 cloth extremity와 corner 후보를 검출하고 regrasp와 folding motion sequence를 수행한다.
06
핵심 아이디어
핵심 아이디어는 천의 appearance가 아니라 보이는 형상 극값과 기하 구조를 이용해 graspable corner를 찾는 것이다.
07
검증
검증은 실제 로봇에서 단일 수건과 수건 더미 folding 실험을 수행하는 하드웨어 검증이다.
08
결과
결과는 project page 기준 단일 수건 50/50 trial 성공을 보고해 당시 deformable manipulation에서 강한 실험적 성과를 보였다.
09
비교
비교는 simulation-only cloth planning보다 실제 로봇에서 end-to-end folding을 보인 점이 차별적이다.
10
의의
의의는 deformable object manipulation에서 perception, regrasp, task sequence가 결합되어야 함을 보여준 대표 연구이다.
11
한계
한계는 수건 같은 비교적 정형 cloth와 조명·배경 조건에 맞춰져 있으며 복잡한 의류나 pile manipulation 일반화는 제한적이다.
12
향후 과제
향후 과제는 learned cloth state representation, tactile feedback, category-level garment folding, failure recovery이다.
13
자원 공개
자원 공개는 project page와 PDF는 확인되지만 공식 코드·데이터셋 다운로드는 확인되지 않음.
Sources Checked
482
RA-L · 2023

KISS-ICP: In Defense of Point-to-Point ICP - Simple, Accurate, and Robust Registration If Done the Right Way

https://doi.org/10.1109/lra.2023.3236571
KISS-ICP는 adaptive threshold, robust kernel, deskewing, subsampling만 잘 설계하면 point-to-point ICP도 여러 LiDAR odometry benchmark에서 강력하다는 것을 보인 논문이다.
01
배경
LiDAR odometry는 자율주행, 매핑, 이동 로봇에서 3D scan stream만으로 ego-motion을 안정적으로 추정해야 한다.
02
문제
논문은 복잡한 feature engineering이나 IMU 없이 point-to-point ICP로 robust LiDAR odometry를 달성할 수 있는지 묻는다.
03
기존 한계
기존 최신 시스템은 많은 module과 sensor fusion을 추가해 성능을 높였지만 어떤 요소가 실제로 필요한지 불분명해졌다.
04
목표
목표는 핵심 구성만 남긴 간단한 LiDAR odometry pipeline이 다양한 platform과 dataset에서 SOTA급 성능을 낼 수 있음을 보이는 것이다.
05
방법
방법은 point-to-point ICP에 adaptive correspondence threshold, robust kernel, simple motion compensation, voxel subsampling을 결합한다.
06
핵심 아이디어
핵심 아이디어는 ICP 자체가 낡은 것이 아니라 threshold와 motion distortion 처리 등 기본기를 제대로 설계하면 충분히 강하다는 주장이다.
07
검증
검증은 automotive, UAV, handheld, Segway 등 다양한 LiDAR dataset에서 동일 parameter 성능을 비교하는 오프라인 odometry 평가이다.
08
결과
결과는 여러 조건에서 state-of-the-art와 동등하거나 경쟁적인 정확도를 보이고 sensor frame rate보다 빠르게 동작한다고 보고한다.
09
비교
비교는 LOAM 계열과 modern LiDAR odometry baseline을 대상으로 하며 단순성 대비 성능이 핵심 차별점이다.
10
의의
의의는 복잡성 증가가 항상 답이 아니라는 점을 실험적으로 보여 LiDAR SLAM 연구의 ablation 기준을 다시 세웠다.
11
한계
한계는 순수 LiDAR 기반이라 feature-poor geometry나 dynamic-heavy scene, global loop closure는 별도 구성에 의존한다.
12
향후 과제
향후 과제는 semantic filtering, loop closure, multi-session mapping, uncertainty-aware odometry, adverse weather evaluation이다.
13
자원 공개
자원 공개는 arXiv와 PRBonn/kiss-icp GitHub가 확인되며 현재도 유지되는 공개 구현이 있다.
Sources Checked
483
IJRR · 2015

Real-time large-scale dense RGB-D SLAM with volumetric fusion

https://doi.org/10.1177/0278364914551008
Kintinuous 계열 연구는 RGB-D SLAM에 volumetric fusion과 deformation-based loop closure를 결합해 큰 공간의 dense map을 실시간으로 만드는 방법을 제시했다.
01
배경
RGB-D SLAM은 camera pose뿐 아니라 로봇이 사용할 수 있는 dense 3D surface map을 실시간으로 만드는 요구가 있다.
02
문제
논문은 저가 RGB-D 센서 하나로 수백 미터 규모의 큰 환경을 dense volumetric map으로 재구성하는 문제를 다룬다.
03
기존 한계
기존 KinectFusion류 방법은 작은 작업공간에는 강하지만 fixed volume 때문에 대규모 환경과 loop closure에 취약했다.
04
목표
목표는 large-scale scene에서도 volumetric fusion 품질을 유지하면서 global consistency를 회복하는 dense RGB-D SLAM 시스템을 만드는 것이다.
05
방법
방법은 moving volume, pose tracking, volumetric fusion, deformation graph 기반 loop closure와 map correction을 결합한다.
06
핵심 아이디어
핵심 아이디어는 dense TSDF map을 streaming 방식으로 확장하고 loop closure 시 trajectory뿐 아니라 surface map 자체를 변형해 정합하는 것이다.
07
검증
검증은 실제 RGB-D sequence에서 대규모 실내 reconstruction 품질, trajectory consistency, runtime을 평가한다.
08
결과
결과는 commodity RGB-D sensor만으로 큰 공간의 globally consistent dense reconstruction을 실시간에 가깝게 생성할 수 있음을 보였다.
09
비교
비교는 KinectFusion과 sparse SLAM 대비 large-scale dense mapping과 loop correction이 강점이다.
10
의의
의의는 ElasticFusion 등 이후 dense visual SLAM 연구에서 surface fusion과 deformation correction의 중요성을 강화했다.
11
한계
한계는 RGB-D 센서 범위와 조명, dynamic object, memory 관리, 긴 sequence drift에 여전히 민감하다.
12
향후 과제
향후 과제는 learned geometry priors, semantic dynamic filtering, lifelong dense mapping, GPU memory-efficient representation이다.
13
자원 공개
자원 공개는 저자 페이지와 mp3guy/Kintinuous GitHub가 확인된다.
Sources Checked
484
Sci-Rob · 2022

Swarm of micro flying robots in the wild

https://doi.org/10.1126/scirobotics.abm5954
이 논문은 소형 quadrotor swarm이 야외 숲 같은 비정형 환경에서 onboard perception과 planning으로 충돌 없이 협동 비행하는 시스템을 보여준다.
01
배경
소형 비행 로봇 swarm은 탐색과 감시, 구조 작업에 유용하지만 야외 비정형 환경에서 충돌 없이 협동 비행하기 어렵다.
02
문제
논문은 외부 인프라 없이 여러 micro aerial robot이 unknown cluttered environment를 함께 비행하는 문제를 다룬다.
03
기존 한계
기존 swarm flight는 실내 motion capture나 단순 환경, offboard computation에 의존하는 경우가 많았다.
04
목표
목표는 onboard sensing, localization, mapping, trajectory planning을 결합해 실제 야외 환경에서 swarm autonomy를 보이는 것이다.
05
방법
방법은 lightweight perception, local mapping, decentralized planning, trajectory optimization, multi-robot coordination pipeline을 통합한다.
06
핵심 아이디어
핵심 아이디어는 swarm 각 개체가 작은 계산 자원으로 주변을 실시간 이해하고 충돌 회피 trajectory를 생성하도록 전체 시스템을 경량화한 점이다.
07
검증
검증은 실제 micro flying robots를 사용한 outdoor wild environment 비행 실험과 swarm scenario로 수행된다.
08
결과
결과는 논문 제목처럼 실험실 밖 자연 환경에서 micro robot swarm flight를 입증했으며 Science Robotics 공개 영상과 코드가 연결된다.
09
비교
비교는 controlled indoor swarm보다 실제 환경 난이도가 높고, single-robot planner보다 multi-agent coordination 요구가 크다.
10
의의
의의는 swarm robotics가 데모 중심 실내 환경을 넘어 야외 자율성 문제로 확장될 수 있음을 보여준 시스템 논문이다.
11
한계
한계는 특정 하드웨어와 환경 조건에 맞춘 통합 시스템이며 장기 임무, 악천후, 통신 실패, 대규모 swarm 확장은 남아 있다.
12
향후 과제
향후 과제는 semantic exploration, resilient communication, task allocation, safety guarantees, larger swarm scaling이다.
13
자원 공개
자원 공개는 DOI와 ZJU-FAST-Lab/EGO-Planner-v2 코드베이스가 확인된다.
Sources Checked
485
ICRA · 2009

Aerodynamics and control of autonomous quadrotor helicopters in aggressive maneuvering

https://doi.org/10.1109/robot.2009.5152561
이 논문은 quadrotor의 aggressive maneuver에서 aerodynamic effect를 모델링하고 제어해 고속·대각도 비행을 가능하게 한 초기 aerial robotics 연구이다.
01
배경
Quadrotor가 빠른 임무를 수행하려면 hover 근방의 단순 모델을 넘어 큰 자세 변화와 aerodynamic drag를 다루어야 한다.
02
문제
논문은 autonomous quadrotor가 aggressive maneuver를 수행할 때 필요한 공력 모델링과 제어 문제를 다룬다.
03
기존 한계
기존 quadrotor control은 small-angle hover assumption에 가까워 고속 이동이나 급격한 자세 변화에서 모델 오차가 커졌다.
04
목표
목표는 실험 기반 aerodynamic model과 controller를 통해 quadrotor의 aggressive flight envelope을 확장하는 것이다.
05
방법
방법은 quadrotor dynamics에 blade flapping 등 공력 효과를 포함하고 trajectory tracking controller로 실험 비행을 수행한다.
06
핵심 아이디어
핵심 아이디어는 aggressive flight의 실패를 제어 gain 부족이 아니라 간과된 aerodynamic force modeling 문제로 본 점이다.
07
검증
검증은 실제 quadrotor platform에서 빠른 비행과 급격한 maneuver tracking 실험으로 이루어진다.
08
결과
결과는 공력 보상이 포함된 모델이 aggressive maneuver tracking 성능을 높일 수 있음을 보였다.
09
비교
비교는 단순 rigid-body hover model 기반 제어보다 high-speed flight에서 모델 정확도가 중요하다는 점을 보여준다.
10
의의
의의는 quadrotor가 정적 hover 장난감이 아니라 동적 비행 로봇으로 발전하는 데 필요한 모델 기반 제어 축을 제공했다.
11
한계
한계는 modern learning-based agile flight나 onboard perception까지 포함하지 않으며 실험 환경과 platform specific tuning이 있다.
12
향후 과제
향후 과제는 vision-in-the-loop aggressive flight, aerodynamic learning, wind disturbance rejection, agile planning-control co-design이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
486
ICRA · 2011

Rapidly-exploring Random Belief Trees for motion planning under uncertainty

https://doi.org/10.1109/icra.2011.5980508
RRBT는 상태가 아니라 belief space에서 RRT식 탐색을 수행해 불확실성 아래 motion planning을 다룬 대표 연구이다.
01
배경
로봇은 센서와 제어가 불확실한 상황에서 단순 state trajectory가 아니라 belief evolution을 고려해 계획해야 한다.
02
문제
논문은 motion planning under uncertainty를 belief tree 탐색 문제로 풀어 충돌 위험과 정보 불확실성을 함께 다루는 문제를 제기한다.
03
기존 한계
기존 RRT는 deterministic state space를 빠르게 탐색하지만 uncertainty propagation과 chance constraint를 직접 표현하지 못했다.
04
목표
목표는 RRT의 탐색 장점을 belief space로 확장해 불확실한 시스템에도 적용 가능한 planner를 만드는 것이다.
05
방법
방법은 Gaussian belief, covariance propagation, graph dominance relation, sampling-based expansion으로 Rapidly-exploring Random Belief Tree를 구성한다.
06
핵심 아이디어
핵심 아이디어는 동일한 state라도 uncertainty가 다르면 다른 planning node로 보고 더 좋은 belief가 나쁜 belief를 지배하게 하는 것이다.
07
검증
검증은 불확실한 동역학과 관측 조건을 가진 planning benchmark에서 경로 성공 가능성과 비용을 평가하는 시뮬레이션 중심 실험이다.
08
결과
결과는 deterministic RRT보다 uncertainty-aware route를 찾을 수 있음을 보였지만 고차원 POMDP 전체를 푸는 범용 해법은 아니다.
09
비교
비교는 RRT류 sampling planner와 belief-space planning 접근을 배경으로 하며 uncertainty representation의 tractability가 강점이다.
10
의의
의의는 belief-space motion planning과 chance-constrained robotics에서 sampling 기반 확장 가능성을 보여주었다.
11
한계
한계는 Gaussian approximation과 covariance update에 의존하고 복잡한 non-Gaussian uncertainty나 high-dimensional perception state에는 부담이 크다.
12
향후 과제
향후 과제는 POMDP solvers, active perception, risk-sensitive planning, learned belief dynamics와의 결합이다.
13
자원 공개
자원 공개는 DOI와 MIT handle은 확인되지만 공식 코드 저장소는 확인되지 않음.
Sources Checked
487
RSS · 2019

Learning to Walk Via Deep Reinforcement Learning

https://doi.org/10.15607/rss.2019.xv.011
이 논문은 maximum-entropy deep reinforcement learning을 사용해 로봇 보행 정책을 비교적 적은 실제 trial로 학습하고 sim-to-real 보행 제어 가능성을 보인 연구이다.
01
배경
로봇 보행은 모델 기반 제어로도 가능하지만 다양한 하드웨어와 지형에 적응하는 정책을 자동 학습하려는 요구가 커졌다.
02
문제
논문은 deep reinforcement learning으로 legged robot walking policy를 sample-efficient하게 학습하는 문제를 다룬다.
03
기존 한계
기존 RL 보행 연구는 많은 simulation tuning이나 막대한 real-world trial이 필요해 실제 로봇 적용 비용이 컸다.
04
목표
목표는 minimal per-task tuning으로 안정적인 보행 정책을 학습할 수 있는 maximum-entropy RL 기반 접근을 보이는 것이다.
05
방법
방법은 Soft Actor-Critic 계열의 entropy-regularized off-policy RL을 사용해 locomotion policy를 학습하고 실험적 보행 task에 적용한다.
06
핵심 아이디어
핵심 아이디어는 policy entropy를 유지해 탐색과 안정성을 높이고 off-policy data reuse로 실제 trial 효율을 개선하는 것이다.
07
검증
검증은 시뮬레이션과 실제 legged robot walking 실험을 통해 학습 성공과 robustness를 평가한다.
08
결과
결과는 modest number of trials로 neural walking policy를 학습할 수 있음을 보였지만 task별 안전장치와 reward 설계는 여전히 중요하다.
09
비교
비교는 on-policy RL이나 hand-tuned controller 대비 sample efficiency와 tuning 부담 감소를 강조한다.
10
의의
의의는 SAC류 modern deep RL이 실제 로봇 locomotion에 적용될 수 있음을 널리 알린 기준 연구이다.
11
한계
한계는 reward shaping, safety during exploration, hardware wear, out-of-distribution terrain 대응이 완전히 해결되지 않았다.
12
향후 과제
향후 과제는 offline RL, safe exploration, sim-to-real adaptation, terrain-aware locomotion, foundation policy로의 확장이다.
13
자원 공개
자원 공개는 RSS DOI와 arXiv는 확인되지만 논문 공식 코드 링크는 확인되지 않음.
Sources Checked
488
T-RO · 2009

Powered Ankle--Foot Prosthesis Improves Walking Metabolic Economy

https://doi.org/10.1109/tro.2008.2008747
이 논문은 powered ankle-foot prosthesis가 push-off power를 능동적으로 제공해 절단 보행의 metabolic cost를 낮출 수 있음을 보인 재활 로봇 연구이다.
01
배경
하퇴 절단 보행에서는 발목 push-off 기능 상실 때문에 보행 에너지 비용이 증가하고 보행 대칭성이 나빠질 수 있다.
02
문제
논문은 능동 발목-발 보철이 사용자의 walking metabolic economy를 실제로 개선하는지 평가하는 문제를 다룬다.
03
기존 한계
기존 passive prosthesis는 에너지를 저장·반환할 수는 있지만 정상 발목처럼 순 positive work를 능동적으로 공급하기 어렵다.
04
목표
목표는 powered ankle-foot prosthesis가 보행 중 필요한 ankle work를 보조해 생리적 비용을 줄이는지 실험적으로 검증하는 것이다.
05
방법
방법은 모터 구동 ankle-foot prosthesis와 gait control을 사용하고 사용자 보행에서 metabolic cost와 biomechanics를 측정한다.
06
핵심 아이디어
핵심 아이디어는 보철 발목을 수동 spring이 아니라 보행 phase에 맞춰 기계적 일을 넣는 active actuator로 설계한 점이다.
07
검증
검증은 하퇴 절단 사용자 또는 실험 참가자의 treadmill walking에서 대사 에너지와 gait parameter를 측정하는 human-subject experiment이다.
08
결과
결과는 powered prosthesis가 보행 metabolic economy를 개선할 수 있음을 보였지만 사용자 수와 장기 적응 효과는 제한적이다.
09
비교
비교는 passive-elastic prosthesis 대비 active push-off가 기능적으로 다르다는 점을 보여준다.
10
의의
의의는 wearable robotics와 assistive prosthetics에서 에너지 주입형 보조가 실제 생리적 이득을 줄 수 있음을 입증했다.
11
한계
한계는 장치 무게, 배터리, 사용자별 tuning, 장기 임상 효과, 다양한 지형 보행이 남아 있다.
12
향후 과제
향후 과제는 adaptive prosthesis control, terrain-aware assistance, long-term clinical trials, lightweight actuator design이다.
13
자원 공개
자원 공개는 DOI와 MIT DSpace record는 확인되지만 설계 파일·제어 코드·임상 데이터 공개는 확인되지 않음.
Sources Checked
489
ICRA · 2017

Deep fruit detection in orchards

https://doi.org/10.1109/icra.2017.7989417
이 논문은 Faster R-CNN류 detector와 tiling strategy를 이용해 orchard image에서 다량의 과실을 검출하는 agricultural robotics 연구이다.
01
배경
농업 로봇과 수확량 추정은 나무 환경에서 과실을 정확히 세고 위치를 찾는 perception 능력이 필요하다.
02
문제
논문은 과수원 이미지에서 겹침과 작은 객체, 조명 변화가 있는 과실을 deep detector로 검출하는 문제를 다룬다.
03
기존 한계
기존 handcrafted color/shape detector는 과실 종류, 조명, occlusion 변화에 취약했다.
04
목표
목표는 deep object detection을 orchard setting에 적용하고 필요한 학습 데이터 규모와 inference strategy를 분석하는 것이다.
05
방법
방법은 Faster R-CNN 기반 detector를 과일 이미지에 학습시키고 한 이미지에 100-1000개 과실이 있을 때 tiling을 적용한다.
06
핵심 아이디어
핵심 아이디어는 자연 과수원 이미지의 작은 과실 밀집 문제를 detector architecture만이 아니라 image tiling과 데이터 다양성 문제로 함께 다룬 것이다.
07
검증
검증은 여러 농장과 과일 종류의 orchard dataset에서 detection 성능과 data ablation을 평가하는 오프라인 실험이다.
08
결과
결과는 deep detector가 전통 vision보다 강한 fruit detection 성능을 보이고 데이터 요구량과 deployment 조건을 분석했다.
09
비교
비교는 handcrafted orchard detection보다 representation learning이 변화에 더 강하다는 점을 보여준다.
10
의의
의의는 agricultural robotics에서 deep learning perception이 실용적 수확량 추정과 자동 수확으로 이어질 수 있음을 보였다.
11
한계
한계는 과일 종류와 지역·계절 변화, occlusion, annotation 비용, real-time onboard deployment가 여전히 어렵다.
12
향후 과제
향후 과제는 domain adaptation, multi-season dataset, 3D fruit localization, robot harvesting closed-loop integration이다.
13
자원 공개
자원 공개는 arXiv와 ACFR Orchard Fruit Dataset 언급은 확인되지만 공식 데이터 다운로드 상태는 별도 확인 필요.
Sources Checked
490
IROS · 2019

Frustum ConvNet: Sliding Frustums to Aggregate Local Point-Wise Features for Amodal 3D Object Detection

https://doi.org/10.1109/iros40897.2019.8968513
Frustum ConvNet은 2D proposal에서 생성한 sliding frustum 안의 point-wise feature를 FCN으로 집계해 amodal 3D object box를 예측하는 detection 방법이다.
01
배경
3D object detection은 카메라의 2D proposal과 point cloud의 3D geometry를 어떻게 연결하느냐가 성능을 좌우한다.
02
문제
논문은 2D detector가 제안한 frustum 내부 point를 사용해 amodal 3D bounding box를 예측하는 문제를 다룬다.
03
기존 한계
기존 frustum 기반 방법은 point feature aggregation과 공간 해상도 유지가 제한되어 local geometry를 충분히 활용하지 못했다.
04
목표
목표는 sliding frustum representation으로 local point-wise feature를 잘 모아 indoor와 outdoor 모두에서 강한 3D detection을 달성하는 것이다.
05
방법
방법은 2D region proposal에서 여러 frustum을 만들고 각 frustum의 point features를 배열해 fully convolutional network로 box를 추정한다.
06
핵심 아이디어
핵심 아이디어는 frustum을 하나의 큰 공간으로만 보지 않고 sliding slices로 나누어 local 3D evidence를 연속적으로 집계하는 것이다.
07
검증
검증은 SUN-RGBD와 KITTI dataset에서 3D object detection metric으로 수행된 오프라인 benchmark 평가이다.
08
결과
결과는 arXiv 초록 기준 SUN-RGBD에서 기존 방법을 넘고 KITTI 제출 당시 published methods보다 강한 성능을 보고했다.
09
비교
비교는 Frustum PointNet류와 KITTI/SUN-RGBD detector를 대상으로 하며 2D detector 의존성은 공통 전제다.
10
의의
의의는 camera proposal 기반 3D detection에서 point feature aggregation 설계의 중요성을 보여주었다.
11
한계
한계는 2D detector recall에 상한을 받으며 end-to-end sensor fusion이나 temporal tracking은 직접 다루지 않는다.
12
향후 과제
향후 과제는 transformer-based fusion, temporal detection, lidar-camera uncertainty, fully end-to-end multimodal detector이다.
13
자원 공개
자원 공개는 arXiv와 zhixinwang/frustum-convnet GitHub가 확인된다.
Sources Checked
491
T-ASE · 2020

Neural RRT*: Learning-Based Optimal Path Planning

https://doi.org/10.1109/tase.2020.2976560
Neural RRT*는 learning module로 sampling 또는 expansion을 안내해 RRT*의 optimal path planning 효율을 높이려는 학습 기반 planning 연구이다.
01
배경
Sampling-based optimal planning은 이론적으로 강하지만 복잡한 환경에서 좋은 해로 수렴하기까지 많은 sample이 필요하다.
02
문제
논문은 RRT*류 planner에 neural learning을 넣어 탐색 효율과 경로 품질을 높이는 문제를 다룬다.
03
기존 한계
기존 RRT*는 무작위 sampling에 크게 의존해 구조가 있는 환경에서도 불필요한 탐색이 많다.
04
목표
목표는 과거 계획 경험이나 환경 표현을 이용해 optimal path planning을 더 빠르게 만드는 learning-guided RRT*를 제시하는 것이다.
05
방법
방법은 neural network가 promising region 또는 planning decision을 예측하고 RRT*의 sampling/rewiring 과정과 결합한다.
06
핵심 아이디어
핵심 아이디어는 RRT*의 completeness·optimality 장점을 유지하려는 고전 planner 위에 data-driven prior를 얹는 것이다.
07
검증
검증은 2D 또는 robot path planning benchmark에서 path cost, planning time, success rate를 기존 RRT*와 비교하는 방식으로 수행된다.
08
결과
결과는 학습된 guidance가 탐색 시간을 줄이고 near-optimal path를 더 빨리 찾을 수 있음을 보였다.
09
비교
비교는 vanilla RRT*, RRT*-variant와 수행되며 neural prior가 강하지만 training distribution 밖 일반화는 별도 이슈다.
10
의의
의의는 classical motion planning과 neural prediction을 결합하는 hybrid planner 흐름의 대표적 사례이다.
11
한계
한계는 학습 데이터 생성 비용, unseen environment 일반화, 이론 보장 유지 조건이 실제 성능을 좌우한다.
12
향후 과제
향후 과제는 point-cloud scene input, uncertainty-aware guidance, safety guarantees, robot dynamics와 kinodynamic planning으로 확장이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 이 논문 공식 GitHub는 확인되지 않음.
Sources Checked
492
ICRA · 2019

Tightly Coupled 3D Lidar Inertial Odometry and Mapping

https://doi.org/10.1109/icra.2019.8793511
LIO-mapping은 LiDAR feature와 IMU measurement를 joint optimization으로 묶어 빠른 motion과 feature-poor 상황에서도 pose를 추정하는 tightly-coupled LiDAR-inertial SLAM 방법이다.
01
배경
LiDAR odometry는 빠른 움직임이나 feature 부족 상황에서 단독 scan matching만으로는 drift와 왜곡이 커질 수 있다.
02
문제
논문은 3D LiDAR와 IMU를 tight coupling으로 융합해 odometry와 mapping을 수행하는 문제를 다룬다.
03
기존 한계
기존 loosely coupled LIO는 센서 간 제약을 충분히 활용하지 못하고 LiDAR degradation에서 안정성이 떨어질 수 있었다.
04
목표
목표는 LiDAR와 IMU residual을 함께 최소화해 빠른 motion에서도 고정밀 pose를 IMU update rate로 추정하는 것이다.
05
방법
방법은 LiDAR edge/plane feature residual과 IMU preintegration constraint를 joint optimization에 넣고 LIO-mapping refinement로 global map에 정합한다.
06
핵심 아이디어
핵심 아이디어는 LiDAR pose를 나중에 IMU로 보정하는 대신 두 센서의 관측을 하나의 비용 함수에서 동시에 설명하는 것이다.
07
검증
검증은 실내·실외 fast motion dataset과 challenging LiDAR feature condition에서 trajectory 성능을 평가한다.
08
결과
결과는 빠른 motion이나 feature가 부족한 상황에서도 acceptable drift와 high precision을 보였다고 보고한다.
09
비교
비교는 LOAM 계열과 VINS-Mono 구성요소를 배경으로 하며 tightly-coupled fusion의 이점을 강조한다.
10
의의
의의는 FAST-LIO, LIO-SAM 등 이후 LiDAR-inertial SLAM 계열이 발전하는 흐름에서 중요한 전환점 중 하나이다.
11
한계
한계는 feature extraction과 calibration, IMU quality에 의존하며 dynamic object와 loop closure를 완전하게 해결하지 않는다.
12
향후 과제
향후 과제는 factor graph smoothing, direct LiDAR residual, online calibration, dynamic filtering, large-scale loop closure이다.
13
자원 공개
자원 공개는 arXiv, project page, hyye/lio-mapping GitHub가 확인된다.
Sources Checked
493
Sci-Rob · 2018

A soft, bistable valve for autonomous control of soft actuators

https://doi.org/10.1126/scirobotics.aar7986
이 논문은 snap-through bistability를 이용한 soft valve로 외부 전자 제어 없이 pneumatic soft actuator의 자율적인 on/off와 oscillation을 구현한다.
01
배경
Soft pneumatic robot은 부드러운 actuator를 쓰지만 제어에는 여전히 단단한 valve와 전자 장치가 필요한 경우가 많다.
02
문제
논문은 soft actuator 안에 control logic을 넣기 위해 부드러운 bistable valve를 설계하는 문제를 다룬다.
03
기존 한계
기존 soft robot은 actuator는 soft라도 valve와 controller가 rigid하고 외부 장치에 묶여 완전한 autonomous softness가 제한되었다.
04
목표
목표는 전원 없이 상태를 유지하고 압력 조건에 따라 전환되는 soft bistable valve를 만들어 soft pneumatic circuit을 구성하는 것이다.
05
방법
방법은 elastomeric membrane의 snap-through instability를 이용해 두 stable state를 만들고 pressure threshold를 geometry로 조절한다.
06
핵심 아이디어
핵심 아이디어는 제어를 전자 신호가 아니라 재료와 구조의 불안정성에 내장해 pneumatic logic으로 바꾸는 것이다.
07
검증
검증은 valve pressure response, pneumatic oscillator, autonomous gripper와 earthworm-like locomotion demonstration으로 이루어진다.
08
결과
결과는 단일 constant pressure source로도 주기 운동과 autonomous grasping을 만들 수 있음을 보였다.
09
비교
비교는 hard solenoid valve 기반 제어보다 soft body 안에 control function을 통합할 수 있다는 점이 다르다.
10
의의
의의는 soft robot에서 computation과 control이 재료 구조 자체에 배치될 수 있음을 보여준 대표적 material-logic 연구이다.
11
한계
한계는 복잡한 다자유도 제어, 정밀 timing, 외란 적응, 대규모 회로 설계에는 아직 제한이 있다.
12
향후 과제
향후 과제는 soft pneumatic logic network, integrated sensing, programmable materials, untethered soft robot 제어이다.
13
자원 공개
자원 공개는 DOI, Whitesides group page, PDF와 supplementary는 확인되지만 CAD·코드 데이터셋은 확인되지 않음.
Sources Checked
494
T-Mech · 2014

Design Principles for Energy-Efficient Legged Locomotion and Implementation on the MIT Cheetah Robot

https://doi.org/10.1109/tmech.2014.2339013
이 논문은 MIT Cheetah의 설계와 실험을 통해 고토크밀도 모터, 낮은 손실 전달계, 저관성 다리, 에너지 재생이 효율적 legged locomotion에 중요함을 정리했다.
01
배경
다리 로봇이 실제 이동 플랫폼이 되려면 속도뿐 아니라 에너지 효율과 충격 내구성도 함께 만족해야 한다.
02
문제
논문은 효율적인 legged locomotion을 위해 어떤 구동기와 기구 설계 원리가 필요한지 MIT Cheetah 구현으로 검증하는 문제를 다룬다.
03
기존 한계
기존 legged robot은 높은 에너지 소비, 큰 transmission loss, 무거운 다리 관성 때문에 동물 수준 효율과 거리가 있었다.
04
목표
목표는 에너지 손실 메커니즘을 분석하고 이를 줄이는 설계 원리를 실제 MIT Cheetah 로봇에 반영하는 것이다.
05
방법
방법은 actuator heat loss, transmission friction, ground interaction loss를 분석하고 고토크밀도 motor와 저손실 transmission, low leg inertia 설계를 적용한다.
06
핵심 아이디어
핵심 아이디어는 보행 효율을 controller tuning 이전에 actuator-transmission-leg mechanical co-design 문제로 본 것이다.
07
검증
검증은 MIT Cheetah의 trotting experiment와 cost of transport, 속도, 기계 설계 분석으로 이루어진다.
08
결과
결과는 MIT Cheetah가 기존 로봇 대비 낮은 transport cost 영역에 접근했음을 보였으며 논문은 TCoT 비교 plot을 제시한다.
09
비교
비교는 ASIMO, BigDog, iSprawl 등 기존 로봇과 동물의 효율 지표를 배경으로 한다.
10
의의
의의는 이후 proprioceptive actuator와 dynamic quadruped 연구에서 하드웨어 설계 원리의 기준이 되었다.
11
한계
한계는 특정 로봇 구조에 맞춘 설계라 모든 지형과 보행 형태, autonomy stack까지 일반화되지는 않는다.
12
향후 과제
향후 과제는 더 가벼운 actuator, 내구성 높은 transmission, learning/MPC 기반 locomotion과 hardware co-design이다.
13
자원 공개
자원 공개는 DOI, MIT Biomimetics publication, 공개 PDF 후보는 확인되지만 전체 설계 파일·코드는 확인되지 않음.
Sources Checked
495
RSS · 2015

IMU Preintegration on Manifold for Efficient Visual-Inertial Maximum-a-Posteriori Estimation

https://doi.org/10.15607/rss.2015.xi.006
이 논문은 IMU measurement를 manifold 위에서 preintegrate해 keyframe pose가 바뀌어도 IMU factor를 효율적으로 재사용하는 visual-inertial MAP estimation의 핵심 기법을 제시했다.
01
배경
Visual-inertial SLAM은 카메라 keyframe 사이의 고주파 IMU 측정을 효율적으로 factor graph에 넣어야 한다.
02
문제
논문은 bias와 pose linearization이 바뀌어도 IMU integration을 매번 다시 하지 않는 preintegration 문제를 다룬다.
03
기존 한계
기존 IMU factor는 optimization 중 상태 추정이 변할 때 재적분 비용이 크고 rotation manifold 처리도 까다로웠다.
04
목표
목표는 SO(3) manifold에서 IMU measurement를 preintegrate해 efficient maximum-a-posteriori visual-inertial estimation을 가능하게 하는 것이다.
05
방법
방법은 consecutive keyframes 사이 IMU를 local frame에서 preintegrate하고 bias correction과 covariance propagation을 factor graph에 넣는다.
06
핵심 아이디어
핵심 아이디어는 IMU 적분을 global pose 추정값과 분리해 local relative motion factor로 저장함으로써 graph optimization을 빠르게 만드는 것이다.
07
검증
검증은 visual-inertial estimation benchmark와 simulation/real data에서 accuracy와 efficiency를 평가하는 방식으로 수행된다.
08
결과
결과는 preintegration이 정확도를 유지하면서 계산량을 크게 줄이고 smoothing-based VIO를 실용화함을 보였다.
09
비교
비교는 naive reintegration이나 filter-based VIO 대비 graph optimization 안에서 IMU를 효율적으로 쓰는 점이 강점이다.
10
의의
의의는 GTSAM, VINS, ORB-SLAM3, Kimera 등 현대 VIO/SLAM backend의 핵심 factor 설계에 직접 영향을 준 논문이다.
11
한계
한계는 Gaussian noise, accurate calibration, bias model에 의존하고 severe vibration이나 time offset에는 별도 보정이 필요하다.
12
향후 과제
향후 과제는 online temporal calibration, robust IMU noise modeling, event/rolling-shutter camera와의 preintegration 확장이다.
13
자원 공개
자원 공개는 RSS paper와 DOI는 확인되며 공개 구현은 GTSAM 등 후속 라이브러리에서 확인되지만 논문 전용 repo는 확인되지 않음.
Sources Checked
496
RA-L · 2023

Orbit: A Unified Simulation Framework for Interactive Robot Learning Environments

https://doi.org/10.1109/lra.2023.3270034
Orbit은 NVIDIA Isaac Sim 위에서 로봇 학습 환경, 센서, 로봇 플랫폼, benchmark task를 모듈형으로 구성하는 interactive robot learning framework이다.
01
배경
로봇 학습 연구는 photorealistic rendering, rigid/deformable physics, 다양한 로봇과 sensor를 함께 다룰 수 있는 시뮬레이션 기반이 필요하다.
02
문제
논문은 reinforcement learning, imitation learning, task planning 연구가 공유할 수 있는 통합 robot learning simulation framework를 만드는 문제를 다룬다.
03
기존 한계
기존 환경은 특정 task나 simulator에 묶여 sensor modality, deformable object, mobile manipulation을 동시에 다루기 어려웠다.
04
목표
목표는 Isaac Sim의 물리·렌더링 기능을 활용해 다양한 로봇 플랫폼과 task를 빠르게 구성하고 benchmark화하는 것이다.
05
방법
방법은 World와 Agent abstraction, sensor/action interface, task template, learning library wrapper를 제공하는 modular framework를 설계한다.
06
핵심 아이디어
핵심 아이디어는 환경 정의와 agent computation graph를 분리해 같은 세계에서 RL, imitation, planning task를 다르게 잘라낼 수 있게 한 점이다.
07
검증
검증은 framework 기능과 benchmark task suite, 병렬 학습·demonstration collection 예시로 수행된다.
08
결과
결과는 arXiv 초록 기준 16 robot platforms, 4 sensor modalities, 10 motion generators, 20+ benchmark tasks를 제공한다고 보고한다.
09
비교
비교는 MuJoCo·PyBullet·Gazebo류보다 photorealistic scene과 Isaac Sim sensor/physics 통합이 강점이지만 hardware requirement가 크다.
10
의의
의의는 Isaac Lab으로 이어지는 modern robot learning simulation ecosystem의 전신 역할을 했다.
11
한계
한계는 고사양 GPU와 Isaac Sim 의존성이 있고, simulation fidelity가 곧 real-world transfer를 보장하지 않는다.
12
향후 과제
향후 과제는 real-to-sim asset pipeline, sim-to-real benchmark, multi-robot task, LLM/VLA agent integration이다.
13
자원 공개
자원 공개는 arXiv와 isaac-orbit project가 확인되며 현재 생태계는 Isaac Lab 계열로 이어지는 것으로 보인다.
Sources Checked
497
IROS · 2003

Resolved momentum control: humanoid motion planning based on the linear and angular momentum

https://doi.org/10.1109/iros.2003.1248880
이 논문은 휴머노이드 전신 운동을 선형·각운동량 관점에서 계획하고 제어하는 resolved momentum control 개념을 제시한 연구이다.
01
배경
휴머노이드 운동은 손발 위치뿐 아니라 전신의 선형·각운동량을 조절해야 균형과 동작을 동시에 만족한다.
02
문제
논문은 humanoid motion planning을 linear and angular momentum 제어 문제로 정식화하는 방법을 다룬다.
03
기존 한계
기존 joint-space 또는 ZMP 중심 접근은 전신 운동량과 상체·팔 움직임의 균형 효과를 명시적으로 다루기 어려웠다.
04
목표
목표는 원하는 momentum behavior를 생성하고 이를 humanoid joint motion으로 해석하는 resolved momentum control framework를 제안하는 것이다.
05
방법
방법은 centroidal momentum 관계를 사용해 task-level momentum command와 joint velocity 또는 acceleration을 연결한다.
06
핵심 아이디어
핵심 아이디어는 휴머노이드 균형을 발 위치만이 아니라 전신 질량 분포와 각운동량 조절의 문제로 본 점이다.
07
검증
검증은 humanoid motion generation 시뮬레이션 또는 로봇 모델 예제를 통해 momentum-based planning 효과를 보이는 방식이다.
08
결과
결과는 복잡한 humanoid motion을 momentum variable로 계획할 수 있음을 보여주지만 현대 whole-body QP와 직접 비교되지는 않는다.
09
비교
비교는 ZMP-only 또는 joint trajectory planning보다 전신 동역학을 더 직접 반영한다는 점이 차별점이다.
10
의의
의의는 centroidal momentum dynamics와 whole-body control이 humanoid robotics 핵심 도구가 되는 흐름에 기여했다.
11
한계
한계는 접촉 전환, friction cone, torque limit를 모두 통합한 현대 optimization formulation보다는 단순화되어 있다.
12
향후 과제
향후 과제는 whole-body MPC, multi-contact planning, angular momentum regulation, humanoid manipulation과의 통합이다.
13
자원 공개
자원 공개는 DOI/OpenAlex는 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
498
IROS · 2020

CLOCs: Camera-LiDAR Object Candidates Fusion for 3D Object Detection

https://doi.org/10.1109/iros45743.2020.9341791
CLOCs는 2D detector와 3D detector의 후보 box를 NMS 전에 결합해 camera-LiDAR object candidate consistency로 3D detection을 개선하는 late-fusion 방법이다.
01
배경
자율주행 3D detection에서는 LiDAR와 camera가 상보적이지만 단순 feature fusion이 항상 단일 modality보다 낫지는 않았다.
02
문제
논문은 어떤 2D detector와 3D detector의 후보 결과도 결합해 최종 detection을 개선하는 decision-level fusion 문제를 다룬다.
03
기존 한계
기존 early/deep fusion은 detector 구조에 강하게 묶이고, late fusion은 단순 score 평균으로 geometric consistency를 충분히 활용하지 못했다.
04
목표
목표는 NMS 이전의 2D·3D candidate를 함께 보고 더 정확한 3D/2D detection score를 만드는 low-complexity fusion network를 제시하는 것이다.
05
방법
방법은 3D box를 image plane에 투영하고 2D box와의 geometric relationship 및 confidence를 CLOCs network에 입력한다.
06
핵심 아이디어
핵심 아이디어는 raw sensor feature가 아니라 detector candidate 사이의 위치·의미 일관성을 학습해 임의 detector 위에 붙일 수 있게 한 점이다.
07
검증
검증은 KITTI 3D object detection benchmark에서 SECOND와 Cascade R-CNN 등 detector 조합으로 수행된다.
08
결과
결과는 GitHub README 기준 KITTI validation에서 SECOND 대비 Car 3D AP가 moderate 기준 79.94에서 82.90으로 개선되는 예시를 제공한다.
09
비교
비교는 LiDAR-only SECOND와 기존 fusion method를 대상으로 하며 강한 detector 출력 위에 추가 이득을 보이는 설정이다.
10
의의
의의는 camera-LiDAR fusion을 feature engineering이 아니라 candidate-level consistency learning으로 단순화한 실용적 방법이다.
11
한계
한계는 2D·3D detector quality에 상한을 받고, pedestrian/cyclist 및 다른 dataset 일반화는 추가 tuning이 필요하다.
12
향후 과제
향후 과제는 detector-agnostic robust fusion, temporal candidate fusion, uncertainty calibration, end-to-end differentiable NMS integration이다.
13
자원 공개
자원 공개는 arXiv와 pangsu0613/CLOCs GitHub가 확인된다.
Sources Checked
499
T-RO · 2004

From Reeds and Shepp's to continuous-curvature paths

https://doi.org/10.1109/tro.2004.833789
이 논문은 Reeds-Shepp car의 shortest path를 실제 차량이 따라가기 쉬운 continuous-curvature path로 확장해 curvature discontinuity 문제를 완화했다.
01
배경
비홀로노믹 차량형 로봇은 길이만 짧은 경로보다 steering curvature가 물리적으로 연속인 경로가 필요하다.
02
문제
논문은 Reeds-Shepp shortest path가 가진 curvature jump를 줄여 실제 차량 제어에 적합한 경로를 만드는 문제를 다룬다.
03
기존 한계
기존 Reeds-Shepp path는 전진·후진 가능한 차량의 최단 경로를 주지만 segment 전환에서 곡률이 불연속이라 추종이 어렵다.
04
목표
목표는 Reeds-Shepp family의 장점을 유지하면서 curvature continuity를 만족하는 path class를 제시하는 것이다.
05
방법
방법은 직선과 원호 segment 사이에 clothoid류 전이 또는 curvature-continuous primitives를 넣어 경로를 구성한다.
06
핵심 아이디어
핵심 아이디어는 기하학적 최단성만이 아니라 steering actuator와 승차감이 요구하는 curvature smoothness를 planning constraint로 올린 것이다.
07
검증
검증은 경로 생성 예제와 차량형 로봇 motion planning scenario에서 path length와 curvature profile을 분석하는 방식이다.
08
결과
결과는 Reeds-Shepp 경로보다 약간 길 수 있지만 실제 추종 가능한 smooth path를 생성할 수 있음을 보였다.
09
비교
비교는 Dubins/Reeds-Shepp path 대비 continuous-curvature requirement를 만족한다는 점이 핵심이다.
10
의의
의의는 autonomous vehicle과 car-like robot path planning에서 curvature-continuous primitives의 중요성을 널리 알린 고전 논문이다.
11
한계
한계는 dynamic constraints, obstacle-rich global planning, uncertainty, comfort objective까지 모두 포함하지는 않는다.
12
향후 과제
향후 과제는 kinodynamic planning, MPC tracking, comfort-aware autonomous driving, curvature-continuous lattice planner이다.
13
자원 공개
자원 공개는 DOI와 HAL 공개본은 확인되지만 공식 코드·데이터셋은 확인되지 않음.
Sources Checked
500
RSS · 2018

Asymmetric Actor Critic for Image-Based Robot Learning

https://doi.org/10.15607/rss.2018.xiv.008
Asymmetric Actor Critic은 simulation에서 critic만 full state를 보고 actor는 RGB-D observation으로 행동하게 학습해 image-based robot RL의 sample efficiency와 sim-to-real 성능을 높이는 방법이다.
01
배경
로봇 RL은 실제 로봇에서 직접 학습하기 비싸고 위험해 simulation을 활용하지만, 실제 배포 정책은 부분 관측 이미지에 의존해야 한다.
02
문제
논문은 simulation의 privileged full state를 학습 중에는 쓰되 배포 시에는 image observation만 쓰는 robot learning 문제를 다룬다.
03
기존 한계
기존 image-based RL은 perception과 control을 동시에 학습해야 해 sample efficiency가 낮고, state-based policy는 real robot에 바로 쓸 수 없었다.
04
목표
목표는 actor는 RGB-D image로 행동하고 critic은 simulation full state로 더 정확한 learning signal을 주는 asymmetric actor-critic을 제안하는 것이다.
05
방법
방법은 actor-critic 구조에서 policy input과 value/critic input을 다르게 두고 domain randomization과 함께 simulated manipulation task를 학습한다.
06
핵심 아이디어
핵심 아이디어는 학습 때만 접근 가능한 simulator state를 teacher signal처럼 critic에 넣어 partial observation actor의 학습을 안정화하는 것이다.
07
검증
검증은 여러 simulated manipulation task와 picking, pushing, block moving 같은 real robot transfer experiment로 수행된다.
08
결과
결과는 asymmetric input이 image-only actor-critic보다 성능을 개선하고 실제 데이터 없이 sim-to-real transfer를 보였다고 보고한다.
09
비교
비교는 symmetric image-based actor-critic과 state-based training setting을 대상으로 하며 privileged critic의 이점을 보여준다.
10
의의
의의는 이후 privileged learning, asymmetric critic, sim-to-real RL에서 널리 쓰이는 training-only information 패턴을 정리한 대표 연구이다.
11
한계
한계는 simulator state와 domain randomization 품질에 의존하고 복잡한 real-world contact나 long-horizon task에는 추가 구조가 필요하다.
12
향후 과제
향후 과제는 offline real data 결합, representation learning, language-conditioned manipulation, safety-aware deployment이다.
13
자원 공개
자원 공개는 RSS DOI와 arXiv는 확인되며 논문 공식 코드 링크는 확인되지 않고 비공식 구현만 확인된다.
Sources Checked