IT··6 min read

휴머노이드 로봇 발전 현황

2025년 말 기준 휴머노이드 로봇이 어디까지 왔는지, 직접 조사해본 기록

CES에서 본 영상이 계기였다

올해 CES에서 Figure 02 로봇이 커피를 내리는 영상을 봤다. 자연스럽게 컵을 집고, 머신에 넣고, 버튼을 누른다. 2년 전만 해도 이런 동작이 로봇에게는 엄청나게 어려운 일이었는데. 그때부터 "지금 휴머노이드가 어디까지 온 거지?" 궁금해서 조사를 시작했다. (개발자의 직업병이다. 궁금하면 파고든다.)

주요 플레이어 정리

테슬라 옵티머스: 머스크가 2025년 내 제한적 판매를 예고했는데, 실제로는 공장 내 파일럿 테스트 수준이다. 반복적인 물류 작업을 수행한다. 가격은 미정이지만 "자동차보다 싸게"라고 했으니 2만 달러 이하를 목표로 하는 듯.

Figure AI: OpenAI와 협업해서 대화하면서 작업하는 로봇을 만들고 있다. "이 테이블 위에 있는 것 중에 먹을 수 있는 거 줘"라고 하면 사과를 집어서 건네준다. 자연어 이해 + 물체 인식 + 조작을 동시에 하는 게 인상적이다.

보스턴 다이내믹스 아틀라스: 전기 구동 버전으로 전환했다. 유압식보다 조용하고 제어가 정밀하다. 근데 가격이 문제. 한 대에 수억 원대로 추정된다. 상업화까지는 멀었다.

중국의 유니트리: H1 모델이 시속 3.3m로 달리는 영상이 돌았다. 가격이 9만 달러부터. 다른 업체 대비 압도적으로 저렴하다. 근데 정밀 조작 능력은 아직 Figure나 테슬라보다 뒤처진다.

근데 실제로 쓸 수 있는 수준인가

솔직히 아직 아니다. 데모 영상에서 보여주는 것과 실제 환경에서의 성능은 다르다. 통제된 환경에서 커피를 내리는 건 가능하지만, 일반 가정에서 설거지를 하려면 아직 한참 멀었다.

가장 큰 기술적 장벽은 세 가지다. 다양한 물체를 잡는 손의 정밀도(계란을 깨지 않고 집기), 예상치 못한 상황에 대한 대응(바닥에 물이 있으면?), 배터리 수명(현재 대부분 2~4시간).

개발자 관점에서 재미있는 점

로봇 제어 소프트웨어가 LLM과 결합되면서 프로그래밍 패러다임이 바뀌고 있다. 예전에는 "팔을 30도 올려" 같은 저수준 명령을 일일이 프로그래밍했는데, 이제는 "테이블 위의 컵을 치워줘"라는 고수준 명령을 LLM이 해석하고, 행동 계획을 세우고, 로봇이 실행하는 구조다.

이건 웹 개발에서 jQuery에서 React로 넘어간 것과 비슷한 추상화 레벨 변화라고 느껴진다. 저수준 DOM 조작에서 선언적 UI로 넘어간 것처럼, 로봇 제어도 저수준 모터 제어에서 의도 기반 명령으로 넘어가고 있다.

일자리 걱정은 좀 이르다

"로봇이 일자리를 빼앗을까"라는 질문을 많이 받는다. 솔직한 답변은 "아직은 아니다, 근데 언젠가는." 반복적인 물류 작업이 가장 먼저 대체될 거고, 그 다음이 단순 제조업. 창의적이거나 사회적 상호작용이 필요한 일은 가장 나중이다.

개발자는? AI가 코드를 짜는 것보다 로봇이 육체노동을 대체하는 게 먼저 올 것 같다. 근데 5년 뒤에는 모르겠다. 5년 전에 ChatGPT를 예측한 사람이 몇 명이나 될까.

현재 시점에서 확실한 건, 로봇 공학이 소프트웨어 엔지니어링과 점점 가까워지고 있다는 것. ROS 2를 공부해볼까 잠깐 생각했다가 그만뒀다. (결국 안 하겠지.)

관련 글