본문 바로가기
정보&뉴스

메타의 스마트 안경, 초점 맞춰지다

by 콘데미앙 2025. 7. 15.

요약

메타는 새로운 아리아 젠 2 (Aria Gen 2) 스마트 안경을 공개하며, 사람의 시점에서 실시간 멀티센서 데이터를 수집해 AI 학습에 활용할 수 있는 혁신적 플랫폼을 제시했다. 이 장치는 5개의 카메라, 8개의 마이크, 심박 센서, GPS, IMU, PPG 등 다양한 센서를 탑재했으며, 3D 손 추적, 소음 속 음성 인식, 실시간 장면 재구성 등을 지원한다. 클라우드 연동 및 로컬 처리도 가능하고, 시간 정보 동기화도 뛰어나다.

Aria는 증강현실, 로봇훈련, 맥락 인식형 AI 등에 활용될 수 있으며, 특히 AI의 인간 중심성 부족 문제를 보완할 수 있는 차세대 데이터셋 구축의 핵심 플랫폼으로 주목받는다. 구글 글래스의 실패 이후 변화한 시대에, Aria는 웨어러블 컴퓨팅의 부활을 이끄는 기기로 평가받는다.

 

메타의 아리아 스마트 안경이 회전하며 전면과 안경다리에 탑재된 카메라와 센서를 보여주는 3D 애니메이션 모델입니다. 캡션에는 이 안경이 Meta 내부 연구자들과 200곳 이상의 학술 및 기업 파트너들에 의해 다양한 연구 목적으로 활용되고 있다고 설명되어 있습니다.
Aria Gen 2 스마트 안경

 

본문

메타는 최신 Aria 안경에 대한 새로운 정보를 공개했다. 이 안경은 AI 모델에 스트리밍 가능한 다중 감각 기반의 인간 관점을 제공하는 것을 목표로 한다.

 

새로운 점:

메타는 블로그 포스트를 통해 연구용으로 설계된 Aria Gen 2 스마트 글래스 플랫폼의 세부 사항을 소개했다. 이 플랫폼은 증강 현실, 로봇 훈련 등 ‘체현 AI(Embodied AI)’, 그리고 개인용 ‘맥락 기반 AI(Contextual AI)’ 연구에 유용하다. Gen 2는 올해 말 연구자에게 제공될 예정이다. 한편, Gen 1 버전은 신청을 통해 사용할 수 있으며, 오픈소스 데이터셋, 모델, 도구, 3D 객체 및 평가 도구들도 다운로드할 수 있다.

작동 방식:

Aria Gen 2는 달걀 무게(약 75g)와 유사한 가벼운 무게에, 6~8시간의 배터리 수명을 제공하며, 안경 형태의 기기에 다양한 기술을 탑재하고 있다. 여러 센서를 통해 사용자 활동(손동작 포함), 주변 환경, 위치, 인근 장치와의 상호작용 등을 실시간으로 해석할 수 있다. 개인 정보 보호 스위치를 통해 데이터 수집을 차단할 수도 있다.

이 장치는 Qualcomm SD835 칩, 4GB RAM, 128GB 저장공간을 탑재하고 있어 입력과 출력을 기기 내에서 자체적으로 처리할 수 있다. 영상, 음성, 3D 포인트 클라우드 등의 출력을 스트리밍하거나 클라우드 기반 API를 통해 업로드하여 인식 서비스에서 처리할 수 있다.

총 다섯 개의 카메라가 탑재되어 있으며, 그 중 RGB 카메라는 사용자의 시점을 캡처한다. 나머지 두 카메라는 양안의 시선 방향, 수렴점, 동공 크기, 깜빡임 등을 기반으로 시선 추적을 수행한다. 스테레오 카메라 두 개는 SLAM 기술을 이용해 3D 환경 지도를 생성한다. 주변 광 센서는 카메라 노출을 조절하며, UV 감지 모드도 있어 실내와 실외를 구분할 수 있다.

또한, 7개의 마이크로 주변 소리와 그 방향을 감지하며, 별도로 탑재된 접촉 마이크는 코받침을 통해 사용자 목소리의 진동을 감지해 시끄러운 환경에서도 작은 소리(예: 속삭임)를 감지할 수 있다. 개방형 이어 스피커도 장착되어 있다.

기타 센서에는 2개의 관성측정장치(IMU), 기압계, 자력계, 위성항법수신기(GNSS), 심박 측정용 광용적맥파(PPG) 센서가 포함된다. Wi-Fi와 블루투스 비콘으로 외부 네트워크와 연결되고, USB-C 포트를 통해 신호 입력도 가능하다.

공통 시계(Clock)를 통해 대부분의 센서 데이터를 나노초 단위로 동기화하여 외부 장치, 특히 다른 Aria 유닛들과의 정밀한 동기화를 가능하게 한다.

활용 사례:

메타는 몇 가지 데모 영상을 통해 활용 가능성을 소개했다.

  • 두 스테레오 카메라의 시야가 80도 겹쳐 있어, 사용자의 주변 공간 지도를 생성할 수 있다. 이 공간 정보는 장면의 3D 지오메트리를 실시간으로 재구성하는 데 사용된다.
  • 이 3D 기능을 통해 사용자의 손과 각 손가락 관절 움직임을 3D 공간에서 추적할 수 있다. 이는 정교한 로봇 손을 훈련시키기 위한 데이터셋 주석에 활용된다.
  • 접촉 마이크는 코받침을 통해 공기 대신 진동을 감지해, 소음이 심한 환경에서도 사용자의 속삭임까지 식별할 수 있다.
  • 이 장치는 Sub-GHz 무선을 통해 시간 정보를 방송함으로써 여러 대의 Aria Gen 2 장치에서 카메라 뷰를 1ms 이하로 정밀하게 동기화할 수 있다.

배경:

메타는 2020년 Project Aria를 시작하여 1세대 하드웨어를 연구자들에게 제공했다. 다음 해에는 BMW와 협력하여 운전자 시점과 차량 데이터를 통합해 안전성 등 다양한 응용을 탐구했다. 이후 다양한 대학 연구로 확장되었고, 2세대 안경은 2025년 2월에 공개되었다.

 

의미:

현재 많은 AI 모델은 시간 정보를 포함하지 않는 데이터셋으로 학습되고 있어, 인간의 순간순간 경험을 제대로 이해하지 못한다. Aria 프로젝트는 인간의 시각에서 실시간으로 수집된 풍부한 다중감각 데이터를 통해 이 격차를 메우려 한다. 이러한 데이터를 기반으로 학습한 모델은 증강현실, 로봇공학, 일상적 컴퓨팅의 새로운 지평을 열 수 있다.

 

10년 전 구글 글래스는 사라졌지만, 그 이후 AI는 비약적으로 발전했고, 웨어러블 컴퓨팅 문화도 성숙해졌다. 스마트 안경의 가능성을 다시 탐색할 수 있는 지금이 적기다.

 

출처: The Batch @ DeepLearning.AI


 

Meta’s Smart Glasses Come Into Focus

Explore Meta’s Aria Gen 2 smart glasses—AI-powered, sensor-rich eyewear designed for real-time research in AR, robotics, and contextual computing.

condepark.blogspot.com


 

댓글