요약
메타는 새로운 아리아 젠 2 (Aria Gen 2) 스마트 안경을 공개하며, 사람의 시점에서 실시간 멀티센서 데이터를 수집해 AI 학습에 활용할 수 있는 혁신적 플랫폼을 제시했다. 이 장치는 5개의 카메라, 8개의 마이크, 심박 센서, GPS, IMU, PPG 등 다양한 센서를 탑재했으며, 3D 손 추적, 소음 속 음성 인식, 실시간 장면 재구성 등을 지원한다. 클라우드 연동 및 로컬 처리도 가능하고, 시간 정보 동기화도 뛰어나다.
Aria는 증강현실, 로봇훈련, 맥락 인식형 AI 등에 활용될 수 있으며, 특히 AI의 인간 중심성 부족 문제를 보완할 수 있는 차세대 데이터셋 구축의 핵심 플랫폼으로 주목받는다. 구글 글래스의 실패 이후 변화한 시대에, Aria는 웨어러블 컴퓨팅의 부활을 이끄는 기기로 평가받는다.

본문
메타는 최신 Aria 안경에 대한 새로운 정보를 공개했다. 이 안경은 AI 모델에 스트리밍 가능한 다중 감각 기반의 인간 관점을 제공하는 것을 목표로 한다.
새로운 점:
메타는 블로그 포스트를 통해 연구용으로 설계된 Aria Gen 2 스마트 글래스 플랫폼의 세부 사항을 소개했다. 이 플랫폼은 증강 현실, 로봇 훈련 등 ‘체현 AI(Embodied AI)’, 그리고 개인용 ‘맥락 기반 AI(Contextual AI)’ 연구에 유용하다. Gen 2는 올해 말 연구자에게 제공될 예정이다. 한편, Gen 1 버전은 신청을 통해 사용할 수 있으며, 오픈소스 데이터셋, 모델, 도구, 3D 객체 및 평가 도구들도 다운로드할 수 있다.
작동 방식:
Aria Gen 2는 달걀 무게(약 75g)와 유사한 가벼운 무게에, 6~8시간의 배터리 수명을 제공하며, 안경 형태의 기기에 다양한 기술을 탑재하고 있다. 여러 센서를 통해 사용자 활동(손동작 포함), 주변 환경, 위치, 인근 장치와의 상호작용 등을 실시간으로 해석할 수 있다. 개인 정보 보호 스위치를 통해 데이터 수집을 차단할 수도 있다.
이 장치는 Qualcomm SD835 칩, 4GB RAM, 128GB 저장공간을 탑재하고 있어 입력과 출력을 기기 내에서 자체적으로 처리할 수 있다. 영상, 음성, 3D 포인트 클라우드 등의 출력을 스트리밍하거나 클라우드 기반 API를 통해 업로드하여 인식 서비스에서 처리할 수 있다.
총 다섯 개의 카메라가 탑재되어 있으며, 그 중 RGB 카메라는 사용자의 시점을 캡처한다. 나머지 두 카메라는 양안의 시선 방향, 수렴점, 동공 크기, 깜빡임 등을 기반으로 시선 추적을 수행한다. 스테레오 카메라 두 개는 SLAM 기술을 이용해 3D 환경 지도를 생성한다. 주변 광 센서는 카메라 노출을 조절하며, UV 감지 모드도 있어 실내와 실외를 구분할 수 있다.
또한, 7개의 마이크로 주변 소리와 그 방향을 감지하며, 별도로 탑재된 접촉 마이크는 코받침을 통해 사용자 목소리의 진동을 감지해 시끄러운 환경에서도 작은 소리(예: 속삭임)를 감지할 수 있다. 개방형 이어 스피커도 장착되어 있다.
기타 센서에는 2개의 관성측정장치(IMU), 기압계, 자력계, 위성항법수신기(GNSS), 심박 측정용 광용적맥파(PPG) 센서가 포함된다. Wi-Fi와 블루투스 비콘으로 외부 네트워크와 연결되고, USB-C 포트를 통해 신호 입력도 가능하다.
공통 시계(Clock)를 통해 대부분의 센서 데이터를 나노초 단위로 동기화하여 외부 장치, 특히 다른 Aria 유닛들과의 정밀한 동기화를 가능하게 한다.
활용 사례:
메타는 몇 가지 데모 영상을 통해 활용 가능성을 소개했다.
- 두 스테레오 카메라의 시야가 80도 겹쳐 있어, 사용자의 주변 공간 지도를 생성할 수 있다. 이 공간 정보는 장면의 3D 지오메트리를 실시간으로 재구성하는 데 사용된다.
- 이 3D 기능을 통해 사용자의 손과 각 손가락 관절 움직임을 3D 공간에서 추적할 수 있다. 이는 정교한 로봇 손을 훈련시키기 위한 데이터셋 주석에 활용된다.
- 접촉 마이크는 코받침을 통해 공기 대신 진동을 감지해, 소음이 심한 환경에서도 사용자의 속삭임까지 식별할 수 있다.
- 이 장치는 Sub-GHz 무선을 통해 시간 정보를 방송함으로써 여러 대의 Aria Gen 2 장치에서 카메라 뷰를 1ms 이하로 정밀하게 동기화할 수 있다.
배경:
메타는 2020년 Project Aria를 시작하여 1세대 하드웨어를 연구자들에게 제공했다. 다음 해에는 BMW와 협력하여 운전자 시점과 차량 데이터를 통합해 안전성 등 다양한 응용을 탐구했다. 이후 다양한 대학 연구로 확장되었고, 2세대 안경은 2025년 2월에 공개되었다.
의미:
현재 많은 AI 모델은 시간 정보를 포함하지 않는 데이터셋으로 학습되고 있어, 인간의 순간순간 경험을 제대로 이해하지 못한다. Aria 프로젝트는 인간의 시각에서 실시간으로 수집된 풍부한 다중감각 데이터를 통해 이 격차를 메우려 한다. 이러한 데이터를 기반으로 학습한 모델은 증강현실, 로봇공학, 일상적 컴퓨팅의 새로운 지평을 열 수 있다.
10년 전 구글 글래스는 사라졌지만, 그 이후 AI는 비약적으로 발전했고, 웨어러블 컴퓨팅 문화도 성숙해졌다. 스마트 안경의 가능성을 다시 탐색할 수 있는 지금이 적기다.
출처: The Batch @ DeepLearning.AI
Meta’s Smart Glasses Come Into Focus
Explore Meta’s Aria Gen 2 smart glasses—AI-powered, sensor-rich eyewear designed for real-time research in AR, robotics, and contextual computing.
condepark.blogspot.com
'정보&뉴스' 카테고리의 다른 글
| 스테이블 코인에 대한 새로운 전망 (10) | 2025.07.23 |
|---|---|
| 일론 머스크의 아메리카당 창당 (6) | 2025.07.18 |
| 스테이블 코인이 뭐지? (3) | 2025.07.15 |
| 미국 공항에서 신발 벗는 일, 이제 끝 (0) | 2025.07.15 |
| 물로만 머리 감고 샤워하기 (2) | 2020.10.22 |
| 장속의 미생물이 인간의 뇌와 정신에 어떻게 영향을 줄까? (2) | 2020.10.03 |
댓글