구글, 시각 장애인용 AI ‘룩아웃’ 서비스 전 세계 확대

구글이 시각 장애인용 인공지능 앱 룩아웃(Lookout) 서비스를 전 세계로 확대했다. [사진: 김한비 기자]

구글이 시각 장애인용 인공지능 앱 ‘룩아웃(Lookout)’ 서비스를 전 세계로 확대한다고 11일(현지시각) 밝혔다. 

룩아웃은 스마트폰 카메라로 사용자 주변 환경에서 쇼핑 상품 정보, 인쇄물, 도로, 표지판, 화장실, 근처에 있는 사람 등을 인식해 음성으로 알려준다.

구글 룩아웃은 2018년 I/O 개발자 컨퍼런스에서 공개하고, 2019년 3월 미국에서만 출시했다. 

출처: play.google.com

룩아웃은 구글 렌즈(Google Lens)와 비슷한 기능이다. 얼굴 감지, 객체감지 및 모발분할(hair segmentation)과 같은 기계학습(Machine Learning) 기반 솔루션을 위한 모듈식 프레임워크인 구글 미디어파이프(MediaPipe MediaPipe) 및 광학문자 인식 모델을 활용한다. 

하지만 구글 렌즈와 달리 주변 모든 사물을 인식해 읽어주는 것이 아니다. 특정 모드를 선택하면 그와 관련된 정보만 제공한다. 예를 들어 집을 선택했다면 식기 세척기, 식탁, 소파 등을 알려주고 이동 상태라면 엘리베이터와 계단을 알려준다. 특히 이러한 기능들은 스스로 학습해 시간이 지날수록 성능을 높아진다.

제품 인식 파이프 라인 내부 아키텍처. [출처: Google AI Blog]

룩아웃은 시각 장애인에게 있어 큰 도움이 된다. 이번 버전에서는 식품 정보를 기계학습을 통해 브랜드 이름과 크기를 음성으로 읽어주는 기능이 추가됐다. 식품정보 모드는 알레르기원 정보나 영양 정보, 고객 평가, 제품 비교 등 다양한 쇼핑 정보를 제공한다. 

특히 클라우드가 아닌 스마트폰과 IoT 디바이스를 하나로 묶어 기계학습을 실행하는 온디바이스(On-Device) 시스템이다. 즉 인터넷에 연결되지 않아도 구현할 수 있다.

구글은 픽셀 4(Pixel 4)에 온디바이스 기계학습 칩 ‘모바일 넷 엣지 텐서플로 유니트(MobileNetEdgeTPU)’을 탑재했다. 또 온디바이스 기계학습 라이브러리 ‘머신러닝 키트(ML Kit)’를 발표하는 등 온디바이스 인공지능(AI)를 위해 하드웨어와 소프트웨어 두 분야 모두 적극 개발하고 있다.

현재 룩아웃은 2GB 이상의 RAM을 탑재한 안드로이드(Android) 버전 6.0 이상의 스마트폰에서 사용할 수 있다.

김한비 기자 itnews@