[구글 I/O 2019] 실시간 자막에, 말을 글자로 옮겨주고...구글 장애인 '눈과 귀' 보조 신기술 쏟아내
입력 2019.05.09 10:00
8일(현지시각) 이틀째에 접어든 ‘구글 I/O 2019’에서 가장 눈에 띄는 점은 구글이 특히 장애인의 디지털 접근성 강화를 위해 새로운 기술을 대거 공개했다는 점이다. 단순히 장애인이 스마트폰을 더 잘 쓰게 하는 수준이 아니라 이들이 일상적으로 정보를 더 쉽게 취득하고 사용할 수 있도록 배려했다는 점이 특징적이다.
패트릭 클래리(Patrick Clary) AI 및 접근성 부문 프로덕트 매니저는 8일(현지 시각) 미국 캘리포니아 마운틴뷰에 위치한 구글 캠퍼스에서 기자들과 만나 장애인이 스마트폰과 같은 기기나 메일에 접근하는 것도 중요하지만, 구글은 접근성 그 자체의 정의를 넓게 생각한다며 말그대로 기술을 통해 물리적 세계를 더 잘 이해하게 만들 지에 대해 생각한다고 설명했다.
패트릭 클래리(Patrick Clary) AI 및 접근성 부문 프로덕트 매니저는 8일(현지 시각) 미국 캘리포니아 마운틴뷰에 위치한 구글 캠퍼스에서 기자들과 만나 장애인이 스마트폰과 같은 기기나 메일에 접근하는 것도 중요하지만, 구글은 접근성 그 자체의 정의를 넓게 생각한다며 말그대로 기술을 통해 물리적 세계를 더 잘 이해하게 만들 지에 대해 생각한다고 설명했다.
패트릭 클래리(Patrick Clary) 구글 AI 및 접근성 부문 프로덕트 매니저가 8일(현지 시각) 미국 캘리포니아 마운틴뷰 구글 캠퍼스에서 진행된 기자간담회에서 기자의 질문에 대답하고 있다. /황민규 기자
올해 구글은 특히 청각장애인 맞춤형 서비스에서의 성과를 강조했다. 특히 전날 구글 I/O 기조연설을 통해 ‘실시간 자막(Live Caption)’ 기능을 공개했다. 기존에 유튜브 등에서 도입됐던 ‘자동 자막’ 기능을 발전시킨 서비스다. 클라우드에 연동된 서비스인 ‘자동 자막’과 달리 ‘실시간 자막’은 온라인 연결 없이 휴대전화에 저장된 모든 영상·음성 파일에 적용할 수 있다.
또 다른 서비스는 지난 2월 출시한 ‘라이브 트랜스크라이브(Live Transcribe)’다. 인공지능(AI)을 이용해 대화를 그대로 활자로 옮기는 서비스로, 인공지능(AI)과 머신러닝을 통해 화자를 구분하고 문맥에 맞는 단어로 표시가 된다. 기존에 나왔던 유사한 서비스들보다 정확하게 대화를 지원한다는 것이 구글 측의 설명이다. ‘실시간 자막’ 기능과 달리 클라우드 기반 서비스다.
지난 3월 출시한 ‘룩아웃(Look Out)’은 시각장애인을 위한 서비스다. 시각장애인이 낯선 장소에 갔을 때를 고려해 스마트 디바이스의 카메라가 주변 상황이나 물체를 음성으로 설명해준다. 카메라에 들어온 사물을 디바이스가 직접 ‘사람’·‘책상’·‘스웨터’처럼 단어로 알려준다. 위치정보 접근이 가능하게 설정하면 ‘6시 방향에 사람이 있다’는 식의 설명을 하게 된다. 돈을 촬영할 경우 금액을 읽어준다.
구글이 최근 집중하고 있는 분야는 구음장애인을 위한 서비스로, ‘프로젝트 유포니아(Project Euphonia)’로 알려져 있다. 뇌졸중·근위축측삭경화증(ALS)·다발성 경화증·외상성 뇌손상·파킨슨병 등의 영향으로 정확한 발음을 내는 데 어려움을 겪는 위한 음성 인식 서비스다.
줄리 카티오(Julie Cattiau) 구글 AI 프로덕트 매니저는 구음장애를 가진 분들의 음성은 컴퓨터도 제대로 인식하기 어려워 음성인식 오류율이 높다며 구글 어시스턴트 등의 서비스가 아무리 좋아져도 구음장애인들의 음성을 제대로 인식하지 못하면 이들의 서비스 접근성이 제한되는 문제가 발생한다고 설명했다.
또 다른 서비스는 지난 2월 출시한 ‘라이브 트랜스크라이브(Live Transcribe)’다. 인공지능(AI)을 이용해 대화를 그대로 활자로 옮기는 서비스로, 인공지능(AI)과 머신러닝을 통해 화자를 구분하고 문맥에 맞는 단어로 표시가 된다. 기존에 나왔던 유사한 서비스들보다 정확하게 대화를 지원한다는 것이 구글 측의 설명이다. ‘실시간 자막’ 기능과 달리 클라우드 기반 서비스다.
지난 3월 출시한 ‘룩아웃(Look Out)’은 시각장애인을 위한 서비스다. 시각장애인이 낯선 장소에 갔을 때를 고려해 스마트 디바이스의 카메라가 주변 상황이나 물체를 음성으로 설명해준다. 카메라에 들어온 사물을 디바이스가 직접 ‘사람’·‘책상’·‘스웨터’처럼 단어로 알려준다. 위치정보 접근이 가능하게 설정하면 ‘6시 방향에 사람이 있다’는 식의 설명을 하게 된다. 돈을 촬영할 경우 금액을 읽어준다.
구글이 최근 집중하고 있는 분야는 구음장애인을 위한 서비스로, ‘프로젝트 유포니아(Project Euphonia)’로 알려져 있다. 뇌졸중·근위축측삭경화증(ALS)·다발성 경화증·외상성 뇌손상·파킨슨병 등의 영향으로 정확한 발음을 내는 데 어려움을 겪는 위한 음성 인식 서비스다.
줄리 카티오(Julie Cattiau) 구글 AI 프로덕트 매니저는 구음장애를 가진 분들의 음성은 컴퓨터도 제대로 인식하기 어려워 음성인식 오류율이 높다며 구글 어시스턴트 등의 서비스가 아무리 좋아져도 구음장애인들의 음성을 제대로 인식하지 못하면 이들의 서비스 접근성이 제한되는 문제가 발생한다고 설명했다.