AI 알렉사에 건넨 한마디, 아마존 직원이 엿듣고 있다
정한결 기자 입력 2019.04.11. 15:35스마트스피커에 탑재된 시리·알렉사 등 인공지능(AI) 비서와 대화할 때 이제는 말조심해야 할 수도 있다. 아마존·구글·애플 등 IT기업들이 AI 기능 개선을 이유로 대화를 녹음해 사람에게 이를 듣게 하고 있기 때문이다.
10일(현지시간) 블룸버그는 "아마존은 이용자가 자사의 AI 비서 알렉사와 나눈 대화를 글로 옮겨 적어 알렉사에게 다시 기입하고 있다"면서 "이를 위해 전 세계에서 직원 수천 명을 고용 중"이라고 보도했다. 아직 알렉사는 인간과의 대화를 완벽하게 해석하지 못하고 있는데, 이를 보완하기 위해 직원 수천 명을 비밀리에 동원하고 있다는 설명이다.
현재 아마존의 스마트스피커 에코는 알렉사를 통해 작동한다. 이용자가 "알렉사" 하고 부르면 알렉사는 에코 전원을 켜고 대화를 녹음하기 시작해 아마존 서버로 이를 전송한다. AI가 완벽하지 않아 가끔은 다른 단어를 써도 녹음하기도 하는데 이렇게 녹음된 내용은 직접 지우지 않는 한 아마존 서버에 그대로 남는다.
보도에 따르면 이 중 무작위로 선택된 녹음 기록을 직원들이 검토하고 알렉사에게 피드백을 준다. 이용자와 알렉사와의 대화에서 가수 '테일러 스위프트'가 언급되면, 대화의 맥락을 이해 못하는 알렉사에게 스위프트가 유명한 가수라는 점을 직원이 지적하는 방식이다. 직원들 중 일부는 알렉사가 이용자의 요구에 적절하게 대응했는지 평가를 하기도 한다.
이 직원들은 하루에 인당 최대 1000여개에 달하는 녹음 기록을 매일 검토한다. 그 중에는 고객의 사생활을 적나라하게 드러내거나 심지어 범죄 행위를 암시하는 기록들도 있다고 블룸버그는 전했다.
실제로 두 명의 아마존 전 직원은 성폭행 현장으로 의심되는 녹음기록을 들은 적이 있다고 밝혔다. 이외에도 아이가 외부의 도움을 요청하는 내용, 씻을 때 부른 노래 등 사생활을 담은 녹음 기록도 있는 것으로 알려졌다. 소식통에 따르면 직원들은 사측에 이에 대한 조치를 취할 것을 요구했지만 아마존은 "개입할 수 없는 내용"이라고 밝혔다.
.........................
http://news.v.daum.net/v/20190411153528055