
로봇 청소기 ‘룸바’, 개인 사생활을 촬영하다
2019년 12월 새로운 가정용 룸바(Roomba) 로봇 청소기를 받은 그렉(Greg)은 자신이 앞으로 수행하게 될 작업을 정확히 이해하고 있다고 믿었다.
그는 아이로봇의 룸바 J 시리즈의 테스트용 시제품이 집 안을 돌아다니며 인공지능 개선을 위한 각종 데이터를 수집하는 것을 허락했으며 자신의 사용자 경험에 대해 아이로봇 측에 피드백을 제공했다.
그렉은 과거에도 이러한 작업에 참여해 왔다. 그는 낮에는 소프트웨어 회사에서 엔지니어로 일하고 그 외의 시간에는 10년 넘게 제품 베타 테스트에 참여해 왔다. 그렉은 이 기간에 운동화, 스마트 홈 카메라 등 50개가 넘는 다양한 제품을 테스트했다고 추정한다.
그는 “정말 즐거운 마음으로 작업에 참여했다”라고 말한다. “새로운 것에 대해 배우고 품질을 개선한 버전을 배포하거나 특징과 기능을 직접 정의하는 등 제품 개발에 기여할 수 있다는 점이 가장 뜻깊었다.”
하지만 그렉이 미처 알지 못했고 동의하지도 않은 부분이 있다. 아이로봇은 테스터들이 수집한 데이터를 전 세계로 뻗어나가는 데이터 공급망에 공유했다. 이 공급망 안에서는 디바이스의 전면 카메라로 촬영된 모든 장면(그 안의 사람들까지)이 공개되며 미국 외부에 있는 저임금 계약자들의 데이터 어노테이션(data annotation) 작업 과정 영상이 자유롭게 캡처되고 이미지가 공유될 수 있다는 점이었다.
아이로봇과 체결한 기밀 유지 계약을 이유로 성은 밝히지 말아 달라고 요청한 그렉은 허탈감과 배신감을 느낀 여러 테스터들 중 한 명에 불과하다.
MIT 테크놀로지 리뷰에서 아이로봇이 실제 가정에서 촬영한 이미지로 인공지능을 훈련시키는 방법에 대해 조사한 내용을 공개한 후, 몇 주도 지나지 않아 2019년부터 2022년 사이에 아이로봇의 데이터 수집 활동에 참여한 십여 명의 사람들이 모습을 드러냈다. 이 참가자들은 공통적으로 아이로봇의 데이터 처리 방법과 업무 수행 방식이 데이터 보호에 관한 아이로봇의 약속에 부합하는지 의문을 갖고 있었다. 결과적으로 아이로봇은 고객과 데이터 작업자 양측을 대상으로 양립 불가능한 계약을 체결했고, 작업 참가자들은 아이로봇이 법적으로 약속을 위반했는지와 관계없이 자신들을 이용했다고 생각한다.
감시용 기술 추적 프로젝트(Surveillance Technology Oversight Project)의 전무이사 앨버트 폭스 칸(Albert Fox Cahn)은 “사람들이 개인정보를 심각하게 침해하는 감시 활동에 참여하면서 스스로 어떤 작업에 동의했는지 완전히 이해하지 못하고 있다면 아이로봇이 작업자들을 속이고 있는 것은 아닌지가 가장 문제시된다”고 지적한다.
그렉은 테스터에 의해 수집된 데이터를 아이로봇이 적절하게 보호하지 못한 것은 “명백한 계약 위반”으로 보이며 이는 “계약상 의무를 불이행한 배임 행위”에 해당한다고 주장한다.
이제 그는 “누가 이 문제에 대해 책임을 지고 있는지” 질문한다.
테스터와 소비자 사이의 불분명한 경계
지난달 MIT 테크놀로지 리뷰는 아이로봇이 테스터와 직원의 집에서 사진과 영상을 수집한 후 이를 데이터 어노테이션 업체들과 공유하는 과정을 공개했다. 관련 업체 중에는 샌프란시스코에 기반을 둔 스케일 AI(Scale AI)도 포함되어 있었다. 스케일 AI는 자체 개발한 인공지능(AI) 알고리즘을 학습시키기 위해 막대한 규모의 데이터 라벨링 작업자들과 계약을 체결하는 기업이다.
우리는 2020년 어느 프로젝트에서 베네수엘라의 긱 워커들(gig worker)이 가정 내부의 모습을 촬영한 여러 장의 이미지에 담긴 사물들을 라벨링 하는 작업을 의뢰받았으며, 해당 이미지 중 일부에 데이터 어노테이션 작업자들이 얼굴을 식별할 수 있는 개인들의 모습도 포함되어 있었다는 점을 알아냈다. 작업자들은 미성년자의 사진과 화장실에 앉아 있는 여성의 사진을 포함하여 최소 15장의 이미지를 이들이 이야기를 나누는 소셜 미디어 그룹에 공유했다. 이후 해당 이미지들이 MIT 테크놀로지 리뷰에도 전달되면서 우리는 이러한 이미지 유출 사실을 알게 되었다. 하지만 데이터 어노테이션 작업자들과 연구자들을 인터뷰한 후 우리는 해당 이미지들만 인터넷에 퍼진 것은 아닐 수 있다는 사실을 깨달았다. 민감한 이미지, 동영상 및 음성을 데이터 라벨링 담당자들끼리 공유하는 행위는 빈번하게 이뤄지고 있었다.













지난가을 유출된 사진에 대한 입장을 듣기 위해 MIT 테크놀로지 리뷰가 아이로봇에 연락을 취한 직후, 아이로봇은 스케일 AI와의 계약을 해지했다.
하지만 아이로봇의 CEO 콜린 앵글(Colin Angle)은 MIT 테크놀로지 리뷰의 보도와 관련해 링크드인(LinkedIn)에 게시한 글에서 긱 워커들이 해당 이미지들과 테스터들의 얼굴을 볼 수 있다는 사실 자체가 문제가 될 수 있음을 부인했다. 오히려 그는 이와 같은 이미지들을 공유하는 것은 아이로봇의 사물 인식 알고리즘 학습을 위해 실제로 필요한 작업이라고 주장하며 “스마트한 로봇은 어떻게 만들어지는가? 이 과정은 개발 단계부터 시작되며 머신러닝 알고리즘의 학습을 위한 데이터 수집 작업을 동반한다”라고 말했다. 또한 그는 유출된 이미지들은 고객들의 이미지가 아니라 데이터 수집에 동의한다는 내용의 계약을 체결한 ‘유급 데이터 수집가들과 직원들’에 의해 제공된 것이라고 지적했다.
콜린 앵글과 아이로봇은 링크드인 게시물과 MIT 테크놀로지 리뷰에 보낸 성명서에서 어떤 고객 데이터도 공유되지 않았으며 “데이터 수집에 참여하는 작업자들은 해당 데이터를 수집하는 방법에 대한 안내를 받고 이에 동의한다”라고 거듭 강조했다.
고객과 베타(beta) 테스터 간에 명확히 선을 그은 채 해당 작업자들의 데이터가 처리되는 방법을 설명하려는 시도는 스스로를 아이로봇의 대형 커뮤니티의 일원이라고 생각하던 수많은 테스터들에게 큰 혼란을 안겼고 이들은 아이로봇이 자신들을 존중하지 않는 발언을 했다고 느꼈다. 그렉과 MIT 테크놀로지 리뷰에 연락해 온 다른 테스터들 역시 제품 테스트에 자발적으로 참여하는 행위가 프라이버시를 포기하겠다는 의미는 아니었다고 주장하며 강하게 반발했다.
테스터와 소비자 사이의 경계 역시 불분명하다. MIT 테크놀로지 리뷰가 인터뷰한 테스터 중 최소한 한 명 이상은 룸바에 대한 만족도가 매우 커 테스트 참여 후에 이 기기를 구입했다.
이러한 구입 양상은 드물지 않게 나타난다. 오히려 베타테스터를 제품의 고객이자 강력한 에반젤리스트로 전환하는 것은 아이로봇을 대신하여 테스터를 모집했던 센터 코드(Centercode)가 적극적으로 장려한 홍보 방식이었다. 센터 코드는 마케팅 블로그 게시물에서 “베타테스터 커뮤니티보다 더 나은 잠재적 브랜드 홍보 대사를 찾는 것은 쉽지 않다. 베타테스터들은 회사가 출시한 제품에 대해 전 세계 인구와 (아마도 기술 전문가일) 자신의 친구들에게 정보를 전달할 수 있으며 추가 비용 없이 진정성 있는 의견을 제공하는 매우 유용한 집단”이라고 평가했다.
그렉은 아이로봇이 특히 개인정보 침해에 대해 침묵함으로써 테스트 커뮤니티에 대한 예우를 갖추는 데 “보기 좋게 실패”했다고 평가한다. 아이로봇은 15장의 이미지에 포함된 개인들에게 연락을 취했다고 답했지만 데이터 수집에 참여한 다른 개인에게도 유출 사실을 알릴 것인지에 대한 질문에 대해서는 말을 아꼈다. MIT 테크놀로지 리뷰에 연락한 참가자들은 아이로봇으로부터 어떠한 통지도 받지 못했다고 답했다.
그렉은 “유통 업체인 타겟(Target)에서 신용카드 정보가 도난당하는 일이 발생했다면 타깃은 도난 사실을 해당 정보 소유자 한 사람에게만 알리지 않는다”라고 주장한다. 그는 “타깃은 정보 침해가 발생했다는 사실을 두루두루 알리고 구체적인 사고 경위와 회사의 대응 방법 등을 안내한다”라고 덧붙였다.
베타 테스트 작업 세계 살펴보기
아이로봇의 AI 기반 데이터 포인트의 이동 경로는 센터 코드가 운영하는 베타 바운드(Betabound)와 같은 테스트 플랫폼에서 시작된다. 캘리포니아주 라구나 힐스(Laguna Hills)에 본사를 둔 이 기술 업체는 주로 소비자 기술 회사인 고객사를 위해 제품과 서비스를 테스트할 자원봉사자를 모집한다(아이로봇의 대변인 제임스 보스만(James Baussmann)은 아이로봇이 베타 바운드를 사용한 사실을 인정했지만 “모든 유급 데이터 수집자가 베타 바운드를 통해 모집된 것은 아니”라고 주장했으며, 센터 코드는 반복된 의견 요청에도 불구하고 어떠한 답변도 제공하지 않았다).
“유통 업체인 타겟(Target)에서 신용 카드 정보 도난이 발생했다면 타깃은 도난 사실을 해당 정보 소유자 한 사람에게만 알리지 않는다”
베타테스터들은 얼리어답터(early adopter)로서 일반 소비자보다 기술에 대한 지식수준이 높은 경우가 많다. 이들은 기기에 열광하며 그렉처럼 기술 분야에서 근무하는 경우도 있다. 따라서 대다수의 베타테스터들은 데이터 보호와 관련된 표준을 잘 알고 있다.
2022년 12월 말 기준, 베타 바운드 웹사이트에 등록되어 있는 6,200건의 테스트들을 모두 검토한 결과에 따르면 아이로봇은 늦어도 2017년부터 이 플랫폼을 통해 테스트를 진행해 왔다. 최신 프로젝트는 독일인 테스터를 특별 모집하고 있으며, 지난 12월에 모집을 시작했다.
집안일을 도와줄 누군가가 필요하신가요? 아이로봇에서 독일 테스터들에게 로봇 청소기를 사용해 볼 수 있는 기회를 제공합니다. 아이로봇 테스트에 지원하려면 다음 링크를 클릭하세요: bit/ly/3VKM2IM
#신규 베타테스트 #테스트 작업 #아이로봇 #스마트홈
2022년 12월 2일 오전 5:42
아이로봇의 로봇 진공청소기가 베타 테스트를 진행하는 유일한 기기는 아니다. ‘알렉사(Alexa)가 지원되는 스마트 전자레인지’와 다른 다양한 로봇청소기를 포함하여 AI로 작동하는 기타 ‘스마트’ 디바이스에 대해 300건이 넘는 테스트가 등록되어 있다.
잠재적인 테스터가 되기 위한 첫 번째 단계는 베타 바운드 웹사이트에서 프로필을 작성하는 것이다. 그다음 구체적인 기회가 발표되면 이들은 이러한 기회에 지원할 수 있다. 테스트를 시행하는 회사에서 수락할 경우 테스터는 해당 디바이스를 수령하기 전에 수많은 계약서에 서명을 한다.
베타 바운드 플랫폼의 테스터용 자주 묻는 질문(FAQ)에 따르면, “회사가 작업자에게 대가를 지급하고 피드백을 받는다면 작업자가 정직하고 신뢰할 수 있는 피드백을 제공하기가 어려울 것이기 때문에” 베타 바운드 테스터에게는 보수를 지급하지 않는다. 대신 테스터는 기프트 카드, 테스트용 디바이스를 무료로 계속 사용할 수 있는 기회, 또는 테스트한 디바이스가 시장에 출시된 후 무료 샘플 디바이스를 받아볼 수 있다.
그러나 아이로봇은 테스터가 디바이스를 계속 사용하도록 하거나 이들에게 최종 제품을 제공하지 않았다. 베타테스터들은 로봇 청소기를 일주일에 수차례씩, 여러 주에 걸쳐 사용한 대가로 30달러(약 4만 원)에서 120달러(약 15만 원) 상당의 기프트 카드를 대신 지급받았다고 밝혔다(보스만은 “참가자에게 지급되는 금액은 관련 작업에 따라 달라진다”라고 말한다).
몇몇 테스터들에게 이러한 보상은 실망스러웠다. 본 기사에서 첫 이니셜로만 지칭할 테스터 B는 이메일에서 “내 엉덩이 사진이 인터넷에 떠돌고 있을지 모른다는 점을 굳이 감안하지 않더라도” 지나치게 낮은 보상이라고 비판했다. 그는 3개월 동안 매일 데이터를 수집한 대가로 30달러짜리 기프트 카드를 지급한 아이로봇을 “구두쇠 업체”라고 불렀다.
사용자들이 실제로 동의하는 내용
지난가을 MIT 테크놀로지 리뷰가 유출된 15장의 이미지에 대한 입장을 듣기 위해 연락을 취했을 때 아이로봇은 해당 이미지마다 개별 동의 계약을 체결했다고 강조했다. 그러나 이들은 ‘법적인 이유’로 인해 해당 계약서를 공유할 수는 없다고 밝혔다. 대신 회사 측은 작업자가 이러한 계약에 따라 “청소 작업 중에 영상 및 이미지가 촬영된다는 사실을 인정”해야 하고 “계약서에서는 유급 데이터 수집자가 어린이를 포함하여 로봇이 작동하는 모든 공간에서 민감하다고 판단되는 데이터를 전부 제거하도록 권장한다”라고 말했다.
이후 테스터들은 MIT 테크놀로지 리뷰에 아이로봇과 체결한 계약서의 사본을 공개했다. 여기에는 베타 바운드의 일반 계약, “개발 로봇용 글로벌 테스트 계약”과 기밀 유지, 테스트 참여 및 제품 관련 대출에 대한 계약 등 다양한 형식의 문서들이 포함되었다. 현재 실행 중인 특정 테스트 중 일부에 대한 계약도 찾아볼 수 있었다.
2019년 이후 체결된 아이로봇의 글로벌 테스트 계약서에 포함된 문구를 해당 링크에서 볼 수 있다. 테스터의 신원 보호를 위해 해당 문구를 복사하여 별도의 문서로 작성했다.
계약서 양식에는 아이로봇이 앞서 주장한 문구들과 함께 테스터의 데이터 보호에 대한 아이로봇의 약속이 명시되어 있었다. 그러나 아이로봇이 수집된 사용자 데이터를 처리하는 방법과 해당 데이터의 공유 대상 등과 관련해 계약서 문언의 의미를 명확히 파악하기는 어려웠다.
2019년에서 2022년 사이에 계약을 체결한 6명의 작업자가 각각 공유한 유사한 양식의 ‘개발 로봇용 글로벌 테스트 계약’에는 개인정보 보호 및 동의에 관한 상당한 양의 정보가 담겨 있다.
약 1,300단어로 된 짧은 문서에서 아이로봇은 스스로가 데이터가 합법적인 목적으로 수집되고 안전하게 저장 및 처리되도록 하기 위해 유럽연합(EU)의 일반 개인정보 보호법(General Data Protection Regulation, GDPR)에 따른 법적 책임을 부담하는 정보 통제자(controller of information)라고 언급한다. 또한, 이 문서에서는 “아이로봇은 [개인정보]를 처리하기 위해 선택된 제3자 공급업체 및 서비스 제공 업체가 개인정보 보호 및 데이터 보안에 대한 심사를 받고 엄격한 기밀 유지 의무를 부담하며 데이터 처리 계약(Data Processing Agreement)의 조건들이 적용되는 데 동의” 하며, 사용자가 “[자신이] 거주하는 지역의 해당 개인정보 보호법에 따라 추가적인 권리를 가질 수 있다”라는 점에도 동의한다는 내용을 확인할 수 있다.
그렉은 아이로봇이 바로 이 계약서 조항을 위반했다고 생각한다. 그는 “아이로봇이 테스터에게 책임을 물을 수 있는 근거 규정이 대체 어디에 있는지” 물으며 “이 문제에 대한 아이로봇의 성의 없는 처리 방식에 전혀 동의할 수 없다”라고 이야기한다.
“회사가 관련 개인정보 보호법에 따른 의무에서 벗어나기 위해 작성한 것으로 보이는 이 수많은 계약서 조항들 중 제품이 실제로 작동하는 방식을 반영한 내용은 전혀 찾아볼 수 없다”
또한 모든 테스터는 자신의 데이터가 머신러닝 및 사물 감지 학습에 사용될 수 있다는 데 동의해야 했다. 구체적으로 글로벌 테스트 계약의 ‘연구 정보의 사용’ 관련 규정에 따르면 작업자는 “아이로봇이 텍스트, 영상, 이미지 또는 음성을…통계 및 사용 데이터 분석, 기술 문제 진단, 제품 성능 향상, 제품 및 기능 혁신, 시장 조사, 거래 관련 프레젠테이션, 머신러닝 및 사물 감지를 포함한 내부 교육을 위해 사용할 수 있음”을 인정해야 한다.
이러한 문서에서 명시되지 않은 부분은 아이로봇이 원시 데이터에 담긴 개별 요소를 인식하도록 하기 위해 인간 데이터 레이블 작업자들이 각 요소를 하나하나 클릭하여 알고리즘을 훈련시키고 머신러닝을 학습시킨다는 사실이다. 즉, MIT 테크놀로지 리뷰가 입수한 계약서에서는 다른 사람이 개인 이미지를 보고 분석할 것이라는 사실이 명시적으로 언급되지 않는다.
아이로봇 대변인 보스만은 MIT 테크놀로지가 강조한 문구가 “다양한 테스트 시나리오를 포괄” 하며 데이터 어노테이션을 위해 전송된 이미지에만 국한되지 않는다고 해명했다. 그는 “가령, 테스터들은 가끔 로봇이 특정 사물에 걸리거나 완전히 도킹되지 않는 등의 로봇 동작에 대한 사진이나 영상을 촬영하여 아이로봇에 전송하라는 요청을 받는다”라고 설명하며 “어노테이션 목적으로 이미지를 촬영하는 테스트의 경우에는 해당 테스트와 관련된 계약에 특정 조건들이 명시된다”라고 덧붙였다.
또한 보스만은 근본적으로 모든 테스터의 데이터가 머신러닝을 위해 수집되고 사용될 수 있다고 규정한 글로벌 테스트 계약서의 정확성에 대해서는 이의를 제기하지 않았지만, “우리는 MIT 리뷰와 인터뷰한 사람들이 실제로 해당 기사와 관련된 개발 작업에 직접 참여했다고 확신할 수 없다”라고 답했다.
사용자들이 실제로 이해하는 내용
MIT 테크놀로지 리뷰로부터 동의 계약서에 대한 검토를 요청받은 프라이버시 전문 변호사와 학자들에게 테스터들이 보인 우려 사항에 대해 설명하자, 이들은 해당 문서와 문서 작성 이후 발생한 개인정보 침해 행위가 베타테스터와 일반 소비자를 불문하고 우리 모두에게 영향을 미치는 동의 체계(consent framework)의 한계를 드러내는 것으로 보았다.
전문가들은 사람들이 개인정보 보호 정책을 꼼꼼히 읽는 경우는 매우 드물다는 점을 기업들이 잘 알고 있다고 말한다. 그러나 인공지능(AI)과 인권 부문에서 활발히 활동 중인 전자개인정보 센터(Electronic Privacy Information Center)의 벤 윈터스(Ben Winters) 변호사는 아이로봇의 글로벌 테스트 계약서가 “실제로 계약서를 읽더라도 명확한 의미를 이해할 수 없다는 점”을 증명한다고 지적한다.
칸 이사는 오히려 “회사가 관련 개인정보 보호법에 따른 의무를 회피하기 위해 작성한 것으로 보이는 이 수많은 계약서 조항들 중 제품의 실제 작동 방식을 반영한 내용은 전혀 찾아볼 수 없다”라고 말하며 특히 어린이처럼 프라이버시 문제에 노출될 수 있는 사람이나 사물이 항상 집 안에 있는 경우에 로봇 청소기가 이동하며 이를 촬영하더라도 통제가 불가능하다는 문제를 지적한다.
정보 과학자로서 메릴랜드 대학교(University of Maryland) 정보 연구 대학(College of Information Studies)에서 연구 및 동의 정책의 모범 사례를 연구하는 제시카 비탁(Jessica Vitak)은 이러한 상황이 궁극적으로 “최종 사용자들에게 많은 책임을 전가한다”라고 말한다. “기업은 어떤 문제가 발생할 수 있는지”에 관하여 최종 사용자들에게 정확한 설명을 제공하지 않지만, 이러한 설명은 “개인의 참여 여부를 결정하는 중요한 정보”가 될 수 있다.
칸은 기업이 테스터에게 책임을 전가할 뿐만 아니라, “이러한 디바이스를 사용하는 집 안의 모든 사람이 잠재적으로 피해를 볼 수 있음에도 불구하고, 한 사람이 혼자서 집 안의 모든 구성원들의 동의 사실을 인정하도록 떠넘기고 있다”라고 설명한다.
캘리포니아 대학교 버클리(University of California, Berkeley) 정보대학(School of Information)의 데어드레 멀리건(Deirdre Mulligan) 교수는 기업이 이러한 구조 속에서 데이터 통제자로서의 진정한 책임을 회피할 수 있다고 덧붙인다. 그는 “디바이스 제조사는 데이터 통제자로서 가정 내 디바이스의 프라이버시 관련 위험에 대한 모든 책임을 직원이나 기타 자발적인 데이터 수집자에게 쉽게 떠넘길 수 없어야 한다”라고 말했다.
일부 참가자들은 동의 계약서를 자세히 읽지 않았다고 인정했다. 지난해 3개월 동안 진공청소기를 사용한 테스터는 이메일에서 “[계약서 조항들]을 훑어봤지만 *동영상 및 이미지*를 제3자와 공유하는 내용에 관한 부분은 인지하지 못했다. 이 내용을 발견했다면 좀 더 고민했을 것”이라고 말했다.
B는 제공받은 룸바를 테스트하기 전에 동의 계약서를 ‘정독’했지만 “‘당사는 수집한 데이터를 이용하여 어떤 작업이든 수행할 수 있으며, 이 내용에 동의하지 않는다면 본 작업에 참여하거나 당사의 제품을 사용하지 마십시오’라는 규정이 형식적인 문구에 불과하다고 생각했다”라고 말했다. 이어서 그는 “솔직히 그저 무료 제품을 받고 싶었을 뿐이었다”라고 고백했다.
그럼에도 불구하고 B는 아이로봇이 어느 정도의 데이터 보호 수단을 제공할 것이라고 예상했다. ‘기밀 유지 계약을 통해 작업자에게서 테스트에 관한 어떤 정보도 공유하지 않겠다는 굳은 다짐을 받아낸 후, 가장 민감한 업무를 최저 가격을 제시한 입찰자에게 하도급하는 행태’는 그가 기대한 기업의 모습이 아니었다.
특히, 연락이 닿은 수많은 테스터들은 여전히 데이터 수집이 실제로 무엇을 의미하는지 또는 데이터가 정확히 어떻게 처리되고 사용되는지 명확히 알지 못한다고 이야기한다. 이러한 상황은 글로벌 테스트 계약서 전문과 모든 소비자에게 전반적으로 적용되는 계약 등 기타 다양한 계약서들을 꼼꼼히 확인했다고 주장하는 사용자들의 경우도 마찬가지다.
이들이 실제로 이해한 내용은 아이로봇이 제공한 정보보다 인공지능의 훈련 방식에 대한 개인의 지식을 근거로 한 경우가 더 많았다.
성은 밝히지 말아 달라고 요청한 한 테스터 이고르(Igor)는 은행의 IT 부서 직원이다. 그는 스스로 ‘사이버 보안에 대한 평균 이상의 교육’을 받았다고 자부하며, 스스로 집 안에 자신의 서버에서 민감한 정보를 자체 호스팅하고 네트워크 트래픽을 모니터링할 수 있는 인터넷 인프라를 구축했다. 그는 집 내부에서 촬영된 영상이 외부로 전송되어 분류 작업을 거칠 것이라는 점을 분명히 알고 있다고 말했다. 그는 이메일에서 동의 계약서와 해당 디바이스 위에 부착되어 눈길을 끄는 ‘영상 촬영 중’ 스티커를 언급하며 “회사가 데이터 수집에 관한 정보를 책임감 있게 공개했다고 판단했다”라고 밝혔다. 그러나 그는 “나는 평범한 인터넷 사용자는 아니다”라고 강조했다.
MIT 테크놀로지 리뷰 기사에서 많은 테스터들에게 가장 큰 충격을 준 부분은 데이터가 수집된 후 처리되는 방식이었으며, 이 과정에 참여하는 사람의 수도 한몫했다. 익명을 요구한 또 다른 테스터는 이메일에 “나는 [영상 촬영]이 일반적인 업무 방식처럼 제품에 문제가 있는 경우에 내부 검증 용도로만 이뤄진다고 생각했다”라고 밝혔다. B는 “이 사진들이 회사 내에서 분류를 위해 확인될 수 있다고는 분명히 짐작했지만, 온라인에 유출됐다는 사실은 매우 당혹스럽다”라고 말했다.
그렉은 “사람이 직접 확인한다는 사실은 놀랍지 않았지만 그 확인의 정도가 충격적이었다”라고 덧붙인다. “전반적으로 AI가 작업 방식의 80% 정도를 개선할 수 있을 것이라고 생각한다. 나머지 예외적인 데이터는 [인간이] 직접 살펴봐야 할 것이다.”
이고르처럼 사람이 자신의 이미지를 직접 보고 어노테이션 작업을 수행하는 것에 대해 불편한 기색을 보이지 않던 참가자들도 아이로봇이 사건 발생 후 데이터를 처리한 방식에 대해서는 거부감을 느꼈다고 밝혔다. 이고르는 동의 계약이 ‘부실한 데이터 처리’와 ‘계약자의 데이터 유출을 막지 못한 전반적인 데이터 보관 및 관리 문제’에 대한 면책 사유가 될 수 없다고 주장했다.
한편 미국에 있는 수많은 테스터들은 자신의 데이터가 국가 밖으로 이전되는 상황에 대해 우려를 표했다. 이들은 글로벌 계약서에는 ‘미국 외 국가에 거주하는’ 참가자들에 대해 “아이로봇은 본국 외의 지역에 위치한 서버에서 연구 데이터를 처리할 수 있다….. 여기에는 아이로봇의 본국과 동일한 수준의 데이터 보호를 제공하지 않는 법률이 적용되는 서버도 포함된다”라는 문언이 있지만 미국 내 참가자의 데이터 처리 방법에 대해서는 해당 규정이 없다고 지적했다.
미국에 있는 한 참가자는 MIT 테크놀로지 리뷰에 다른 수많은 참가자들과 마찬가지로 “데이터가 해외로 유출될 줄은 전혀 몰랐다”라고 이야기했다.
테스터나 고객으로부터 데이터가 수집되고 나면, 미국 사용자들의 데이터가 해외로 전달되는 경우를 포함하여 회사가 수집된 데이터를 이용하여 수행되는 후속 작업을 통제하는 것은 궁극적으로 불가능에 가깝다.
칸은 실제로 미국 사용자들은 본국에서도 개인정보 보호 수단을 거의 제공받지 못한다고 언급한다. 유럽연합(EU)에서 데이터를 EU 외부(특히 미국)로 전송하는 것을 금지하는 법을 제정한 것도 바로 이런 이유 때문이다. 그는 “EU 회원국은 자국에 저장되는 데이터를 보호하기 위해 다양한 조치를 취해야 할 의무가 있다. 반면에 미국은 무법 지대에 가깝다”라고 주장한다. “미국인들은 다른 국가에 저장되는 데이터에 대해 동등한 보호를 받지 못한다.”
몇몇 테스터들에게 이러한 보상은 실망스러웠다. “내 엉덩이 사진이 인터넷에 떠돌고 있을지 모른다는 점을 굳이 감안하지 않더라도” 지나치게 급여가 낮다.
많은 테스터들은 미국의 데이터 보호와 관련하여 훨씬 더 광범위한 문제가 존재한다는 점을 알고 있다. 그래서 이들은 공개적으로 목소리를 내기로 결심했다.
IT 부문에서 근무하는 테스터 이고르는 “은행 및 의료 서비스와 같은 규제 업종 외의 부문에서 우리가 할 수 있는 최선의 방법은 데이터 보호 실패에 대해 상당한 책임을 지도록 하는 것이다. 기업들이 이 문제에 관심을 갖도록 할 수 있는 원동력은 강력한 경제적 인센티브밖에 없다”라고 주장했다. “안타깝게도 미국의 정치적 상황에서는 어떤 규제 법안도 통과되지 못할 것이다. 우리가 줄 수 있는 최고의 처벌은 공개적으로 망신을 주는 것이다…… 하지만 이 방법은 대부분의 경우 반발을 낳고 문제의 일부에 대한 관심만을 환기하는 데 그친다.”
한편, 아이로봇과 규제당국 모두 변화나 책임 부담에 대한 의지가 없는 상황에서 그렉은 룸바 청소기의 구매를 고민하는 사람들에게 다음과 같은 메시지를 전한다. “나라면 절대 구입하지 않을 것이다. 아이로봇이 데이터 보안 모델을 제대로 다루지 못하고 있기 때문이다.”
또한 그는 아이로봇이 “고객에게 정보를 제공하거나 고객을 보호해야 하는 공급업체의 책임을 심각하게 회피하고 있다. 이번 사건에서 아이로봇은 고객뿐 아니라 제품의 테스터까지 외면했다”라고 경고했다.