얼굴 인식의 명과 암, 기술이 만든 억울함과 그 후폭풍

얼굴 인식 기술의 그림자, 오인으로 번진 감시 시스템의 허점

AI 기반 얼굴 인식 기술이 일상에서 활용되는 범위는 점점 넓어지고 있다. 공항의 자동 출입국 시스템, 스마트폰의 생체 인증, 매장의 범죄자 식별 등 편의성과 보안 향상을 목표로 적극 도입되는 중이다. 그러나 시스템이 잘못 작동해 무고한 사람을 범죄자로 인식할 경우, 그 파장은 단순한 기술 오류를 넘어 개인의 삶을 심각하게 위협한다.

2025년 6월, 영국의 한 매장에서 발생한 얼굴 인식 오류는 그 대표적인 사례로 기록되고 있다. 범죄 예방 목적의 감시 시스템이 오히려 시민의 인권을 침해하는 사례가 드러난 이번 사건은, 기술의 오용과 검증 부족이 얼마나 위험한 결과를 초래할 수 있는지를 분명하게 보여준다.

얼굴 인식 시스템으로 억울한 누명 발생

영국의 소매체인 '홈바겐(Home Bargains)'은 범죄 예방을 위해 얼굴 인식 기술 '페이스워치(Facewatch)'를 매장에 도입했다. 해당 시스템은 도난 경력이 있는 고객의 얼굴을 기록하고 매장 출입 시 이를 실시간 알림으로 관리직원에게 전달하는 방식이다. 그러나 2025년 5월, 물티슈 등 생활용품을 구매한 한 여성이 시스템에 의해 도둑으로 인식되는 사건이 발생했다.

이 여성은 실제로 상품을 결제했으며 이를 자신의 은행 거래 내역으로도 증명할 수 있었지만, 당시 매장 관계자의 착오로 그녀의 정보가 '경고 인물'로 등록되었다. 이후 그녀는 다른 지역의 홈바겐 매장에서도 동일한 얼굴 인식 경고로 인해 입장을 거부당하고, 공공장소에서 명백한 오해와 심리적 불안을 겪어야 했다.

페이스워치는 결국 조사를 통해 해당 여성의 혐의가 사실무근임을 인정하고, 문제가 된 매장 운영자에 대한 시스템 사용을 중지시켰다. 하지만 이미 퍼진 오류 데이터와 그로 인한 소비자 피해는 쉽게 회복되지 않았다.

개인정보 오남용, 시스템 오류를 넘어 제도 미비로 확산

이번 사례에서 드러난 핵심 문제는 단지 인공지능 알고리즘의 오작동이 아니었다. 페이스워치는 “매장의 자체 평가 결과를 바탕으로 사용자 정보가 등록됐다”고 해명했으며, 문제는 정보 제출 과정에서도 제대로 된 검증이나 이의제기 절차가 없었기 때문이다.

관계기관인 영국 과학혁신기술부(Department for Science, Innovation and Technology)는 상업용 얼굴 인식 기술의 합법성을 인정하면서도 “바이오메트릭 데이터를 처리할 경우 정당하고 투명한 방식으로 이용돼야 한다”고 강조하고 있다. 이는 EU 일반개인정보보호법(GDPR)에서도 유사하게 명시된 바 있으며, 개인의 얼굴 데이터 수집과 활용에는 명백한 '동의'와 '필요성'이 입증돼야 한다.

현재 영국 시민자유단체 '빅 브라더 워치(Big Brother Watch)'는 이번 사건을 포함해 최소 35건 이상의 유사 피해 신고를 접수했다고 밝혔다. 이들은 얼굴 인식 기술의 상업적 사용에 대해 즉각적인 제도 정비 또는 철회를 촉구하고 있다.

기술 신뢰도를 결정짓는 ‘인간의 검증’ 유무

페이스워치와 같은 시스템은 기본적으로 '알려진 데이터'를 얼굴과 대조하여 실시간 경고를 발송하는 역할을 한다. 이 구조 자체는 기술적으로 신뢰도가 높은 얼굴 매칭 알고리즘으로 알려져 있다. 문제는 그 초깃값인 '등록 데이터'가 정확하지 않거나 주관적 판단에 따라 오기입될 경우, 그 이후 모든 경고가 잘못된 판단을 유도한다는 점이다.

전문가들은 이런 시스템이 ‘준사법적 기능’을 수행하고 있음에도 절차적 정당성과 독립적인 감사 기구가 존재하지 않는다는 점을 주요 위험 요소로 지적한다. 미국, EU, 일본 등 주요국가들의 인공지능 관련 입법 동향 역시 데이터 출처의 신뢰성과 알고리즘의 투명성 확보를 향후 법제화의 핵심 요소로 보고 있다.

소비자 보호와 기업 책임의 간극 해소가 필요

기술이 활용되는 환경에서 문제 발생을 완전히 막는 것은 어렵다. 그러나 사용 중인 시스템이 사람의 사회생활에 직접적인 불이익을 줄 수 있다면, 운영 주체는 그에 상응하는 윤리적이고 제도화된 책임 구조를 갖춰야 한다. 피해를 입은 소비자는 단지 항의 메일 한 통으로 명예를 회복하기 어려우며, 시스템 개발·운용자는 법적으로도 명확한 책임 범위를 설정해야 한다.

이번 사건을 계기로 페이스워치를 도입 중인 다수의 유통 업체들이 사용자 등록 절차와 시스템 응답 방식에 대한 개선 지침을 도입하기 시작하고 있다. 하지만 이러한 자율 규제만으로 문제를 해결하기는 어렵다. 정확한 기록과 검증, 사전 예방 시스템, 피해 발생 시 신속한 행정·법률 구제 절차가 함께 마련돼야 한다.

얼굴 인식 기술을 둘러싼 신뢰와 윤리의 균형

얼굴 인식은 보안과 효율성을 강화하는 혁신 기술로 주목받고 있다. 하지만 그만큼 민감한 개인정보를 다루는 기술로, 신뢰성과 윤리적 고려가 무엇보다 중요하다. 시스템 설계는 물론이고, 운영자의 대응 시스템, 피해자의 이의제기 절차까지 모두 법과 제도로 뒷받침돼야 비로소 안전하게 작동할 수 있다. 기술이 편리함만을 앞세울 때, 감시와 차별을 강화하는 도구로 전락할 수 있음을 이번 사례가 분명히 보여주고 있다.