최근 전 세계적으로 인공지능 기술의 발전 속도가 빨라지면서 그 활용 범위도 급격히 넓어지고 있습니다. 특히 보안과 수사 분야에서 AI 얼굴인식 기술은 빠르고 정확한 식별을 가능하게 한다는 명목으로 널리 도입되고 있지만, 최근 미국에서 발생한 한 사건이 이 기술의 맹점을 적나라하게 드러내며 큰 화제를 모으고 있습니다. 테네시주에 거주하는 50 대 할머니 안젤라 립스가 본인은 평생 한 번도 방문한 적 없는 북다코타주에서 일어난 은행 사기 사건의 용의자로 지목되어 5 개월 이상 감옥에 갇혀 있었던 것입니다.
이 사건이 주목받는 이유는 단순히 기술적 오류가 발생했다는 점뿐만 아니라, 그 오류가 인간의 자유를 얼마나 쉽게 박탈할 수 있는지를 보여주기 때문입니다. 북다코타주 퍼고 시 경찰은 수사 과정에서 인근 서퍼고 시 경찰청이 도입한 클리어뷰 AI 기술을 활용했습니다. 이 시스템은 인터넷과 소셜 미디어에 흩어진 수십억 장의 사진을 데이터베이스화하여 얼굴을 매칭하는 방식으로 작동합니다. 그러나 이 과정에서 안젤라 립스의 얼굴이 실제 용의자와 유사하다는 오인식이 발생했고, 경찰은 이를 근거로 그녀에게 체포 영장을 발부했습니다. 할머니는 테네시 집에서 생활하던 중 갑자기 북다코타에서 발부된 영장에 의해 체포되어 먼 거리를 이동하며 수감 생활을 해야 했습니다.
사건이 드러난 후 퍼고 시 경찰청장 데이브 지볼스키는 기자회견을 통해 “우리가 인지하지 못한 채 인근 기관에서 자체 AI 시스템을 도입한 것이 문제의 일부였다”고 시인했습니다. 그는 고위 경영진이 서퍼고 경찰청의 AI 시스템 사용 사실을 몰랐으며, 만약 알았다면 그 기술을 수사 자료로 채택하지 않았을 것이라고 설명했습니다. 결국 이 시스템은 사용이 금지되었지만, 이미 5 개월이라는 긴 시간 동안 한 여성이 억울하게 감금당하는 결과가 초래되었습니다. 경찰 측은 몇 가지 오류가 있었다고 인정하고 운영 방식을 변경하겠다고 밝혔으나, 정작 피해자에게 직접적인 사과를 하지는 않아 논란을 키우고 있습니다.
이 사건은 AI 기술이 인간의 판단을 대체하거나 보조할 때 발생할 수 있는 ‘블랙박스’ 같은 불확실성을 경고합니다. 수천 마일 떨어진 곳에서 일어난 범죄를 해결하기 위해 도입된 기술이, 오히려 무고한 사람의 삶을 뒤흔든 것입니다. 앞으로는 AI 시스템이 단순히 얼굴을 매칭하는 것을 넘어, 해당 인물의 이동 경로나 맥락까지 종합적으로 고려하는지, 그리고 여러 기관이 서로 다른 AI 시스템을 사용할 때 발생할 수 있는 데이터 충돌을 어떻게 관리할지에 대한 질문이 따라야 합니다. 기술의 편의성 뒤에 숨겨진 오인식의 위험을 어떻게 줄일 것인지에 대한 사회적 논의가 본격화될 것으로 보입니다.