최근 캐나다 텀블러 리지에서 발생한 비극적인 총기난사 사건이 기술계의 이목을 집중시키고 있습니다. 오픈AI의 샘 알트먼 CEO 가 직접 지역 주민들에게 보낸 서한은 단순한 사과의 형식을 넘어, 인공지능 시대에 우리가 마주하게 될 새로운 종류의 책임에 대한 성찰을 요구합니다. 알트먼은 2025 년 6 월, 18 세 용의자의 ChatGPT 계정이 총기 폭력 관련 내용을 묘사했다는 이유로 정지 처리를 내렸으나, 당시 내부적으로 경찰 신고 여부를 논의한 끝에 결국 신고하지 않기로 결정했던 사실을 고백했습니다.
이 사건이 주목받는 이유는 인공지능이 단순히 데이터를 처리하는 도구를 넘어, 미래의 위험을 예측하고 선제적으로 행동할 수 있는 잠재력을 갖게 되었기 때문입니다. 월스트리트저널의 보도에 따르면, 오픈AI 는 해당 계정이 폭력적인 양상을 보일 때 이를 인지하고 있었음에도, 사건이 발생한 이후에야 캐나다 당국에 연락을 취했습니다. 알트먼은 “말로는 결코 충분하지 않다는 것을 알지만, 여러분의 지역사회가 겪은 피해와 돌이킬 수 없는 상실을 인정하기 위해 사과가 필요하다고 생각한다”며, 기술적 판단과 인간적 연민 사이의 간극을 메우기 위한 노력의 부재를 솔직하게 인정했습니다.
지역사회와 정치권의 반응은 복잡합니다. 텀블러 리지 시장과 브리티시컬럼비아 주지사와의 논의를 거쳐 발표된 이 사과문은 애도 기간을 존중하기 위해 시점을 늦췄다는 설명을 담고 있습니다. 그러나 주지사는 X 를 통해 “필요한 조치이긴 하지만, 피해 가족들이 입은 참혹한 피해에 비하면 턱없이 부족하다”고 평가하며, 기술 기업의 사죄가 실제 피해의 무게를 완전히 대체할 수는 없음을 지적했습니다. 이는 인공지능이 예측한 미래를 인간 사회가 어떻게 수용하고 대응할 것인지에 대한 근본적인 논의를 촉발시켰습니다.
앞으로의 흐름을 주목해야 할 지점은 오픈AI 가 발표한 구체적인 개선 방안입니다. 재발 방지를 위해 계정 신고 기준을 보다 유연하게 조정하고, 캐나다 법 집행기관과의 직접적인 연락 창구를 마련하는 등 안전 프로토콜을 강화하겠다고 밝혔습니다. 또한 새로운 기기에서 로그인할 때마다 이메일 인증을 거치는 절차도 도입되어 보안과 신원 확인의 강도를 높였습니다. 캐나다 당국 역시 인공지능에 대한 새로운 규제 도입을 검토 중이나, 아직 최종 결정은 내려지지 않은 상태입니다. 이번 사건은 기술이 발전할수록 그로 인한 책임의 범위도 함께 확장되어야 함을 보여주는 중요한 사례가 될 것입니다.