AI 서비스가 범죄의 예고 지표가 될 수 있음에도 기업이 이를 방관했다는 비판이 거세지고 있다.
챗GPT에 남긴 ‘학살 시나리오’… 오픈AI는 알고 있었다
23일(현지시간) AP와 블룸버그 통신에 따르면, 캐나다 정부는 브리티시컬럼비아주 텀블러리지 학교 총기난사 사건의 피의자 제시 반 루트셀라가 범행 전 챗GPT를 사용한 기록과 관련해 오픈AI 측을 소환했다.
조사 결과, 피의자 루트셀라는 지난해 6월 수일간 챗GPT에 접속해 총기 폭력과 관련된 구체적인 시나리오를 여러 차례 서술했다. 당시 오픈AI의 자동 검토 시스템은 이를 ‘위험 대화’로 분류해 내부 직원들에게 전달했다.
일부 직원은 실제 폭력으로 이어질 가능성을 경고하며 법 집행기관에 신고해야 한다고 주장했으나, 회사 측은 “자체 신고 기준에 미치지 못한다”는 이유로 이를 묵살한 것으로 드러났다.
에반 솔로몬 캐나다 AI부 장관은 이번 사태에 대해 강한 유감을 표명했다.
솔로몬 장관은 “오픈AI 내부에서 위험성을 인지하고도 적시에 법 집행기관에 연락하지 않았다는 보도는 매우 우려스럽다”며 24일 오픈AI 안전 담당 고위 관계자들을 면담하겠다고 밝혔다.
솔로몬 장관은 면담을 통해 오픈AI의 자체 안전 프로토콜과 단계별 대응 절차를 정밀 검증할 계획이다. 특히 기업의 내부 기준이 공공의 안전보다 우선될 수 없다는 점을 분명히 할 것으로 보인다.
이번 사건의 피의자 루트셀라는 지난 10일 학교 학생과 가족 등 8명을 살해한 뒤 스스로 목숨을 끊었다.
AI가 범행의 징후를 읽어냈음에도 불구하고 시스템적인 대응 실패로 참극을 막지 못했다는 점이 확인되면서, AI 기업에 대한 규제 목소리는 더욱 커질 전망이다.
캐나다 정부는 현재 진행 중인 개인정보 보호 및 온라인 유해콘텐츠 관련 입법 작업에 이번 사례를 적극 반영할 방침이다.
솔로몬 장관은 “캐나다 국민의 안전을 보장하기 위해 모든 법적·제도적 수단을 검토하고 있다”고 강조했다.
[사건 일지] 텀블러리지 학교 총기난사 및 오픈AI 논란
2025년 6월: 피의자, 챗GPT에 총기 폭력 시나리오 반복 작성 -> 오픈AI 내부 인지 후 미신고 결정.
2026년 2월 10일: 피의자, 학교 등에서 8명 살해 후 사망.
2026년 2월 23일: 캐나다 정부, 오픈AI 소환 발표.
2026년 2월 24일: AI부 장관, 오픈AI 안전팀 면담 예정.
댓글
댓글 기능은 준비 중입니다.