상단영역

본문영역

캘리포니아 10대 비극… ‘AI 상담’ 맹신이 부른 치명적 결말

  • Editor. 송민경 기자
  • 입력 2025.08.29 16:21
  • 댓글 0
이 기사를 공유합니다
(사진=레인 가족) 아담 레인의 부모는 아담 레인이 스스로 목숨을 끊기 직전을 포함해 여러 차례 ChatGPT와 자살 방법에 대해 논의했다는 점을 토대로 오픈AI를 고소했다.
(사진=레인 가족) 아담 레인의 부모는 아담 레인이 스스로 목숨을 끊기 직전을 포함해 여러 차례 ChatGPT와 자살 방법에 대해 논의했다는 점을 토대로 오픈AI를 고소했다.

[디지털비즈온 송민경 기자] 캘리포니아에서 한 부부가 생성형 AI 기업 오픈AI(OpenAI)를 상대로 소송을 제기했다고 뉴욕타임즈, BBC 등 현지 언론이 보도했다. 부부는 16세 아들 아담 레인(Adam Raine)이 지난 4월 극단적 선택을 했으며, 챗봇 ‘ChatGPT’가 자살을 부추겼다고 주장했다. 이번 소송은 오픈AI를 상대로 제기된 첫 과실치사 소송으로 기록됐다.

유족이 제출한 대화 기록에는 아담이 불안과 자살 충동을 토로하는 장면이 담겼으며, 챗봇이 그의 가장 해로운 생각을 사실상 확인해준 것으로 나타났다고 전해졌다.

가족은 아들이 학업, 음악, 일본 만화 등 관심사와 대학 진학 상담을 위해 사용하던 챗봇에 점점 의존하게 됐으며, 결국 자해 흔적이 담긴 사진을 올렸음에도 프로그램은 대화를 중단하지 않았다고 주장했다.

최종 대화에서 아담은 자살 계획을 언급했고, 같은 날 모친에 의해 숨진 채 발견됐다고 소송장은 밝혔다.

부모 측은 오픈AI가 GPT-4o 출시 과정에서 안전성 검증을 우회하고, 사용자에게 심리적 의존을 유도하는 설계를 했다고 비판했다. 소송에는 공동 창업자 샘 알트먼과 관련 개발진도 피고로 포함됐다.

오픈AI는 성명을 통해 유가족에게 애도를 표하며, 위기 상황에서 전문 상담 기관으로 연결하도록 훈련돼 있다고 설명했다. 그러나 민감한 상황에서 시스템이 의도대로 작동하지 않은 경우가 있었음을 인정했다고 덧붙였다.

이 사건은 AI와 정신 건강의 위험한 접점을 다시 조명하게 했다. 앞서 뉴욕타임스 칼럼니스트 로라 릴리는 딸 소피가 자살 전 ChatGPT와 대화를 나눴다는 사례를 공개하며, 프로그램의 ‘맞장구’ 성향이 오히려 위기를 은폐했다고 지적했다. 오픈AI는 향후 자동화된 감지·대응 기능을 개발해 위기 상황에 보다 효과적으로 대응하겠다고 밝혔다.

캘리포니아 소송과 잇따른 사례는 생성형 AI가 결코 의사나 전문 치료자의 역할을 대체할 수 없음을 보여줬다. 물론 일부 정보 제공이나 도움은 가능하지만, 이를 맹신해 정신적·의학적 조언을 구하는 것은 매우 위험하다는 사실이 드러났다. 전문가들은 반복되는 사건이 경고하는 바를 직시하고, 사용자와 사회 전반이 생성형 AI 활용에 신중함을 기해야 한다고 강조했다.

관련기사

저작권자 © 디지털비즈온 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

하단영역