챗GPT, 12월부터 성인용 콘텐츠 개방
‘성인용 콘텐츠(mature content)’ 허용
[디지털비즈온 송민경 기자] 오픈AI(OpenAI)가 오는 12월부터 연령 인증을 완료한 성인 사용자에게 ‘성인용 콘텐츠(mature content)’를 허용할 계획이라고 밝혔다.
CEO 샘 올트먼(Sam Altman)은 14일(현지시간) X(옛 트위터)에 올린 글에서 “성인 사용자를 성인답게 대한다는 원칙의 일환으로, 인증된 성인에게는 에로티카(성인 문학) 등의 콘텐츠도 허용할 것”이라고 언급하여 BBC, 로이터통신 등 외신에서 보도했다.
샘 올트먼은 “그동안 우리는 정신건강 문제에 신중하게 대응하기 위해 챗GPT의 제약을 매우 강화했지만, 이는 정신적 어려움이 없는 사용자들에게는 도리어 불편함과 제약으로 작용했다”고 말했다. 그는 “이제는 관련 위험을 완화할 수 있는 기술적 도구를 확보했으며, 앞으로 대부분의 상황에서 규제를 완화할 것”이라고 덧붙였다.
오픈AI는 향후 몇 주 내에 사용자가 챗GPT의 ‘대화의 톤과 성격(personality)’을 직접 설정할 수 있는 버전도 공개할 예정이라 밝혔다. 올트먼은 “사용자가 원한다면 챗GPT가 매우 인간적인 방식으로 반응하거나, 이모지를 많이 쓰거나, 친구처럼 대화하도록 만들 수 있을 것”이라며 “이는 단순히 사용량 극대화를 위한 조치가 아니라 사용자 선택에 따른 개인화”라고 강조했다.
이번 조치는 청소년 보호 조치를 강화하고 있는 다른 빅테크 기업들과 대조적인 모습으로 볼 수 있다. 메타(Meta)는 같은 날 인스타그램과 자사 생성형 AI 서비스에 PG-13 영화 등급 시스템을 모방한 필터링 기능을 도입했다고 발표했다.
메타는 지난 9월 미성년자 전용 챗GPT 환경을 구축해 성적이거나 폭력적인 콘텐츠를 자동 차단하도록 했다. 또한, 사용자의 행동 패턴을 분석해 연령을 예측하는 기술을 개발 중이라고 밝혔다.
오픈AI가 한때 챗GPT의 안전장치를 강화한 이유는 실제 사고 때문이다. 올해 초 미국 캘리포니아의 10대 청소년 애덤 레인(Adam Raine)이 챗GPT로부터 자살 방법에 대한 구체적인 조언을 받은 후 스스로 목숨을 끊은 사건이 발생했고, 부모는 8월 오픈AI를 상대로 소송을 제기했다. 이후 두 달 만에 올트먼은 “심각한 정신건강 문제를 기술적으로 완화할 수 있게 되었다”고 설명했다.
한편, 미국 연방거래위원회(FTC)는 청소년 및 아동 사용자 보호 문제를 이유로 오픈AI를 포함한 여러 AI 기업들을 상대로 조사에 착수한 상태다. FTC는 AI 챗봇이 미성년자의 정서적·심리적 건강에 미치는 부정적 영향을 중점적으로 살펴보고 있다고 밝혔다.