[디지털비즈온 송민경 기자] 오픈AI는 지난 5월 중순 감독위원회를 해체한 뒤 고위 임원들이 이끄는 안전보안위원회를 신설했다고 밝혔다.
새로운 안전보안위원회는 "오픈AI 프로젝트 및 운영에 대한 중요한 안전 및 보안 결정에 대해" 오픈AI 이사회에 권고안을 제시할 책임이 있다고 회사는 밝혔다.
챗GPT 개발자가 "차세대 프론티어 모델" 훈련을 시작했다고 발표한 데 따른 것이다. 또한 "인간만큼 똑똑하거나 더 똑똑한 AI와 관련된 AGI 또는 인공 일반 지능으로 가는 길에서 우리를 다음 단계의 기능으로 데려다 줄 결과 시스템"을 기대한다고 말했다.
오픈AI는 새로운 위원회가 CEO 샘 알트만(Sam Altman)과 회사 이사회 의장인 브렛 테일러(Bret Taylor) 및 이사회 구성원인 니콜 셀리그먼(Nicole Seligman)이 이끌 것이라고 공개했다.
새로운 감독 팀의 구성은 오픈AI가 AI의 장기적인 위험에 중점을 둔 이전 팀을 해체한 것과 더불어 이에 앞서 오픈AI의 공동 설립자인 일리야 수츠케버(Ilya Sutskever)와 얀 레이커(Jan Leike)는 Microsoft가 지원하는 스타트업을 떠난다고 발표하며 발생했다.
AI 안전은 챗GPT와 같은 애플리케이션을 뒷받침하는 거대한 모델이 더욱 발전함에 따라 더 큰 논쟁의 최전선에 존재했으며, AI 제품 개발자들은 강인공지능(AGI:Artificial General Intelligence)가 언제 도래하고 어떤 위험이 수반될지 궁금해하고 있다.
레이커는 오픈AI의 "안전 문화와 프로세스가 반짝이는 제품에 뒷전으로 밀려났다"고 언급했으며, 레이커의 퇴사에 대해 알트만은 소셜 미디어 플랫폼 X에서 레이커가 떠나는 것을 보는 것이 슬프다고 말하면서 오픈AI가 "할 일이 훨씬 더 많다"고 덧붙였다.
오픈AI는 훈련 중인 새로운 "프론티어" 모델에 대한 자세한 내용을 제공하지 않았지만 시스템을 "AGI로 가는 길에서 다음 수준의 기능"으로 가져올 것이라고 언급했다.
향후 90일 동안 안전보안위원회는 오픈AI의 프로세스와 안전 장치를 평가하고 권장 사항을 회사 이사회와 공유하고, 오픈AI는 나중에 채택한 권장 사항에 대한 업데이트를 제공할 예정이라 공개했다.