MS 오픈AI "챗GPT활용 해킹 시도한 러시아ㆍ북한ㆍ이란“ 계정차단
국제 해커들, 챗GPT와 같은 대규모 언어 모델을 사용 사이버 공격 개선
[디지털비즈온 송민경 기자] 마이크로소프트(Microsoft)와 오픈AI(OpenAI)는 해커들이 이미 챗GPT와 같은 대규모 언어 모델을 사용해 기존 사이버 공격을 개선하고 있다고 15일 밝혔다.
새로 발표된 연구에서 마이크로소프트와 오픈AI는 챗GPT와 같은 도구를 사용하여 표적에 대한 연구, 스크립트 개선 및 사회 공학 기술 구축을 돕기 위해 러시아, 북한, 이란 및 중국의 지원을 받는 그룹이 시도한 것을 감지했다고 밝혔다.
마이크로소프트가 발표한 새로운 연구 보고서에서 발췌한 내용으로, 중국, 러시아, 북한 및 이란과 연계된 국가 공격자들이 대규모 언어 모델을 사용하는 것에 대해 자세히 설명했다.
오픈AI는 자체 게시물을 통해 "이러한 행위자들은 일반적으로 오픈 소스 정보를 쿼리하고, 번역하고, 코딩 오류를 찾고, 기본 코딩 작업을 실행하기 위해 OpenAI 서비스를 사용하려고 했습니다." 라고 언급했다. 또한 마이크로소프트와 협력해 5개 주 연계 단체와 관련된 계정을 식별하고 해지했다고 밝혔다.
마이크로소프트는 자체 게시물에서 "국가 연계 위협 행위자는 위협 행위자의 AI 사용으로 인해 특별히 새롭거나 고유한 AI 지원 공격 또는 남용 기술을 아직 관찰하지 못했다"고 언급하며 "그러나 마이크로소프트와 파트너는 계속해서 이 환경을 면밀히 연구하고 있습니다." 라고 밝혔다.
마이크로소프트는 AI 기술 및 API의 악의적인 사용을 중단시키기 위한 몇 가지 원칙을 발표했다. 국가와 연계된 위협 행위자의 계정을 탐지하고 정지하는 것 외에도 다른 서비스 제공업체에 알리고 주요 이해 관계자와 협력하며 결과에 대한 공개 보고서를 발행할 것이라고 공개했다.
마이크로소프트는 현재 고객 프리뷰로 제공되는 코파일럿 포 시큐리티(Copilot for Security) 제품이 "공격자가 사용하는 스크립트 식별, 인시던트 보고서 작성, 적절한 수정 단계 식별과 같은 일반적인 작업에서 전문 지식 수준에 관계없이 보안 분석가의 속도와 정확성이 향상되었음을 보여주었다"고 밝혔다.
현재로서는 사이버 공격에서 AI의 사용이 제한적인 것으로 보이지만 마이크로소프트는 "AI 기반 사기는 또 다른 중요한 우려 사항입니다. 음성 합성은 3초짜리 음성 샘플이 누구에게나 들리도록 모델을 훈련시킬 수 있는 예입니다"라고 언급하며 음성 관련 범죄에 대해서 언급했다.