미드저니, AI 이미지 생성기 액세스 중단

유명인 가짜 사진 유행

2023-04-06     이호선 기자
미드저니(Midjourney)는 자사 기술로 생성된 딥 페이크 바이러스가 증가함에 따라 무료 평가판에 대한 액세스를 차단했다.(사진=게레로 아트/Pablo Xavier)

[디지털비즈온 이호선 기자] AI 이미지 생성기 미드저니(Midjourney)는 자사 기술로 생성된 딥 페이크 바이러스가 증가함에 따라 무료 평가판에 대한 액세스를 차단했다.

미드저니 설립자 데이비드 홀츠는 회사의 Discord 서버에 "비정상적인 수요와 평가판 남용으로 인해 우리는 시스템에 대한 다음 개선 사항이 배포될 때까지 일시적으로 무료 평가판을 비활성화합니다."라고 외신을 통해 밝혔다.

"딥 페이크"는 이미지, 비디오 또는 오디오를 변경하여 실제 사람들이 한 번도 하지 않은 행동을 하거나 말한 것을 보여줌으로써 AI가 만든 사실적으로 보이는 미디어 프로그램이다.

하지만 딥 페이크는 재미와 오락을 위해 사용될 수 있지만 이 기술은 또한 잘못된 정보를 퍼뜨리거나 의견에 영향을 미치거나 평판을 해칠 수 있다고 경고했다.

외신 사이트에서 도널드 트럼프 전 미국 대통령이 뉴욕에서 체포될 예정이라는 보도가 나왔을 때 트럼프 대통령이 경찰에 쫓기는 모습을 보여주는 사진이 급증했다.

두 경우 모두 포토샵(Photoshop)을 사용하여 전문가가 만든 유사한 종류의 가짜보다 이미지가 훨씬 더 사실적으로 보였다.

사진을 자세히 살펴보면 무언가가 옳지 않다는 명백한 증거를 찾아 볼 수 있다. 트럼프의 팔은 너무 짧고, 왼쪽의 경찰관은 사람의 손보다 발톱과 더 유사한 것을 볼수 있다.

디지털 콘텐츠 분석 회사인 Truepic의 무니르 이브라힘(Mounir Ibrahim)은 "합성 콘텐츠는 빠른 속도로 진화하고 있으며 진위 콘텐츠와 가짜 콘텐츠 간의 차이를 해독하기가 점점 더 어려워지고 있다."고 말했다.