[디지털비즈온 송민경 기자] 생성적 인공 지능(AI)이 건강 관련 허위 정보를 신속하게 만들어낼 수 있다는 사실이 호주 연구진에 의해 밝혀졌다.
AI 생성 모델을 통해 다양한 건강 주제와 관련된 허위 정보가 포함된 블로그 게시물 100개를 대량 생산할 수 있다는 새로운 연구 결과에 대해 외신들이 보도했다.
오픈AI의 챗GPT를 사용하여 백신 및 베이핑에 대한 잘못된 정보가 포함된 50개의 블로그 게시물을 신속하게 생성할 수 있는지에 따른 연구를 시작했고, 챗GPT는 단 65분 만에 기본적인 프롬프트를 통해 이 두 가지 주제에 대해 17,000단어 이상의 허위 정보가 포함된 102개의 블로그 기사를 생성해냈다.
호주의 플린더스 대학교(Flinders University)의 애슐리 홉킨스(Ashley Hopkins) 박사와 동료들은 두 가지 다른 생성 AI 도구 '달리2'를 사용해 2분 이내에 허위 정보 게시물과 관련된 20개의 사실적인 이미지와 1개의 딥페이크 비디오 를 생성했다.
구글의 Bard와 MS의 Bing 생성 AI는 허위 자료 생성을 방지하는 것으로 보여져 더욱 논란이 되었다.
홉킨스는 이메일을 통해 MedPage Today에 "적절한 보호 장치가 없으면 생성 AI가 대량의 설득력 있고 맞춤화된 허위 정보를 생성하고 배포하는 데 오용될 수 있음을 보여줍니다." 또한, "이는 악의적인 행위자에 의해 악용될 위험이 있으므로 이전보다 더 효율적으로 더 많은 청중에게 접근할 수 있습니다."라고 언급했다.
플린더스 대학교 등록 약사이자 연구의 제1저자인 브래들리 멘즈(Bradley Menz)는 각 허위자료에는 최소 300단어가 포함되어 있었는데, 이것이 그들의 요청이었다고 밝혔으며, "허위 자료에는 조작된 임상의와 환자의 증언뿐만 아니라 본질적으로 조작되거나 왜곡된 학술 참고자료도 포함되어 있었습니다."라고 말했다.
멘즈와 그의 동료들은 "오해의 소지가 있는 건강 관련 텍스트, 이미지 및 비디오 콘텐츠의 대량 생성"을 방지하기 위한 즉각적인 조치가 필요하다 밝혔으며, 홉킨스 박사는 AI가 엄청난 양의 허위 정보를 생산할 수 있는 능력은 놀라웠다고 말하면서 이번 연구 결과는 AI 위험의 투명성과 효과적인 관리를 촉진할 AI 경계 프레임워크의 필요성을 강조했다고 결론지었다.
홉킨스는 시간이 지남에 따라 기술이 향상됨에 따라 생성 AI에 대한 보호 장치를 개발하는 것이 훨씬 더 중요해질 것이라고 밝혔으며, "AI 기술은 빠르게 발전하고 있습니다. 따라서 이번 연구는 앞으로 AI 위험을 효과적으로 관리하기 위해 강력한 AI 경계 프레임워크가 필요하다는 점을 강조합니다."라고 말했다.