“생성형 AI”… 기업의 새로운 위험으로 급부상
경영진은 오픈AI의 챗GPT와 구글 바드 등과 같은 생성형 인공지능의 대중적 활용 가능성을 주요 리스크로 본다
[디지털비즈온 김맹근 기자] 기업 경영자들은 생성형 인공지능의 대중적 활용 가능성을 기업의 주요 리스크로 꼽았다. 이를 두고 정보기술 컨설팅 업체인 가트너는 기업 위험을 관리하기 위해 지적재산, 데이터 개인 정보 보호, 사이버 보안 등 세 가지 주요 측면을 다뤄야 한다고 조언했다.
생성형 인공지능이 기업의 새로운 위험으로 부상하고 있는 것으로 나타났다. 정보기술 컨설팅 업체인 가트너(Gartner)가 지난 5월 기업 리스크 경영진 249명을 대상으로 기업 경영에 위험 요소가 될 수 있는 20개 항목에 대해 조사한 결과, 기업 리스크 담당 경영진은 오픈AI(OpenAI)의 챗GPT(ChatGPT)와 구글 바드(Bard) 등과 같은 생성형 인공지능의 대중적 활용 가능성을 주요 리스크로 꼽았다.
가트너 란 쑤(Ran Xu) 이사는 “이번 조사에서 생성형 인공지능이 두 번째로 높은 위험으로 인식됐다”며 “이는 생성형 인공지능 도구에 관한 대중의 인식과 사용의 급속한 확산뿐만 아니라 해당 도구가 초래하는 잠재적인 사용 사례의 폭과 잠재적인 위험을 모두 반영한다”고 말했다.
조직에서 가장 면밀하게 모니터링하고 있는 가장 빠르게 부상하는 위험은 제3자 생존 위험(Third-party viability)으로 나타났다. 금리 상승과 인플레이션이 지속되는 가운데 경제 상황이 광범위하게 악화될 경우, 공급 업체의 생존 가능성 또는 적시에 재화와 서비스를 제공하는 그들의 능력에 영향이 미칠 수 있다고 우려한다.
재무 계획의 불확실성(Financial Planning Uncertainty)이 3순위 위험으로 꼽혔고, 클라우드 집중 위험(Cloud Concentration Risk), 중국 무역 긴장(China Trade Tensions) 등이 그 뒤를 이었다.
가트너는 기업 위험을 관리하는 측면에서 세 가지 주요 측면을 다뤄야 한다고 조언했다.
지적 재산은 생성형 인공지능 도구의 입력과 출력 측면에서 지적재산권 위험을 적절히 완화할 수 있어야 한다. 생성형 인공지능을 학습시키는 데 필요한 학습 자료가 이미 다양한 형태로 저작권을 침해하고 있는 사례가 등장하고 있다.
생성형 인공지능 도구에 입력되는 정보는 훈련 세트의 일부가 될 수 있는데, 이는 민감한 정보나 기밀 정보가 다른 사용자를 위한 산출물이 될 수도 있음을 의미한다. 또한 의도치 않게 이를 사용한 다른 사람이 지적재산권을 침해하는 결과를 초래할 수 있다.
데이터 개인 정보 보호는 생성형 인공지능 도구는 사전에 통지하지 않고 공급 업체나 서비스 제공 업체와 같은 제3자와 사용자 정보를 공유할 가능성이 있다. 이는 개인 정보 보호법으로 개인 정보 보호를 강력하게 추진하며 규제하고 있는 국가들의 개인 정보 보호 정책에 위배된다.
사이버 보안은 해커들은 항상 새로운 기술을 테스트하고 있으며, 생성형 인공지능도 다르지 않다. 생성형 인공지능이 악용될 경우 사이버 보안에 대한 위협은 이전과는 비교도 할 수 없을 만큼 다양하고 치명적인 방향으로 전개될 것으로 우려된다. 누구나 생성형 인공지능으로 악성 코드나 해킹 도구를 생성하게 하거나, 거짓 정보를 생성해서 배포토록 조작하면 그 파급 효과는 감당하기 어려울 것으로 우려된다.