“생성형 AI-2”… 공공분야 활용 방안

생성형 AI의 효용성과 한계 한계 돌파 중인 생성형 AI

2024-06-10     김맹근 기자
사진 : pixabay

[디지털비즈온 김맹근 기자] 생성형 AI의 한계는 생성형 AI 서비스는 챗봇과 같은 그간 AI 서비스와는 비교되지 않을 만큼 우수한 성능으로 단순 자동화를 넘어 인간의 창의적 영역까지도 가능하게 해주며 시대 흐름을 바꾸는 ‘게임 체인저(Game Changer)’로 인식한다. 그러나 생성형 AI 서비스는 태생적 특성에 따른 몇 가지 한계와 문제점 존재한다.

첫째 기능적 측면은 생성형 AI 서비스의 답변 정보는 모두 정확한 것은 아니며 꽤 논리적으로 보이나 잘못된 정보이거나 무의미한 답변을 하는 이른바 할루시네이션(hallucination) 현상이 나타난다. 생성형 AI는 모델 구축 시점 기준 이전 데이터 학습하여 모델 구축 이후 사건에 대해서는 부정확하게 답변하는 등 최신성이 떨어지는 문제도 한계로 지적된다.

둘째 윤리적 측면은 인공지능은 윤리적 중립을 지켜야 하므로 차별적이거나 혐오 표현이 담긴 내용, 정치적 민감도가 높은 질문에는 기본적으로 답할 수 없도록 설계되어야 한다. 학습 데이터가 편향성이 있을 경우 자칫 특정 방향에 치우친 결과를 도출할 우려가 있으며, 이는 사회적 혼란을 유발하고, 차별을 조장하거나 불평등을 심화 시키는 등 심각한 부작용이 나타날 수 있다.

셋째 비용적 측면은 생성형 AI 서비스를 제공하기 위해서는 대형 모델을 필요로 하며 대형 모델은 대규모 데이터의 구축·학습뿐 아니라 이를 운영하기 위한 대규모 컴퓨팅 자원을 요구한다. 대형 모델 운영 및 관리에는 엄청난 비용이 지속해서 소요되기 때문에 서비스 유료화를 넘어 지속적인 수익을 가져다줄 킬러 콘텐츠 개발이 절실하다.

넷째 환경적 측면은 대형 모델 구축, 학습, 운영에는 막대한 전력이 소비되며 이에 따른 온실가스 다량 배출된다. 생성형 AI 서비스는 검색엔진 서비스 대비 4~5배 이상 더 많은 작업이 필요하며, 이는 생성형 AI 서비스 이용 시 기존 검색 서비스보다 에너지 소비와 온실가스 배출도 훨씬 많아진다는 의미한다. 현재 다양한 생성형 AI 서비스가 출시되고 있으며, 앞으로도 더 많은 생성형 AI 서비스가 출시될 것으로 예상되기 때문에 전 지구적으로 심각한 에너지 및 환경 위기 초래 우려한다.

다섯째 저작권 측면은 AI가 만들어 낸 결과물은 인간의 창작물로 보기 어렵다는 이유로 우리나라를 비롯한 대부분 국가에서 AI가 결과물을 저작물로서 인정하지 않고 있다. 이미지 생성 AI 서비스 미드저니(Midjourney)를 활용해 제작한 그래픽노블 ‘여명의 자야(2022)’에 대해 미국 저작권청은 AI가 생성한 이미지 자체에 대해 저작권을 인정하지 않는다.

그러나 작가가 쓴 글, 이미지의 선택과 배치는 창작물로서 인정함으로써 예술가들이 AI를 창의적으로 통제할 수 있다면 결과물 또한 저작권 보호를 받을 수 있음을 시사한다. AI가 생성하는 그림은 무에서 유를 창조한 새로운 그림이 아니라 이미 예술가들이 만든 저작물을 학습한 결과로서 AI 알고리즘 개발 과정에서 저작권이 있는 저작물이 학습되는 것이 불가피하다.

여섯째 개인정보 측면은 생성형 AI 개발을 위해 인터넷에 공개된 대규모 데이터를 수집하는 과정에서 의도하지 않더라도 사전 통지나 동의를 구하지 않은 상당량의 개인정보가 포함될 수 있다. 또한 생성형 AI 서비스를 활용하는 과정에서 민감한 기업정보나 개인정보 입력 시 정보 유출 우려 존재한다. 일부 정부와 기업은 개인정보 유출 등 부정적 영향을 우려하여 생성형 AI 서비스 사용을 금지하거나 제한한다.

한계 돌파 중인 생성형 AI

생성형 AI의 한계인 낮은 정확도, 편향성, 높은 비용, 에너지 및 환경 위기, 저작권 문제, 개인정보 문제 등은 반복적인 시행착오, 추가적인 학습, 전문적인 검증, 기술적인 보완, 사회적 합의 등을 통해 개선될 것으로 기대한다. 2023년 3월 14일 출시한 GPT-4 모델의 경우 정확도, 편향성 등이 크게 개선되었다.

ChatGPT는 GPT-4 모델 적용뿐만 아니라 모델 적용 이후 플러그인, 브라우징, 비공개 모드 등 새로운 기능 추가를 통해 정확도 개선, 최신성 확보, 개인정보 보호 등 한계를 극복하기 위해 지속적으로 노력한다.

마이크로소프트의 빙(Bing) 챗봇은 정보형 질문에 대해서 답변의 출처를 제공하며, 구글의 바드(Bard)도 답변 시 정보의 퍼블리셔와 저자, 정보가 작성된 시점 등을 알 수 있도록 출처를 제공하여 신뢰성을 높일 예정이다. 네이버의 하이퍼클로바X에는 ChatGPT의 플러그인처럼 내·외부의 다양한 서비스 API를 연결하는 ‘스킬(Skill)’ 기능을 도입해 모델 자체 생성 능력만으로 한계가 있는 답변을 보완하여 최신성 및 정확도 향상된다.