“생성형 AI”… 책임 있는 사용 방안
생성형 AI의 신뢰성과 위험 요소 책임 있는 생성형 AI 사용을 위한 방안
[디지털비즈온 김맹근 기자] 인공지능(AI)분야의 대부라고 불리우는 제프리힌튼(GeoffreyHinton)이 최근 구글(Google)을 사직하고 AI의 잠재적 위협에 대해 공개적으로 밝혔다. 힌튼은 45년간 AI분야에서 가장 존경받는 인물 중 한명으로 2018년 컴퓨터과학분야에서의 업적을 기념하여 시상하는‘ 컴퓨터과학의 노벨상’이라고 불리는 튜링상을 수상하였다.
힌튼은 자신이 해온 AI연구와 작업에 대해 약간의 후회가 있다고 말하며, AI가 사람의 일자리를 대체하는 단기적 위협부터 가짜 콘텐츠의 확산을 조장할 위험이 있다고 언급하였다. 힌튼은 우리가 만들고 있는 디지털지능은 생물학적지능과 매우 다르며, 디지털지능이 어떠한 개별 생물체보다 훨씬 더 많은 지식을 얻을 수 있어 인간에게 위험할 수 있다고 설명한다. 그는 AI의 위험에 대해 자유롭게 말하기 위해 구글을 그만 뒀다고 밝혔다.
생성형 AI의 신뢰성과 위험 요소
AI에 대한 관심이 높아지면서 시스템의 기술적측면과 함께 의도하지 않은 결과가 발생할 수 있다는 우려도 함께 제기된다. 알고리즘은 편견, 예방가능한 오류, 잘못된 의사결정을 야기하여 사용자에게 불신을 초래할 가능성도 있다. 생성형AI에 대한신뢰성, 규정준수 및 위험관리에 대한 우려로 많은 조직이 책임 있는 AI사용에대해 논의하기 시작했다. 생성형AI의 위험요소는 아래와 같다.
첫째, 편파적, 공격적, 오해의 소지가 있는 콘텐츠는 생성형AI는 데이터의 편향성으로 인해 사람에 대한 편견을 나타낼 수 있고, 잘못된 정보, 모욕적이거나 불쾌한 콘텐츠를 생성할 수 있어 심각한 위험요소로 고려되고 있다.
둘째, 데이터의 투명성은 생성형 AI는 일반적으로 기술기업이 구축한 기초모델을 기반으로 실행된다. 사용자는 기초모델을 소유하거나 내부 작동방식에 액세스할 수 없기 때문에 특정결과물이 생성된 이유를 이해하는 것이 불가능할 수 있다. 일부 생성형AI는 사용한 데이터 학습모델 자체를 공개하지 않을 수도 있다
셋째, 사이버위협은 생성형 AI가 매력적인 콘텐츠를 제작하는데 도움이 되는 것처럼, 악의적인 공격자들도 같은 작업을 수행하는데 사용할 수 있다. 예를 들어, 생성형AI는 경영진의 이메일, 소셜미디어 게시물, 동영상에 등장하는 모습을 분석하여 그들의 글쓰기스타일, 말투, 표정을 사칭할 가능성도 있다.
넷째, 개인정보침해는 방대한 데이터를 연결하고 필요에 따라 새로운 데이터를 생성하는 생성형AI의 능력은 개인정보보호 제어를 해제할 수 있다. 겉보기에 서로 다른 데이터요소 간의 관계를 식별함으로써 익명으로 처리한 이해관계자를 식별하고 그들의 민감한정보조합이 가능하다.
다섯째, 사실이 아닌 정보는 거의 모든 질문에 대해 설득력 있는 답변을 제시하는데 능숙한 생성형AI는 완전히 틀린 답변을 그럴듯하게 제시하기도 하는데, 데이터과학자들은 이를‘환각(hallucinations)’이라고 부른다.
책임 있는 생성형 AI 사용을 위한 방안
국가와 조직들이 직면한 가장 큰 문제는 책임 있게 사용하여 AI의 긍정적인 측면을 극대화하는 동시에 위험으로 부터 보호할 수 있을 지에 대한 것이다. 생성형AI가 유해하거나 의도하지 않은 결과를 최소화하거나 발생하지 않도록 보장하려면 AI 애플리케이션의 설계, 구현 및 유지관리 과정 전반에 걸쳐 책임 있는 원칙을 수립하여야 한다.