G7, AI 규제 행동 강령 초안 합의
11월에 G7 지도자들에게 최종 제출 예정
[디지털비즈온 이호선기자] G7 국가들은 AI에 대한 국제 행동 강령을 개발하기로 합의했다.
자발적인 지침의 일환으로 국가들이 생성 AI 및 기타 고급 형태의 기술을 감독하는 특정 원칙에 대해 협력할 것이라고 외신들이 전했다.
구속력이 없는 국제 규칙서를 작성하려는 이러한 시도는 11월에 G7 지도자들에게 제출될 예정이다.
행동 강령은 기업이 AI 시스템으로 인해 발생할 수 있는 잠재적인 사회적 피해를 해결하기 위해 노력하도록 요구사항에 중점을 두었다.
초안에는 ▲AI 배포 전후에 내부 및 외부의 '레드팀'을 구성해 취약점을 테스트하는 안 ▲안전 및 보안 평가 보고서를 공개하고 정부 및 학계 등과 공유하는 안 ▲개인정보 보호 및 위험 관리 정책을 공개하고 보안 통제를 구체화하는 안 ▲워터마크 등의 방법으로 생성 AI 콘텐츠를 식별하는 안 ▲AI 안전 연구에 투자하는 안 ▲기후위기 및 건강, 교육 등 글로벌 문제를 해결하는 데 AI 개발을 우선하는 안 ▲AI 테스트 및 콘텐츠 인증을 위한 국제표준 채택 안 ▲지적재산 및 개인정보 보호를 위해 학습 데이터를 제어하는 안 등이 포함된 것으로 알려졌다.
기업은 개인과 사회에 부정적인 영향을 미치지 않도록 적극적인 조치를 취해야 된다.
또한 이 강령은 AI 기술의 개발 및 사용 전반에 걸쳐 보안을 보장하기 위해 강력한 사이버 보안 통제 구현을 강조했다.
AI의 오용 가능성을 완화하기 위해 행동 강령은 위험 관리 시스템을 구축해야된다. 이러한 시스템은 기술을 규제하고 악의적이거나 비윤리적인 관행을 방지하는 데 역할이 된다.
이는 실제 AI 법률에 앞서 자발적인 AI 가드레일을 개발한다는 유럽연합 집행위원회의 방침이다.
유사한 접근법이 미국과 캐나다에서도 각각 채택되거나 초안이 작성되었다. 이는 유럽연합이 연말까지 자체 AI 입법을 완료 하려고 하고, 미국은 7월에 발표한 자발적인 약속을 추진하는 가운데 나온 것이다.
G7 관계자들은 10월 초 일본 교토에서 최종 검토 예정이며, 이후 11월이나 12월에 예정된 가상 회의에서 그룹의 디지털 장관들이 행동강령을 확정예정이다.