본문 바로가기


원광대 한중관계브리핑 (프레시안)

[2023.11.10] 법률 제정속도 느린 중국, AI만은 예외다
[2023.11.10] 법률 제정속도 느린 중국, AI만은 예외다
한중관계연구원2023-11-10
[원광대 ‘한중관계 브리핑’] AI 규범에 빠르게 발맞추는 중국, 한국 경쟁자 될 수 있을까

 

 

전세계가 AI(인공지능) 기술에 관한 규제를 본격화하고 있다. 지난 10월 30일에는 주요 7개국(G7)이 ‘AI 행동강령’을 발표했고, 다음 날인 11월 1일부터 2일까지 영국에서는 ‘인공지능 안보정상회의’가 열렸다.

 

이들 정치행사에서 AI 기술 활용에 관한 구속력 있는 규범이 나오지는 않았다. 하지만 AI 기술 경쟁국 간 AI에 관한 국제규범의 필요성을 인지했으며, 그 방향에 대한 일부 합의점을 끌어냈다는 점에서 의의가 있다.

 

이와 더불어 AI 관련 규제를 빠르게 법제화하는 국가도 나타나고 있다. 그 선두에 중국과 유럽연합(EU) 그리고 미국이 있다. 미국은 최근 바이든 미국 대통령이 자신의 딥페이크(deep fake) 영상으로 보고 매우 놀랐다며 AI 위험성을 강조했다.

 

미국은 AI 피해를 최소화하고 예방하기 위하여 ‘안전하고, 신뢰할 수 있는 AI에 관한 행정명령'(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence)을 발표했다.

 

이에 앞서 EU는 6월 ‘AI법'(AI Act)을 제정하고 2025년 시행을 앞두고 있다. 사실 많은 이들이 간과하고 있지만, AI와 관련하여 중국도 여느 국가 못지않게 빠르게 법률을 제정하여 이미 이를 실시하고 있다.

 

인공지능 법제화 서두르는 중국

 

중국은 2023년 7월 13일 ‘생성형 인공지능 서비스 관리에 관함 임시조치'(生成式人工智能服务管理暂行办法)을 발표하고 한 달 후인 8월 15일 바로 이행에 들어갔다. 중국이 최근 디지털 분야 정책이나 법률을 제정하는 것을 보면 유례없는 속도전을 펼치고 있다. 법률제정 리듬이 결코 빠른 국가가 아닌데, 유독 디지털 분야는 예외다.

 

1월에는 딥페이크 서비스 규제에 관한 ‘인터넷 정보 서비스 심층 종합 관리규정'(互联网信息服务深度合成管理规定)이 발효됐고 3월에는 ‘인터넷 정보 서비스 알고리즘 추천 관리 규정'(互联网信息服务算法推荐管理规定)이 연이어 발효됐다.

 

중국 정부는 가장 시급한 AI의 잠재적 위협을 ‘여론선동’의 위험과 영향력으로 보는 듯하다. 특히 생성형 AI와 관련하여 국제사회가 우려하는 것이 허위 정보의 생성과 정보의 편향성에 기인하는 위해성이다.

 

다른 국가와 마찬가지로 중국의 생성형 AI 관련 법제 또한 이를 규제하는 데 초점을 맞추고 있다. 더욱이 잘못된 여론선동으로 국가의 안전성을 해치는 상황이 발생하지 않도록 미리 방지하기 위한 법률 조치를 서둘러 마련한 듯 보인다. 미국과의 경쟁 국면에서 국내 안정에 바짝 신경을 쓰는 모습이다.

 

이 때문에 중국 정부가 가장 신경 쓰는 부분은 인공지능으로 생성된 정보의 내용이다. 8월 발효된 임시조치는 생성형 AI가 만들어 내는 콘텐츠가 사회주의 핵심 가치를 견지하도록 규정하고 있다. 또한 국가 권력, 사회주의 체제의 전복, 국가 안보와 이익을 위태롭게 하는 내용을 포함하지 못하도록 하고 있다.

 

이와 더불어 임시조치 제4조는 생성형 AI 서비스 제공 시 편향성 방지 조치, 지식재산권 보호, 기업윤리 존중, 타인의 합법적 권리와 이익 존중 등의 규정을 지킬 것을 요구하고 있다. 이에 따라 여론 형성의 속성을 가지거나 사회 선동력을 가진 생성형 AI 서비스 제공 시에는 관련 규정에 따라 ‘안전성 평가’와 ‘알고리즘 등록'(互联网信息服务算法推荐管理规定 제24조)을 실시하도록 규정하고 있다.(제17조)

 

안전성 평가와 알고리즘 등록 제도는 EU의 AI 법이나, 미국의 행정명령에도 비슷하게 규정하고 있다. 표현이나 목적에서 약간의 차이가 있는 부분이라 중국에서만 실시하는 특이 사항은 아니다.

 

다만, 중국에서 실시하고 있는 안전성 평가라는 것이 기준이 명확하지 않고 이를 안정성 여부를 정부가 판단하는 것이 문제다. EU의 AI 법처럼 AI의 위험 단계를 치밀하게 단계별로 세분화하여 규제하는 것도 아니고, 미국처럼 시스템 개발자가 자발적으로 안전 테스트를 진행해서 그 결과를 정부와 공유하는 방식도 아니다. 물론 EU나 미국도 완벽하진 않지만, 중국의 경우 정부의 ‘자의성’이 비교적 크다는 것이다.

 

규정의 적용 범위가 국내로 한정되어 있어서 사실 크게 문제가 될 것은 없어 보인다. 규정 자체가 외국 서비스 제공자보다는 국내 서비스 제공자의 규제에 더 초점이 맞춰져 있기 때문이다. 하지만 외국에서 중국에 제공된 서비스가 본 규정에 저촉되면 관련기관에 필요한 조치를 요구할 수 있는 근거를 두고 있으니(제20조), 주의가 필요하다.

 

중국의 관련 규정이 미비한 점이 있지만, AI 관련하여 국내 규범화가 빠르게 진행되고 있다는 사실은 매우 고무적이다.

 

한국의 대응은?

 

그렇다면 한국의 상황은 어떨까? 앞서 언급한 AI 규범 형성에 관한 논의가 진행되는 국제회의에 한국은 매우 적극적으로 참여하고 있다. 또한 AI 서비스에 관한 적절한 규제가 필요하다는 사실을 인지하고 있지만, 이를 규범화하는 것에는 다소 소극적이다. 한국의 AI 관련 업계는 ‘규제’보다는 ‘지원’에 초점을 맞춘 정책을 요구하고 있다. 아마도 이러한 요구가 강력하게 반영된 듯하다.

 

앞서 중국을 비롯하여 미국과 EU의 AI 규제에 관해 구구절절이 설명했지만, 사실 이들 국가가 AI 서비스의 규제에만 방점을 맞춘 것은 아니다. 특히 중국과 미국은 AI 기술의 개발과 발전을 어느 국가보다도 지원하고 독려하고 있다. 지금의 AI이 규제는 발전을 가로막는 것이라기보다는 인류, 그리고 국가의 안정성 유지, 그리고 AI가 가지고 있는 위험에 관한 예방의 의미가 더 크다. AI 기술과 서비스가 나아가야 할 방향을 제시하는 것이다.

 

또 한국이 AI와 관련한 국제규범에서 주도적 역할을 하기 위해서는 AI 기술이 가지는 위해성을 어떻게 극복할 것인지 국내적 합의에 근거한 국내 규범이 탄탄하게 뒷받침되어야 한다. 생성형 AI의 훈련에 사용되는 데이터의 합법성에 대한 책임을 어떻게 규범화할 것인지, 허위 정보의 생성 방지, 개인정보 및 지식재산권의 보호 등 관련한 쟁점들이 쌓여있다. 산업계, 학계, 정부 등 관계자 간 논의와 합의를 통해서 한국에서 건강한 AI 생태계가 자리 잡을 수 있는 법률 기반을 서둘러 마련할 필요가 있다.

 

▲ 3월 31일(현지시각) 나온 인공지능(AI)이라는 단어를 표시한 이미지. ⓒ로이터=연합뉴스