세계3 min read

미·중 AI 정상회담 개최, 인공지능 군사 활용 규제 합의

미국과 중국이 제네바에서 AI 정상회담을 열고 인공지능의 군사적 활용에 대한 최초의 양자 규제 프레임워크에 합의했다. 국제사회는 이를 역사적 전환점으로 평가하고 있다.

공유

미·중, AI 군사 활용 규제 첫 합의

미국과 중국이 스위스 제네바에서 AI 정상회담을 개최하고, 인공지능의 군사적 활용을 제한하는 최초의 양자 규제 프레임워크에 합의했다. 양국 정상은 공동성명을 통해 "AI가 인류에 위협이 되지 않도록 책임 있는 개발과 활용을 추구한다"고 밝혔다.

합의 주요 내용

군사 분야

  • 자율살상무기(LAWS) 개발 제한: AI가 인간의 최종 판단 없이 치명적 공격을 수행하는 것을 금지
  • 핵무기 AI 통제 금지: 핵무기 발사 결정에 AI 시스템 단독 관여 불허
  • 사이버전 AI 활용 상호 자제: 상대국 핵심 인프라 대상 AI 사이버 공격 자제 합의

민간 협력

  • AI 안전 연구 공동기금 설립: 양국이 각 50억 달러 출자
  • AI 사고 핫라인 구축: AI 관련 긴급 상황 발생 시 즉각 소통 채널 운영
  • 연례 AI 안전 검토 회의 제도화

국제사회 반응

유럽연합은 이번 합의를 "글로벌 AI 거버넌스의 역사적 이정표"로 환영했으며, 유엔 사무총장은 "이를 기반으로 다자간 AI 규범 수립을 추진하겠다"고 밝혔다.

다만 일부 전문가들은 합의의 실효성에 의문을 제기하고 있다. 검증 메커니즘이 부족하고, 민간 기업의 군사 기술 전용을 어떻게 통제할 것인지 구체적 방안이 미흡하다는 지적이다.

한국에 미치는 영향

이번 합의는 한국의 AI 산업과 국방 정책에도 영향을 미칠 전망이다. 정부는 양국 합의 내용을 면밀히 분석하고, 한국형 AI 윤리 가이드라인 강화를 검토 중인 것으로 알려졌다.

loading...

loading...

관련 기사