유럽연합(EU)에서 ‘인공지능(AI) 법(Artificial Intelligence Act)’의 마무리 작업이 한창이다. AI법은 유럽에서의 AI의 개발 및 사용을 엄격히 규제하기 위해 만들어진다. 여러 차례 수정을 거쳐 윤곽을 드러낸 유럽연합의 AI법은 주로 데이터 품질, 투명성, 인간의 감독 및 책임에 관한 규칙을 강화하는 데 초점을 맞추고 있다고 BBC 등 외신이 보도했다.
AI법은 의료 및 교육에서 금융 및 에너지에 이르는 다양한 분야의 윤리적 질문과 구현 과제를 해결하는 것을 목표로 한다.
티에리 브르통 EU 내부 시장 담당 집행위원은 BBC에서 소개된 성명을 통해 "AI는 수십 년 동안 존재해 왔지만 컴퓨팅 성능의 획기적 발전에 힘입어 새로운 역량에 도달했다"며 “AI법은 연구소에서 시장에 이르기까지 AI 분야에서 유럽연합이 글로벌 허브로서의 입지를 강화하고, AI가 유럽연합의 가치와 규범을 존중하도록 하며, 산업용 AI의 잠재력을 활용하는 것을 목표로 한다”고 밝혔다.
AI법의 초석은 AI 기술이 개인의 건강과 안전 또는 기본권에 미칠 수 있는 위험 수준을 결정하는 분류 시스템이다. 이 프레임워크에는 허용 불가한 위험, 높은 위험, 제한된 위험, 최소 위험의 네 가지 계층이 포함된다.
스팸 필터나 비디오 게임과 같이 위험이 제한적이고 최소인 AI 시스템은 투명성 의무 외에는 거의 요구 사항 없이 사용할 수 있다. 정부의 소셜 스코어링 및 공공 장소에서의 실시간 생체 인식 시스템과 같이 허용할 수 없는 위험을 초래하는 시스템은 거의 예외 없이 금지된다.
고위험 AI 시스템은 허용되지만, 개발자와 사용자는 엄격한 테스트와 데이터 품질에 대한 적절한 문서화, 사람의 감독을 상세히 설명하는 책임 프레임워크를 요구하는 규정을 준수해야 한다. 위험성이 높은 것으로 간주되는 AI에는 자율주행 차량, 의료 기기 및 중요 인프라 기계 등이 포함된다.
제안된 법안은 또한 다양한 수준의 위험과 함께 다양한 목적으로 사용될 수 있는 AI 시스템인 ‘범용 AI’에 대한 규제도 개략적으로 설명하고 있다. 이러한 기술에는 챗GPT와 같은 대규모 언어 모델 생성 AI 시스템도 포함된다.
유럽연합의 AI법은 한 마디로 요약하면 AI의 잠재력을 ‘안전하게’ 활용하기 위한 규제라고 표현할 수 있다.
세계경제포럼(WEF)의 AI 책임자인 케이 퍼스-버터필드는 "법 제정을 통해 EU는 AI 시스템을 인간이 원하는 미래에 적합하게 만들기 위해 앞장서고 있다"라고 말했다.
AI법은 규정을 준수하지 않을 경우 상당한 불이익 처분을 부과한다. 기업의 경우 벌금이 최대 3000만 유로 또는 전체 매출의 6%에 이를 수 있다. 규제 기관에 허위 또는 오해의 소지가 있는 문서를 제출해도 벌금이 부과될 수 있다.
디지털 유럽의 부사장이자 유럽연합 경쟁담당 집행위원 마르그레테 베스타게르는 "이번의 획기적인 법안으로 EU는 AI를 신뢰할 수 있는 도구로 정의하는 새로운 글로벌 규범을 개발하게 됐다"라면서 "미래에 대비하고 혁신하는 우리의 AI 규범은 엄격하게 필요한 곳, 즉 EU 시민들의 안전과 기본권이 위태로워질 때 개입할 것이다"라고 말했다.
제안된 법은 또한 유럽 인공지능 위원회를 설립할 것을 규정했다. 위원회는 규제의 시행을 감독하고 EU 전체에 걸쳐 균일하게 적용되도록 보장하는 역할을 수행한다. 위원회는 국가에 관련 지침을 제공할 뿐만 아니라 발생하는 문제에 대한 의견과 권고를 발표하는 임무도 맡게 된다. 위원회는 AI 생태계의 다양한 이해관계를 반영하는 회원국 대표들로 구성된다.
AI법은 당초 2021년 4월 유럽연합 집행위원회가 제안했다. 이 법안은 2022년 말 유럽연합 이사회에 의해 채택되었으며, 현재 유럽 의회에서 논의 중이다. 현재까지 많은 의견 조정과 법안 수정이 이루어졌다.
유럽 의회가 이 법안에 대한 자체 입장을 채택하면 EU 기관 간 협상을 통해 법을 마무리하고 공식 시행하게 된다. 의회 의원들의 협상과 제안을 통해 지속적인 수정 과정을 겪게 된다. 이제 종착점이 가시거리에 있다.

댓글 (0)
댓글 작성