8월 2일부터 법이 시행되며, 고위험 기기에 대한 요건은 2년 뒤인 2026년 8월 2일부터 적용된다.
이 법의 목표는 AI 시스템의 개발, 시장 출시, 서비스 제공 및 사용에 대한 통일된 법적 틀을 마련함으로써 내부 시장의 기능을 개선하는 것이다. 인간 중심의 신뢰할 수 있는 AI의 활용을 촉진하고 유럽연합 내 인공지능 시스템의 유해한 영향으로부터 보호하며 혁신을 지원하고자 한다.
EC는 "인공지능이 사회에 미칠 수 있는 중대한 영향과 신뢰 구축의 필요성을 고려할 때 AI와 그 규제 프레임워크는 유럽연합(EU) 가치에 따라 개발되는 것이 필수다"면서 "전제 조건으로 AI는 인간 중심의 기술이어야 한다. 인간의 행복 증진을 궁극적인 목표로 삼아 인간을 위한 도구로 사용돼야 한다"고 규정에서 명시했다.
또한 공공 이익 보호를 보장하기 위해 고위험 AI 시스템에 대한 공통 규칙을 수립해야 한다. 단 제품을 출시하기 전 연구 또는 테스트 활동에는 적용되지 않는다.
법에서는 특정 AI 관행을 금지하고 있다. 예를 들어 사람의 의식을 초월해 잠재의식적 기술을 사용하거나 의도적으로 조작적 또는 기만적인 기술을 사용하는 AI 시스템, 특정 인구 집단의 취약성을 악용하는 AI 시스템을 출시하거나 서비스해서는 안 된다. 개인적 또는 성격적 특성을 기반으로 자연인 또는 개인 집단을 평가 또는 분류하기 생체 인식 분류 시스템을 사용하는 것, 인종, 정치적 의견, 노동 조합 가입 여부, 종교적 또는 철학적 신념, 성생활 또는 성적 지향을 추론하거나 추론하기 위해 생체 인식 데이터를 기반으로 개별 자연인을 분류하는 것 또한 금지된다.
의료기기 규정에 따라 IIa 클래스 이상 범주에 속하는 기기는 고위험군으로 간주된다. 고위험 기기 제조업체는 제품 수명 주기 전반에 걸쳐 위험 관리 시스템을 구축하고, 데이터에 오류가 없음을 증명하기 위해 데이터 거버넌스를 수행하며, 제품이 이 법을 준수함을 증명하는 기술 문서를 제공해야 한다.
규정에 따르면 고위험 시스템은 운영이 투명하고 배포자가 시스템의 출력을 해석할 수 있도록 설계 및 개발돼야 한다. 더불어 배포자에게 간결하고 완전하며 정확하고 명확한 정보를 제공하는 지침이 함께 제공돼야 한다.
한국바이오협회 바이오경제연구센터는 이슈브리핑 보고서를 통해 EU에 진출하고자 하는 AI 관련 의료기기 개발 기업은 주의가 필요하다고 당부했다.
보고서는 "법 제2조 적용범위는 EU 내에 설립 또는 위치하는지 또는 제3국에 설립됐는지 여부와 관계없이 EU 내 AI 시스템을 시장에 출시하거나 서비스에 투입하거나 범용 AI 모델을 시장에 출시하는 제공업체에 적용된다고 규정하고 있다"면서 "이에 EU에 법인이 없더라도 한국에서 개발해 EU에 수출하는 기업에도 적용된다"고 설명했다.
아이큐비아(IQVIA)에 따르면 의료 분야에서 AI가 사용되는 많은 부분이 이 법에 따라 고위험으로 분류돼 여러 요구 사항이 적용될 것으로 전망된다.
보고서는 "그간 유럽의료기기산업협회는 인공지능법이 기존 의료기기 및 체외진단의료기기 관련법과 충돌할 수 있다는 우려를 표명했으나, 유럽 규제기관과 보건당국은 인공지능법이 의료기기법과 호환된다고 강조하고 있다"고 했다.
또한 "이 법에서는 생체 인식 데이터는 개인 데이터의 특수 범주를 구성하므로 관련 연합 및 국내법에 따라 사용이 허용되는 한 생체 인식 시스템의 몇 가지 중요한 사용 사례를 고위험으로 분류하는 것이 적절하다고 언급하고 있다"면서 "원격 생체 인식을 위한 AI 시스템의 기술적 부정확성은 편향된 결과를 초래하고 차별적인 영향을 수반할 수 있기 때문이다. 이러한 편향된 결과와 차별적 영향의 위험은 특히 연령, 민족, 인종, 성별 또는 장애와 관련 있으며 따라서 원격 생체인식 시스템은 위험을 고려해 고위험으로 분류돼야 한다고 규정하고 있다"고 덧붙였다.
댓글보기(0)