의사가 의료 AI 활용 망설이는 가장 큰 이유는 '책임성'…의료인 선택, 과실 판단 주요 기준
AI 오류에 다양한 이해관계자 법적 책임 관여될 가능성도 높아…프라이버시 보호 문제도 해결 과제
[메디게이트뉴스 조운 기자] 의료 인공지능(AI)이 내린 결론을 참고해 의료행위를 한 의료진. 만약 그 행위로 인해 악결과가 발생했다면, 그 책임은 누구에게 있을까?
빠르게 발전하는 의료 인공지능 기술에 대한 기대와 함께 인공지능을 의료현장에 적용했을 때 발생할 윤리 문제에 대한 우려도 동시에 제기되고 있다.
수년에 걸친 학습과 수련을 통해 형성된 전문가의 지식과 경험을 바탕으로 하는 의료서비스가 의사가 아닌 인공지능에 의해 제공되는 것이 바람직한지, 의료 인공지능의 결론을 따랐을 때 발생한 악결과의 책임소재는 누구에게 있는지 등 다양한 윤리 문제가 있지만 제대로 논의조차 되지 않고 있기 때문이다.
이에 전문가들은 의료 인공지능을 본격적으로 임상 현장에 적용하기 전에 다양한 윤리 문제를 종합적으로 검토할 수 있는 규제와 거버넌스 체계가 마련돼야 한다고 주장하고 있다.
연세대학교 의과대학 인문사회의학교실 의료법윤리학과 이일학 부교수, 양지현 연구강사가 한국보건산업진흥원이 발간하는 '보건산업정책연구’에 ‘의료 인공지능 개발, 활용의 사회적 영향과 윤리' 보고서를 통해 이같이 밝혔다.
의료 인공지능 표준치료 기준 미정립…인공지능 오류에 대한 책임 '모호'
보고서에 따르면 2022년 11월 기준으로 국내 식약처 허가 받은 인공지능은 총 149건이다. 아직 국내 건강보험에 등재된 것은 두 건에 불과하지만 상당히 많은 개발이 이루어지고 있는 것이다.
연구팀은 "기술의 파급효과에 대한 사회적 고려가 부족한 상태에서 인공지능 기술이 빠른 속도로 진보하는 것에 대해 우려 섞인 시각도 존재한다"며 보건의료 영역에서 인공지능의 개발, 활용과 관련된 시급한 윤리적 과제로 ▲개인의 프라이버시보호 ▲인공지능의 결정과정의 투명성과 설명가능성을 통한 위험과 책임 문제의 소명 ▲정보수집, 처리 과정의 편향 문제 해결, 책임성의 수립 ▲인간적 관계의 유지 등을 꼽았다.
현재 의료인들이 임상 현장에 의료인공지능을 사용하는 데 망설이는 가장 큰 이유는 '책임성'의 문제다.
실제로 인공지능을 환자를 진료하는 임상 영역에 적용하였을 때 의도하지 않은 결과가 발생할 수 있다. 알고리즘 자체에 오류가 있는 것을 미처 발견하지 못해 잘못된 결론이 도출될 수 있고, 알고리즘에 문제가 없는 경우라도 학습된 데이터와 실제 적용하는 임상 환경의 차이로 인해 부적합한 결론이 도출될 수 있다.
연구팀은 "인공지능이 아무리 방대한 양의 데이터를 기반으로 결론을 도출한다고 하더라도 상식을 기반으로 복합적으로 추론해내는 기능은 아직 미흡하기에 개별적 사안의 특수성을 충분히 반영하지 못한다는 한계가 있다"며 "이러한 인공지능의 한계로 인해 의료인이 환자의 상태를 종합적으로 고려하여 내린 진단과 인공지능이 도출한 결과가 다를 수 있다"고 설명했다.
이로 인해 임상 현장에서 의료인이 의료 인공지능을 활용해 진단을 내리거나 치료를 수행해 환자에게 악결과가 발생할 경우 그 책임 소재는 여전히 모호하다.
현재 우리나라의 의료과오 관련 대법원 판례에 따르면 의료인이 의료행위를 할 당시의 임상의학 분야에서 실천되고 있는 의료행위의 수준, 즉 표준 치료에 부합하는지, 의료인이 최선의 주의의무를 다했는지를 따져 죄의 유무를 판단한다.
그러나 인공지능을 활용한 표준치료 기준이 명확하게 정립되지 않은 현재로서는 의료인의 과실 유무를 판단하는데 있어 인공지능의 결론을 참고한 것이 어떻게 작용할 것인지 명확하지 않은 상황이다.
연구팀은 "지금의 법리만 그대로 적용할 경우, 인공지능의 결론이 정확한지가 아니라 의료인의 선택이 표준 치료에 부합하는지가 과실 판단의 주요 기준이 되므로, 의료인은 인공지능을 진료에 활용하는데 소극적인 태도를 보일 수 있다"고 바라봤다.
게다가 인공지능의 활용으로 발생하는 문제에 대한 책임 소재의 규명도 어려운 과제 중 하나다.
연구팀은 "알고리즘의 설계, 개발, 학습, 재학습, 이용, 사후평가, 감독 등 인공지능 활용의 전 주기는 서로 단절적인 것이 아니라 상호 영향을 미치는 관계에 있으므로, 이를 이용한 의료인 외에 인공지능 개발자, 데이터 관리자, 환자, 의료기관 등 다양한 이해관계자가 법적 책임에 관여될 수밖에 없다"고 지적했다.
특히 연구팀은 "각 과정에 개입한 복수의 행위 주체 중 누구에게 책임을 부담시킬 것인지를 판단하기 위해서는 사고 발생에 영향을 미친 결함이나 오류가 어느 단계에서 기인했는지 파악할 수 있어야 하는데, 인공지능의 블랙박스 특성으로 인해 문제 발생에 관련된 원인을 쉽게 특정해내기 어려운 점도 문제가 된다"고 설명했다.
결국 인공지능 활용에 수반되는 여러 불확실성과 그로 인한 잠재적 위험을 예방하기 위해서는 인공지능의 활용 전 주기에서 발생하는 문제에 대한 지속적인 관리 감독이 뒷받침 돼야 한다.
건강 관련 민감 정보 처리 포함, 적법한 개인정보 처리·보안 유지 중요
연구팀은 또 인공지능 윤리 문제에서 가장 큰 비중을 차지하는 것이 '프라이버시보호' 문제라고 지적했다.
연구팀은 "알고리즘을 개발하기 위해서는 학습용 데이터가 반드시 필요하지만 이러한 목적에 필요한 범위 내에서 최소한의 데이터만 수집·활용해야 하며, 정보 주체의 프라이버시를 보호하기 위한 조치가 이루어져야 한다"며 "의료 인공지능 개발의 경우 상당한 양의 건강 관련 민감한 정보 처리가 포함될 수 있으므로 적법한 개인정보 처리 근거를 확보하고 보안을 유지하는 것이 더욱 중요하다"고 강조했다.
따라서 개인정보 주체의 개별적인 동의 요건을 완화해 데이터 활용을 용이하게 하는 한편, 데이터 활용으로 인한 프라이버시 침해를 예방하기 위한 다른 보안 조치는 더욱 강화돼야 한다는 주장이다.
연구팀은 "개인정보는 한 번 유통되기 시작하면 이를 완전히 삭제하기 어렵고 개인정보 침해 사고로 인한 개인의 존엄성 훼손은 돌이키기 어렵다. 그리고 개인정보의 오남용 또는 유출 사고는 동시에 다수의 피해자가 발생하는 경향이 있으며 민감정보가 유출되는 경우 사회적 불이익 또는 차별로도 이어질 수 있으므로 기술적, 물리적, 관리적 안전조치를 충실히 해야 한다"고 밝혔다.
이에 연구팀은 "의료 분야에 인공지능을 도입하는 이유는 이러한 기술의 활용을 통해 보다 나은 의료서비스를 제공할 가능성을 기대하기 때문이다. 의료 인공지능의 윤리적 과제는 이러한 가능성과 상충하는 여러 문제를 파악하고 평가해 이익과 위험이 균형을 유지할 수 있도록 해야 한다"고 밝혔다.
그리고 연구팀은 "인공지능의 투명성과 설명 가능성, 편향 가능성, 책임성, 신뢰, 안전성의 문제를 종합적으로 검토할 수 있는 규제와 거버넌스 체계가 마련돼야 할 것"이라고 덧붙였다.
댓글보기(0)