한국전자통신연구원 바이오의료IT 연구본부의 김승환 본부장은 저명한 IT 개발사들이 지난 1월 초 미국 아실로마에서 열린 AI 컨퍼런스에서 서명한 바 있는 '아실로마 인공지능 원칙(Asilomar AI Principles)' 23가지를 소개했다.
이 원칙은 특히 '초 지능은 단지 널리 공유되는 윤리적 이상에만 복무하도록, 그리고 하나의 국가나 조직이 아닌 모든 인류의 이익을 위해 개발해야 한다'는 공동의 선을 강조하고 있다.
부산대병원 의생명연구원장인 김형회 교수는 "인공지능을 의료용으로 쓰기 위해서는 좀 더 질 좋고 표준화된 데이터 확보와 더불어 개인정보 보호, 의료윤리가 필요하다"고 언급하며 "의대 교육을 보다 체계화해야 한다"고 강조했다.
삼성서울병원 디지털헬스케어연구센터장 장동경 교수도 "인공지능은 현재까지 우리가 만들어놓은 성과를 넘어설 수 없다. 기존의 데이터를 잘 정리해서 지원해주는 것이기 때문에 무엇보다 그 속에 입력되는 데이터의 질이 중요하다"고 밝혔다.
장 교수는 "왓슨과 같은 비의료기기는 환자와 의사가 상의해 사용 여부를 결정해야 하고, 의료기기는 제조자와 사용자가 책임을 공유해야 한다"면서 "아울러 한국형 데이터를 적용할 필요가 있으며 의료기기 적용 여부를 떠나 사용자의 임상적 유용성 및 안전성 평가가 필요하다"고 주장했다.
이와 함께 그는 "J&J 수면로봇이 FDA 허가를 받았음에도 입지가 좁아질 것을 우려한 의사들의 반대로 시장에서 철수한 사례가 있는데, 이러한 기술은 시간이 지나면 결국 다시 돌아와 보편화할 가능성이 여전히 존재한다"면서 "AI를 의료의 보조수단으로 활용하기 위해서는 의사가 적어도 이것을 판단할 수 있는 능력을 잃어버려서는 안 된다"고 환기시켰다.
이처럼 인공지능의 수준이 높아질수록 인간의 숙련도가 떨어질 수 있기 때문에 평생교육과 면허갱신제도 강화 등이 필요하며, 정보과학자(data scientist)로서의 의사 역할이 중요하다는 지적도 나왔다.
포항공과대 인문사회학부 정채연 교수는 법 정책적 토론자로 나서 "제조물책임법과 관련해 소프트웨어 자체만으로 제조물로 판단할 지에 대해서는 아직 입장 차이가 있는 것으로 보인다"면서 "의료사고 책임 여부에 있어서는 고의사실 판단이 어려워 윤리위원회를 통한 법제화가 필요하다"고 제언했다.
서울시립대 철학과 이중원 교수는 "사람은 기계든 동물이든 주변의 것들을 의인화하려는 경향이 있는데 애완견이 반려견이 됐듯이 인공지능에 대한 대중의 신뢰가 높아져 그 위상이나 역할이 변할 수 있다는 사실을 직시하고, AI에도 의학적 오판에 대한 책무(accountability) 개념을 적용할 필요가 있다"고 주문했다.
이 교수는 "유전체 관련 의료 빅데이터는 철학적 측면에서 볼 때 개인의 프라이버시냐 집단 프라이버시의 문제냐에 대한 이슈도 제기되는 상황"이라고 덧붙였다.
보건복지부 생명윤리정책과 황의수 과장은 "머지 않은 미래에 어떤 방식으로든 인증이나 인허가에 대한 얘기가 나올 것으로 예상되며, 우리나라 건강보험데이터를 어디까지 활용할 수 있게 할 것인가에 대한 이슈도 제기되는 상황"이라고 설명했다.
댓글보기(0)