기사입력시간 23.07.24 06:44최종 업데이트 23.07.24 06:44

제보

챗GPT 같은 '생성형 AI'…의료현장·의학교육에 적용할 수 있을까?

양날의 검 생성형 AI…"한계 있지만 새로운 변화 받아들여야"

연세의대 의생명시스템정보학교실 김휘영 교수

[메디게이트뉴스 조운 기자] 최근 전 세계적으로 큰 관심을 받고 있는 챗GPT(ChatGPT)와 같은 생성형 인공지능(AI)이 의료 및 의학교육에서도 활용될 수 있을지에 대한 관심이 커지고 있다.

아직은 생성형 AI를 의료현장 및 의학교육에 그대로 적용하긴 어렵지만 빠르게 발전하는 기술력과 함께 안전하게 활용할 방안을 지속적으로 논의할 필요가 있다는 주장이 제기됐다.

21일 연세암병원 지하3층 서암강당에서 열린 '제10차 연세대학교 의과대학 융복합의료기술센터 심포지엄'에서 이같은 논의가 진행됐다.

대규모 생성 AI, 양날의 검…한계에도 의료현장에 적용 노력 이어져

이날 연세의대 의생명시스템정보학교실 김휘영 교수는 "기존의 인공지능 모델은 하나의 구체적인 문제를 풀기 위해 하나의 인공지능 모델에 해당하는 데이터로 학습시켰다. 폐암 진단 데이터로 폐암 진단 인공지능을 만들고, 간암 진단 데이터로 간암 진단 인공지능을 만드는 방식이었다"고 말했다. 

그는 "그런데 다른 문제를 풀던 인공지능에게 새 문제를 더 가르쳐주니 그 문제만 배운 모델보다 더 잘 하게되는 현상이 발생했다. 그렇게 대규모 데이터를 학습시킨 파운데이션 모델이 다양한 업무를 하게 되는 것이 대규모 생성 인공지능이다"라고 설명했다.

김 교수는 "이미 모델 학습에 사용된 데이터에 의학적 지식에 오류가 없는 한 대규모 생성 AI가 의학에서도 효과를 거둘 것이다. 사실 오류가 있었어도 정확한 지식에 비해 극소수라면 대규모 생성 AI는 이미 의학적 지식을 가지고 있다고 볼 수 있다"고 말했다.

그는 "대규모 생성 AI는 그 지식을 기반으로 주어진 의학적 문제에 추론이 가능하다. 게다가 일반적인 지식도 가지고 있기에 여러 맥락에 따른 의학적 추론도 가능해 어느 정도 활용성이 있을 것으로 보인다"고 전했다.

실제로 네이처(NATURE)지에도 대규모 생성 AI의 의학적 활용도에 대한 논문이 다수 나오고 있다.

김 교수는 네이처에서 인증한 강력 추천 의료기기로 EHR과 음성, 텍스트 등을 GMAI가 분석해 인슐린이 필요한 병상을 특정하는 '병상 결정 지원(Bedside decision support)', 영성 질환에 대한 초벌 판독문을 생성하는 '근거 기반 방사선 보고서(Grounded radiology reports)' 등이 있다고 소개했다.

그는 "기존 AI는 UI(사용자 환경) 문제, 의료진과의 상호소통 창구 부족의 지적이 많았는데 이 생성형 AI는 이러한 문제를 해결하고 있다. 쉽게 이해할 수 있는 형태로 변환하고, 새로운 다른 문제나 새로운 환자군 등 의료 데이터에 대해서도 일반화 성능이 확보된 인공지능 모델을 확보할 수 있다. 또 무한대의 다양한 다운스트림 응용 모델로 발전시킬 수 있다"고 전했다.

물론 그럼에도 불구하고 대규모 생성 인공지능은 한계가 있다.

김 교수는 "오류 혹은 편향이 있는 데이터가 걸러지지 않고 학습됐을 수 있고, 아직 스스로를 평가하고 개선할 수 있지는 않다는 한계가 있다. 또 같은 질문에 매번 다르게 대답하는 특성을 보이는데 이는 챗GPT가 문제를 이해하고 답을 하는 것은 아니라는 것을 보여준다"고 지적했다.

또 그는 "대규모 생성 인공지능은 너무 대규모 모델이라 이를 유지하는데 비용과 노력이 많이 소모된다. 앞으로 합리적인 규모의 모델 개발과 운영이 필요하다"고 덧붙였다.

따라서 김 교수는 "혁신은 의료에서 항상 양날의 검이다. 혁신은 의료에서 전혀 없었던 새로운 희망과 기회를 제공한다. 그리고 인공지능이 그런 기술 중 하나고, 이제 현실로 다가오고 있다. 하지만 적절한 규제 없이는 환자에 대한 안전성을 보장할 수 없다"고 지적했다. 

의학 교육 한계, 생성형 AI가 돌파구 될 수도…환자교육에서는 신중해야
 
연세대 치과대학 치의학교육학교실 김준혁 교수

연세대 치과대학 치의학교육학교실 김준혁 교수는 현 생성형 AI를 의학교육에 적용할 수 있을지에 대해 발표했다.

김 교수는 "현 생성형 AI는 어떤 모형도 임상에 직접 사용하거나 교육에 바로 활용하기 어렵다. 현 임상에서 정확성에 대한 척도가 없으며, 이에 대한 해결책도 아직 불명확하다. 부정확한 정보가 공급된다는 것 자체가 문제이며 허용될 수 없다"며 "아직은 생성형 AI를 의사 교육에 활용하는 것은 무리다. 활용 방안은 있을 수 있으나 생성형 AI가 전문가보다 더 나은 답을 내놓는 것은 아니다"고 설명했다.

다만 “학생은 전문지식을 배워가는 단계에 있으며, Chat GPT가 제공하는 지식은 보편적이고 잘 구조화 돼있으며 다양한 지식을 제공한다. 그런 지식들을 활용하는 법을 통해 학생들이 배울 수 있게 하는 것은 좋을 것으로 보인다”고 말했다.

그는 무엇보다 현재 의학교육은 한계에 부딪히고 있다고 지적했다. 

김 교수는 "가장 큰 문제는 학습자가 수동적이며 암기식 학습이라는 점이다. 그런 상황에서 교육자가 지식을 풀어내면 학습자가 어떻게든 버티는 방식이다. 이것은 내용 전달은 될 수 있을지 모르겠으나, 의학 계열 학생의 성장에 방해가 되며 현실 문제를 푸는 것과 학습에는 간극이 있어 수동적 학생을 양산한다. 이를 해결하기 위해 교육 방법을 바꾸기 위해 노력해 왔다"고 전했다.

그는 "이런 상황에서 새로운 변화가 도래했다. 이러한 변화를 받아들일 때가 왔다. 실제로 생성형 AI를 활용하면 방대한 지식에 접속하는 것은 어려운 일이 아니다. 언어모형을 활용해 더 빠르게 검색하고 확인할 수 있다. 향상된 상호작용과 적응 학습, 지속 향상 등이 가능해지는 장점이 있다"고 말했다.

다만 김 교수는 "무조건 활용하는 것은 아직 조심스러운 만큼, 생성형 AI를 활용하는 방법을 알려줘야 한다. 결국은 물고기 잡는 법을 가르쳐줘야 한다고 생각한다. 잘 질문해서 좋은 답이 나오도록 유도해야 한다"며 "거짓과 잘못을 교육자가 구분하고 이를 학생에게 알려주고 함께 고민해야 할 필요가 있다. 교육의 보조 도구로 활용할 수 있도록 할 필요는 있다"고 전했다.

환자 교육에도 생성형 AI를 활용할 수 있을까에 대해서는 "환자에게 잘못된 정보가 전달되면 큰일이다. 인간도 잘못된 정보를 제공하지만, AI가 잘못된 정보를 전달해 하는 것은 다르다. 사람이 잘못하면 사람이 책임을 지는데 AI는 책임을 지지 않기 때문이다"라며 "현재 단계에서는 잘못된 정보 제공으로 환자에게 큰 문제가 발생할 수 있다. 환자에게 제공하는 정보를 통제할 수 없기 때문이다"라고 지적했다.

이에 김 교수는 "생성형 AI가 환자에게 답할 때는 답이 제공되는 범위를 한정할 필요가 있다"며 "랭 체인(Lang Chain)은 문서 기반의 생성형 AI로 환자에게 제공돼야 할 문서의 텍스트를 넣어 그 문서 안에서만 AI가 답을 하도록 하는 방식으로 환자에게 부적절한 답을 제공할 위험을 방지할 수 있다"고 말했다.

조운 기자 (wjo@medigatenews.com)
댓글보기(0)

전체 뉴스 순위

칼럼/MG툰

English News

전체보기

유튜브

전체보기

사람들

이 게시글의 관련 기사