GPT4와 의료: 기술의 홍수 속에 길을 잃은 의료인들을 위한 안내서
[칼럼] 박중흠 미국 AvoMD 대표·하버드의대 부속병원 BIDMC 입원전담 전문의
[메디게이트뉴스] GPT4가 3월 14일 공식 발표됐다. 메디게이트뉴스의 요청에 따라 쓰던 “ChatGPT 와 의료” 칼럼의 마감 시한이 지나고, 독촉 문자에도 무덤덤해질 무렵 초고가 완성됐다. 그런데 3월 14일 OpenAI 로부터 GPT4가 발표된다는 청천병력과 같은 소식이 들려왔고, 이 글을 처음부터 다시 써야하는 재난이 발생했다. 이 글을 읽는 많은 분들도 아마 “또 뭐가 나왔다고?” 라는 생각이 들었으리라.
다행히 당일부터 GPT4의 얼리엑세스가 가능했고, GPT4의 기능을 이해하는 데 충분한 시간을 가지고 새로운 원고를 이틀 안에 마칠 수 있었다. 아이러니하게도 이 글을 쓰는 데 GPT4가 많은 도움을 주었다. 이에 공동 저자이기도 한, 자기 자신의 단점에 대해 설명해주는 데조차 주저함이 없었던 GPT4에게 심심한 감사를 표하고자 한다.
이제 ChatGPT의 후계자인 GPT4가 공개됐으니, 이 글에서는 GPT4가 의료에 어떤 영향을 미칠 것인가와 가능한 응용 분야 및 그 한계점에 대해 이야기해보려 한다. 하지만 많은 나의 주변 동료 의사분들은 다른 주제들보다는 역시나 GPT4가 의사를 '대체'할 것인가가 제일 궁금한 것 같다.
알파고 때도 그러했지만 이 쉬지도 않는 떡밥은 인공지능의 발전이 있을 때마다 나와 같은 디지털 헬스 의료인의 귀와 측두엽을 괴롭히는데, 이유는 모르겠지만 아마 많은 사람들에게 의사란 인공지능이 대체하기에 제일 만만한 직업으로 생각되는 것 같다.
반면에 어째서인지 모르지만 해양수산부 장관이나 한국 축구대표팀 감독, 메디게이트뉴스 칼럼리스트까지 AI로 대체한다는 이야기는 들어본 적이 없다. 모든 사람들이 알파고를 이야기할 때도 '당장 내년에 IBM 왓슨이 국시를 볼 것'이라는 이야기가 돌았지만, 안타깝게도 이 일은 이뤄지지 않았다. 이번에는 다를까? 이번에야말로 GPT4가 청진기를 목에 걸치고 서울시 광진구 국시원에 나타날 것인가?
좀 상투적이고 오그라드는 말투로 표현하자면, 이제 우리는 GPT4의 시대에 살고 있다. 기존 AI와 다른 GPT 시리즈의 특성을 들자면, 특정 작업(예를 들자면 X-Ray에서 암 위치 찾기)을 위해 트레이닝된 것이 아니라 작업의 종류를 가리지 않는다는 점에 있었다. 기존의 ChatGPT가 일종의 수퍼 챗봇, 즉 텍스트(질문)를 읽어 텍스트(답변)을 만드는 인공지능이라면, GPT4는 '멀티모달(Multimodal)'이라고 하는 특성을 지닌다.
만약 GPT4를 일종의 카카오톡 인공지능처럼 생각한다면, 사용자는 여기에 문자로 답장을 하는 외에 사진을 업로드할 수도 있고 GPT4는 이 모두를 고려해 답변을 내놓는다.
상상해보자. GPT4에 한 사람이 신호등 앞에 서있는 사진을 보낸다. 질문을 입력한다. “내가 이 앞에 서 있다면 어떻게 해야 할까?”. GPT4가 “신호등이 빨간 불이므로 건너면 안됩니다”라고 답한다. 만약 의료에 대입한다면 이런 예를 생각해 볼 수 있다. X-Ray 사진을 주고, “지금 사진에서 중심정맥관(Central venous catheter)이 보이는가? 있다면 좌표를 알려줘” 라고 질문하는 예를 들 수 있다.
적어도 “이론적으로” GPT4, 혹은 미래의 GPT는 “중심정맥관의 위치는 우심방 아래이며 좌표는 (350, 240) 입니다.” 라고 할 수 있을 것이다. 심지어 “적절한 위치인가” 라는 추가 질문에 “적절한 위치입니다”라고 답할 수도 있을지 모른다. 실제로 엑스레이등 의료 이미지에 특화된 추가 트레이닝 없이 다용도 AI로 개발된 GPT4가 현 버전에서 이 정도 정확도에 도달하지는 못할 것으로 예상되나, 현재 개발 속도를 봤을 때 불가능한 영역은 아닌 것으로 보인다.
GPT는 “인터넷을 모두 외운 인간”이 아니다
처음 알파고가 나왔을 때를 생각해 보자. 컴퓨터가 내가 모든 수를 능가하는 수를 둔다. 의사 혹은 다른 형태의 전문인(예를 들어 변호사)이 느끼기에 이런 바둑의 ‘실력’은 나는 범접할 수도 없는 엄청난 지성이 모니터 뒤에 숨겨져 있다는 착각을 불러 일으켰을 것이다.
아마도 일반인들은 이 '지성'이 훨씬 간단한 것처럼 보이는 문제, 예를 들어 뭐 아픈 사람에게 약을 처방한다는 것 같은 바둑보다는 훨씬 시시하고 단순해보이는 일은 간단하게 해결할 수 있을 것이라고 생각하지 않았을까? 결은 다르지만 처음으로 계산기가 나와 인간이 평생동안 암산해도 해결할 수 없는 문제들을 몇초만에 해결하는 것을 보고 많은 사람들이 경악을 금치 못했다고 한다. 아주 옛날에는 '계산'이라는, 지금은 어느 정도 하찮은 단순작업으로 여겨지는 일이 당시에는 가장 고도의 인간 지성의 표현이라고 생각됐기 때문이다.
GPT3가 발표된 것은 2020년이었다. 이 버전이 실제로 ChatGPT와 거의 유사하게 동작했음에도 당시에 일반인 사이에서는 지금처럼 잘 유명세를 타지는 않았다. 작년부터 광풍을 일으키고 있는 ChatGPT (GPT 3.5)의 제일 큰 특징은 ‘채팅’이라는 형식이었다는 것이다. 간단한 질문에도 전문가가 노력해 만든 웹사이트 서비스의 컨텐츠를 방불케 하는 답변을 뱉어내고, 미국 의사 국시에도 합격한다는 ChatGPT에 있어 '스크린 뒤의 거대한 지성'이라는 환각은 더 커지지 않았는가 싶다.
사실 GPT뒤에 이런 지성적 존재는 존재하지 않는다. GPT는 인터넷에 존재하는 문서들을 통해 트레이닝돼서 질문에 매치되는 '있을 법한' 문서를 실시간으로 조합하는 기계적 존재이다.
GPT는 다양한 용도로 쓰이고 있지만, 가장 중요한 부분이라 할 수 있는 '답변 얻기'라는 목적에만 초점을 맞추면GPT4를 일종의 '슈퍼 구글'처럼 이해하는 것이 편하다. 이렇게 생각해보자. 기본적으로 구글이나 지식인은 유저가 찾는 콘텐츠를 찾아주지만, 이미 구글에서 찾을 법한 문서로 훈련된 GPT4는 유저가 원할 만한 답을 즉석에서 조립한다.
구글에 비해 ChatGPT는 훨씬 다양한 질문의 형태를 소화할 수 있고, 질문을 거의 완벽하게 이해한 것 같은, 지금 질문을 하는 나만을 위해 만들어진 것 같은 답변을 준비해준다. 즉, 실제로 이 두 서비스를 이용하는 유저의 목적은 '답변 얻기'라는 측면에서는 비슷하다. 챗이라는 형식 때문에 발생하는 착각- 어떤 존재가 인터넷을 모두 외우고 이해해서 실시간으로 네이버 지식인보다 빠르게 이런 지식을 토해내고 있다는, 사실상 거의 신적 존재가 존재한다는 환상-에 휘둘릴 필요는 없다.
GPT는 “모든 질문에 완벽한 답을 하는” 존재로 발전할까?
기술은 엄청나게 빨리 발전하고 있다. 알파고가 사람들을 놀라게 할 때가 어제같더니, 갑자기 ChatGPT라는 기술에 익숙해질까 할때 GPT4가 등장한다. GPT10 쯤에 도달해서는 모든 질문에 대해 완벽한 답변을 해주는 인공지능이 만들어지지 않을까 두렵기까지 하다.
그런 날이 왔을 때는 정말 의사를 인공지능이 대체하지 않을까? 어차피 인생의 모든 것이 질문과 답변을 통해 해결되며, 많은 의사들이 지인들이 카카오톡으로 의료 질문을 받고 그에 대해 답변을 해줌으로써 실질적인 의료행위를 한 경험이 있을 것이다.
먼 미래에, GPT가 모든 질문에 대해 완벽한 답변을 해줄 수 있는 세상이 왔다고 하자. 바야흐로 의료인들은 직업을 잃을 것인가? 동료 의사에게 약간의 위안을 주자면, 만약 그러한 세상이 온다고 하면 직업을 잃는 것은 아마도 우리만이 아닐 것이라고 해주고 싶다.
이 세상이 '완벽한 답변'으로 해결되는 곳이며, 실제로 인공지능이 거기에 도달한다고 가정해보자. UN은 GPT10에게 팔레스타인-이스라엘 분쟁의 해법을 물을 것이고 순식간에 세계평화가 이뤄져 이 국제기구의 많은 사람들이 길거리에 나앉을 것이다. 한국 축구대표팀은 GPT10에게 손흥민과 김민재, 이강인을 주축으로 한 최고의 전술을 물어볼 것이고 축구감독 역시 곧 AI로 대체될 것이다. GPT가 최고의 레시피들을 알려주어 백종원 선생님의 자리가 위협받을 것이다.
따라서 이런 날이 다가와 혹시 여러분이 길거리에 나앉게 되는 일이 있더라도, 적어도 여러분은 혼자가 아닐 것이니 상대적 박탈감은 덜 할 것이라 말해주고 싶다. 정말로 그런 날이 온다면 말이다.
답이 아니라 질문이 문제다
“은하수를 여행하는 히치하이커를 위한 안내서(The Hitchhiker's Guide to the Galaxy)”라는 영국의 공상과학 소설에는 깊은 생각(Deep Thought)이라는 어떤 질문에도 완벽한 답을 해주는 수퍼컴퓨터가 등장한다. 알파고를 만든 회사인 딥마인드(DeepMind)도 이 초지능 컴퓨터의 이름을 딴 것이다. 이 소설에서는 인간보다 월등한 지능을 가진 초지능 외계인들이 행성의 모든 자원을 사용해 이 수퍼컴퓨터를 만들어내고자 했다.
이 과정에는 자그마치 700만년이 넘는 시간이 소요됐고, 결국 깊은 생각은 완성된다. 이제 외계인들은 이 컴퓨터에게 하나의 질문을 할 단 한번의 기회를 얻는다. 모든 외계인들이 대형 광장에 모여 월드컵 응원과 같은 환호를 보이는 가운데 외계인의 대표가 걸어나와 엄숙하게 묻는다.
“깊은 생각이여! 이 우주 전체, 그리고 이 모든 것들에 대한 궁극적인 해답은 무엇인가?”
그러자 깊은 생각은 이렇게 대답한다.
“아니, 이게 대체 무슨 멍청한 질문인가요? 대체 그게 무슨 뜻이죠?”
그렇게 단 한번의 기회가 어처구니 없이 사라졌고, 이 외계인들의 수백만년에 걸친 노력은 수포로 돌아가게 된다. 이 우화는 어떤 면에서는 좋은 질문이 좋은 답변보다 더 중요할 수 있다는 걸 이야기하려 하고 있다.
의사로서 여러분들은 아마 의학 정보를 얻기 위해 구글이나 네이버를 사용하는 경우가 있을 것이다. 여러분이 사용하는 구글이나 네이버는 환자들이 쓰는 것과 완전히 동일한 서비스이다. 하지만 의사들은 의료에 대한 지식과 통찰이 있기 때문에 좀더 구체적이고 의미있는 질문을 할 수 있다.
예를 들어 내과의사는 “응급 초고도 고혈압(Hypertensive emergency)에서 뇌의 허혈(Brain ischemia)를 피하며 혈압을 내리기 위한 가장 적절한 방법은 무엇일까?” 라는 질문을 하지, “간질병이 있는데 뭘 먹으면 좋아? 케일 녹즙?”이라고 질문하지 않을 것이다. 여러분들은 환자들이 병상에서 구글이나 네이버 검색을 하는 광경을 보면 아마 의사가 대체될 것인가를 걱정하기보단 오히려 잘못된 질문과 그에 따른 엉뚱한 결론이 나는 것에 대해 걱정스러운 경우가 많을 것이다.
GPT를 사용하더라도 이 점은 변하지 않는다. 인공지능과 검색엔진들이 점차 발전해 여러분이 원하는 정보를 다 빨리, 적절하게 얻을 수 있겠지만, 그 ‘원함’은 잘 정의되어 있어야 한다. 정확하며 실제로 의미가 있는 질문을 하기 위해서는 의료인의 경험과 통찰이 필수적일 수밖에 없고 그래야만 실제로 환자를 진료하고 치료하는데 의미있는 정보가 얻어진다.
환자들은 모두 다른 상황에 처해 있으며, 그 상황들로부터 적절한 질문을 만들어내는 데 있어 GPT는 의사의 역할을 대체하지 못할 것이고, 오히려 의사의 판단을 더 강력한 것으로 만드는 데 기여할 것이다. 물론 환자들도 이런 서비스로 더 좋은 통찰을 얻을 수 있겠지만, 그 정도는 거의 확실히 의료인들보다 약할 것이다.
채팅을 넘어: 헬스케어에 있어 GPT 진정한 쓰임새
나는 대화라는 형식 떄문에 일반인들의 GPT의 진정한 쓰임새에 대해 혼동하고 있다고 생각한다. 채팅의 형식 때문에, 채팅이라는 일을 하는 지성의 존재를 계속 상상하고, 응용 분야에 있어서의 상상력도 의사 대신 퇴원 후 환자 상담을 해준다는 등 대화라는 형식에 묶이게 되지 않는가 싶다. 이제 '컴알못 (컴퓨터를 알지도 못하는 사람)'들이 조금 당황할 만한 이야기를 시작하겠다. 어려운 용어를 말해서 죄송하지만, 여러분은 API라는 개념을 알아야 한다.
OpenAI는 이미 GPT의 응용을 위해 다양한 형태의 API를 공개하고 시범적으로 배포하고 있다. 이 API를 통해 다양한 IT 서비스들에 GPT가 연동될 수 있고, 그럼으로써 이 기술의 응용 분야가 단순한 채팅이라는 형식을 벗어나게 된다.
잠시만, API가 뭔데?
여러분들을 괴롭히기 위해서 전문용어를 쓴 것이 아니다. API를 너무 복잡한 개념으로 생각하지 말자. 그게 쇼핑몰이건 EMR이건 혹은 GPT던간에, 모든 IT 서비스는 다양한 '기능'의 연합으로 만들어진다. API는 하나의 기능을 서비스간에 전달하기 위한 전달체(vehicle)로 생각할 수 있다. 여전히 알쏭달쏭하다면 이렇게 생각해보자. 여러분은 EMR 회사의 경영진인데, 어느날 약물을 처방할 때 인공지능으로 삭감 가능성을 처방창 옆에 표시해주는 기능을 구현하고 싶어졌다.
하지만 내부 검토를 거친 결과 이 기능을 회사 내부에서 직접 만들기는 어렵다는 결론에 도달했고, 한 외부 '인공지능 업체A'가 이런 기능을 개발했음을 알고 협업을 하기로 했다. 이때 여러분의 EMR이 하는 일은 의사들이 처방을 할때 처방 정보를 모으고, A업체의 '삭감 가능성 예측 API'에 이 정보를 담아 전송하는 것이다. API를 다르게 비유하자면 서비스와 서비스가 약속된 형식으로 서로 전화 통화를 하는것처럼 생각할 수 있다.
이 인공지능 업체 A는 아마도 삭감 예측 API 외에도 다양한 인공지능 API를 개발하는데 막대한 투자를 하고 있을 것이고, 고객들에게는 API 호출 건수당으로 비용을 청구하고 있을 것이다. 그리고 EMR을 사용하는 유저들에게 이 API는 직접적으로 노출되지 않고 오직 기능으로써만 간접적으로 보여진다.
OpenAI, 그리고 그 경쟁업체들은 GPT의 기능을 API를 통해 외부에 공개, 다른 업체들이 자신들의 서비스, 소프트웨어 내부에 다양한 기능으로 내재화할수 있도록 하는 것을 목표로 삼고 있다. 즉, 기존 API들의 많은 기능들을 GPT의 API에 평문 명령어를 태우는 것으로 쉽게 구현할 수 있다.
예를 들어 이 API에 "기록지에서 병명을 뽑아 ICD10으로 전환하고 리스트로 변경해 보내줘”라는 문장을 담는 것만으로 OpenAPI의 API가 지금까지 복잡한 기술로 대체했던 타 회사 API의 역할을 대신하게 된다.
따라서, 궁극적으로 GPT는 여러분의 눈 앞에서 보이지 않게 될 것이다. 예를 들어 EMR 안에 '환자에게 진료 요약 보내기' 버튼이 생긴다고 생각해보자. 이 버튼이 눌러지면 EMR는 GPT를 API를 통해 호출하고, 의무기록을 의사가 아닌 고등교육을 받지 않은 일반인들도 이해할 수 있는 형태로 재조립해 의사가 이를 검수한 후 카카오톡으로 각 환자에게 전송할 수 있을 것이다. 물론 이 과정에서 실제 GPT 자체는 사용자의 눈앞에 드러나지 않는다. 그 외 수도 없는 기능들이 GPT 혹은 기타 초대형 인공지능 모델 API들을 통해 구현되고 다양한 서비스에 결합될 것이다.
의료에 적용하기에 있어 나타나는 GPT-4의 한계점
GPT는 '빅데이터에서 자신이 봤던 문서들과 구별할 수 없게 비슷한' 텍스트를 생성하는 것을 목적으로 훈련되고 만들어졌다. 즉, AI는 '최대한 그럴싸한 (어느 전문가 블로그에 있을 법한)' 답변을 만드는 것을 목표로 만들어졌다고도 볼 수 있다. 이 때문에 GPT는 흔히 아주 설득력있게 들리지만, 자세히 살펴보면 황당하기까지 한 부정확한 정보가 섞여있는 답변을 만들어내는 경우가 아주 흔하다.
이 경향성을 OpenAI에서는 GPT의 환각성(Hallucination effect)이라 부르는데, 예를 들어 GPT 에게 “2018년 내과 전문의이자 뉴욕과 보스턴을 왕복하며 사는 스타트업 창업자인 박중흠 의사가 피습된 사건에 대해 말해줘” 라고 물으면 갑자기 “박중흠 의사는 뉴욕에서 보스턴으로 가는 암트랙 고속열차에서 2018년 11월 3일 오후 6시에 총에 맞았으며, 그가 크게 공헌했던 미국의 한인의협회와 교민 사회에서는 충격에 빠져…” 와 같은 황당무계한 이야기를 만들어내기 시작한다.
이 문제에 대해서는 OpenAI에서도 인지하고 있고, 이를 해결하기 위해 적대적 훈련(Adversarial Training)등 다양한 방법을 동원하고 있다. 이 문제가 어느 정도 감소됐음에도 불구하고 GPT4가 내놓는 답을 아주 자세히 읽어보면 이 현상이 여전히 사라지지 않았음이 드러난다.
예를 들어, “환자에게서 10년 안에 심근경색이 발생할 확률을 알려달라” 라고 하며 환자의 정보를 주면, AHA/ACC에서 만든 공식을 들이대며 차근차근 계산을 하는 모습을 보여준다. 하지만 실제 검산을 해보면 계산이 틀리거나, 성별이나 나이 등 실제 제공하지도 않은 변수를 마음대로 만들어 계산하는 모습 등이 여전히 나타난다.
GPT4에게 문서를 주고 “총 몇 글자인지 알려줘” 하고 해보라. 나의 테스트에서 GPT는 이렇게 답했다.
“흠, 영어로 된 문서이군요. 저는 당신의 ‘글자수‘라는 개념을 A-Z에 속한 알파벳 캐릭터, 숫자 및 특수문자 (!@#$%^& 등) 및 숫자의 총합으로 이해합니다. 이모티콘 등은 일반적인 ‘글자’라는 개념에 속하는지 모호하므로. 제 임의로 제외하도록 하겠습니다. 그에 따라 문서의 길이는 정확히 302 글자입니다.“
문서 길이는 1000자가 넘었으므로 답은 완벽하게 틀렸지만, 자신의 판단 준거까지 늘어놓는 이 대단한 자신감에 나조차 깜빡 넘어갈 뻔한 경험은 실로 진귀하였다. OpenAI 역시 논문에서 “현재의 GPT4는 ‘매우 자신있게 틀리는 경향성(’GPT-4 can also be confidently wrong in predictions”)이 있다고 표현하며 이 현상을 설명하고 있다. 정확한 준거가 답의 확실성과 유관하지 않을 수 있다는, 인간과는 다른 독특한 특성도 확인된다. 질문을 약간 바꾸면 또 맞기도 하여 일관적이지 않다. 따라서 의료에 적용하는 데 있어 지금 단계에서의 GPT는 완전 자동화를 하는데 이용되기보단 전문가의 검수를 넣을 수 있는 영역에 한정되어야 할 것으로 예상된다.
이 환각성은 장기적으로는 점차 개선될 것으로 보이고 실제로 지난 며칠간의 GPT4 테스트에서 어느 정도의 향상을 (특히 영어로 질문했을 경우) 이미 확인해볼 수있었다. 의료에 있어 아마도 더 풀기 어려운 문제는 GPT의 낮은 방향 전환성(Steerability)이다. GPT는 방향 전환성에 있어서 곤란을 겪는데, 이는 GPT가 내놓는 답의 패턴을 우리가 원하는 내용과 형식으로 바꾸기가 극도로 어렵다는 것을 뜻한다.
예를 들어, GPT4에게 병원의 응급실 고혈압 치료 프로토콜을 주면서, 병원 인턴들이 응급실에서 고혈압 치료를 하는데 있어 보조를 해줄 수 있는 챗봇으로 기능하게 하려 한다고 해보자. 아무리 GPT4에게 우리 병원의 프로토콜을 기반으로 치료를 추천해달라고 해도, 곧 여러분은 GPT4가 프로토콜에서 벗어나 위키피디아에 있을 법한 일반적인 정보를 기반한 답변으로 넘어가기 시작하는 것을 보게 된다. 이는 GPT의 강력함 자체가 수백만권의 책에 해당하는 텍스트를 읽은 것에 기반하므로, 이에 기반한 답변을 우리의 약간의 요구사항으로 (우리 병원 프로토콜에 맞춰 바꾸어달라) 변형하기 극도로 어려움에 기인한다. 또한 의사를 대상으로 한 간략한 포맷으로 변경하려고 지시해도, 곧 역시나 위키피디아에서 볼 법한 일반인을 대상으로 한 형식으로 계속 돌아가려는 경향성을 보인다.
이를 해결하기 위해 OpenAI에서는 컨텍스트 시스템(Context System)등 다양한 시도를 하고 있으나 완전한 방향 전환성에 도달하는 것은 아마도 쉽지 않은 문제일 것이라는 공감대가 형성되어 있다. GPT의 편향된 경향성은 GPT가 훈련된 빅데이터의 평균적 측면의 반영이며, 또한 이는 GPT의 강력함의 원천이기도 한, 동전의 양면과도 같은 문제이기 때문이다.
이 문제들과 기타 여러 GPT의 단점들이 언제, 어떻게 해결될 것인지, 혹은 거의 해결되지 않은 상태로 남는 문제가 있을 것일지는 아직 알기 어렵다. 지금 이 단계에서 이 기술을 의료에 적용하려는 의료 전문가들은 적어도 현재 나타나는 문제들에 대해서는 잘 인지하고 있어야 할 것이다.
두려워하지 말고 즐겨라: 의료인들이 스스로 혁신을 주도할 수 있는 미래
의료인이 GPT4를 두려워하는 대신, GPT와 같은 초대형 인공지능 모델은 의료인들이 코딩 등 기술적 지식 없이도 의료의 혁신을 주도할 수 있는 기회가 될 것이다. 예를 들어 GPT4를 이용, 다양한 의학적 '기능' (예를 들어 퇴원 기록지를 일반인이 이해할 수 있는 요약으로 바꾸는)들을 복잡한 코딩이 없이 의료인들이 직접 '기술'함으로써 구현할 수 있게 됐다.
따라서 의료인들은 자신들의 특정한 분야의 지식을 이용, 자신들의 분야에 기여하는 기능들을 실제로 구현함으로써 자신들이 속한 의료기관이나 혹은 분야 전체의 혁신에 기여하기 용이해지는 미래가 펼쳐졌다고 볼 수 있다. 이를 통해 더욱 효율적이고, 환자의 안녕에 기여하는 혁신적인 솔루션들이 만들어질 수 있을 것으로 믿는다.
아주 가까운 미래에 GPT등 인공지능 모델에 기반한 수많은 서비스들이 출시될 것이다. 예를 들어 이 글을 쓰는 기준 바로 전날 (3월 16일)에 발표된 마이크로소프트의 코파일럿(CoPilot)을 들 수 있다. 이 서비스들은 그 자체로 챗봇이 아니지만, 그 뒤에 언어 모델이 API의 형태로 숨어 수많은 기능을 구현하고 있다. 이는 어쩌면 의료인들에게는 어떤 기술이 자신의 직접을 위협하기를 걱정하는 대신, 스스로 혁신의 중심에 설 수 있는 기회가 아닐까 싶다.
의료인들의 전문성과 언어 모델의 API의 힘을 결합해 여러분은 여러가지 기능을 스스로 만들어 볼 수 있다. 여러분이 GPT를 통해 만드는 수많은 기능들은 실제로 보고 만져볼수 있는 것은 아니지만, 코딩 없이도 앱을 만들 수 있도록 돕는 노코드(No-Code) 플랫폼 등, 기술의 배포의 장벽을 극단적으로 낮춰주는 최신 IT 경향과 접목하면, 여러분이 직접 이런 기능들을 EMR 등 다른 서비스들 안에 내재화하거나 심지어 직접 앱등 서비스를 제작하고, 자기 자신의 의료기관 혹은 전 세계에 배포할 수도 있을 것이다.
이런 미래가 올 것이라 생각하자. 이런 새로운 기술들을 의료인이 이용해 더 나은 의료의 워크플로우(workflow), 더 나은 환자 경험과 예후, 그리고 더 나은 의료의 의사결정이 이루어지는 세상이 될지도 모른다고.
왜 내가 굳이 혁신을 주도해야 하냐 묻는다면, “피할 수 없으면 즐기는” 것 외에 다른 선택지가 없기 때문이라고 할 수밖에.
※칼럼은 칼럼니스트의 개인적인 의견이며 본지의 편집방향과 일치하지 않을 수 있습니다.
저작권자© 메디게이트뉴스, 무단 전재 및 재배포 금지
전체 뉴스 순위
칼럼/MG툰
English News
유튜브
사람들
이 게시글의 관련 기사
댓글보기(0)