기후위기시계
실시간 뉴스
  • 수술 부작용 예측·내시경 영상 판독…‘열일’하는 AI닥터
무릎 인공관절수술 환자 5757명 데이터 활용
수술 전 정보만으로 급성신장손상 위험 예측
서울대병원연구팀, 세계 최초 예측 모델 개발

여의도성모병원 연구팀 영상 판독 한계 극복
딥러닝 알고리즘 개발 99% 이상 정확도 선사
서울대병원 연구팀이 개발한 예측모델은 무릎 인공관절수술을 앞두고 6개 변수(신체 등급, 성별, 마취 종류, RAAS 차단제, 트라넥사믹산, 크레아티닌)만 입력하면 신장손상 위험을 자동으로 계산한다. 또한 위험을 낮출 수 있는 임상 조치도 제안한다.

#장면1 “41.6% 고위험군입니다”

인공관절수술전 급성신장손상위험 AI 가 알려준다.

퇴행성 무릎관절염 말기에 이르면 인공관절수술을 선택하곤 한다. 닳아 없어진 연골을 제거하고 인공관절을 삽입해 대체하는 것이다. 문제는 부작용이다. 인공관절 치환술을 받은 환자의 5~15%가 수술 후 급성신장손상을 겪는 것으로 밝혀졌다. 심한 경우, 신장기능이 영구적으로 손상되는 말기 신부전에도 이를 수 있다.

이때, 환자 개개인의 특성을 파악해 급성신장손상 위험을 예측하는 프로그램이 국내 연구진에 의해 개발됐다. 서울대병원 정형외과 노두현 교수팀(이명철·한혁수 교수)은 무릎 인공관절수술 이후 급성신장손상 발생위험을 예측할 수 있는 인공지능 기반 웹 플랫폼을 개발했다고 16일 밝혔다.

연구팀은 서울대병원을 비롯한 분당서울대병원, 삼성서울병원에서 무릎 인공관절수술을 받은 환자 5,757명의 데이터를 활용해 예측모델을 개발했다. 이는 무릎 인공관절수술에 따른 급성신장손상 위험을 다룬 최대 규모 연구이다.

노 교수팀이 개발한 예측모델은 무릎 인공관절수술을 앞두고 6개 변수(신체 등급, 성별, 마취 종류, RAAS 차단제, 트라넥사믹산, 크레아티닌)만 입력하면 신장손상 위험을 자동으로 계산한다. 또한, 입력된 변수 각각이 급성신장손상에 미친 기여도와 더불어, 위험을 낮출 수 있는 임상 조치도 제안한다. 이른바 ‘인터랙티브(interactive) 프로그램’이다.

무릎 퇴행성 관절염은 전 세계적으로 약 2억 5천만 명 이상이 앓고 있다. 60세 이상에서 무릎 관절염 발생이 급격히 증가하며, 무릎 인공관절수술 환자 또한 매년 늘고 있다. 이번 연구는 인공지능 모델을 개발해, 수술 전 정보만으로 이후 급성신장손상을 정확히 예측했다는 점에서 의의가 크다. 실제로 검증단계에서 해당 모델의 예측능력(AUC)은 약 0.89로 우수한 성능을 보였다. 현재 이러한 모델을 개발한 것은 노교수팀이 세계 최초이다.

노두현 교수는 “개발한 프로그램은 환자 개개인 특성을 고려한 맞춤형 평가를 진행해 부작용 감소를 유도할 수 있다”며 “신장 기능이 떨어지는 환자는 인공관절수술을 주저하는 경우가 많은데, 사전에 위험도를 알 수 있다면 환자의 선택에 많은 도움이 될 것”이라고 의의를 밝혔다. 해당 연구 공동 1저자로 참여한 고선호·조창웅 학생은 “이번 연구에서 개발된 프로그램은 sefatka.net을 통해 언제 어디서나 접근할 수 있다”며 “어떤 위험요인이 환자에게 가장 크게 영향을 미쳤는지도 파악할 수 있다”고 말했다. 이번 연구는 ‘유럽무릎관절학회 학술지’ 최신 호에 게재됐다.

[123rf]

#장면2 “수만장의 소장 캡슐내시경 영상, 이제는 AI로 판독한다”

국내 연구진이 소장 캡슐 내시경 영상 판독을 위한 딥러닝 알고리즘을 개발, 96%이상의 높은 판독 정확도를 기록했다. 캡슐내시경은 알약 모양의 캡슐을 입으로 삼켜 식도, 위장, 소장 등의 건강 상태를 촬영하고 이 영상을 분석, 판독하여 소화기 질환 진단에 이용하는 기기다. 일반 내시경이 들어가기 힘든 소장을 관찰할 수 있어 원인 모를 복통, 설사, 출혈 및 빈혈의 원인, 용종, 궤양, 크론병과 소장종양 등 다양한 질환의 진단에 활용되고 있다. 기존 연성케이블 내시경을 대체하는 혁신적 기술로 평가받는다.

하지만 캡슐내시경은 초당 수십 장의 정지 영상을 촬영, 8~12 시간 동안의 소화관 촬영으로 약 5만장 이상의 정지영상이 생성된다. 수 만장의 영상을 의사가 일일이 판독하는데 1~2시간의 장시간 소요된다. 또한 병변이 작거나 찍힌 영상 숫자가 적을 경우 판독자에 따라 진단 정확도가 떨어진다.

가톨릭대학교 여의도성모병원 이한희 교수 연구팀(서울성모병원 소화기내과 이보인 교수, 포항공대 산업인공지능연구소 이승철 교수)은 인간에 의한 기존 영상 판독의 한계를 극복하기 위해 영상 판독 딥러닝 알고리즘을 개발해 판독 정확도를 비교 분석했다.

연구팀은 2007년 5월부터 2019년 5월까지 시행된 526건의 소장 캡슐내시경 검사에서 7,556장의 영상을 추출, 추출된 영상을 대표적인 소장 병변인 ▲출혈성 병변(적색 점, 혈관이형성, 현성 출혈), ▲궤양성 병변(미란, 궤양, 협착)으로 분류했다.

이어 포스텍 산업 인공지능 연구실에서 개발한 영상 분석 특화 딥러닝 기법 중 하나인 VGGNet 기반의 컨벌루션 신경망 알고리즘으로 영상을 분류하고 학습시킨 결과 96%이상의 높은 정확도를 보였다.

이한희 교수(제1저자)는 “이번 소장 캡슐 내시경 판독 알고리즘 개발로 인간보다 빠르고 정확하게 소장 병변을 파악할 수 있으며, 소장의 정상, 비정상 분류를 넘어 개별 병변의 특성을 판단하고 시각화된 병변의 위치를 확인함으로써 판독된 영상의 2차 검증이 가능할 것으로 기대된다.” 라며 “향후 실제 임상에서의 효용성을 평가하기 위해 전향적 연구 진행과 첨단 의료기기로서의 상용화를 목표로 포스텍과의 공동연구를 계속 추진할 예정이다.”라고 밝혔다. 김태열 기자

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크