Study

의료인공지능의 윤리, 그리고 정밀의료 (1)

임상전략팀
임상전략팀
등록일2024. 06. 19
의료인공지능의 윤리, 그리고 정밀의료

▶ 이상과 현실
의료는 복잡다단하고, 기술이나 의술에만 기댈 수 없으며 사회와 소통하는 역동적인 학문입니다. 한 쪽을 방치하면 다른 쪽이 악화되고, 한 쪽을 잡으면 다른 쪽도 해결되는 등의 상상 밖의 일이 일어나곤 하죠. 예를 들어, 당뇨병을 예방하고 관리하는데 성공하면 국가적으로 실명하는 환자들이 줄어듭니다. 다른 예로는, 고혈압을 잘 관리하는 국가가 있다면 뇌출혈 발병률이 줄어들 것이죠. 지구 온난화가 가속화되면 말라리아가 퍼지고, 항공과 운수 산업의 발달은 코로나 바이러스를 전 세계로 퍼뜨렸습니다.

이처럼 복잡한 의학의 새로운 화두로 지난 10여년간 수없이 많은 연구가 지속된 신분야는 단언컨데 의료인공지능일 것입니다. 의료에 도입되는 모든 기술이 그러하듯, 인공지능 또한 예상치 못한 상황을 만들었고 만들고 있고, 인공지능 제품 또한 윤리적 문제를 피해갈 수 없습니다. 이 글에서는 의학에서 가장 권위있는 저널인 New England Journal of Medicine (NEJM)과 Journal of American Medical Association (JAMA)에 기고된 세 편의 글*출처 1, 출처 2, 출처 3들과 다른 자료들을 몇 가지 참고하여 의료인공지능의 윤리에 관하여 고찰해보도록 합니다.

과학적 발전은 현대에 와서 가속화될 뿐 아니라 탈중앙화가 이루어지고 있습니다. 유전자 검사와 같은 기술들은 연구실에서 벗어나 규제를 통과하여 소비자들에게 직접 전달되고 있습니다. 디지털 치료제와 같은 기술들도 국가나 의사들이 처방을 내리는 것이 아닌, 소비자들이 직접 어플리케이션을 다운받아서 디지털을 통한 치료를 수행하고 있고요. 전통적으로 이어져 온 규제나 법적 이슈들은 더이상 이러한 현실을 마주하기에 최적의 수단이 아니게 되었습니다. 규제를 두 가지로 나누면
 
  • 강한 규제 - 법적 규제나 통제와 같은 강제성이 부여되는 것
  • 약한 규제 - 사회적 규범이나 가이드라인, 캠페인과 같은 강제성은 없지만 지키려고 노력하는 것

들이 있는데, 탈중앙화되는 과학기술은 약한 규제에 더 크게 의존할 수밖에 없습니다. 이러한 상황은 Collingridge 딜레마라는 딜레마를 야기할수 있습니다. Collingridge 딜레마란, 기술 발전 초창기에 근거가 부족해 예상되는 해악이나 부작용을 예측하지 못하기 때문에 정치적 의사결정이 규제냐 진흥이냐의 기로에서 더뎌지지만 한 번 그 해악성이 나타나고 나면 그 때는 정치적 의사결정을 하기에 너무 늦었다는 것이죠.

하지만 앞서 말한 기술의 해악은 모두에게 해를 끼치지는 않을 것입니다. 누군가는 과학기술의 발전으로 이득을 보거나 목숨을 건지지만, 또다른 누군가는 손해를 보거나 건강이 악화될 수도 있습니다. 심지어 다른 사람들은 아무런 이득이나 손해도 보지 못한 채 돈만 쓸 수 있으며, 가장 중요한 대부분의 인류는 그러한 과학기술을 접할 기회조차 없을 것이라는 것(개발도상국, 후진국의 인구들)은 큰 문제입니다. 즉, 과학은 평등하지만 동시에 과학은 평등하지 않습니다.

인공지능 이야기를 하면, 대규모 데이터셋이나 연구들은 대부분 백인 혹은 서양 사람들 기준으로 정비되어 있습니다. 폐암 검진에서 가장 유명한 데이터인 National Lung Cancer Trail (NLST)*출처 4 데이터만 하더라도 백인이 91%, 흑인이 5%이하, 아시아인이 2%남짓밖에 되지 않습니다. 위암(gastric cancer)은 서양에서는 거의 수술할 줄 아는 의사가 없을 정도로 적게 발병하지만 한국에서는 아주 큰 비율을 차지하는 암이라 국제 학회에서 큰 비중을 차지하지 못하는 것도 또다른 예시가 되겠지요.
이러한 맥락에서, 과학은 우리가 무엇을 할 수 있는지를 알려주고 가끔은 무엇이 안전한지를 알려주지만, 우리가 무엇을 해야 하고 어떻게 해야 하는지에 관한 것은 과학만으로 해결되지 않습니다.
 
  •  Science can tell us whether we can do something and often whether it is safe, but the questions of whether we ought to and how we should proceed are not solely scientific ones.

DHHS (Department of Health and Human Services; 미국 보건복지부) 도 이러한 문제점을 인식하고 있었고 2022년 7월 이러한 인종적 차별에 맞서싸울 것이라는 글을 기고*출처 5하기도 했습니다. 실제로 많은 임상 알고리즘들은 특정 인종에만 맞추어져 있으며 예시를 들자면 알츠하이머를 진단하는 머신러닝 알고리즘이 특정 악센트를 구사하는 집단에서는 다른 결과를 낸다는 것이나, 소득이 낮은 집단은 병원에 *노쇼(no-show)*를 할 가능성이 높기 때문에 특정 알고리즘은 중위 소득 이상에서만 결과를 잘 낸다는 글이 그 예시가 될 수 있을 것입니다. 따라서 DHHS는 FDA (Food and Drug Administration) 에 더 꼼꼼하고 세밀한 데이터에 대한 기준을 세울 것이라는 것이 바로 유추가 가능해집니다.

ACA (Affordable Care Act; 환자보호 및 부담적정보험법, a.k.a. 오바마케어)의 section 1557은 환자의 인종적, 연령적, 장애 정보에 기반한 어떠한 차별도 금지하고 있습니다. 이 글에서 자세하게 다루지는 않지만 ACA의 section 1557을 위반하면 보건복지부의 처벌을 비롯한 다양한 맥락에서 제제가 들어가기까지 합니다. 심지어 환자들은 차별을 당한다면 해당 기관에 소송을 걸 수 있는 권리까지 있습니다.

출처
1. https://www.nejm.org/doi/full/10.1056/NEJMms2200907
2. https://jamanetwork.com/journals/jama/article-abstract/2800369
3. https://jamanetwork.com/journals/jama/article-abstract/2800368
4. https://www.nejm.org/doi/pdf/10.1056/nejmoa1102873
5. https://www.hhs.gov/civil-rights/for-providers/laws-regulations-guidance/regulatory-initiatives/1557-fact-sheet/index.html

#의료인공지능

#의료AI

#정밀의료

#의료기술

#의료윤리

#탈중앙화

Contact

제품, 인재 채용, 투자 관련 또는 기타 문의사항이 있으신 경우 편하신 방법으로 연락주시기 바랍니다

문의하기