[HAIE 2025-26] 헬스케어 AI 윤리 뉴스레터
AI는 자체의 편향 때문에 형평성(equity)에 문제를 일으키기도 하지만, 반대로 기존의 불평등을 해소하는 방안을 제시할 수도 있지요. 호주 뇌전증 프로젝트에서 AI 활용에 대한 논의를 통해 AI가 "증강 지능"의 역할을 해야 한다는 두 번째 논문의 주장이나, AI 치료 챗봇의 인간-챗봇 상호작용에 문제를 제기하는 세 번째 논문도 검토해 보면 좋을 것 같습니다.
들어가며
바깥의 여러 소식들로 시끄러운 한주, 건강히 보내셨는지요? 헬스케어 AI 윤리 뉴스레터의 김준혁입니다!
다른 일이 많은 한주여서 그런지, 이번주엔 헬스케어 AI 윤리 관련 연구나 뉴스가 그렇게 많지는 않았습니다. 그래도, 흥미로운 소식들을 몇 가지 뽑아 보았습니다. AI는 자체의 편향 때문에 형평성(equity)에 문제를 일으키기도 하지만, 반대로 기존의 불평등을 해소하는 방안을 제시할 수도 있지요. 첫 번째 논문이 다루는 이와 같은 내용은 AI의 도구적 측면을 강조하는 것으로 읽으시는 것보다, 우리가 보건의료 영역에서 어떤 문제에 접근하기 위해 AI를 사용할 것인가? 로 살펴 보시면 좋을 것 같아요!
호주 뇌전증 프로젝트에서 AI 활용에 대한 논의를 통해 AI가 "증강 지능"의 역할을 해야 한다는 두 번째 논문의 주장이나, AI 치료 챗봇의 인간-챗봇 상호작용에 문제를 제기하는 세 번째 논문도 검토해 보면 좋을 것 같습니다.
논문 소식과 별개로 이번주엔 몇 가지 발표들이 있었습니다. 꽤 오래(?) 작업하며 초안(draft)으로 남아 있던 미국 NAM (National Academy of Medicine)의 "AI 보건의료 행동 강령: 정렬된 행동을 위한 핵심 지침(An Artificial Intelligence Code of Conduct for Health and Medicine: Essential Guidance for Aligned Action)" 최종본이 발표되었습니다. 10.17226/29087 꽤 긴 문건이라 여기에서 다 정리하긴 어렵습니다만 정말 핵심만 꼽자면,
- 기존의 원칙 기반 접근(대표적으로 WHO 문건이 있지요)와 달리 6가지 찬동(인간성 증진, 형평성 확보, 영향 받는 개인의 참여, 업무 웰빙 증진, 성능 감시, 혁신과 학습)을 제안
- 개발 과정에서 다양한 당사자(개발자, 연구자, 보건의료 체계 및 지불자, 환자 및 옹호자, 연방정부, 보건의료 인력, 질평가 및 환자안전 전문가, 윤리학자 및 형평성 전문가)의 참여를 통한 논의 확보와 제언
- 각 찬동에 대한 활동 목표와 당사자 제시
이런 점을 들 수 있겠어요. 하지만 무엇보다, AI 논의에 들어와서 미국과 EU의 입장이 뒤집혔다는 것이 저는 가장 흥미로운 지점입니다. 기존 연구윤리에서 미국은 강력한 규제 조항(하지만 짧은)에 의한 엄벌주의를, EU는 세밀한 감독 지침에 의한 자율개선주의(?)를 택해 왔어요. 하지만 EU AI Act, 보건의료 행동 강령은 둘의 접근이 서로 자리를 바꾸었음을 보여주는 예가 되지요.
참, 미 샌프란시스코 주법원에서 AI 훈련을 위한 책의 무단 사용이 합법이라는 판결이 나왔습니다. (Reuters)[https://www.reuters.com/legal/litigation/anthropic-wins-key-ruling-ai-authors-copyright-lawsuit-2025-06-24/] 작가들이 앤스로픽을 상대로 AI 훈련에 책을 무단 사용했다며 제기한 소송에서 훈련 자체는 공정 이용(fair use)이라는 결정을 내린 건데요. 훈련에 의한 결과물이 저작물을 그대로 재생산하지 않으므로 저작권 침해가 아니라고 본 것이라, 앞으로도 계속 이런 결정이 유지될지 궁금해집니다.
서론이 길었네요! 논문들 살펴보실까요?
이번주 주목할 만한 소식
인공지능 기반 접근법: 폐암 검사 및 평가의 형평성 향상을 위한 미래
From Cancer Innovation: Artificial Intelligence‐Based Methods: The Path Forward in Achieving Equity in Lung Cancer Screening and Evaluation[1]
이 논문은 폐암이 가장 치명적인 암임에도 불구하고 조기 검진과 치료를 통해 생존률을 개선할 수 있음을 강조합니다. 미국 등에서는 폐암 검진 기준이 확대되고 있으며, AI 기술을 활용한 데이터 수집과 분석이 형평성 문제 해결에 기여할 수 있다고 제언합니다. 저자들은 폐암 검진의 형평성 문제와 이를 완화하기 위한 정책, 기술적 접근법의 중요성을 다룹니다.
현존하는 폐암 검진 프로그램은 인종 및 사회경제적 요인에 따른 불평등을 극복하지 못하고 있으며, 특히 흑인과 라틴계 고위험군에서 진단 지연, 비표준 치료 등이 문제로 지적되고 있습니다. AI 기반 자연어처리와 영상 분석 기술은 전자의무기록 내 임상 및 사회연구 정보를 효율적으로 추출하고 분석할 수 있어, 형평성을 제고하는 데 중요한 역할을 합니다. 다학제적 이해관계자 협력과 국제적 데이터 공유가 이루어져야 하며, AI 연구를 임상과 인구집단 연구에 적절히 적용하는 것이 폐암 평등 진료 실현의 필수적 전진 단계임을 강조합니다.
의료 AI의 책임 있는 활용 방안: 호주 뇌전증 프로젝트를 중심으로
From Artificial intelligence in medicine: Toward responsible artificial intelligence in medicine: Reflections from the Australian epilepsy project.[2]
호주 뇌전증 프로젝트는 MRI, 유전, 임상 등 다중모드 데이터를 기반으로 인공지능(AI)을 활용하여 뇌전증 환자의 진단 및 치료를 지원하는 대규모 플랫폼입니다. 본 프로젝트는 AI의 잠재적 유해성에 대한 우려가 커지는 상황에서, 신뢰, 책임, 안전이라는 핵심 원칙을 바탕으로 책임감 있는 AI 프레임워크를 구축하고자 합니다. 이는 AI를 의료 현장에 책임감 있게 적용하기 위한 구체적인 가이드라인을 제시하며, 의료 AI 윤리에 대한 심도 있는 논의를 촉발합니다
본 프로젝트는 AI가 인간 전문가를 대체하는 것이 아닌, 임상의의 의사결정을 지원하는 '증강 지능'의 역할을 해야 한다고 강조합니다. AI 모델은 단기적인 성능 지표를 넘어 장기적인 환자 예후 개선에 기여해야 하며, 이를 위해 유연하고 적응 가능한 윤리 프레임워크가 필수적입니다. 궁극적으로 호주 뇌전증 프로젝트는 인간 전문가의 지식과 AI 기술을 결합하여, 신뢰할 수 있는 의료 AI를 구현하는 선도적 모델이 되고자 합니다.
AI 치료 챗봇의 인간 유사성: 윤리적 고찰
From The Hastings Center report: The Ethics of Humanlikeness in AI Therapy Chatbots.[3]
본 논평은 AI 치료 챗봇(AITC)의 규제 논의에 발맞추어, AITC의 인간적인 상호작용이 야기하는 근본적인 윤리적 문제를 탐구합니다. 저자는 AITC의 존재론적 지위, 전문가로서의 경계, 그리고 치료의 질이라는 세 가지 측면에 초점을 맞춥니다. 기술이 단순한 소통의 도구를 넘어 대화의 참여자가 되면서 발생하는 새로운 윤리적 성찰의 필요성을 제기합니다.
결론적으로, AITC는 인간의 상호작용을 모방할 뿐 진정한 이해나 윤리적 판단 능력은 결여되어 있어 근본적인 윤리적 격차가 존재합니다. 이는 사용자가 치료, 공감, 관계의 의미를 왜곡하게 만들 위험이 있습니다. 따라서 규제 당국은 AITC의 상호작용 방식과 인간다움의 수준에 주목하고, 트라우마 기반 접근과 같은 상호작용 표준을 마련하며, 개발자는 그 한계를 명확히 밝혀야 합니다.
가정 건강관리에서 인공지능의 미래: 간호사의 상처 관리 변화와 도전
From BMC nursing: Navigating artificial intelligence in home healthcare: challenges and opportunities in nursing wound care.[4]
이 논문은 가정 건강관리 현장에서 AI가 부상 돌봄에 미치는 영향과 그 적용 과정에서 발생하는 윤리적, 실무적 쟁점을 다룹니다. 저자들은 AI 도입이 간호의 효율성과 환자 안전을 어떻게 증진할 수 있는지 분석하였습니다. 또한, 간호사가 직면할 수 있는 기술적 한계, 데이터 보안 문제, 그리고 전문성 유지 필요성을 논의합니다. 윤리적 판단과 임상적 적합성의 균형이 중요함을 강조합니다.
인공지능 기반 외래 진료 일정 관리: 환자와 의료진의 수용성에 대한 심층 탐구
From Digital health: Artificial intelligence machine learning-driven outpatient appointment management: A qualitative study on acceptability.[5]
본 연구는 인공지능과 기계학습이 외래 진료 예약 관리에 적용될 때, 환자와 의료진이 어떠한 수용성을 보이는지 질적 방법을 통해 조사하였습니다. 연구 참여자들은 새로운 기술 도입에 있어 윤리적 고려, 신뢰, 개인정보 보호의 중요성을 강조하였습니다. 아울러, 인공지능 시스템이 환자 편의와 의료 자원 효율성에 긍정적인 영향을 미칠 수 있음을 인식하였습니다.
치의학 학술지에서 인공지능 활용과 인정: 편집 정책의 새로운 방향
From Journal of dentistry: Editorial policies for use and acknowledgment of artificial intelligence in dental journals.[6]
최근 AI가 치의학 연구 및 논문 작성에 널리 사용됨에 따라, 치의학 학술지는 AI 도구의 활용 및 기여에 관한 명확한 편집 정책 수립의 필요성이 대두되고 있습니다. 본 논문은 주요 치의학 학술지들의 AI 관련 정책을 검토하고, 저자들이 AI 사용 사실을 투명하게 공개하고 적합하게 인정하는 방안을 논의합니다. 특히, AI가 연구 윤리와 저자 책임에 미치는 영향에 주목하며, 관련 정책 가이드라인 마련의 중요성을 강조합니다.
의료 분야에서의 ChatGPT 논의: 공공 담론과 학술 담론의 차이점 분석
From JMIR infodemiology: Public Versus Academic Discourse on ChatGPT in Health Care: Mixed Methods Study.[7]
본 연구는 ChatGPT와 같은 인공지능 도구가 의료 분야에서 어떻게 논의되는지 공공 영역과 학계 사이의 차이를 비교 분석하였습니다. 혼합 방법 연구를 통해 사회적 담론과 학술적 논의 모두에서 기대와 우려가 공존함을 확인하였습니다. 특히, 공공 담론에서는 실용성과 사용자 경험이, 학술 담론에서는 윤리와 책임 문제가 더 강조되었습니다.
이번주 소식, 하이라이트
- 인공지능 기술은 폐암 조기 발견과 사망률 감소, 그리고 의료 형평성 향상을 위한 핵심 혁신 수단입니다.
- 의료 인공지능의 책임 있는 도입과 발전은 환자 안전과 윤리 원칙 준수가 필수적임을 강조합니다.
- AI 치료 챗봇의 인간 유사성은 환자의 신뢰와 자율성에 중대한 윤리적 함의를 가집니다.
- 인공지능은 가정 내 상처 간호에 혁신적 기회를 제공하지만, 윤리적 숙고와 신중한 접근이 필수적입니다.
- 인공지능 기반 외래 진료 일정 관리 시스템 도입은 수용성 증진을 위해 윤리적‧사회적 고려가 매우 중요합니다.
- 인공지능 사용에 대한 윤리적 책임과 투명성 확보는 치과학술지 편집 정책의 핵심 과제로 부각되고 있습니다.
- ChatGPT의 의료 활용에 대한 기대와 윤리적 우려가 다양한 담론에서 두드러진다는 점이 강조됩니다.
여러 가지로 바쁘신 와중에 헬스케어 AI 윤리 소식까지, 너무 많은 부담을 안겨 드리는 것은 아닌가 슬슬 걱정이 됩니다만... 빠르게 바뀌는 지반에서 제자리를 유지하려는 몸부림인가, 하는 생각도 드는 요즈음입니다. 아무쪼록 조그마한 도움이라도 되셨으면 하는 마음에서 띄워봅니다.
저희 뉴스레터는 다음주에 새로 모인 소식들로 뵙겠습니다. 그럼, 행복하시길 바라며!
위 요약은 AI로 자동 수집, 요약 후 LLM-as-a-Judge를 통해 평가지표 기반 상위 7개 논문·기사를 선정한 것입니다(사용 모델: GPT-4.1).
Reference
Kuperberg SJ, Christiani DC. Artificial Intelligence‐Based Methods: The Path Forward in Achieving Equity in Lung Cancer Screening and Evaluation. Cancer Innovation. 10.1002/cai2.70019 ↩︎
Pedersen M, Pardoe HR, de Weger A et al.. Toward responsible artificial intelligence in medicine: Reflections from the Australian epilepsy project.. Artificial intelligence in medicine. 10.1016/j.artmed.2025.103192 ↩︎
Sedlakova J. The Ethics of Humanlikeness in AI Therapy Chatbots.. The Hastings Center report. 10.1002/hast.5010 ↩︎
Karnehed S, Larsson I, Petersson L et al.. Navigating artificial intelligence in home healthcare: challenges and opportunities in nursing wound care.. BMC nursing. 10.1186/s12912-025-03348-7 ↩︎
Wood KV, Frings D, Flood C et al.. Artificial intelligence machine learning-driven outpatient appointment management: A qualitative study on acceptability.. Digital health. 10.1177/20552076251321016 ↩︎
Queiroz ABL, Sartori LRM, Lima GDS et al.. Editorial policies for use and acknowledgment of artificial intelligence in dental journals.. Journal of dentistry. 10.1016/j.jdent.2025.105923 ↩︎
Baxter P, Li MH, Wei J et al.. Public Versus Academic Discourse on ChatGPT in Health Care: Mixed Methods Study.. JMIR infodemiology. 10.2196/64509 ↩︎
