[HAIE 2025-39] 헬스케어 AI 윤리 뉴스레터

스타트업 아키도랩스가 만든 ScopeAI는 의료인-환자 대화를 전사한 자료를 바탕으로 예비 진단 및 치료 계획을 구성하는 것을 골자로 한다고 해요. AI가 진단 및 계획 초안을 만들면 의사가 승인하는 방식입니다. 같은 스타트업이 운영하는 아키도는 이미 AI 기반 클리닉을 열었고, 심장내과, 내분비내과, 가정의학 진료를 AI를 활용해 운영하는 한편, 이동의학 팀을 꾸려서 로스앤젤레스의 홈리스를 대상으로 한 치료에 적용하고 있다고 합니다.

[HAIE 2025-39] 헬스케어 AI 윤리 뉴스레터
Photo by Kristina Skoreva / Unsplash

들어가며

그야말로 환절기 중간이네요. 날씨가 참 좋습니다. 한주 어떻게 지내셨는지요. 헬스케어 AI 윤리 뉴스레터 김준혁입니다.

이번주에 집중하여 살피려는 소식은 두 가지입니다. 임상 대화 전사, 분석을 통한 진단 및 치료계획을 제공하는 AI, "ScopeAI"의 활용 소식과 건강데이터 관리에 관한 연구입니다.

스타트업 아키도랩스가 만든 ScopeAI는 의료인-환자 대화를 전사한 자료를 바탕으로 예비 진단 및 치료 계획을 구성하는 것을 골자로 한다고 해요. AI가 진단 및 계획 초안을 만들면 의사가 승인하는 방식입니다. 같은 스타트업이 운영하는 아키도는 이미 AI 기반 클리닉을 열었고, 심장내과, 내분비내과, 가정의학 진료를 AI를 활용해 운영하는 한편, 이동의학 팀을 꾸려서 로스앤젤레스의 홈리스를 대상으로 한 치료에 적용하고 있다고 합니다.

이들은 엄청난 접근성 향상을 이루어낼 수 있다고 말하고, 의료 혜택을 누리기 어려운 저소득층 시민들이 AI를 통해 빠르게 진단과 처방을 받을 수 있는 것이 모두에게 큰 이득으로 돌아올 것이라고 말하고 있어요. 캘리포니아주법은 의사가 중간 과정에서 AI기반 도구를 활용해도 된다고 규정하고 있기 때문에, 일단 아키도랩스의 시도는 위법한 것은 아니예요(물론, FDA 승인을 받지는 않은 것 같습니다만, 승인 대상이라고 보고 있지는 않은 것 같네요).

물론 이런 형식의 AI 기반 의료는 의료 접근성만 해결하면 된다는 가정에선 좋은 방식일 수 있어요. 그러나, 대놓고 의료 격차를 만들어낸다는 점에서 수용 가능한 방식인지는 의문입니다. 또한, 로컬 모델(라마)과 사영 모델(클로드)을 혼합해서 서비스를 제공하고 있다고 하는데, 아마로 전사 및 개체명 파악에는 라마를 쓰고 진단 알고리듬에는 클로드를 써서 보안과 신뢰성을 모두 확보하는 전략을 택한 것 같아요. 하지만, 이렇게 접근한다고 해도 프라이버시 문제가 완전히 해결되었다고 볼 수 없지요. 또한, 의사의 최종 승인에 기대고 있지만 안전성을 확보하기 위한 절차적 보완이 어떻게 사내적으로 진행되고 있는지도 궁금합니다.

한편, 데이터 활용 관련해서 살펴볼 만한 논문이 두 편 개제되었네요. 하나는 임상 자유텍스트, 즉 병원 차트에서 구조화되지 않은 채로 기록된 수많은 의료인들의 기록을 가명처리 후 안전한 환경에서 활용하면 재식별 위험은 매우 낮으며 따라서 연구 등에 사용하는 것이 가능하다는 주장을 담고 있습니다. 다른 하나는 심혈관 영상(image & radiology)에서 데이터 활용을 위한 접근을 검토한 논문이에요. 영상 데이터의 안전한 활용을 위한 거버넌스를 강조했네요.

두 연구의 강조점은 동일하다고 생각해요. 이전에 저도 다른 자리에서 계속 검토해 왔지만, 건강데이터의 활용은 분명한 거버넌스("안전한 환경", "투명한 데이터 관리")적 접근에서 가능하다는 것이죠. 저도 연구나 공적 발언 등을 통해 국가 및 기업 차원에서 거버넌스 구축의 필요성과 절차를 제안, 지원하고 있는데요. 그냥 "쓰기 어렵다"라고 말하기 전에 활용 환경을 구축하기 위한 논의에 함께 해 주셨으면 하는 바램을 늘 품게 됩니다.

갑자기 제 주장을 끼워 넣었네요. 다른 흥미로운 내용들도 담겨 있으니 이번주 소식 같이 살펴보시죠!

이번주 주목할 만한 소식

LLM이 진료와 진단을 맡는 시대: 한 의료 스타트업의 실험과 윤리적 과제

From MIT Technology Review: This medical startup uses LLMs to run appointments and make diagnoses[1]

서던캘리포니아 일부 클리닉에서 에이키도랩스(Akido Labs)의 ScopeAI는 의료보조원과 환자의 대화를 전사·분석해 예비 진단과 치료 계획을 제시하고, 의사가 사후 승인합니다. 이 접근법은 단기간 내 전문의 진료 접근성을 높여 특히 메디케이드 환자에게 혜택을 제공합니다. 그러나 환자가 AI 개입의 범위와 영향력을 충분히 인지하지 못할 수 있어 투명성과 동의 문제가 제기됩니다. 생산성 향상과 환자 보호 사이의 균형 설정이 핵심 과제로 부상합니다.

ScopeAI는 라마와 클로드 기반 LLM 모듈로 병력 청취, 감별진단, 권고 작성 등 진료의 인지적 과업을 수행하고, 의사는 결과를 비동기로 검토·수정합니다. 회사는 의사 생산성 4~5배 향상과 거리의료에서의 신속한 치료 접근 개선을 주장하지만, 자동화 편향과 전문성 격차, 보험 규정 차이에 따른 형평성 악화 우려가 큽니다. FDA 승인 요건과 의료면허 범위 등 규제 적합성은 해석의 여지가 있으며, 환자에게 AI의 진단 권고 기능을 충분히 고지하지 않는 관행은 정당성에 의문을 낳습니다. 내부 벤치마킹과 교육 등 편향 완화책에도 불구하고, 전통적 진료와의 임상 성과를 직접 비교하는 엄격한 평가가 아직 부족합니다.

비식별화된 임상 자유텍스트의 연구 이용에서 환자 재식별 위험: 왜 필요하며, 어떻게 평가하고 관리할 것인가

From AI and Ethics: What is the patient re-identification risk from using de-identified clinical free text data for health research?[2]

본 논문은 임상 기록의 자유텍스트가 연구·혁신에 갖는 가치와 접근 필요성을 개관하고, 자동 비식별화의 성능과 모범사례를 검토합니다. 과거의 재식별 시도와 성공률, 영국의 Five Safes 등 안전한 데이터 환경과 추가 보호조치, 잠재적 환자 피해 및 대중의 인식을 종합적으로 평가하여, 재식별 위험을 개념화·정량화하는 분석 모델을 제시합니다. 영국의 거버넌스 사례를 통해, 비식별화된 자유텍스트가 안전한 보안 환경에 보관·사용될 때 재식별 위험은 매우 낮으며, 공익적 연구 확대를 위한 책임 있는 데이터 접근을 권고합니다.

심혈관 영상·영상의학에서 AI의 환자 프라이버시와 데이터 거버넌스: 윤리적 쟁점과 해법

From Journal of Imaging Informatics in Medicine: Ethical Considerations in Patient Privacy and Data Handling for AI in Cardiovascular Imaging and Radiology[3]

본 내러티브 리뷰는 심혈관 영상에서 AI가 진단 정밀도와 업무 효율, 개인맞춤 치료를 향상시킬 잠재력과 함께, 환자 프라이버시·데이터 처리·동의·데이터 소유권에서 제기되는 윤리적 과제를 종합적으로 검토합니다. 데이터 활용성과 보호 사이의 긴장, 투명성과 설명가능성의 요구, EU·미국·중국 등 관할권 간 규범의 이질성을 분석하고, 클라우드 의존, 적대적 공격, 상업용 데이터셋 사용이 초래하는 취약성을 지적합니다. 연합학습, 블록체인, 차등프라이버시 등 완화 전략과 윤리·규제 프레임워크를 비교하며, 임상의·개발자·기관·정책결정자 간의 공동 책무를 강조합니다. 궁극적으로 환자 신뢰, 공정성, 형평성을 최우선으로 하는 강건한 거버넌스와 투명한 데이터 관리가 책임 있는 AI 도입의 기반임을 제언합니다.

WHO·GDPR의 한계를 넘어: 공중보건을 위한 인간 중심 AI 거버넌스의 적응형 국제 공법 프레임워크

From The Journal of Law, Medicine & Ethics : A Journal of the American Society of Law, Medicine & Ethics: Human-Centric AI Governance: An Adaptive Public International Law Framework for Ethical and Inclusive AI Regulation in Public Health[4]

본 연구는 법학적 교의 분석, 공중보건 윤리, AI 거버넌스, 국제법 문헌 주제문헌고찰을 결합하여 윤리적 책무성, 규제의 적응성, 투명성의 세 축을 평가하고 조작화합니다. 조약·지역 규제·정책 프레임워크를 검토해 관할권 간 공백을 지도화하고, WHO의 집행력 한계와 GDPR의 경직적 데이터 공유 규정을 보완하는 적응형 공법 프레임워크를 제안합니다. 제안된 틀은 지역 특화·확장 가능한 규제와 모듈형 설계, 책임 메커니즘을 통해 상호운용성을 높이되 각 지역의 거버넌스 요구를 존중합니다. 사례연구와 글로벌 모범사례의 주제적 종합에 근거하여, 정책결정자와 실무자에게 AI 혁신과 윤리적 요구의 균형을 도모하며 공중보건의 형평을 증진하는 구조적이면서도 유연한 실행 경로를 제공합니다.

알고리즘을 넘어: 포용적 AI로 뇌 건강의 반인종주의를 구현하다

From Clinical and Translational Science: Racing Against the Algorithm: Leveraging Inclusive AI as an Antiracist Tool for Brain Health[5]

의학, 특히 신경과와 정신건강 분야에서 AI는 빠르게 확산되고 있습니다. 그러나 형평성 중심 설계가 부재하면 AI는 구조적 인종주의를 재생산할 위험이 큽니다. 본 논문은 알고리즘 편향과 표현형 배제가 소외 집단의 뇌 건강에 미치는 불균형적 영향을 검토하고, 포용성·투명성·책무성에 기반한 다섯 가지 설계 원칙을 제안합니다. 정의를 지향하는 AI 재구상을 통해 번역과학을 모든 인구집단에 봉사하도록 재정렬할 수 있음을 주장합니다.

사람을 위한 헬스테크 HT4P: 건강정의를 위한 AI 윤리와 인간중심 설계의 초학제 혁신

From Nursing Outlook: Health Tech for the People (HT4P): A transdisciplinary research initiative focused on artificial intelligence tech ethics and design for health justice[6]

AI와 머신러닝이 간호와 보건의료 전반에 급속히 확산되며, 이에 상응하는 윤리와 연구 인프라가 시급합니다. HT4P는 책임성 있는 인간중심 AI 설계를 위해 비판적 기술윤리를 구축하고자 출범했으며, 데이터 페미니즘과 디자인 정의를 토대로 생식건강과 고령화 기술을 우선했습니다. 첫 해에 윤리 펠로우십, 5회의 초학제 심포지엄·워크숍, 지역사회 파트너십과 주민 주도 기술윤리 세미나를 운영하고 다수의 과제를 진행했습니다. 간호 전문가는 권력 재분배, 보이지 않는 노동·자원의 인정, 장기적 불의의 복원을 통해 가치가 작동하는 기술윤리를 발전시켜 보다 공정하고 세심한 기술 미래를 모색해야 합니다.

AI가 설계한 바이러스를 ‘프린팅’해 실제 증식: 윤리와 안전에 대한 중대한 신호

From Futurism: Scientists Printed Viruses Designed by AI and They’re Successfully Reproducing[7]

인공지능이 제안한 바이러스 서열을 토대로 실험실에서 합성한 결과, 통제된 환경에서 복제가 확인되었습니다. 이번 연구는 백신·치료제 개발 등 공익적 응용 가능성을 시사하는 한편, 이중용도 위험과 생물안전·보안의 공백을 환기합니다. 심의·감독의 적정성, 위험-편익 평가의 투명성, 사회적 책임의 배분이 핵심 쟁점으로 제기됩니다. 국제적 규범 정비와 절차적 책임성 강화의 필요성이 강조됩니다.

연구는 AI 기반 설계가 실제로 복제 능력을 지닌 바이러스성 구성체로 구현될 수 있음을 보여주며, 합성생물학의 속도와 범위를 크게 확장시킬 잠재력을 드러냈습니다. 동시에 접근성 확대는 오남용과 사고 위험을 높일 수 있어, 연구 단계 전반에 걸친 다층적 안전·보안 거버넌스가 요구됩니다. 데이터 공개 범위의 신중한 설정, 위험-편익의 비례성 판단, 공적 감독과 사회적 참여가 정책 설계에서 핵심이 됩니다. 혁신을 촉진하되 공중보건과 인권을 우선하는 책임 있는 연구 문화가 필수적입니다.

이번주 소식, 하이라이트

  • 접근성 향상을 내세운 AI 주도 진료는, 충분한 고지와 동의, 편향 관리, 형평성 및 임상효과 검증이 선행될 때에만 정당화될 수 있습니다.
  • 안전한 데이터 환경에서 비식별화된 임상 자유텍스트의 환자 재식별 위험은 매우 낮은 것으로 분석되었습니다.
  • 환자 신뢰와 형평성을 중심에 둔 투명한 데이터 거버넌스가 AI 의료 영상의 윤리적 구현을 좌우합니다.
  • 윤리적 책무성·적응형 규제·투명성을 통합한 인간 중심 국제 공법 프레임워크는 공중보건에서 AI 혁신과 형평의 균형을 현실화할 수 있습니다.
  • 형평성 중심의 포용적 AI는 뇌건강 분야에서 인종적 불평등을 줄이고 중개과학의 정당성을 강화하는 핵심 윤리적 수단입니다.
  • 데이터 페미니즘과 설계적 정의에 뿌리내린 HT4P는, 간호와 보건의료의 AI 도입을 건강정의로 이끌기 위해 권력의 재분배와 보이지 않는 노동의 인정, 역사적 불의의 복원을 윤리적 실천으로 제안합니다.
  • AI 설계 바이러스의 실험실 복제 성공은 과학적 진전이지만, 이중 활용 위험에 대비한 강력한 국제 거버넌스의 시급성을 분명히 합니다.

어떻게 보셨나요? 마지막 AI 설계 바이러스 내용은 중요한 이슈로 보이지만, 아직 조금 빠른 논의로 보여서 일단 뒤로 빼놓았어요. 저도 윤리나 제도적 측면에서 더 살펴보아야 할 것 같아요.

다음주, 긴 연휴의 시작입니다. 어떻게 준비하고 계신지요? 다음주 소식과 함께 다시 찾아뵙겠습니다. 건강하십시오!

위 요약은 AI로 자동 수집, 요약 후 LLM-as-a-Judge를 통해 평가지표 기반 상위 7개 논문·기사를 선정한 것입니다(사용 모델: GPT-4.1 and GPT-5).

Reference


  1. Grace Huckins. This medical startup uses LLMs to run appointments and make diagnoses. MIT Technology Review. https://www.technologyreview.com/2025/09/22/1123873/medical-diagnosis-llm/ ↩︎

  2. Ford E, Pillinger S, Stewart R et al.. What is the patient re-identification risk from using de-identified clinical free text data for health research?. AI and Ethics. 10.1007/s43681-025-00681-0 ↩︎

  3. Mehrtabar S, Marey A, Desai A et al.. Ethical Considerations in Patient Privacy and Data Handling for AI in Cardiovascular Imaging and Radiology.. Journal of Imaging Informatics in Medicine. 10.1007/s10278-025-01656-7 ↩︎

  4. Sedeeq FS, Arman P. Human-Centric AI Governance: An Adaptive Public International Law Framework for Ethical and Inclusive AI Regulation in Public Health.. The Journal of Law, Medicine & Ethics : A Journal of the American Society of Law, Medicine & Ethics. 10.1017/jme.2025.10175 ↩︎

  5. Ekuta V. Racing Against the Algorithm: Leveraging Inclusive AI as an Antiracist Tool for Brain Health. Clinical and Translational Science. 10.1111/cts.70364 ↩︎

  6. Walker RR, Dillard-Wright J, Karkar R et al.. Health Tech for the People (HT4P): A transdisciplinary research initiative focused on artificial intelligence tech ethics and design for health justice.. Nursing Outlook. 10.1016/j.outlook.2025.102546 ↩︎

  7. Frank Landymore. Scientists Printed Viruses Designed by AI and They’re Successfully Reproducing. Futurism. https://futurism.com/health-medicine/ai-designed-virus-printed ↩︎