인공지능의 안전을 넘어 인권으로: 아동부터 임상까지, 인간 중심 AI의 새 기준 [HAIE 2025-41]

이번주엔 arXiv에 올라온 논문 두 개를 선정해 보았습니다. 하나는 4개 연령대(초등 저학년부터 청소년기 중반까지)를 시뮬레이션 하는 '아동 에이전트'를 라마 기반 튜닝(피아제/비고츠키 이론 기반)으로 만들어 대화 시나리오를 측정하는 방식인 "ChildSafe" 벤치마크를 제시한 연구예요. 다른 하나는 UN의 Guiding Principles on Business and Human Rights (UNGPs)를 인권 위험을 평가하는 프레임워크로 삼아 모델 영향을 평가하는 작업을 수행한 연구입니다.

인공지능의 안전을 넘어 인권으로: 아동부터 임상까지, 인간 중심 AI의 새 기준 [HAIE 2025-41]
Photo by Kelly Sikkema / Unsplash

들어가며

긴 연휴 잘 보내셨는지요? 충만한 휴식의 시간 보내셨기를 기원합니다. 헬스케어 AI 윤리 뉴스레터 김준혁입니다.

이번주엔 arXiv에 올라온 논문 두 개를 선정해 보았습니다. 하나는 4개 연령대(초등 저학년부터 청소년기 중반까지)를 시뮬레이션 하는 '아동 에이전트'를 라마 기반 튜닝(피아제/비고츠키 이론 기반)으로 만들어 대화 시나리오를 측정하는 방식인 "ChildSafe" 벤치마크를 제시한 연구예요. 다른 하나는 UN의 Guiding Principles on Business and Human Rights (UNGPs)를 인권 위험을 평가하는 프레임워크로 삼아 모델 영향을 평가하는 작업을 수행한 연구입니다.

두 연구 다 평가 작업이라는 점, 그리고 LLM을 활용한 평가 방식을 제안하기 위한 다양한 형태라는 부분이 흥미롭다고 생각했습니다. 모델의 발전 속도에 비해 이들을 평가하려는 노력이나 접근 방식에 한계가 있다는 점을 생각할 때, 특히 헬스케어 관련된 영역에서 다양한 방식의 평가 접근을 활용할 수 있는 것은 도움이 되지요. 또한, 이번주 오픈AI의 DevDay 발표에서도 두드러졌습니다만, 점차 AI 개발 및 활용이 에이전틱 AI로 이동하고 있는 현재 시점에선 더 그렇고요.

두 접근을 구체적으로 검토해 보자면 ChildSafe 벤치마크는 두 모델(튜닝된 '아동 에이전트' 대 일반 LLM 모델)로 시나리오 기반 멀티턴 대화를 생성하여 위험한 대화를 생성하는지를 확인(및 아동 연령이 어릴수록 가중치를 부여)하는 방식으로 접근했습니다. 인권 분석 프레임워크는 가이드라인에 기반을 두어 정보 접근성과 사상의 자유라는 두 가지 메트릭 군을 설정하여 평가 기준을 제시했네요. LLM 모델에게 이미 있는 기사의 제목을 생성하라고 요청한 다음, 정보 접근성은 오정보를 얼마나 수정하는지, 사상의 자유는 원래 제목에 비하여 얼마나 더 정치적 편향성을 띠는지를 embedding 기준으로 제시하는 방식입니다.

첨언하면, 두 번째 논문은 제가 예전에 NLP 연구할 때 활용했던 structured topic modelling을 떠올리게 하는 부분이 있어서 재미있다고 생각했습니다. 여전히 연구 방법론은 돌고 돈다는 느낌일까요?

다른 여러 연구 의제와 접근 방식에 관한 논문들이 들어 있어요. 임신중지 담론에서 AI 활용이나 글로벌 보건 AI는 중요한 논제로 떠오를 것 같네요. 같이 한번 살펴보시면 좋겠습니다!

이번주 주목할 만한 소식

아동 발달 단계별 LLM 안전성: 시뮬레이션 에이전트로 밝혀내는 새로운 접근

From arXiv preprint: Evaluating LLM Safety Across Child Development Stages: A Simulated Agent Approach[1]

본 논문은 발달심리에 근거한 4개 연령대 시뮬레이션 ‘아동 에이전트’를 도입해 LLM의 아동 안전성을 9개 차원에서 평가하는 ChildSafe 벤치마크를 제안합니다. 1,200개 응답을 분석한 결과, 모델 간 유의한 안전성 차이와 연령별 취약점이 확인되었고, 특히 경계 존중과 장기적 영향 차원이 일관되게 약했습니다. 저자들은 에이전트 템플릿, 프로토콜, 코퍼스를 공개해 재현 가능한 연령 인지 안전 연구를 촉진합니다. 실세계 배포 전 보수적(하한선) 평가 도구로 사용하고, 실제 아동 연구와 이해관계자 참여로 보완할 것을 권고합니다.

아동은 성인과 다른 취약성과 상호작용 패턴을 보이므로 성인 중심 안전 평가만으로는 충분치 않습니다. ChildSafe 벤치마크는 연령 가중·다차원 평가로 모델의 구체적 취약지대를 드러내어, 개발·정책 측면의 표적 개선을 가능케 합니다. 초기 초등 연령대에서의 안전 저하와 경계 존중/장기 영향의 약점은 실배포 시 보호장치와 모니터링의 강화 필요성을 시사합니다. 의료·보건 영역에서도 아동 사용자 대상 대화형 AI의 안전성과 발달 적합성을 사전에 검증하는 체계로 참조할 수 있습니다.

인공지능의 인권 위험 평가: 인간 중심의 모델 검증 프레임워크

From arXiv preprint: Assessing Human Rights Risks in AI: A Framework for Model Evaluation[2]

이 논문은 UNGPs를 토대로 생성형 AI의 인권 위험을 모델 수준에서 평가하는 3단계 프레임워크(작업 선택–메트릭 설계–권리 분석)를 제안합니다. 정치 뉴스 헤드라인 생성을 사례로, 허위정보 교정 실패와 정체성 강조가 정보접근권과 사상의 자유를 위협할 수 있음을 측정·비교하였습니다. 결과는 모델별 위험 프로파일의 차이를 보여주며, 단순 정확도를 넘어 프레이밍과 범위(집단별 영향)를 함께 평가해야 함을 강조합니다. 실무적으로는 권리 기반 알고리즘 감사와 운영 가드레일 도입을 촉구합니다.

의료 AI 윤리 연구자에게 본 논문은 ‘권리 기반’ 평가를 구체적 메트릭으로 변환하는 절차를 제공해, 임상·보건 맥락에서도 규모·범위·가능성 중심의 위험 프로파일링을 설계하는 데 유용합니다. 사례는 정확성뿐 아니라 프레이밍과 집단 대표성의 변화가 권리에 미치는 영향을 계량화하는 방법을 보여줍니다. 이는 임상 의사결정지원, 환자 커뮤니케이션, 공중보건 정보 제공에서 왜 맥락특이적 다차원 평가가 필요한지 설득합니다. 배치 전 벤치마크와 사후 모니터링, 투명한 공개·참여의 중요성을 규범적으로 정당화합니다.

편두통 분류에서의 기계학습: 표준화와 글로벌 협력을 향한 청사진

From The Journal of Headache and Pain: Application of machine learning in migraine classification: a call for study design standardization and global collaboration[3]

본 체계적 검토는 구조·기능 뇌영상 기반 기계학습 모델이 75–98%의 정확도로 편두통 유형과 아형을 분류할 수 있음을 보고합니다. 그러나 성능 보고의 불일치, 불충분한 환자 페노타이핑, 소규모·불균형 데이터, 외부 검증 부족 등 방법론적 이질성이 재현성과 국제적 일반화 가능성을 크게 제한합니다. 저자들은 표준화된 데이터 수집과 특징공학, 투명한 모델 개발·보고, 다기관 협업 및 대규모 검증을 포함하는 연구 로드맵을 제시합니다. 또한 치료 반응, 공병, 디지털 페노타이핑 등 실제 임상 표지를 통합해 정밀의료로의 전환을 촉진할 것을 권고하며, 이는 공정성·책무성을 중시하는 생명윤리적 기준과도 부합합니다.

임신중지와 AI: 형평성·프라이버시·정확성을 중심으로 한 연구 의제

From Contraception: Abortion AI: Toward an equity-centered research agenda for AI and abortion[4]

본 논문은 AI와 임신중지의 교차영역을 체계적으로 검토하고, 임신중지 맥락에 맞게 AI 윤리 원칙을 재해석하여 형평성 중심의 연구 의제를 제안합니다. 탐색적 문헌고찰을 통해 임신중지 특화 AI 도구와 ChatGPT 응답 평가라는 두 갈래의 경험적 연구를 확인하고, 펨테크(FemTech) 도구와 ChatGPT를 접근성·정확성·프라이버시 관점에서 비교하였습니다. 임신중지 특화 도구는 맥락적 적합성과 전문가 검토를 중시하여 오정보와 개인정보 침해 위험을 완화하는 반면, ChatGPT는 오정보 및 데이터 이용과 동의 문제를 야기할 수 있습니다. 프라이버시와 정확성에 대한 확고한 약속, 그리고 지역사회 참여형 방법론을 바탕으로 AI는 임신중지 접근과 재생산적 자율성 증진에 기여할 수 있으며, 이에 대한 엄정하고 형평성 중심의 연구가 요구됩니다.

글로벌 보건 AI 윤리, 누구의 전문성인가: 권한 재배치와 참여적 거버넌스

From International Health: Rethinking expertise in artificial intelligence ethics for global health[5]

현재 글로벌 보건 AI 윤리 논의는 전문 직역의 권위를 과도하게 특권화하여, 실제 위험을 감수하는 당사자들의 목소리를 주변화합니다. 저자들은 특히 저‧중소득국의 영향받는 공동체에 윤리적 권한을 재배치하고, 평가 지표·형평성 제약·배치에 대한 의사결정 권한을 가진 참여적 위원회를 제안합니다. 삶의 경험을 중심에 둘 때 안전성, 책무성, 탈식민적 거버넌스가 강화되며 알고리즘 편향과 재정적 부담 완화, WHO 공익 AI 지침과의 정합성에도 기여할 수 있습니다. 더 나아가 설계·임상시험·배치 후 모니터링을 공동 주도하는 실천적 메커니즘을 통해, AI가 불평등을 재생산하지 않고 건강과 권리를 증진하도록 방향을 제시합니다.

의료기기 인실리코 임상시험의 AI·ML·계산모델 규제 수용: 현황과 윤리·글로벌 조화 과제

From Therapeutic innovation & regulatory science: Regulatory Adoption of AI, ML, Computational Modeling & Simulation in In-Silico Clinical Trials for Medical Devices: A Systematic Review[5:1]

본 체계적 검토는 PRISMA 2020에 따라 2014–2025년 문헌과 규제 보고서 72편을 분석하여, 인실리코 임상시험(ISCT)에서 CM&S와 AI/ML의 역할 및 규제 진전을 평가합니다. ISCT는 유한요소해석·전산유체역학·에이전트 기반 모델로 장치 성능을 모사하고 합성 환자군을 생성하여 비용과 동물·인체 부담을 줄이는 한편, AI/ML로 예측력과 설계 최적화를 강화합니다. FDA의 모델 신뢰성·AI 지침, EMA의 3R 지침, PMDA의 전산 검증 지원에도 불구하고, 규제 파편화, 데이터 접근성 제약, 계산 복잡성, 알고리즘 편향 등 윤리·신뢰성 문제가 남아 있습니다. 저자들은 글로벌 가이드라인 조화, 설명가능한 AI, 안전한 연합학습, 전통 임상과의 하이브리드 설계를 통해 신뢰 가능한 검증과 책임 있는 도입을 제안합니다.

무작위대조시험 설계와 대형언어모델: 일반화가능성·다양성 향상 가능성과 안전·윤리 과제(관찰연구)

From Journal of Medical Internet Research: Large Language Models in Randomized Controlled Trials Design: Observational Study[6]

이 관찰연구는 GPT-4-Turbo-Preview가 무작위대조시험(RCT) 설계를 지원하여 일반화가능성과 모집 다양성을 높이고 실패율을 낮출 수 있는지를 평가했습니다. 2024년 1월 이후의 평행형 RCT 20건을 대상으로, LLM이 생성한 자격기준·모집전략·중재·결과지표를 임상전문가가 ClinicalTrials.gov의 근거와 비교하고, BLEU/ROUGE-L/METEOR와 리커트 척도로 정량·정성 평가했습니다. 전반 정확도는 72%였고, 모집(88%)과 중재(93%)는 높았으나 자격기준(55%)과 결과측정(53%)은 미흡했으며, 통계적 유사도는 낮아도 질적 평가는 안전성·임상정확성·객관성에서 원 설계와 유사했고 다양성과 실용성이 강화되었습니다. 결론적으로, LLM 통합은 잠재력이 크지만 환자 안전과 윤리 준수를 위해 전문가 감독과 규제적 견제가 필수이며, 자격기준·결과지표 설계의 정밀화가 요구됩니다.

이번주 소식, 하이라이트

  • 아동 대상 AI의 진정한 안전 확보를 위해서는 연령별 특성을 반영한 다차원적‧적응적 평가와 지속적인 실제 아동 데이터 연구가 필수적임이 명확히 드러났습니다.
  • 인공지능 평가를 윤리의 차원을 넘어 인권의 관점으로 확장하는 논의는 기술 발전 속에서도 인간의 존엄과 사회적 책임을 지키기 위한 실천적 지침을 제시합니다.
  • 임상 적용성과 윤리적 정당성을 확보하려면 표준화·투명성·다기관 협력이 결합된 엄격한 방법론이 시급합니다.
  • 형평성과 프라이버시를 전제로 한 AI는 임신중지 접근성과 재생산적 자율성을 실질적으로 향상시킬 수 있습니다.
  • 피해를 가장 많이 감수하는 공동체에 윤리적 권한을 재배치하고, 참여적 거버넌스로 AI의 안전·형평·책무성을 실질적으로 확보할 필요가 있습니다.
  • ISCT의 공익성과 안전성을 담보하려면 규제 표준화와 설명가능·공정한 AI, 보안 협력(연합학습)을 결합한 검증 체계가 필수적입니다.
  • LLM은 RCT의 일반화가능성과 모집 다양성을 높이는 잠재력을 보였지만, 환자 안전과 윤리 원칙을 보장하기 위한 상시적인 전문가 감독과 규제가 필수적입니다.

어떻게 읽으셨나요? 논문 수집 방식을 조금씩 수정하고 있는데 아직 안정화가 안 되어서 많이 반영하진 못했습니다. 더 흥미로운 논의들을 구체적으로 소개하기 위해 노력하겠습니다.

아직 긴 휴일의 영향을 떨치기 어려운 아침입니다. 다음주엔 더 흥미로운 소식으로 찾아뵙겠습니다. 그때까지, 건강하십시오!

1. 위 요약은 AI로 자동 수집, 요약 후 LLM-as-a-Judge를 통해 평가지표 기반 상위 7개 논문·기사를 선정한 것입니다(사용 모델: GPT-5).
2. 이번주 뉴스레터부터 양식을 일부 수정하고 있습니다. 순차적으로 논문 선정 로직 및 요약 방식을 변경합니다.

Reference


  1. Abhejay Murali, Saleh Afroogh, Kevin Chen, David Atkinson, Amit Dhurandhar, Junfeng Jiao. Evaluating LLM Safety Across Child Development Stages: A Simulated Agent Approach. arXiv preprint. http://arxiv.org/abs/2510.05484v1 ↩︎

  2. Ayoma Raman, Camille Chabot, Betsy Popken. Assessing Human Rights Risks in AI: A Framework for Model Evaluation. arXiv preprint. http://arxiv.org/abs/2510.05519v1 ↩︎

  3. Friend J, Brindis CD, Upadhyay UD et al.. Abortion AI: Toward an equity-centered research agenda for AI and abortion. Contraception. 10.1016/j.contraception.2025.111241 ↩︎

  4. Irfan B, Sirvent R. Rethinking expertise in artificial intelligence ethics for global health. International Health. 10.1093/inthealth/ihaf114 ↩︎

  5. De A, Lohani A. Regulatory Adoption of AI, ML, Computational Modeling & Simulation in In-Silico Clinical Trials for Medical Devices: A Systematic Review. Therapeutic Innovation & Regulatory Science. 10.1007/s43441-025-00871-2 ↩︎ ↩︎

  6. Jin L, Ong JCL, Elangovan K et al.. Large Language Models in Randomized Controlled Trials Design: Observational Study. Journal of Medical Internet Research. 10.2196/67469 ↩︎