과학자들은 헬스케어 분야의 AI가 인종 및 소득 격차를 악화시킬 수 있다고 경고하고 있다.

과학자들은 AI가 헬스케어 분야에서 인종 및 소득 격차를 악화시킬 수 있다고 경고하고 있다.

과학자들은 ChatGPT와 같은 AI 모델을 의료 분야에서 사용하는 것이 불평등을 악화시킬 것이라 우려하고 있습니다.

케임브리지 대학교와 레스터 대학교의 전염병학자들은 대형 언어 모델 (LLM)이 인종 소수자와 저소득 국가들에 대한 불평등을 굳힐 수 있다고 경고하고 있습니다.

그들의 우려는 체계적인 데이터 편향에서 비롯됩니다. 의료 분야에서 사용되는 AI 모델은 웹사이트와 과학 문헌에서 얻은 정보를 기반으로 훈련됩니다. 하지만 증거는 이러한 출처에서 종종 인종 데이터가 누락되는 것을 보여줍니다.

결과적으로, AI 도구는 소수 그룹에 대해서는 정확도가 낮을 수 있습니다. 이는 비효과적인 약물 권고나 인종 차별적인 의료 조언으로 이어질 수 있습니다.

연구자들은 “다양한 질병 그룹에서 인종 소수자 출신의 차별적인 위험이 연결되어 있음이 널리 인정되고 있습니다,”라고 연구 논문에서 언급하고 있습니다.

“출판된 문헌이 이미 편향과 덜 정밀성을 포함하고 있다면, 미래의 AI 모델은 이러한 편향을 유지하고 더 악화시킬 것입니다.”

과학자들은 또한 저소득 및 중간 소득 국가들에 대한 위협에 대해 우려하고 있습니다. AI 모델은 주로 부유한 국가에서 개발되며, 의료 연구에 대한 자금도 주로 이러한 국가들이 지배합니다.

결과적으로, 저소득 및 중간 소득 국가들은 의료 훈련 데이터에서 “극히 소수”로 표현됩니다. 이로 인해 이러한 국가의 사람들에게 AI 도구가 잘못된 조언을 제공할 수 있습니다.

이러한 우려에도 불구하고, 연구자들은 AI가 의학에 가져다 줄 혜택을 인정하고 있습니다. 위험을 완화하기 위해, 그들은 몇 가지 조치를 제안하고 있습니다.

먼저, 모델은 개발에 사용된 데이터를 명확하게 설명해야 합니다. 또한 보다 공정한 연구를 위해 건강 불평등 문제에 대한 추가적인 연구와 함께 인종 정보의 더 나은 모집과 기록을 요구합니다.

훈련 데이터는 적절하게 대표적이어야 하며, 사회적 약자 그룹을 위한 AI 사용에 대한 더 많은 연구가 필요합니다. 이러한 개입들은 연구자들에 따르면 공정하고 포용적인 의료를 촉진할 것입니다.

“진행의 흐름을 저지하거나 막을 수 없으므로 우리는 주의를 기울여야 합니다,”라고 레스터 대학교의 모하마드 알리 박사가 말했습니다.