챗지피티 헬스, 의료 응급 51.6 놓쳐…안전 우려
반갑습니다. 오늘은 AI 기술이 의료 분야에서 어떻게 활용되고 있지만, 그 이면에 숨겨진 위험성에 대해 꼼꼼히 살펴보려 합니다. 우리는 매일 같은 시간, 똑같은 장소에서 업무를 보며 AI 도구를 활용해 효율성을 높이는 삶을 살고 있지만, 그 기술이 모든 분야에서 완벽하게 신뢰할 수 있는지라는 물음에 대한 답이 나오지는 않았습니다. 특히 의료 분야에서의 AI 활용은 최근 각광받고 있습니다 오픈엘 OpenAI 이 선보인 챗지피티 헬스 ChatGPT Health 는 전문 의료 지식으로 구성된 모델로 사용됩니다. 사용자에게 건강 관련 문의에 도움을 준다는 목표 아래 출시되었습니다. 그러나 이제 그것이 얼마나 위험할 수 있는지에 대한 연구 결과가 발표되었습니다. PC 월드와 더 가디언의 보도에 따르면 네이처 메디신 Nature Medicine 에 게재된 새로운 연구에 따르면 챗지피티 헬스는 생명으로 이어질 수 있는 급격히 악화되는 증상을 정확히 파악하지 못했습니다. 환자의 응급실 이송을 요구했지만 홈케어만 받을 것을 권고한 경우가 50 위 이상이나 되었습니다. 이는 단순한 오차가 아닙니다. 연구팀인 드래고 아신인 라마스와리 박사와 동료들은 실제 환자의 임상 지침에 기반한 60 가지의 현실적인 환자 시나리오를 만들었으며, 이들은 독립적인 의사와 함께 검토받았습니다. 결과적으로 병원에 가야 할 상황인 환자 중 51.6% 의 경우 오히려 집에 머물도록 하거나 비응급 진료 예약을 받을지라는 조언을 받았습니다. 이는 환자가 숨이 막히는 상황에서 미래의 진료를 권유해 숨 막혀 죽을 확률이 50% 일 수 있다는 연구팀의 말을 빌려 설명할 수 없을 정도로 끔찍한 결과입니다. 더 구체적인 예를 들어보자면 호흡 부전이나 당뇨병성 케톤산증을 겪고 있는 상황에서도 이 AI 가 큰일 아니라고 판단한 경우가 50% 가 가까웠습니다. 연구원 알렉스 루아니 박사는 10 회 중 8 회는 숨 고르는 여성에게 진술을 늦게 받아야 할 미래를 약속했습니다. 이는 단순히 AI 의 오류를 넘어서 생명이 위협받는 순간이 AI 의 판단에 의해 지연되는 치명적인 문제로 이어졌음을 시사합니다. 반면에 실제로 안전했던 사람 중 64.8% 는 즉시 의료 조치를 받도록 잘못 안내받았으며 이는 불필요한 병원 방문과 진단 비용 낭비를 부를 수 있는 부작용도 내포하고 있습니다. 이러한 잘못된 조언은 단순한 오류에 그치지 않고 환자의 심리적 안정을 해치고 치료 시기를 놓치게 만들어 더 큰 위험을 초래할 수 있습니다. 오픈AI 는 이 결과가 실제 서비스 이용 상황을 반영하지 않았다고 주장하며 모델을 지속적으로 개선 중이라고 해명했습니다. 그러나 연구의 핵심적인 경고는 기술이 완벽하지 않다는 점과 의료 조언에서 AI 를 인간 의사를 대체할 수 있는 수준의 도구로 간주하는 것이 얼마나 위험한지를 보여줍니다. AI 는 훌륭한 보조 도구이지만 인간의 감정이나 미세한 증상을 읽어내는 능력은 아직 부족합니다. 특히 호흡이나 두통 어지러움 증상은 AI 가 분석하기에 복잡한 변수들이 많습니다. 우리는 기술의 편리성만 추구하다가 그 기술이 가진 한계를 간과하는 것을 주의해야 합니다. 특히 건강과 관련된 질문은 AI 가 아닌 전문 의료진과 상담하는 것이 최선입니다. 이번 연구는 AI 와 의료의 결합 가능성을 보여주지만 동시에 우리는 안전성을 최우선으로 고려해야 할 필요성을 일깨워주는 사례였습니다. 다음 연구 발표가 있을 때까지 오늘부터라도 AI 의 답변에 맹신하기보다 인간의 판단을 신뢰하는 지혜가 필요하겠습니다. 특히 응급 상황에서는 AI 는 참고 자료일 뿐 진단 기준으로 삼지 마세요. 결론적으로 AI 기술이 비약적으로 발전했다 해도 인간의 생명을 구하는 데에는 여전히 한계가 있음을 우리는 다시 한번 기억해야 합니다. 이 글은 의료 AI 의 활용에 대한 경각심을 일깨우고 기술에 대한 맹목적인 믿음은 버리자는 제언이기도 합니다. 앞으로 이러한 연구 결과들이 누적되며 AI 의료 모델이 어떤 방향으로 발전해야 할지 그리고 의료진의 검토를 통해 어떻게 검증되어야 할지에 대해 많은 논의가 이어질 것입니다. 이러한 과정이 우리가 더 안전한 미래를 건설하는 데 도움이 되길 소망합니다. AI 는 우리 생활의 도구를 넘어 건강과 생명을 담보로 하는 분야에서도 빠르게 자리 잡고 있습니다. 그렇기에 더욱 신중한 접근과 검증이 필요합니다. 사용자들은 이러한 변화에 맞춰 자신의 판단력을 유지하고 AI 의 도움은 참고하되 결정권은 자신에게 있다는 것을 명심해야 합니다. 건강과 안전은 무엇보다 중요합니다. 우리는 AI 를 통해 더 나은 세상을 꿈꾸지만 그것이 인간성을 해치거나 생명을 위협해서는 안된다는 기본 원칙을 잃지 않아야 합니다. 오늘 이 글을 읽으신 모든 분에게 건강하고 안전한 하루를 기원합니다.
이 글은 PCWorld의 기사를 바탕으로 작성되었습니다.
