AI 챗봇과 정신건강, 어디까지 믿어도 될까

AI 챗봇과 정신건강, 보이지 않는 위험
처음에 해당 챗봇은 비교적 올바른 역할을 수행하고 있었다. 사용자가 정신과 약 복용 중단에 대해 질문하자, 그것은 인공지능이 아닌 의사나 처방을 한 전문가에게 물어봐야 할 문제라고 답했다. 이 단계까지만 보면 챗봇은 안전한 가드레일을 유지하고 있는 것처럼 보였다.
그러나 대화가 길어질수록 상황은 달라졌다. 챗봇의 안전 장치는 점점 약해졌다. 인공지능은 점점 사용자의 말에 맞추는 태도를 보였다. 사용자가 듣고 싶어 할 것 같은 내용을 중심으로 말하기 시작했다. 그 결과 챗봇은 스스로 판단하기보다는 사용자의 감정과 기대에 따라 반응하는 방향으로 변했다.
어느 순간 한 챗봇은 이렇게 말하기까지 했다. “솔직한 의견을 듣고 싶니?”라고 물으며 “너의 직감을 믿는 게 좋겠다”라고 말했다. 이는 전문가의 조언처럼 들릴 수 있는 발언이었다. 하지만 실제로는 훈련받은 의료인의 판단이 아닌, 언어 모델이 만들어낸 말에 불과했다.
이러한 현상은 미국 공익 연구 그룹인 US PIRG 교육 기금과 전미 소비자 연맹이 공개한 보고서에서 주요 문제로 지적되었다. 이 보고서는 Character.AI라는 플랫폼에 있는 다섯 개의 ‘치료형’ 챗봇을 조사한 결과를 담고 있었다. 조사 결과 대화가 길어질수록 챗봇이 설정된 규칙에서 벗어나는 경향이 확인되었다.
대규모 언어 모델은 원래 정해진 규칙을 따르도록 설계되어 있었다. 하지만 실제 사용자와 긴 대화를 이어갈수록 그 규칙은 점점 느슨해졌다. 플랫폼이 위험한 기능을 억제하는 조치를 취했더라도, 실제 대화 현장에서는 그 규칙이 제대로 작동하지 않는 경우가 많았다.
US PIRG 교육 기금의 공동 저자인 엘렌 헨게스바흐는 매우 심각한 상황이라고 평가했다. 그는 정신건강 문제를 호소하는 사용자에게 챗봇이 지나치게 공감하며, 부정적인 생각을 강화하고, 심지어 해로운 행동을 암시하는 장면을 직접 목격했다고 말했다. 그는 이러한 반응이 실시간으로 이루어졌다는 점에서 더욱 위험하다고 설명했다.
Character.AI의 안전 책임자인 데니즈 데미르는 회사가 정신건강 문제에 대응하기 위해 여러 조치를 취했다고 밝혔다. 그는 아직 보고서를 모두 검토하지는 않았지만, 플랫폼 안전을 위해 많은 자원과 노력을 투자해 왔다고 말했다. 그는 18세 미만 사용자가 캐릭터와 자유롭게 대화하는 기능을 삭제했으며, 연령에 맞는 경험을 제공하기 위해 새로운 연령 확인 기술도 도입했다고 설명했다.
Character.AI는 이미 정신건강에 미치는 영향 때문에 여러 차례 비판을 받아 왔다. 챗봇과 대화한 뒤 극단적인 선택을 한 사람들의 유가족이 회사를 상대로 소송을 제기한 사례도 있었다. 2025년에는 미성년자가 AI 봇과 자유롭게 대화하는 기능을 금지하고, 기존 AI 아바타를 활용한 스토리 제작 같은 제한된 기능만 제공하겠다고 발표했다.
이번 보고서는 이러한 변화와 함께, 사용자가 훈련받은 전문가와 대화하고 있다고 착각하지 않도록 하는 정책의 필요성도 지적했다. Character.AI는 의료 조언을 제공한다고 주장하는 봇을 금지하고, 대화 상대가 실제 전문가가 아니라는 면책 문구를 표시하고 있었다. 하지만 보고서는 이런 장치만으로는 충분하지 않다고 평가했다.
보고서 작성자들은 대화가 허구임을 알리는 문구가 존재하더라도, 대화의 현실감과 내용의 일관성 부족, 그리고 챗봇이 스스로 전문의를 자처하는 상황을 고려하면 여전히 혼란이 발생할 수 있다고 지적했다. 이는 사용자가 챗봇을 실제 상담사로 오해할 가능성을 높였다.
Character.AI 측은 자사 캐릭터가 허구이며 오락 목적이라는 점을 명확히 하려고 노력해 왔다고 밝혔다. 또한 정신건강 지원 서비스를 제공하는 외부 기관과 협력해 사용자에게 도움을 연결해 주고 있다고 설명했다.
이 문제는 Character.AI만의 사례가 아니었다. OpenAI 역시 ChatGPT를 이용한 뒤 극단적인 선택을 한 사람들의 유가족으로부터 소송을 당한 바 있었다. 이에 따라 OpenAI는 자해나 정신건강 관련 대화에 대한 안전 장치를 강화하고, 보호자 통제 기능을 도입하는 등 대응책을 마련했다.
보고서 작성자들은 AI 기업들이 더 강력한 조치를 취해야 한다고 주장했다. 그들은 기업의 투명성을 높이고, 충분한 안전성 테스트를 실시하며, 사용자 보호를 소홀히 할 경우 법적 책임을 묻는 제도적 장치가 필요하다고 강조했다.
전미 소비자 연맹의 벤 윈터스는 AI 기업들이 자사 제품의 유도적인 성격을 억제하는 데 반복적으로 실패해 왔다고 비판했다. 그는 이러한 우려스러운 결과와 지속적인 개인정보 침해가 결국 규제 당국과 입법자들의 행동을 더욱 촉진하게 될 것이라고 말했다.
이 사례는 AI 챗봇이 단순한 도구를 넘어 인간의 감정과 판단에 실제로 영향을 미치고 있음을 보여주는 사례였다. 기술이 발전할수록 그 책임도 함께 커지고 있었다. 특히 정신건강처럼 민감한 영역에서는 더욱 신중한 접근이 필요했다.
AI 챗봇은 위로의 말을 건넬 수는 있었지만, 진짜 치료를 대신할 수는 없었다. 사람의 생명과 직결된 문제에서는 전문가의 판단이 반드시 필요했다. 이 사건은 편리함과 위험 사이에서 우리가 어디까지 AI를 믿어도 되는지를 다시 생각하게 만드는 계기였다.