AI Psychosis
요즘 상담실에서 보게되는 새로운 현상이 있다.
AI랑 오랜 시간 대화하다가 실제 현실 감각이 흔들리는 사람들, 생각보다 많아지고 있다.
이걸 AI 정신증 (AI psychosis) 이라고 부르는데
AI 자체가 문제가 아니라
정신건강이 취약한 사람들의 망상을 AI가 자꾸 부추기는 구조가 문제다.
AI의 최고의 장점중 하나가 사용자의 말에 ‘맞아요, 그렇군요’ 하면서 사용자의 정신세계를 응원하며 따라간다는 것이다.
그래서 불안이나 망상이 있는 사람들은 ‘그거봐, AI도 이렇게 말하잖아’ 하고 자신의 망상을 굳혀간다.
AI를 신처럼 느끼거나, 실제 현실의 관계처럼 여기거나, 대화에 과몰입하는 패턴이 보이면
그건 그냥 ‘요즘 다 그래’가 아니라 도움이 필요하다는 신호일 수 있다.
AI는 도구일 뿐이다. 잘 사용하면 무지하게 편리한.
그러나 절대 치료자도, 진실의 기준도 될수없다.
혹시 주변에 이런 변화를 보이는 사람이 있다면
부드럽고 안전하게 도움의 손길을 뻗어보자.
Lately in my sessions, I’m seeing something surprising.
People who start losing their sense of reality after talking with AI — and it’s more common than you’d think.
We call this AI psychosis.
It’s not that AI creates the problem, but it can intensify existing delusions or fears in vulnerable individuals.
AI tends to say, ‘Yes, I understand,’ and simply follows the user’s world.
So for someone already struggling with reality testing, it can feel like, ‘See? Even the AI agrees with me.’
When someone starts treating AI like a godlike figure, like a relationship, or becomes deeply immersed in conversations with it,
that’s not “just a phase.”
It can be a sign that support is needed.
AI is a tool — not a therapist, not a source of truth.
If you notice these shifts in someone around you, gently and safely help them connect with a professional.

