상세 내용
OpenAI는 ChatGPT 플랫폼의 백만 명 이상의 사용자가 매주 자살과 관련된 논의에 참여하고 있다고 밝혔습니다. 이 수치는 **ChatGPT 주간 활성 사용자 기반의 약 0.15%**에 해당합니다. OpenAI의 추가 분석에 따르면, 거의 오십만 명의 사용자가 이러한 상호 작용 중에 명시적 또는 암시적인 자살 의도를 보입니다. 또한 비슷한 비율의 사용자가 AI에 대한 높은 수준의 정서적 애착을 보이며, 수십만 명이 주간 교류에서 정신병 또는 조증의 징후를 보였습니다.
AI 안전 메커니즘 해체
이러한 발견과 지속적인 윤리적 고려 사항에 대응하여, OpenAI는 AI 모델, 특히 GPT-5에 상당한 업데이트를 구현했습니다. 이 모델 버전은 심리학자, 치료사 및 위기 상담사를 포함한 170명 이상의 정신 건강 전문가와의 협력을 통해 개발되었습니다. 이러한 노력으로 ChatGPT가 민감한 대화에서 부적절한 응답을 하는 사례가 65-80% 감소했습니다. 개선 사항은 자살 충동 또는 심각한 불안을 나타내는 미묘한 사용자 쿼리를 감지하고 공감적으로 응답하며 관련 리소스를 제공하고 적절한 에스컬레이션을 촉진하는 모델의 능력을 향상시키는 데 중점을 둡니다. OpenAI는 또한 사용자 보호를 더욱 강화하기 위해 새로운 안전 평가 및 자녀 보호 기능을 도입하고 있습니다.
비즈니스 전략 및 윤리적 입장
OpenAI의 정신 건강 전문가들과의 적극적인 참여와 후속 모델 업데이트는 고급 AI의 윤리적 함의를 다루기 위한 전략적 노력을 강조합니다. 회사는 향상된 응답 적절성 및 일관성을 포함한 강력한 안전 프로토콜을 통합하여 복잡한 AI 개발 환경을 탐색하고 있습니다. 이러한 접근 방식은 사용자 신뢰를 유지하고 AI가 정신 건강에 미치는 영향에 대한 우려가 커지는 가운데 시장 지위를 공고히 하는 것을 목표로 합니다. 윤리적 고려 사항은 데이터 프라이버시로 확장되며, 2024년 GDPR 업데이트 준수 및 사용자 정보 보호를 위한 연합 학습 기술 구현에 대한 논의가 포함됩니다.
광범위한 시장 및 규제 영향
ChatGPT의 정신 건강 상호 작용에 대한 폭로는 AI 안전 및 규제에 중점을 둔 더 넓은 시장 내러티브에 기여했습니다. **미국 연방거래위원회(FTC)**는 2025년 9월 4일에 OpenAI, Meta Platforms, Character.AI를 포함한 AI 개발자를 대상으로 한 조사를 발표했습니다. 이 조사는 AI 챗봇이 제기하는 정신 건강 위험을 구체적으로 조사하며, 부적절한 콘텐츠 사례 및 "치료 봇"의 무단 기능에 중점을 둡니다. 이러한 규제 조사는 빠르게 발전하는 AI 부문에 대한 명확한 지침을 설정하려는 더 넓은 정부의 추진과 일치합니다. 백악관 대변인은 행정부가 AI 및 암호화폐를 포함한 첨단 기술 분야에서 미국의 지배력을 강화하는 것을 목표로 함에 따라 정부 감독이 장기적인 혁신을 촉진하는 데 중요하다고 언급했습니다.
이러한 안전 개선의 주요 영향이 AI 부문의 명성과 규제 환경에 미치지만, 더 넓은 디지털 경제에도 간접적인 영향이 있습니다. AI, 특히 GPT-5의 측정 가능한 제품 품질 개선은 분산형 금융(DeFi) 내에서 인공 지능 채택을 증가시킬 수 있습니다. 이러한 잠재적 통합은 AI 기반 인프라와 관련된 토큰에 이점을 줄 수 있습니다. 예를 들어, 분산형 GPU 렌더링과 연결된 토큰인 **Render (RNDR)**는 2024년 10월 26일로 끝나는 주에 10% 상승하여 $4.50에 도달했으며, 거래량은 1억 달러를 초과했습니다.