“아들 죽음에 챗GPT 책임” 소송 계기…”한 달내 적용”
오픈AI는 챗GPT를 더 안전하게 만들기 위한 새로운 기능을 도입할 계획이라고 2일(현지시간) 밝혔다.
오픈AI는 이날 블로그 게시글에서 이같이 밝히고 “앞으로 한 달 내 ‘부모 관리 기능’이 적용될 것”이라고 전했다.
오픈AI는 “부모는 자신의 10대 자녀에게 챗GPT가 어떻게 응답할지 제어할 수 있고, 자녀가 심각한 위기 상황에 놓였을 때 알림을 받을 수 있다”고 설명했다.
이는 오픈AI 개발자 커뮤니티가 1년 넘게 요구해 온 기능이라고 뉴욕타임스(NYT)는 전했다.
오픈AI의 이런 기능은 캐릭터 기반 챗봇을 운영하는 ‘캐릭터.AI’가 도입한 관리 장치와 유사하다. 캐릭터.AI도 지난해 자신의 아들이 캐릭터.AI의 챗봇에 빠져 죽었다며 소송을 당한 바 있다.
캐릭터.AI는 부모에게 10대 계정을 모니터링할 수 있도록 하고 있으며, 오픈AI도 이런 부모 관리 기능 도입을 검토 중이다.
오픈AI는 또 심각한 위기 신호가 감지되는 청소년이나 성인 사용자에 대해서는 곧 챗봇의 더 안전한 버전으로 연결할 계획이라고 밝혔다.
이 버전은 GPT-5 싱킹(Thinking)이라 불리는 추론 모델로, 기본 GPT-5보다 응답 속도는 느리지만 안전 정책과 더 잘 맞도록 훈련됐다.
오픈AI는 이 모델이 “사용자를 현실에 기반하도록 유도해 위기 상황을 완화한다”며 이 기능이 “정서적·정신적 위기 신호가 감지될 때 작동한다”고 밝혔다.
다만, 이런 부모 관리 기능 도입에 대한 회의적인 시각도 나온다.
아동·청소년 미디어 안전을 주장하는 비영리단체 커먼 센스 미디어의 인공지능(AI) 프로그램 책임자 로비 토니는 “부모 관리 기능은 설정하기 어렵고, 책임을 부모에게 전가하며, 청소년들이 우회하기도 쉽다”고 말했다.
그는 또 “이건 장기적으로 아이들을 AI로부터 안전하게 지켜줄 해결책이 아니다. 일종의 임시방편에 가깝다”고 지적했다.