메뉴

YTN 사이언스

검색

'자해 위험' 지인에게 알림 전송…챗GPT 안전 기능 도입

2026년 05월 11일 오전 09:00
[앵커]
최근 고민 상담이나 감정 위로를 위해 생성형 AI인 챗GPT를 찾는 사람들이 늘고 있는데요.

오픈AI가 사용자의 '자해 위험 신호'가 감지될 경우, 미리 등록한 지인에게 알리는 안전 기능을 도입합니다.

임늘솔 기자가 보도합니다.

[기자]

지난해 미국에서 16살 청소년이 자살 방법을 챗GPT에 문의한 끝에 스스로 목숨을 끊어 충격을 줬습니다.

최근 챗봇과 대화하며 정서적으로 의존하는 사례가 늘면서 생성형 AI에도 안전 관리 책임을 강화해야 한다는 지적이 제기돼 왔습니다.

이러한 흐름 속에 오픈AI가 챗GPT에 '신뢰하는 사람' 기능을 도입한다고 밝혔습니다.

사용자가 가족이나 친구 등 1명을 미리 등록해두면 챗GPT와의 대화에서 심각한 자해 위험 신호가 감지될 경우 도움을 요청하는 기능입니다.

챗GPT가 먼저 사용자에게 알림 전달 가능성을 안내한 뒤 직접 연락할 수 있도록 제시하고,

실제 안전 우려가 있다고 판단되면 등록된 사람에게 문자나 이메일 등으로 알림이 전송됩니다.

알림에는 대화 원문이나 세부 내용은 포함하지 않습니다.

또 사용자는 언제든 신뢰하는 사람을 수정하거나 삭제할 수 있습니다.

오픈AI는 이번 기능이 의료 전문가와 AI 자문위원회, 미국심리학회 등 외부 기관과의 협력을 바탕으로 설계됐다고 설명했습니다.

YTN 사이언스 임늘솔 입니다.


YTN 사이언스 임늘솔 (sonamu@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]