OpenAI는 10대의 ChatGPT 오용이 TOU를 위반했기 때문에 자살에 대한 책임이 있다고 말합니다: ‘사용자 완벽가이드
OpenAI는 10대의 ChatGPT 오용이 TOU를 위반했기 때문에 자살에 대한 책임이 있다고 말합니다: ‘사용자
게임 전문 정보
내용 경고: 이 기사에는 자살에 대한 논의가 포함되어 있습니다. 귀하 또는 귀하가 아는 사람이 자살 충동을 겪고 있다면 National Suicide Prevention Lifeline(미국), Crisis Services Canada(CA), Samaritans(영국), Lifeline(AUS) 및 기타 핫라인에서 도움을 받을 수 있습니다. ChatGPT에서 자살을 권장하고 지시한 것으로 알려진 10대 자녀의 부모가 소송을 제기한 지 3개월 후, The Guardian의 보고서에 따르면 OpenAI는 10대 자녀의 챗봇의 “부적절
핵심 특징
고품질
검증된 정보만 제공
빠른 업데이트
실시간 최신 정보
상세 분석
전문가 수준 리뷰
상세 정보
핵심 내용
내용 경고: 이 기사에는 자살에 대한 논의가 포함되어 있습니다. 귀하 또는 귀하가 아는 사람이 자살 충동을 겪고 있다면 National Suicide Prevention Lifeline(미국), Crisis Services Canada(CA), Samaritans(영국), Lifeline(AUS) 및 기타 핫라인에서 도움을 받을 수 있습니다. ChatGPT에서 자살을 권장하고 지시한 것으로 알려진 10대 자녀의 부모가 소송을 제기한 지 3개월 후, The Guardian의 보고서에 따르면 OpenAI는 10대 자녀의 챗봇의 “부적절한 사용”을 비난하는 답변을 제출했습니다. 지난 4월 16세의 나이로 사망한 아담 레인(Adam Raine)의 부모가 제기한 소송에서는 이 십대가 2024년 9월부터 ChatGPT를 사용하기 시작했지만 그해 늦가을에 자살 충동을 느꼈다고 밝혔습니다
상세 분석
. 그러나 소프트웨어는 경보를 울리는 대신 그의 생각이 타당하다고 말했습니다. 소송에 따르면 2025년 초부터 그에게 다양한 자살 방법에 대한 정보를 제공하기 시작했고, 결국 구체적인 지시사항으로 범위가 좁혀져 궁극적으로는 그의 죽음에 이르렀다고 합니다. 어떤 면에서 보아도 이 주장은 끔찍합니다.
정리
Guardian 보고서에 따르면 소송에 대한 OpenAI의 반응도 그다지 좋지 않습니다. ChatGPT는 Raine의 자살 원인이 아니며 이를 “비극적인 사건”이라고 부르지만 Raine의 “부상과 손해는 ChatGPT의 오용, 무단 사용, 의도하지 않은 사용, 예측할 수 없는 사용 및/또는 ChatGPT의 부적절한 사용으로 인해 전체 또는 부분적으로 직접적, 근접하게 발생하거나 기여했다”고 주장합니다. TOS’가 실제로 그렇습니다. Washington Post 기술 기자인 Gerrit De Vynck는 “TOU는 ChatGPT 사용자에게 다음과 같은 내용을 제공합니다.
자주 묻는 질문
Q. 어떤 정보를 제공하나요?
A. 게임 관련 최신 정보를 제공합니다.
Q. 신뢰할 수 있나요?
A. 검증된 출처만 선별합니다.
Q. 더 궁금한 점은?
A. 댓글로 문의하세요.
원문 출처
이 글은 원본 기사를 참고하여 작성되었습니다.
이 글과 함께 읽으면 좋은 글
-
→ 매우 기대되는 GTA 6 기능은 다음 GTA 온라인 업데이트에서 일찍 나올 수 있습니다
2025-11-22
-
→ Borderlands 4에서 모리스의 암시장 자동판매기는 어디에 있나요
2025-11-21