1월 6, 2026
옹호 단체는 Sora 2의 딥페이크 위험을 해결하기 위해 OpenAI를 요구합니다 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 옹호 단체는 Sora 2의 ...

옹호 단체는 Sora 2의 딥페이크 위험을 해결하기 위해 OpenAI를 요구합니다

사이버보안 전문 정보

옹호 단체는 Sora 2의 딥페이크 위험을 해결하기 위해 OpenAI를 요구합니다

OpenAI는 2024년 내내 사용자 프롬프트에서 실제와 같은 비주얼을 생성할 수 있는 새로운 비디오 세대 대형 언어 모델인 Sora의 공개 출시를 예고했습니다. 그러나 중요한 미국 선거 연도에 이 도구가 현실적인 허위 정보를 생성하는 데 사용된다는 우려로 인해 회사는 선거가 끝날 때까지 출시를 연기했습니다.  1년이 지난 지금, 비평가들은 소라의 현실 왜곡 능력이 현실화되어 인터넷에 허위, 조작 또는 조작된 AI 콘텐츠가 범람하고 있으며, 종종 해당 미디어가 합성임을 나타내는 표시가 거의 또는 전혀 없는 경우가 많다는 우려를 경고

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

OpenAI는 2024년 내내 사용자 프롬프트에서 실제와 같은 비주얼을 생성할 수 있는 새로운 비디오 세대 대형 언어 모델인 Sora의 공개 출시를 예고했습니다. 그러나 중요한 미국 선거 연도에 이 도구가 현실적인 허위 정보를 생성하는 데 사용된다는 우려로 인해 회사는 선거가 끝날 때까지 출시를 연기했습니다.  1년이 지난 지금, 비평가들은 소라의 현실 왜곡 능력이 현실화되어 인터넷에 허위, 조작 또는 조작된 AI 콘텐츠가 범람하고 있으며, 종종 해당 미디어가 합성임을 나타내는 표시가 거의 또는 전혀 없는 경우가 많다는 우려를 경고하고 있습니다. 비영리 퍼블릭 시티즌(Public Citizen)에서 AI 책임 업무를 이끄는 J.B. Branch는 11월 11일 OpenAI CEO 샘 알트만(Sam Altman)에게 보낸 서한에서 “소라 2의 급한 출시는 본질적으로 안전하지 않거나 필요한 가드레일이 부족한 제품을 가지고 시장에 돌진하는 OpenAI의 일관되고 위험한 패턴을 보여줍니다

상세 분석

. Branch는 소라 2 출시는 제품 안전, 이름이나 이미지가 유출될 수 있는 공인의 권리에 대한 ‘무모한 무시’를 보여준다”고 덧붙였습니다. Public Citizen은 OpenAI에게 일시적으로 도구를 오프라인으로 전환하고 외부 전문가와 협력하여 더 나은 보호책을 구축하도록 압력을 가하고 있습니다. “우리는 이 배포를 일시 중지하고 법률 전문가, 민권 단체 및 민주주의 옹호자들과 협력하여 Sora에 대해 실제적이고 엄격한 기술 및 윤리적 레드라인을 수립할 것을 촉구합니다.” 대규모 언어 모델은 수년 동안 딥페이크를 만들 수 있었지만 이 기술은 종종 일련의 식별 가능한 시각적 단서로 인해 어려움을 겪었습니다.

정리

5개 이상의 손가락을 가지고 있거나 물리 법칙을 무시하는 동영상 등 지난 1년 동안 Sora와 같은 새로운 도구는 이러한 많은 기술적 장애물을 극복했으며 이제 실제와 같은 동영상을 제공할 수 있습니다. 동영상이 가짜일 수 있는 유일한 표시는 오른쪽 하단에 있는 작은 Sora 워터마크입니다. 사이버 보안 전문가들은 많은 경우 악의적인 행위자가 이러한 라벨을 진짜인 것처럼 제거하거나 잘라내는 것이 사소한 일이라고 말합니다. OpenAI 및 기타 AI 이미지 및 비디오 생성기는 역사적으로 도구가 정치인, 유명인 또는 저작권이 있는 캐릭터를 사칭하는 것을 방지하기 위해 노력해 왔습니다

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. 사이버보안 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다