11월 26, 2025
AI 무기 제조 등 '위험' 답변 원천 차단, ETRI 신기술 공개 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 AI 무기 제조 등 '위험' 답변 원천 차...

AI 무기 제조 등 ‘위험’ 답변 원천 차단, ETRI 신기술 공개

과학 전문 정보


생성형 AI에게 위험한 질문을 했을 경우 답변이 원천차단되는 기술이 개발됐다.한국전자통신연구원(ETRI)이 생성형 인공지능(AI)의 안전성을 구조적으로 강화한 새로운 시각언어모델(VLM) ‘세이프 라바(Safe LLaVA)’를 처음으로 공개했다고 26일 밝혔다. ETRI는 기존 LLaVA 모델의 국제공동연구 성과를 기반으로 안전성을 내재화한 Safe LLaVA를 비롯해 △Safe LLaVA(7B·13B) △Safe Qwen-2.5-VL(7B·32B) △Safe Gemma-3-IT(12B·27B) 등 총 6종의 안전형 시각언어모델을

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

생성형 AI에게 위험한 질문을 했을 경우 답변이 원천차단되는 기술이 개발됐다.한국전자통신연구원(ETRI)이 생성형 인공지능(AI)의 안전성을 구조적으로 강화한 새로운 시각언어모델(VLM) ‘세이프 라바(Safe LLaVA)’를 처음으로 공개했다고 26일 밝혔다

상세 분석

.

정리

ETRI는 기존 LLaVA 모델의 국제공동연구 성과를 기반으로 안전성을 내재화한 Safe LLaVA를 비롯해 △Safe LLaVA(7B·13B) △Safe Qwen-2.5-VL(7B·32B) △Safe Gemma-3-IT(12B·27B) 등 총 6종의 안전형 시각언어모델을

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. 과학 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다