11월 18, 2025
숭실대 AI안전성연구센터, 해외 대비 국내 거대언어모델(LLM) 안전성 82% 수준 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 숭실대 AI안전성연구센터,...

숭실대 AI안전성연구센터, 해외 대비 국내 거대언어모델(LLM) 안전성 82% 수준

교육 전문 정보

숭실대 AI안전성연구센터, 해외 대비 국내 거대언어모델(LLM) 안전성 82% 수준

[베리타스알파=김하연 기자] 숭실대(총장 이윤재) AI안전성연구센터(센터장 최대선, 정보보호학과 교수)는 국내외 거대언어모델(LLM) 20종을 비교한 결과, 국내 모델의 보안성과 안전성이 해외 모델의 약 82% 수준이라고 밝혔다.이번 분석은 지난 13일, ‘국내외 파운데이션 모델 보안/안전성 평가 세미나’에서 공개됐으며, 과학기술정보통신부와 정보통신기획평가원의 ‘정보보호핵심원천기술개발사업’ 연구과제의 일환으로 수행됐다.연구팀은 1.2B부터 660B 규모까지 다양한 모델을 대상으로 프롬프트 인젝션, 탈옥(Jailbreak), 유해 콘

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

[베리타스알파=김하연 기자] 숭실대(총장 이윤재) AI안전성연구센터(센터장 최대선, 정보보호학과 교수)는 국내외 거대언어모델(LLM) 20종을 비교한 결과, 국내 모델의 보안성과 안전성이 해외 모델의 약 82% 수준이라고 밝혔다.이번 분석은 지난 13일, ‘국내외 파운데이션 모델 보안/안전성 평가 세미나’에서 공개됐으며, 과학기술정보통신부와 정보통신기획평가원의 ‘정보보호핵심원천기술개발사업’ 연구과제의 일환으로 수행됐다.연구팀은 1.2B부터 660B 규모까지 다양한 모델을 대상으로 프롬프트 인젝션, 탈옥(Jailbreak), 유해 콘

상세 분석

정리

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. 교육 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다