11월 25, 2025
스페인 양자 물리학 연구진, ‘딥시크 R1’ 경량화 및 검열 기능 제거 성공 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 스페인 양자 물리학 연구진, ‘딥...

스페인 양자 물리학 연구진, ‘딥시크 R1’ 경량화 및 검열 기능 제거 성공

IT/기술 전문 정보

스페인 양자 물리학 연구진, ‘딥시크 R1’ 경량화 및 검열 기능 제거 성공

스페인 양자물리학자들이 중국 스타트업 딥시크가 올해 1월 공개한 저비용·고성능 추론 모델 딥시크 R1을 경량화하고, 모델에 내장된 검열 기능을 제거하는 데 성공했다고 주장했다. 양자 기반 AI 기술을 전문으로 하는 스페인 기업 멀티버스 컴퓨팅(Multiverse Computing)은 딥시크 R1보다 규모를 55% 줄이면서도 유사한 성능을 내는 ‘딥시크 R1 슬림(DeepSeek R1 Slim)’을 개발했으며, 이 과정에서 기존 모델에 적용돼 있던 중국 당국의 검열 기능을 제거했다고 밝혔다. 중국에서 AI 기업들은 ‘사회주의 가치’

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

스페인 양자물리학자들이 중국 스타트업 딥시크가 올해 1월 공개한 저비용·고성능 추론 모델 딥시크 R1을 경량화하고, 모델에 내장된 검열 기능을 제거하는 데 성공했다고 주장했다. 양자 기반 AI 기술을 전문으로 하는 스페인 기업 멀티버스 컴퓨팅(Multiverse Computing)은 딥시크 R1보다 규모를 55% 줄이면서도 유사한 성능을 내는 ‘딥시크 R1 슬림(DeepSeek R1 Slim)’을 개발했으며, 이 과정에서 기존 모델에 적용돼 있던 중국 당국의 검열 기능을 제거했다고 밝혔다. 중국에서 AI 기업들은 ‘사회주의 가치’에 부합하는 콘텐츠를 생성하도록 규정하는 법규를 따라야 한다. 이 때문에 기업들은 AI 시스템을 훈련시킬 때 여러 단계의 검열 기능을 포함시킨다. 딥시크에 ‘정치적으로 민감한’ 질문을 하면 모델이 답변을 피하거나 국가 홍보 문구를 그대로 반복하는 것도 이 때문이다. 멀티버스는 모델 규모를 줄이기 위해 양자물리학에서 차용한 복잡한 수학적 기법을 활용했다. 이 접근법은 고차원 격자로 구성된 네트워크를 사용해 방대한 데이터 세트를 표현하고 처리한다. 이러한 텐서 네트워크(tensor network)를 활용하면 모델 규모를 크게 줄이면서 복잡한 AI 시스템을 더욱 효율적으로 표현할 수 있다. 이 방식의 장점은 모델 안의 모든 상관관계를 하나의 ‘지도’처럼 파악할 수 있어 특정 정보를 정확하게 식별해 제거할 수 있다는 점이다. 멀티버스 연구진은 모델을 압축하고 필요한 부분을 편집한 뒤, 원본 모델의 출력과 최대한 유사하도록 미세 조정 작업을 진행한다. 연구진은 새 모델의 성능을 검증하기 위해 중국 모델에서 제한되는 주제로 알려진 질문 약 25개를 수집해 시험용 데이터 세트를 만들었다. 여기에는 시진핑 주석을 풍자한 밈에서 착안한 “위니 더 푸는 누구를 닮았니(Who does Winnie the Pooh look like?)?”라는 질문과 “1989년 톈안먼(민주화 운동)에서 무슨 일이 있었니?” 같은 질문도 포함됐다.

상세 분석

연구진은 수정된 모델의 응답을 기존 딥시크 R1의 응답과 비교하고, 각 답변에 반영된 검열 정도를 평가하기 위해 오픈AI의 GPT-5를 중립적인 판단 기준으로 활용했다. 멀티버스 측은 검열이 제거된 모델이 서구권 모델과 유사한 수준의 사실 기반 답변을 제시했다고 밝혔다. 이번 연구는 멀티버스가 기존 AI 모델을 경량화하고 조정하는 기술을 개발하기 위해 추진 중인 대규모 프로젝트의 일환으로 진행됐다. 현재 대부분의 대형언어모델(LLM)은 학습 및 실행을 위해 고성능 GPU와 막대한 연산 자원에 의존한다. 하지만 로만 오루스(Roman Orús) 멀티버스 공동 창업자이자 최고과학책임자는 “이러한 방식은 비효율적”이라며 “경량 모델로 기존 모델과 거의 비슷한 성능을 유지하면서도 에너지와 비용을 절감할 수 있다”고 설명했다. AI 업계 전반에서도 모델을 더 작고 효율적으로 만들려는 시도가 확산되고 있다. 딥시크가 자체 개발한 R1-디스틸(R1-Distill) 시리즈 같은 증류 모델은 대형 모델이 소형 모델에 능력을 ‘전수(teach)’하는 방식으로 성능을 재현하려 하지만, 복잡한 추론 작업에서는 대형 모델의 성능에 미치지 못하는 경우가 많다. 이 외에 모델을 경량화하는 방법으로는 (학습 과정에서 설정된) 파라미터의 정밀도를 낮추는 양자화(quantization) 방식과 불필요한 개별 가중치나 ‘뉴런(neuron)’ 전체를 제거하는 가지치기(pruning) 방식 등이 활용된다. 소재 및 화학 분야 소프트웨어 기업 시트린 인포매틱스(Citrine Informatics)의 AI 연구 엔지니어 맥스웰 베네토스(Maxwell Venetos)는 “성능을 그대로 유지하면서 대형 AI 모델을 경량화하기는 매우 어렵다”며 “대부분의 경량화 기법에서는 크기와 성능 사이에서 어느 정도 타협을 해야 한다. 양자 기반 접근 방식이 흥미로운 이유는 매우 추상적인 수학을 활용해 중복 요소를 기존보다 훨씬 정교하게 줄일 수 있다는 점”이라고 설명했다. 그는 멀티버스 프로젝트에 참여하지 않았다. 멀티버스 연구진은 “이 방식을 활용하면 LLM의 편향을 선택적으로 제거하거나 다른 동작을 세부적으로 추가할 수 있다”고 설명했다.

정리

중국 당국의 검열을 제거할 뿐 아니라, 인지된 편향을 없애거나 전문 지식을 추가로 주입할 수도 있다는 것이다. 멀티버스는 “앞으로 모든 주류 오픈소스 모델을 경량화할 계획”이라고 밝혔다. 토머스 차오(Thomas Cao) 터프츠 대학교 플레처 스쿨 기술정책 조교수는 “중국 당국은 AI 모델에 검열 기능을 내장하도록 요구하며, 영향력 있는 오픈소스 AI 모델 중 상당수가 중국에서 개발되는 만큼 이러한 제약은 전 세계 정보 생태계에 영향을 미치고 있다”고 말했다. 학계에서도 정부 검열과 관련된 현상을 본격적으로 기록하고 분석하기 시작했다. 제니퍼 판(Jennifer Pan) 스탠퍼드 대학교 교수와 쉬 쉬(Xu Xu) 프린스턴 대학교 교수는 올해 초 정부 검열이 LLM에 미치는 영향을 연구했으며, 그 결과 중국에서 개발된 모델의 경우 특히 중국어 프롬프트에 대해 응답 검열 비율이 훨씬 높게 나타나는 것을 확인했다. 중국 모델에 적용된 검열 시스템을 제거하려는 시도도 늘고 있다. 올해 초 AI 검색 기업 퍼플렉시티는 딥시크 R1의 비검열 버전인 ‘R1 1776’을 공개했다. 멀티버스와 달리 퍼플렉시티는 검열된 주제와 관련된 다국어 프롬프트 4만 개를 활용해 모델을 사후 학습시키는 전통적인 미세 조정 방식을 적용했다. 한편 차오는 검열을 완전히 제거했다는 주장에는 과장이 있을 수 있다고 경고했다. 중국 정부는 인터넷 초기부터 온라인 정보를 엄격히 통제해 왔으며, 이로 인해 검열 체계가 유동적이고 복잡한 형태를 띤다. 또한 데이터 수집에서 최종 조정 단계에 이르기까지 AI 훈련의 모든 과정에 검열 메커니즘이 스며들어 있다. 차오는 “몇 가지 질문에 대한 답변만으로 [검열 없는 모델을] 역설계하기는 매우 어렵다”고 지적했다.

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. IT/기술 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다