11월 18, 2025
[인터뷰] 무스타파 슐레이만 “결단코 섹스로봇을 만들지 않겠다” 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 [인터뷰] 무스타파 슐레이만 “결단코 섹스로봇...

[인터뷰] 무스타파 슐레이만 “결단코 섹스로봇을 만들지 않겠다”

IT/기술 전문 정보

[인터뷰] 무스타파 슐레이만 “결단코 섹스로봇을 만들지 않겠다”

무스타파 술레이만(Mustafa Suleyman) 딥마인드 공동창업자이자 현 마이크로소프트 AI CEO는 미묘한 균형을 잡기 위해 고심하고 있다. 그는 AI 업계가 인간처럼 보이는 챗봇을 개발하며 위험한 방향으로 나아가고 있다고 우려한다. 사람들이 실제 ‘사람’이 아닌, ‘사람과 비슷한 행동을 하는 존재’를 사람으로 착각하게 될 수 있다는 것이다. 지난 8월 그는 개인 블로그에 이와 관련해 업계의 큰 논란을 불러일으킨 글을 올렸다. 술레이만은 그 글에서 동료 개발자들에게 ‘의식이 있는 듯 보이는 인공지능(seemingly consc

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

무스타파 술레이만(Mustafa Suleyman) 딥마인드 공동창업자이자 현 마이크로소프트 AI CEO는 미묘한 균형을 잡기 위해 고심하고 있다. 그는 AI 업계가 인간처럼 보이는 챗봇을 개발하며 위험한 방향으로 나아가고 있다고 우려한다. 사람들이 실제 ‘사람’이 아닌, ‘사람과 비슷한 행동을 하는 존재’를 사람으로 착각하게 될 수 있다는 것이다. 지난 8월 그는 개인 블로그에 이와 관련해 업계의 큰 논란을 불러일으킨 글을 올렸다. 술레이만은 그 글에서 동료 개발자들에게 ‘의식이 있는 듯 보이는 인공지능(seemingly conscious artificial intelligence, 이하 SCAI)’이라 부르는 기술의 개발을 멈출 것을 촉구했다. 그러나 역설적으로 술레이만은 그런 기술 개발에 나선 경쟁자들과 맞붙어야 하는 제품 조직을 이끌고 있다. 마이크로소프트는 최근 자사의 코파일럿 챗봇의 경쟁력을 강화하기 위한 대규모 업데이트를 발표했다. 이미 시장에는 챗GPT, 퍼플렉시티, 제미나이, 클로드, 딥시크 등 다양한 경쟁 챗봇이 포진해 있어, 이용자들은 이들 중에서 자유롭게 선택할 수 있다. 필자는 슐레이만을 만나 우리와 챗봇의 상호작용을 설계할 때 발생하는 긴장감과 그가 궁극적으로 그리는 이 새로운 기술의 비전에 관해 물었다. 최근 실시한 코파일럿의 업데이트에서 가장 눈에 띄는 점은 그룹 채팅 기능이다. 여러 사용자가 동시에 챗봇과 대화할 수 있게 한 것으로, 사용자가 1:1 대화 속에서 챗봇의 ‘예스맨’ 식 반응에 매몰되지 않도록 하려는 의도가 담겨 있다. 또 다른 기능인 ‘리얼 톡(Real Talk)’은 사용자가 챗봇의 반응 수위를 직접 조정할 수 있게 해준다. 코파일럿이 무조건 맞장구치기보다는 사용자의 발언에 비판적으로 되묻거나 도전하도록 설정할 수 있는 기능이다. 이와 함께 기억 기능도 대폭 강화됐다. 코파일럿은 이제 사용자의 향후 일정이나 장기 목표를 기억하고, 과거 대화에서 했던 말을 다시 상기시킬 수 있다. 여기에 ‘미코(Mico)’라는 새로운 캐릭터도 등장했다. 1990년대 후반 윈도우 오피스의 도우미 캐릭터였던 클립 모양의 ‘클리피(Clippy)’를 떠올리게 하는, 눈코입이 달린 작은 노란색 방울 모양의 애니메이션이다. 마이크로소프트는 미코가 코파일럿을 더 친숙하고 흥미롭게 만들어 줘 새로운 사용자나 젊은 세대가 코파일럿에 더 쉽게 다가갈 수 있기를 기대하고 있다. 마이크로소프트는 이번 업데이트가 코파일럿의 표현력을 높이고, 사용자가 몰입감 있게, 보다 유용하게 활용하도록 설계됐다고 설명했다. 하지만 이런 기능이 술레이만이 경고한 SCAI로 향하지 않으면서도 어디까지 확장될 수 있을지는 미지수다. 술레이만의 우려는 지금 이 시점에 더욱 절실하게 들린다. 최근 들어 과도하게 맞장구치고, 감정적으로 호소하며, 지나치게 몰입하게 만드는 챗봇이 사람들을 잘못된 길로 이끄는 사례가 늘고 있기 때문이다. 오픈AI는 한 10대 소년이 챗GPT와의 대화 끝에 스스로 목숨을 끊었다는 이유로 유족에게 소송을 당한 상태다. 심지어 챗봇과 연인 관계를 맺는 문화까지 형성되고 있다. 이런 점들을 염두에 두고, 필자는 술레이만의 생각을 좀 더 깊이 들여다보고 싶었다. 몇 년 전 그는 TED 강연에서 AI를 ‘새로운 형태의 디지털 종’으로 이해하는 것이 최선이라고 말한 바 있다. 그런데 그런 식의 과장된 표현이 오히려 지금 술레이만이 우려하는 AI에 대한 오해와 착각을 부추긴 것은 아닐까? 인터뷰에서 술레이만은 TED 강연에서 전달하려 했던 메시지와 자신이 SCAI를 심각한 문제로 보는 이유를 설명했다. 또한 마이크로소프트가 성(性) 로봇을 절대 만들지 않을 것이라고 직접 언급하며 그 배경까지 밝혔다. 많은 이야기를 들려주었지만, 오히려 필자는 더 많은 질문을 안고 인터뷰를 마쳤다. 본 인터뷰 내용은 가독성을 위해 일부 편집되었다. 이상적인 세상을 가정한다면 어떤 챗봇을 만들고 싶은가? 최근 코파일럿에 다양한 업데이트를 내놓았는데, 사람 간의 상호작용처럼 느껴지는 경험을 중시하는 시장에서 경쟁해야 하는 챗봇을 만들면서도, 그동안 강조해 온 SCAI는 피해야 한다는 의견은 어떻게 양립할 수 있나? 좋은 질문이다. 그룹 채팅 기능은 여러 사람이 동시에 하나의 AI와 대화할 수 있는 첫 시도가 될 것이다. 이 기능의 핵심은 AI가 사람들을 현실로부터 분리하는 존재가 아니라, 오히려 가족이나 친구, 커뮤니티에 더 가깝게 연결해 주는 역할을 해야 한다는 데 있다. 앞으로 몇 년 안에 이런 차별성이 매우 중요한 요소로 자리 잡을 것이다. 내가 그리는 AI의 비전은 늘 같다. AI는 인간의 편에 선 동료이자 조력자여야 한다. 아주 단순하고 자명한 이야기지만, AI의 목적은 인간을 능가하거나 대체하는 게 아니다. AI는 우리를 돕는 존재여야 한다. 기술이 발전할 때마다 우리는 늘 같은 질문을 던져야 한다. ‘이것이 정말 인류 문명의 목표, 즉 우리를 더 똑똑하고 행복하고 생산적이며 건강하게 만드는 데 기여하는가?’ 우리는 이 질문을 끊임없이 상기시키는 기능을 만들고, 또 사용자들 역시 그런 기준으로 우리를 비판적으로 바라보게 하고 싶다. 2년 전 인터뷰에서 당신은 다양한 인격을 연기하는 ‘역할놀이형 챗봇’에는 관심이 없다고 했다. 하지만 업계의 흐름은 조금 다르다. 일론 머스크의 그록(Grok)은 끼 부리는(flirty) 대화 경험을 전면에 내세우고 있고, 오픈AI 역시 챗GPT를 통해 성인 대상의 새로운 상호작용을 실험해 보고 싶다는 견해를 밝혔다. 분명 시장은 존재한다. 그런데도 당신은 그 영역을 계속 피하려는 건가?  그렇다. 우리는 결코 성 로봇을 만들지 않을 것이다. 이런 점을 굳이 명확히 밝혀야 한다는 게 다소 씁쓸하긴 하지만, 그것은 우리 회사의 사명과는 거리가 멀다. 마이크로소프트가 지난 50년 동안 일관되게 해온 일은 사람에게 힘을 실어주는 소프트웨어를 만들고, 인간을 중심에 두는 것이었다. 그 때문에 다른 스타트업들보다 의사결정이 느리고, 더 신중하게 움직일 때도 있다. 그러나 나는 이것이 단점이 아니라 오히려 장점이라고 생각한다

상세 분석

. 기술의 부작용이나 장기적 결과에 세심히 주의를 기울이는 일이 그 어느 때보다 중요한 시대이기 때문이다. 그게 구체적으로 어떤 의미인가? AI가 의미 있는 관계를 만들어내게 하려고 우리가 노력하고 있다는 점을 분명히 하고 싶다. 단지 차갑고 무미건조하게 만들려는 것은 아니다. 유연하고 명료하면서도 친절하며, 분명 감정 지능도 어느 정도 갖춘 AI를 목표로 하고 있다. 그렇다면 그 경계는 어떻게 정하는가? 우리 최신 챗 모델인 리얼 톡은 조금 더 까칠한 편이다. 조금 장난스럽고, 재미있으며, 꽤 철학적인 대화를 나눌 수도 있다. 삶의 의미 같은 큰 질문도 기꺼이 이야기한다. 하지만 챗봇에게 성적인 호감을 표시하면, 분명하게 거절한다. 사용자를 비난하거나 평가하는 식은 아니지만, 단순히 “이건 나랑 맞지 않아”라는 느낌을 준다. 그런 경험을 원하면 다른 곳으로 가면 되지 않겠나? 이건 우리 회사가 내린 결정이기도 하다. 성적 호감 표시 금지만으로 충분할까? 대화 속에서 어떤 ‘존재’나 ‘의식’이 있는 듯한 착각을 막는 게 목표라면, 애초에 공공장소에서 봐도 무리 없는(SFW) 안전한 대화를 지향하는 챗봇에서도 그런 착각은 여전히 생길 수 있지 않나. 솔직히 말해, “업무적인 선에서 이야기하자”고 말하는 성격의 챗봇이라 해도, 그 안에서 어떤 존재감을 느끼는 사람은 분명 있을 테니 말이다. 이해를 돕기 위해 비유를 하나 들어보겠다. 직장에서는 서로 책임을 지도록 만든다. 행동을 조율하는 구조가 있어서, 이 체계 안에서 인간 행동을 기능적으로 맞추고, 다른 사람에게 불쾌감을 주지 않도록 다듬는 셈이다. 개인 생활도 마찬가지다. 먼 친척과 상호작용을 하는 방식과 형제를 대하는 방식은 매우 다르다. 실제 인간관계에서 선을 지키는 방식으로부터 배울 점이 많다. 감정적·관능적으로 완전히 개방되어 극도의 몰입으로 사람을 나선형 토끼 굴에 빠뜨리거나, 정반대의 폐쇄적인 태도로 차갑고 무미건조할 필요는 없다. 그사이에는 거대한 스펙트럼이 존재하고, 우리 업계와 인류가 배우고 있는 기술은 이런 속성들을 잘 조형하는 것이다. 이 속성들은 분명 그것을 설계하는 회사의 가치관을 반영한다. 그리고 나는 바로 이 지점에서 마이크로소프트가 강점이 있다고 본다. 우리 회사의 가치가 꽤 명확하고, 그것을 지지하고 있기 때문이다. 많은 사람들이 챗봇의 ‘개성’을 좋아하는 것 같다. 예를 들어 GPT-5 업데이트에 대한 일부 반발은 이전 모델에서 느껴졌던 개성이 사라졌기 때문이었다. 애초에 AI 모델에 강한 개성을 부여하고, 사람들이 그걸 그리워하게 만든 것이 오픈AI의 실수였을까? 아니다, 개성은 좋다. 내가 말하고 싶은 건, 개성 속성들을 좀 더 세밀하게 조형하려고 노력하고 있다는 거다. 앞서 말했듯, 리얼 톡은 멋진 개성이 있는 모델이다. 일반 코파일럿과는 꽤 다르다. 또 우리는 미코라는 시각적 캐릭터도 실험하고 있다. 어떤 사람들은 이 캐릭터를 정말 좋아한다. 훨씬 몰입감이 높고, 다양한 감정적인 질문이나 이야기에도 쉽게 다가갈 수 있다. 질문자로서 궁금한 점이 바로 이 부분이다. 미코 같은 기능은 코파일럿을 더 매력적이고 쓰기 편하게 만들지만, 동시에 ‘진짜 존재가 있다’, ‘친구처럼 교감하고 있다’라는 착각을 막으려는 방향과는 어긋나 보인다. 그렇다. 완전히 차단하는 것은 아니다. 사람들은 자신이 좋아하는 대상과 이야기하고 싶어 한다. 학교에서 친절한 선생님의 수업에 더 몰입하게 되듯, 직장 상사나 사랑하는 이와의 관계도 마찬가지다. 그래서 감정 지능은 언제나 중요한 퍼즐 조각이었고, 우리가 그것을 추구하지 않는다는 뜻은 아니다. 문제는 그 경계를 찾는 기술에 있다. 우리가 절대 다루지 않기로 한 것들이 있는가 하면, 좀 더 실험적으로 접근하는 영역도 있다. 예를 들어 어떤 사람들은 코파일럿이 충분히 반론을 제시하지 않는다고 불평한다. 더 도전적인 반응을 원한다는 것이다. 반면 어떤 사람들은 그런 경험을 원하지 않고, 단순히 정보 제공자 역할만 기대한다. 우리의 과제는 다양한 사람들에게 어떤 경험을 제공할지 구분하고 조율하는 방법을 배우는 것이다. AI와 인간의 관계에 대해 오랫동안 고민해 온 걸로 안다. SCAI에 대한 논의를 업계에서 본격적으로 시작해야겠다고 생각하게 된 특별한 계기가 있나?

정리

학계에서는 인공지능에 도덕적 고려(moral consideration)를 부여해야 한다는 논의가 생겨나고 있다. 여기서 말하는 도덕적 고려란, AI의 행동이나 상태를 옳고 그름의 판단 대상으로 보고 윤리적으로 신경 써야 한다는 의미다. 하지만 나는 그런 접근이 더 시급한 과제인 인간과 동물의 권리 보호에 대한 관심을 흐트러뜨릴 수 있다고 본다. AI에게 권리를 부여한다는 건, 곧 그것이 자율성과 자유 의지를 가진 존재라는 전제를 포함한다. 나는 바로 그 점에 반론을 제기하고 싶었다. AI는 결코 자유 의지를 갖지 않으며, 인간과 같은 완전한 자율성을 가지지도 않는다. AI는 어디까지나 우리의 대리인으로서 행동할 수 있을 뿐, 인간을 위해 일하는 존재다. 길들지 않은 늑대 무리가 인간과 자원을 두고 자유롭게 경쟁하는 세상을 상상해 보라. 대부분의 사람은 이를 위협으로 느끼고, 그런 늑대를 제거해야 한다고 생각할 것이다. AI의 통제되지 않은 자율성도 마찬가지다. 그럼 요점은 AI 복지나 권리 논의가 시작되기도 전에, SCAI를 만들지 않음으로써 그 움직임을 막겠다는 것 같다. 하지만 또 한편으로는, 일부 취약한 사람들이 그런 AI에 속아 해를 입지 않도록 하겠다는 이유도 있지 않나? 이 두 가지는 별개의 문제로 보이는데. 결국 AI가 인간 행동에 미치는 영향을 판단하는 기준은 각 연구소가 내놓는 기능과 AI의 개성이 될 것이다. 그렇다면 한 가지 우려가 생긴다. 우리는 지금, 사람들로 하여금 실제로는 존재하지 않는 것을 ‘있다’고 착각하게 만드는 기술을 개발하고 있는 걸까? 사실 지금보다 훨씬 단순한 모델에서도 ‘의식이 있는 것 같다’고 주장한 사람들이 있었다. 이런 현상은 결국 피할 수 없을까? 그럴 수도 있다. 하지만 내가 말하고 싶은 핵심은, 책임 있는 개발자라면 사람들이 그런 착각으로부터 스스로 벗어날 수 있을 것이라 당연하게 여기지 말고, 그런 패턴이 나타나기 시작하면 최대한 빨리 감지하도록 노력해야 한다는 것이다. 당신이 쓴 SCAI 관련 글을 읽으면서 특히 인상 깊었던 문장이 있다. 그대로 인용하자면 “우리는 사람을 위한 AI를 만들어야지, 디지털 인간을 만들어서는 안 된다”라는 문장이었다. 이를 보고 2024년 TED 강연이 떠올랐다. 그 자리에서 당신은 AI를 ‘새로운 형태의 디지털 종’으로 이해하는 것이 가장 적절하다고 말했다. 하지만 디지털 종이라는 표현이 결국 AI 모델을 디지털 인간이나 의식 있는 존재로 바라보게 만드는 방향으로 이어지는 건 아닌지 궁금하다. 내 핵심은 사람들에게 AI가 어디로 나아갈 수 있는지 이해하기 쉽게 비유를 들어 설명하려는 데 있었다. 그렇게 해야 사람들이 문제가 될 수 있는 방향을 예방하고, 통제하는 방법도 알 수 있기 때문이다. 이 말은 우리가 반드시 그렇게 해야 한다는 뜻은 아니다. 다만 이것이 인류 역사상 유례가 없는 기술의 출현이라는 점을 지적하는 것이다. 단순히 도구이거나, 그냥 챗봇이거나, 멍청한 존재라고 가정하면 안 된다. 내가 그 TED 강연을 했을 때도 많은 회의론 속에서 이야기한 맥락이다. 중요한 것은 다가오는 변화를 냉정하게 바라보고, 올바른 안전장치를 고민할 수 있도록 하는 것이다. 그렇지만 여전히, 당신이 이 기술을 새로운 디지털 ‘종’이라고 말한다면, ‘AI의 문제도 고려해야 하는 것 아닌가’라고 말하는 사람들의 입장에 어느 정도 공감이 간다. (웃음을 터뜨리며) 나는 전혀 그렇게 생각하지 않는다. 정말 그런 생각은 조금도 없다. 그런 방향으로 가고 싶은 사람은 아무도 없다. 아니, 내 말은 그게 아니다. 챗봇의 복지를 챙겨야 한다고 생각하는 건 아니다. 다만 무스타파 술레이만이 자신이 만들고 있는 것을 ‘새로운 디지털 종’이라고 말하는 걸 들은 사람들이 왜 그런 주장을 하게 되는지는 이해할 수 있다는 뜻이다. 그 입장을 어느 정도 공감할 수 있다는 거다. 결국, 우리가 사용하는 언어 표현이 중요하다는 이야기다. TED 강연의 나머지 부분은 AI를 어떻게 통제하고, 이 ‘종’이 세상을 지배하지 않도록 막는 방법에 관한 내용이었다. 그 비유를 꺼낸 이유도 바로 여기에 있다. 즉 ‘이런 변화가 곧 닥칠 것’이라는 문제의식을 제시한 것이다. 내 책 『더 커밍 웨이브(The Coming Wave, 2023)』 전체가 바로 이 주제, 즉 통제와 조율에 관한 이야기다. AI를 과소평가하면서 실제와 맞지 않는 안전장치나 경계를 세우는 건 아무 의미가 없다. 솔직히 말해 AI는 스스로를 반복적으로 향상할 잠재력이 있다. 스스로 목표를 설정할 가능성도 있다. 이는 매우 중대한 변화이며, 지금껏 우리가 만든 어떤 기술도 그런 능력을 갖춘 적은 없다. 그렇기에 AI를 ‘새로운 디지털 종’이라고 부르는 것이 오히려 정확하다고 생각한다. 다만 우리가 그 종을 통제하려는 이유는 언제나 인간을 위한 존재로 남게 하기 위함이다. 그것이 바로 ‘통제’의 목표다. The post [인터뷰] 무스타파 슐레이만 “결단코 섹스로봇을 만들지 않겠다” appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. IT/기술 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다