AGI는 어떻게 이 시대의 가장 강력한 ‘음모론’이 되었나?
IT/기술 전문 정보

당신도 느끼고 있는가? 많은 이들이 AGI 시대가 머지않았다고 말한다. 2년, 5년, 어쩌면 내년에 새로운 시대가 도달할 것이라는 기대가 확산되고 있다. AGI가 질병을 고치고 지구를 구하며 풍요의 시대를 열 것이라는 주장부터 지금은 상상조차 할 수 없는 방식으로 우리의 가장 큰 난제들을 해결하고 인간다움의 의미 자체를 다시 정의하게 되리라는 예측까지 다양한 전망이 쏟아지고 있다. 하지만 너무 낙관적인 견해에 치우친 것은 아닐까? 필자는 AGI가 인류의 종말을 불러오고 우리 모두를 파멸시킬 것이라는 암울한 경고도 듣곤 한다. 어느
핵심 특징
고품질
검증된 정보만 제공
빠른 업데이트
실시간 최신 정보
상세 분석
전문가 수준 리뷰
상세 정보
핵심 내용
당신도 느끼고 있는가? 많은 이들이 AGI 시대가 머지않았다고 말한다. 2년, 5년, 어쩌면 내년에 새로운 시대가 도달할 것이라는 기대가 확산되고 있다. AGI가 질병을 고치고 지구를 구하며 풍요의 시대를 열 것이라는 주장부터 지금은 상상조차 할 수 없는 방식으로 우리의 가장 큰 난제들을 해결하고 인간다움의 의미 자체를 다시 정의하게 되리라는 예측까지 다양한 전망이 쏟아지고 있다. 하지만 너무 낙관적인 견해에 치우친 것은 아닐까? 필자는 AGI가 인류의 종말을 불러오고 우리 모두를 파멸시킬 것이라는 암울한 경고도 듣곤 한다. 어느 쪽 이야기를 따르든, 시점이 언제가 되었든, 거대한 변화가 우리를 기다리고 있다는 데에는 모두가 동의하는 분위기다. 이쯤 되면 이 기사가 예수의 재림 이야기를 하려는 것처럼 보일 수도 있다. 혹은 천국의 문(Heaven’s Gate) 신자들이 믿었던 것처럼 UFO가 나타나 그들을 계몽한 외계 존재로 변화시키는 순간에 대한 이야기를 기대할 수도 있을 것이다. 아니면 극우 음모론자 Q가 예언한 것처럼 트럼프 대통령이 마침내 심판을 시작하는 순간을 떠올릴지도 모른다. 하지만 모두 틀렸다. 우리가 이야기하려는 것은 인간의 두뇌가 할 수 있는 거의 모든 일을 수행할 수 있을 것으로 기대되는 가상의 기술, 바로 범용인공지능(Artificial General Intelligence, 이하 AGI)이다. 많은 사람들에게 AGI는 단순한 기술 그 이상이다. 실리콘밸리 같은 기술 중심지에서는 AGI가 거의 신비로운 존재처럼 다뤄진다. 전해지는 이야기에 따르면 오픈AI의 공동 창립자이자 전 최고과학책임자였던 일리야 수츠케버(Ilya Sutskever)는 팀 회의에서 “AGI를 느껴라(Feel the AGI!)”라는 구호를 외쳤다고 한다. 그는 누구보다도 이 아이디어에 몰두해 있다. 2024년 그는 “AGI가 인류 전체에 이익이 되도록 한다”는 사명을 내세운 오픈AI를 떠나 ‘세이프 슈퍼인텔리전스(Safe Superintelligence)’라는 스타트업을 공동 창립했다. 이 회사는 이른바 통제 불가능한 AGI(rogue AGI)를 예방하거나 이를 통제할 방법을 연구하는 곳이다. 초지능(Superintelligence)이란 AGI 관련 논의가 보편화되면서 등장한 새로운 유행어로 AGI보다 더 진보한 형태의 인공지능(AI)을 뜻한다. 수츠케버에게서는 ‘AGI 전도사’를 자처하는 인물들에게서 자주 나타나는 복잡한 내면도 엿볼 수 있다. 그는 AGI라는 미래 기술의 기반을 다진 인물이지만, 지금은 오히려 그 기술을 두려워하고 있다. 그는 오픈AI를 떠나기 몇 달 전 필자와의 인터뷰에서 “세상을 바꿀 역사적인 사건이 될 것이다. 그리고 그 순간을 기점으로 ‘이전’과 ‘이후’가 명확히 갈릴 것”이라고 말했다. 그는 기술 개발자에서 통제자로 전향한 이유에 관해 묻자 “나 자신을 위한 선택이다. 누가 만들든, 어떤 초지능도 통제 불능 상태가 되어서는 안 된다. 이는 너무도 자명한 사실이다”라고 답했다. 이처럼 야심 차면서도 종말론적인 발상은 수츠케버만의 견해가 아니다. 모든 시대에는 어떤 거대한 변화가 임박했다고 굳게 믿는 사람들이 있다. 그들은 스스로 그 순간을 살아갈(혹은 견뎌낼) 운명을 타고났다고 생각한다. 오늘날 우리에게 예고된 변화의 순간은 바로 AGI의 도래다. 에든버러 대학교에서 기술 윤리를 연구하는 섀넌 밸러(Shannon Vallor)는 “사람들은 늘 ‘이번이야말로 미래를 바꿀 새로운 기술이 등장할 것이다’라는 말을 들어왔다”고 말한다. 그녀는 “컴퓨터의 시대가 지나 인터넷의 시대가 왔고, 이제는 AI의 시대다. 항상 또 다른 ‘미래’가 우리를 기다리고 있다”며 “다만 다른 점이 있다면 컴퓨터나 인터넷과 달리 AGI는 아직 존재하지 않는 것”이라고 덧붙였다. ‘AGI를 느낀다’는 구호가 단순히 다음 혁신을 독려하는 일과 다른 이유도 바로 여기에 있다. 그 이면에서는 훨씬 더 기이한 현상이 벌어지고 있다. 필자는 AGI가 음모론과 매우 유사한 면이 있으며, 어쩌면 이 시대의 가장 영향력 있는 음모론일지도 모른다고 생각한다. 필자는 10년 넘게 AI를 취재하며 AGI라는 개념이 주변부의 이야기에서 출발해 산업 전반을 재편하는 주류 서사로 부상하는 과정을 지켜봤다. 한때 허황된 꿈에 불과했던 아이디어가 이제는 세계에서 가장 가치 있는 기업들의 수익 구조를 떠받치는 중심축이 되었고, 어떤 의미에서는 미국 증시를 지탱하는 기반이 되었다고도 할 수 있다. AGI 실현이라는 명목 아래 발전소와 데이터센터에 막대한 선투자가 이뤄지고 있다. AI 기업들은 이 가상의 기술에 심취한 채 그 꿈을 끊임없이 우리에게 되팔고 있다. 이 기업들의 최고경영자들이 하는 말을 들어보면 그 열풍이 얼마나 과장된 것인지 알 수 있다. 그들은 AGI가 “천재들로 이루어진 하나의 국가만큼 똑똑해질 것”(다리오 아모데이 앤트로픽 CEO)이며, “인류가 별을 여행하고 은하에 식민지를 세우는 인간 번영의 극대화 시대를 열 것”(데미스 허사비스 구글 딥마인드 CEO)이라고 말한다. “AGI가 풍요와 번영을 비약적으로 높이고, 사람들이 삶을 더 즐기며 더 많은 아이를 낳을 수 있게 할 것”(샘 올트먼 오픈AI CEO)이라는 주장도 있다. 어떻게 보면 하나의 완벽한 ‘상품’처럼 느껴지기도 한다. 하지만 그 반대의 서사도 잊어서는 안 된다. 이들은 유토피아를 내세우지 않을 때면 인류의 파멸을 경고하는 시나리오를 퍼뜨린다. 2023년 아모데이, 허사비스, 올트먼 세 사람은 “AI로 인한 멸종 위험을 해소하는 것은 팬데믹이나 핵전쟁과 같은 전 인류적 위험과 함께 전 세계적 우선순위가 되어야 한다”라는 짧은 공동 성명을 발표했다. 일론 머스크 역시 AI가 인류를 파멸시킬 확률이 20%에 달한다고 경고했다. AI 연구 관련 조사기관 AI 임팩츠(AI Impacts)의 수석연구원 카티아 그레이스(Katja Grace)는 “최근 들어 ‘초지능’이라는 단어가 테크 기업 CEO들의 입에서 일상적으로 오르내리고 있다. 예전에는 이 개념이 공적인 자리에서 진지하게 논의되기 어려운 일종의 금기어처럼 여겨졌다. 하지만 이제는 오히려 CEO들이 초지능을 직접 개발하겠다고 공언하고 있다”고 말했다. 그녀는 “사람들은 이 상황을 별다른 문제의식 없이 받아들이기 쉽다. 그들은 그 기술이 결국 인류를 멸망시킬 수도 있다고 말하면서도, 그 이야기를 하는 동안에는 미소를 짓고 있다”고 덧붙였다. 솔직히 이 모든 이야기가 음모론처럼 들리는 건 사실이다. 음모론이 성립하려면 몇 가지 요소가 필요하다. 그것은 일이 계획대로 되지 않아도 믿음을 유지할 수 있을 만큼 유연한 서사, 숨겨진 진실을 밝혀야만 실현될 수 있는 더 나은 미래에 대한 약속, 그리고 이 세상의 고통에서 구원받을 수 있다는 희망이다. AGI는 이 모든 조건에 거의 완벽하게 부합한다. 그 개념을 깊이 들여다볼수록, 음모론에 더 가까워 보이기 시작한다. 물론 이를 음모론으로 단정할 수는 없다. 또한 이 분야에서 실제로 놀라운 성과를 거둔 사람들(특히 AGI 신봉자들)의 노력을 깎아내리기 위해 이런 의문을 제기하는 것도 아니다. 하지만 우리는 AGI가 실제 음모론과 닮은 점들을 살펴봄으로써 그 실체를 더 명확히 이해할 수 있다. 이러한 접근은 AGI의 본질을 더욱 분명히 드러낸다. 그것은 바로 이 개념이 기술 낙관주의적(혹은 기술 비관주의적) 믿음에 깊이 뿌리를 내리고 있어 쉽게 떨쳐낼 수 없는 집단적 망상이라는 점이다. 도발적인 사고실험을 하려는 것이 아니다. AGI에 대해 우리가 듣게 되는 이야기들을 의심해 보는 일은 중요하다. 이를 비판 없이 받아들이는 것은 결코 도움이 되지 않기 때문이다. 현재 AGI는 기술 산업, 더 나아가 세계 경제 전반에서 가장 큰 영향력을 지닌 서사다. AI 분야에서 벌어지는 일을 제대로 이해하려면 AGI라는 개념이 어디서 유래했는지, 왜 그토록 매력적으로 느껴지는지, 그리고 그것이 기술에 대한 우리의 인식에 어떤 영향을 미치는지를 살펴봐야 한다. 물론 AGI를 음모론에 빗대는 것이 완벽한 비유는 아니라는 점은 인정한다. 이런 생각이 많은 이들의 반감을 살 것이라는 점도 잘 알고 있다. 하지만 이 의문을 함께 파헤쳐 보자. 그 끝에서 우리는 어떤 실마리를 발견하게 될지도 모른다. 실리콘밸리는 어떻게 AGI를 신봉하게 되었나? 매혹적인 시나리오 대부분의 음모론은 주변부에서 시작된다. 온라인 게시판에서 ‘증거’를 모으는 몇몇 사람들, 혹은 망원경을 들고 사막 어딘가에서 하늘의 빛을 기다리는 소수로부터 비롯되기도 한다. 그러나 어떤 음모론은 운이 좋아 점점 더 널리 퍼지고, 조금씩 그럴듯한 이야기로 들리기 시작하며, 마침내 영향력 있는 인물들에게까지 파급된다. 이제는 정부 청문회에서 공식적으로 논의되는 UFO(정확히는 ‘미확인 비행 현상’) 문제를 떠올려 보라. 훨씬 더 위험한 사례지만, 백신 회의론이 공식 정책으로 채택된 경우도 있다. 그리고 AGI가 이와 상당히 비슷한 흐름을 보인다는 사실은 부정하기 어렵다. 2007년으로 거슬러 올라가 보자. 당시 AI는 지금처럼 주목받는 분야도, 세련된 기술도 아니었다. 당시 머신러닝 모델은 아마존이나 여전히 DVD를 우편으로 배송하던 넷플릭스 같은 기업들이 고객에게 영화나 책을 추천하는 데 사용하는 기초적인 수준에 그쳤다. 지금의 대형언어모델(LLM)에 비하면 그야말로 원시적인 수준의 시스템이었고, 그게 전부였다. 그러나 벤 괴르첼(Ben Goertzel)은 훨씬 더 원대한 비전을 품고 있었다. 그보다 약 10년 전, 그는 AI 연구자로서 ‘웹마인드(Webmind)’라는 닷컴 스타트업을 설립해 초기 인터넷 환경에서 일종의 ‘디지털 아기 두뇌’를 훈련시키려 했다. 하지만 웹마인드는 끝내 성장하지 못한 채 문을 닫았다. 괴르첼은 오래 전부터 인간과 유사한 AI, 즉 인간이 할 수 있는 대부분의 일을 수행하고 그보다 더 잘 해낼 수 있는 범용 컴퓨터 프로그램을 꿈꿔온 비주류 연구자 집단에서 영향력 있는 인물이었다. 그의 비전은 당시 넷플릭스가 실험하던 기술 수준을 훨씬 뛰어넘는 것이었다. 그는 자신의 비전을 세상에 널리 알릴 책을 내고자 했고, 당시의 평범한 AI 기술과는 확연히 구분되는 이름이 필요했다. 그러던 중 전 웹마인드 직원 셰인 렉(Shane Legg)이 ‘범용인공지능(AGI)’이라는 명칭을 제안했다. 한 번 들으면 쉽게 잊히지 않는 이름이었다. 몇 년 뒤, 렉은 데미스 허사비스, 무스타파 술레이만과 함께 딥마인드를 공동 설립했다. 그러나 당시 대다수의 AI 연구자는 AI가 언젠가 인간의 지능을 모방하게 될 것이라는 주장을 농담처럼 받아들였다. 오픈AI의 일리야 수츠케버는 “AGI는 한때 금기어였다”고 말했고, 구글 브레인의 창립자이자 중국 테크기업 바이두의 전 수석과학자 앤드루 응 역시 “터무니없는 소리라고 생각했다”고 밝혔다. 그 이후에 대체 무슨 일이 있었던 걸까? 최근 필자는 괴르첼을 만나 한때 비주류로 여겨지던 아이디어가 어떻게 상식처럼 받아들여지게 되었는지 물었다. 그는 “나는 복잡계와 혼돈 시스템을 연구하는 사람이기 때문에 밈 생태계에서 어떤 비선형 역학이 작동했는지 정확히 잘 모르겠다”고 답했다(쉽게 말해, 복잡하다는 뜻이다). 괴르첼은 몇 가지 요인이 AGI라는 개념을 주류로 끌어올렸다고 본다. 첫 번째는 범용인공지능 콘퍼런스(Conference on Artificial General Intelligence)다. 그는 자신의 저서가 출간된 이듬해인 2008년, 이 연례 학회를 창립하는 데 참여했다. 이 콘퍼런스는 전미인공지능협회(AAAI)나 국제인공지능공동회의(IJCAI) 등 주요 학술 행사와 자주 연계되어 개최되었다. 괴르첼은 “만약 내가 AGI라는 제목의 책만 냈다면 이 개념은 잠시 주목받다가 사라졌을 수도 있다. 하지만 이 학회는 매년 열렸고, 참석하는 학생 수도 점점 늘어났다”고 설명했다. 두 번째는 렉의 역할이었다. 그는 이 용어를 딥마인드로 가져갔다. 괴르첼은 “딥마인드가 AGI를 언급한 최초의 주류 기업이었던 것 같다”며 “그들이 강조했던 것은 AGI뿐만이 아니었지만 셰인과 데미스는 이 용어를 종종 사용했고, 이는 AGI 개념이 정당성을 확보하는 데 큰 영향을 미쳤다”고 말했다. 필자가 5년 전 렉을 처음 인터뷰했을 때 그는 “2000년대 초반에 AGI 이야기를 꺼내면 정신 나간 사람으로 취급받았다. 2010년에 딥마인드를 설립했을 때도 학회에서는 말도 안 되는 이야기라는 반응이 대부분이었다.” 그러나 2020년이 무렵에는 분위기가 달라졌다. 렉은 “여전히 이런 생각을 불편하게 느끼는 사람들도 있지만 이제는 점점 주류로 받아들여지고 있다”고 말했다. 괴르첼이 꼽는 세 번째 요인은 초기 AGI 전도사들과 실리콘밸리 거물 사이의 교류다. 웹마인드를 폐업한 후 AGI 관련 저서를 출간하기 전까지 그는 몇 년 동안 피터 틸(Peter Thiel)의 헤지펀드 클라리움 캐피털(Clarium Capital)에서 일했다. 괴르첼은 “그와 여러 차례 이야기를 나눴다”며 샌프란시스코 포시즌스 호텔에서 틸과 하루 종일 대화를 나눴던 일을 떠올렸다. 그는 “나는 그에게 AGI 개념을 주입하려 애썼다”고 회고하며 “하지만 틸은 동시에 엘리저로부터 ‘AGI가 결국 인류를 멸망시킬 것’이라는 이야기도 듣고 있었다”고 덧붙였다. 종말론자의 등장 여기서 말하는 인물이 바로 엘리저 유드코스키(Eliezer Yudkowsky)다. 그는 AGI라는 개념을 확산시키는 데 있어 괴르첼 못지않게, 어쩌면 그보다 더 큰 영향을 미친 인물이다. 그러나 괴르첼과 달리 유드코스키는 AGI 개발이 재앙으로 이어질 가능성이 매우 높다고 본다. 그가 제시한 수치는 무려 99.5%나 된다. 2000년 유드코스키는 인공지능 특이점 연구소(Singularity Institute for Artificial Intelligence, 이후 기계지능 연구소(Machine Intelligence Research Institute)로 개칭)를 공동 설립했다. 이 단체는 비교적 이른 시기부터 AGI로 인한 파국적 시나리오를 막는 데 연구 초점을 두기 시작했다. 피터 틸은 초기 후원자였다.
상세 분석
초기에는 유드코스키의 주장이 큰 주목을 받지 못했다. 당시만 해도, 위험한 인공지능은 물론이고 전능한 AI 자체가 공상과학 소설 속 이야기로 치부되던 시기였다. 그러다 2014년, 옥스퍼드대학교 철학자 닉 보스트롬이 《초지능(Superintelligence)》이라는 책을 출간하면서 분위기가 달라지기 시작했다. 괴르첼은 “보스트롬의 책은 AGI라는 개념을 대중적으로 알리는 데 큰 역할을 했다. 빌 게이츠, 일론 머스크를 비롯한 많은 AI 업계 인사들이 그 책을 읽었다. 닉은 유드코스키의 종말론적 시각에 대한 동의 여부를 떠나 그가 주장한 개념을 훨씬 더 이해하기 쉬운 방식으로 풀어냈다”고 평가했다. 괴르첼은 “이 모든 요소는 AGI라는 개념이 공식적으로 타당성을 인정받는 계기가 되었다”며 “더 이상 현실 의식이 없는 괴짜들이 떠들어대는 허무맹랑한 이야기처럼 여겨지지 않게 된 것”이라고 덧붙였다. STEPHANIE ARNETT/MIT TECHNOLOGY REVIEW | PUBLIC DOMAIN 유드코스키는 25년째 같은 경고를 반복해 왔다. 오늘날 주요 AI 기업에서 일하는 엔지니어 중 상당수는 젊은 시절 그의 글을 온라인에서 읽고 토론하며 자랐다. 특히 기술 업계의 합리주의자와 효과적 이타주의자들이 모여 열성적으로 토론하는 커뮤니티 ‘레스롱(LessWrong)’은 그의 사상이 널리 확산된 중심 무대였다. 오늘날 이런 견해는 더 크게 주목받고 있으며, 데이비드 크루거(David Krueger) 같은 젊은 세대의 종말론자들에게 깊은 영향을 미치고 있다. 크루거는 몬트리올대학교 연구자이며, 영국의 AI 안전성 연구 기관인 AI 안전 연구소(AI Security Institute)의 전 연구 책임자를 역임한 바 있다. 그는 필자에게 “우리는 분명 인류를 몰살시킬 수 있는 초인적 AI 시스템을 만들어가고 있다고 생각한다. 그건 정말 끔찍한 일이며, 당장 중단해야 한다”고 말했다. 유드코스키는 이제 ‘뉴욕타임스’를 비롯한 주요 매체에서 ‘실리콘밸리의 종말 예언자’로 소개된다. 그는 최근 기계지능 연구소 소장 네이트 소어스(Nate Soares)와 함께《누군가 만들면, 모두가 죽는다(If Anyone Builds It, Everyone Dies)》라는 제목의 책을 펴냈다. 이 책은 뚜렷한 근거 없이도 AGI 개발을 멈추지 않으면 가까운 미래에 인류가 전멸할 것이라는 급진적인 주장을 담고 있다. 두 저자의 입장은 극단적이다. 그들은 어떤 대가를 치르더라도 국제적인 금지 조치를 시행해야 하며, 필요 시 핵 보복까지 고려해야 한다고 주장한다. 그들은 “데이터 센터가 핵무기보다 더 많은 사람을 죽일 수 있다”고 경고한다. 이런 주장은 더 이상 비주류 담론이 아니다. 이 책은 ‘뉴욕타임스’ 베스트셀러에 이름을 올렸고, 미국 국토안보부 전 고위 관계자 수전 스폴딩(Suzanne Spaulding), 백악관 국가안보회의(NSC) 전 선임국장으로서 현재는 영국 정부 자문을 맡고 있는 피오나 힐(Fiona Hill)을 비롯한 국가 안보 전문가들뿐 아니라, 물리학자 맥스 테그마크(Max Tegmark), 유전학자 조지 처치(George Church) 같은 유명 과학자들, 그리고 스티븐 프라이(Stephen Fry), 마크 러팔로(Mark Ruffalo), 아티스트 그라임스(Grimes) 등 대중적인 인사들의 지지까지 받았다. 유드코스키는 이제 대중을 향해 직접 메시지를 전할 수 있는 강력한 채널을 갖추게 되었다. 그러나 실제로 가장 큰 파급력을 발휘한 것은 초기 단계에서 특정 인물들의 귀에 조용히 들어간 말들이었을지도 모른다. 유드코스키는 딥마인드의 공동 창업자들을 틸에게 처음 소개한 인물로 알려져 있으며, 이후 틸은 이 회사의 초기 주요 투자자 중 한 명이 되었다. 딥마인드는 이후 구글에 인수됐고, 현재는 대규모 복합 기업 집단인 알파벳의 사내 AI 연구소로 운영되고 있다. 틸은 머스크와 함께 2015년 오픈AI 설립에도 중요한 기여를 했다. 이들은 AGI 개발과 안전 확보라는 단일 목표를 내건 스타트업에 수백만 달러를 투자했다. 2023년 올트먼은 X(구 트위터)에 “엘리저는 누구보다 AGI 발전을 앞당긴 인물이다. 실제로 우리 중 많은 사람이 그의 영향을 받아 AGI에 관심을 갖게 됐다”는 글을 남겼다. 올트먼은 유드코스키가 언젠가는 노벨평화상을 받을지도 모른다고 덧붙이기도 했다. 반면 그즈음 틸은 ‘AI 안전주의자들’의 영향력이 점점 커지는 것에 대해 불편함을 느끼기 시작한 것으로 보인다. 키치 헤이지(Keach Hagey) ‘월스트리트저널’ 기자에 따르면 2023년 말 저녁 식사 자리에서 틸은 올트먼에게 “당신은 당신 회사 직원 절반이 엘리저에게 세뇌당했다는 걸 모르고 있다. 이 문제를 좀 더 심각하게 받아들일 필요가 있다”고 경고했고, 올트먼은 당황한 기색을 감추려 애썼다고 한다. 현재 오픈AI는 기업 가치 5,000억 달러로, 세계에서 가장 높은 가치를 지닌 비상장 기업이 되었다. 이제 과도기는 끝났다. 다른 강력한 음모론과 마찬가지로, AGI는 어느새 주류 담론에 스며들어 세상을 움직이고 있다. AGI라는 거대한 음모 ‘AGI’라는 용어가 널리 쓰이기 시작한 지는 아직 20년도 되지 않았지만, 그 저변에 깔린 신화적 상상은 컴퓨터가 등장한 시점부터 존재해 왔다. 마치 우주배경복사처럼 과장된 자신감과 마케팅으로 짜인 담론의 흐름이 오래전부터 이어져 온 것이다. 1945년 세계 최초의 전자식 컴퓨터 에니악(ENIAC)이 등장한 지 불과 5년 뒤, 앨런 튜링은 “기계가 사고할 수 있는가”라는 질문을 던졌다. 그리고 1951년 라디오 방송에서 그는 “기계가 사고하는 기술이 일단 개발되면 인간의 빈약한 능력을 능가하는 데 그리 오래 걸리지 않을 것이다. 기계는 죽지도 않고, 서로 대화를 나누며 사고 능력을 더욱 발전시킬 수 있다. 결국 어느 시점에는 기계가 통제권을 쥐게 될 가능성도 고려해야 할 것이다”라고 말했다. 이후 1955년 컴퓨터 과학자 존 매카시와 그의 동료들은 미국 정부에 연구 자금을 신청하면서 그 연구 주제를 ‘인공지능(Artificial Intelligence)’이라 명명했다. 당시 컴퓨터는 방 하나를 가득 채울 정도로 컸고, 기능은 온도조절기 수준에 불과했지만, 이 명칭은 상당히 영리한 선택이었다. 매카시는 연구 제안서에 “기계가 언어를 사용하고, 추상적인 원리와 개념을 도출하며, 현재 인간만이 해결할 수 있는 문제를 해결하고, 스스로를 개선할 수 있도록 하는 방법을 모색하고자 한다”고 적었다. 바로 이러한 신화가 AGI 음모론의 뿌리를 이루고 있다. 인간보다 똑똑하고 모든 것을 해낼 수 있는 기계는 기술이라기보다는 현실과 동떨어진 하나의 꿈이다. 이 점을 인식하는 순간 AGI에 대한 믿음과 음모론적 사고방식 사이의 유사성이 뚜렷하게 드러나기 시작한다. 정의하기 힘들고, 반박하기도 어려운 AGI AGI에 관해 이야기하는 것은 때로 미국의 토론 웹사이트인 레딧의 열성 사용자와 마음을 조종하는 약물 혹은 공중 입자에 대해 논쟁하는 것처럼 느껴질 수 있다. 상대방은 여러분이 진실이라고 믿는 모든 주장을 하나하나 반박하며 끊임없이 의문을 던진다. 결국 이러한 논의는 증거에 기반한 합리적 토론이라기보다는 서로 다른 세계관의 충돌에 가깝다. AGI도 마찬가지다. 명확히 정의하기 어려울 뿐 아니라, 실체를 파악하기도 쉽지 않다. 중요한 문제 중 하나는 막대한 자금 투입과 논의에도 불구하고 아직 아무도 AGI를 어떻게 구축해야 할지 모른다는 사실이다. 더 나아가, 대부분의 사람은 AGI의 정의에 대해서도 합의점을 도출하지 못하고 있다. 이로 인해 AGI가 세상을 구할 수도, 파괴할 수도 있다는 모순되는 주장들이 동시에 받아들여지고 있다. 대부분의 정의에서는 AGI를 ‘인간과 동등한 수준으로 광범위한 인지적 과제를 수행할 수 있는 기계’로 설명한다(참고로 ‘초지능’은 AGI의 진화된 형태로, 인간을 능가하는 지능을 뜻한다). 하지만 이러한 정의조차 불완전한 면이 많다. ‘인간’이라면 구체적으로 누구를 말하는가? ‘인지 과제’란 어떤 작업을 의미하는가? ‘광범위한’이란 정확히 어느 정도를 말하는가? AI 헬스케어 스타트업 리리오(Lirio)의 최고 인공지능 과학자이자 오크리지 국립연구소(Oak Ridge National Laboratory) 컴퓨터 과학 및 수학 부문 전(前) 책임자인 크리스토퍼 시먼스(Christopher Symons)는 “AGI에는 사실상 명확한 정의가 없다”고 말했다. 그는 이어 “ ‘인간 수준의 지능’이라는 표현도 무한히 많은 의미를 가질 수 있다. 사람마다 지능의 정도가 조금씩 다르기 때문”이라고 설명했다. 시먼스는 “우리는 현재 이상한 경쟁을 펼치고 있다. 하지만 우리가 만들려고 하는 대상은 대체 무엇인가? AGI에게 맡기려는 일은 정확히 무엇인가?”라고 반문했다. 2023년 렉을 포함한 딥마인드 연구팀은 그동안 사람들이 제시해 온 다양한 AGI 정의를 분류하는 작업을 진행했다. 어떤 정의는 기계가 학습 능력을 갖춰야 한다고 했고, 또 다른 정의는 스스로 돈을 벌 수 있어야 한다고 보았다. AGI가 ‘몸을 가진 존재로서 현실 세계를 돌아다닐 수 있어야 하고, 커피 한 잔쯤은 내릴 수 있어야 한다’고 주장하는 정의도 있었다. 렉은 필자에게 자신이 과거 괴르첼의 책 제목에 ‘AGI’라는 용어를 제안했을 때 사실 그 모호함 자체가 의도된 것이었다고 말했다. 그는 당시 “특별히 명확한 정의가 있었던 것은 아니었다. 굳이 필요하다고도 생각하지 않았다”며 “AGI를 어떤 구체적 산물로 보기보다 하나의 연구 분야로 여겼다”고 회고했다. 그렇다면 AGI란 결국 눈앞에 나타나야 비로소 알 수 있는 것일까? 문제는 이미 그것을 보았다고 믿는 사람들이 있다는 점이다. 2023년 마이크로소프트 연구팀은 오픈AI의 대형언어모델 GPT-4의 사전 공개 버전을 테스트한 경험을 논문으로 발표했다. 그들은 이 논문에 “범용인공지능의 불씨(Sparks of Artificial General Intelligence)”라는 제목을 붙였고, 이에 대한 업계의 반응은 극명하게 갈렸다. 당시 많은 연구자는 큰 충격에 휩싸인 채 눈앞에서 벌어지는 현상을 이해하려 애썼다. 괴르첼은 “기계는 기대했던 것보다 훨씬 잘 작동하고 있었다”며 “AGI라는 개념이 실제로 설득력 있게 느껴지기 시작한 순간이었다”라고 평가했다. 하지만 괴르첼은 오늘날의 LLM들이 실제로 AGI의 실현 가능성을 품고 있다고 보지는 않는다. 그는 “이러한 도구의 내부 작동 원리를 잘 이해하고 있는 일부 전문가들마저 LLM이 인간 수준의 AGI로 발전할 수 있다고 믿는다는 사실이 놀랍다”면서도 “하지만 우리는 그러한 주장이 틀렸다는 사실을 입증할 수도 없다”고 덧붙였다. 우리는 “불가능하다는 것을 입증할 수 없다”는 그의 발언에 주목할 필요가 있다. 에든버러 대학교의 섀넌 밸러(Shannon Vallor) 교수는 “AGI가 곧 실현될 것이며, 이미 우리 눈앞에 있고, 결국 피할 수 없다는 생각은 현실과 동떨어진 수많은 주장에 일종의 정당성을 부여해 왔다. 문제는 이를 뒷받침할 근거가 없다는 것”이라고 말했다. 다시 음모론적 사고가 고개를 든다. AGI 도래 시점에 대한 예측은 종말의 순간을 점치는 수비학자의 계산처럼 정교해 보이지만 실체가 없다. 현실적 이해관계가 없다 보니 예고한 날짜가 지나도 대수롭지 않게 넘어가고 해명과 예측 조정만 반복된다. 2025년 여름 오픈AI가 큰 기대를 모았던 GPT-5를 출시했을 때도 같은 양상이 반복되었다. 많은 AI 열성 지지자들은 새 버전이 예상했던 만큼의 도약을 보여주지 못했다는 점에 실망했다. 하지만 그들은 이를 AGI가 실현될 수 없다는 신호로 받아들이기보다는 AGI가 도래할 시점을 더 먼 미래로 미루는 데 그쳤다. 그들에게 AGI는 여전히 곧 실현될 기술이었고, 다만 그 시기만 ‘다음번’으로 미뤄졌을 뿐이었다. 물론 그들의 말이 맞을 수도 있다. 그러나 반대로 사람들이 자신이 믿음을 지키기 위해 유리한 증거만 선택하고, 그와 모순되는 증거는 외면하고 있을 가능성도 있다. 캐나다 맥마스터 대학교에서 기술 분야의 음모론적 사고를 연구하는 제러미 코언(Jeremy Cohen)은 이를 ‘불완전한 증거 수집(imperfect evidence gathering)’이라 부르며, 이는 음모론적 사고의 전형적인 특징이라고 설명했다. 코언의 첫 연구 대상은 애리조나 사막에 있는 피플 언리미티드(People Unlimited)라는 공동체였다. 이들은 구성원들이 불멸의 존재라고 믿었고, 그 신념은 어떤 반증에도 흔들리지 않았다. 창립자 두 명을 포함해 구성원들이 자연사하더라도 그 이유를 다른 방식으로 해석했다. 코언은 “그들 사이에는 ‘모든 죽음은 자살’이라는 인식이 널리 퍼져 있었다. 자신들은 불멸이라고 믿기 때문에 암에 걸려 죽는 일은 있을 수 없으며, 누군가가 죽었다면 그 사람이 무언가 잘못한 결과라고 여겼다”고 설명했다. 코언은 이후 트랜스휴머니즘(기술을 통해 인간의 한계를 초월할 수 있다는 믿음)과 AGI를 중점적으로 연구해 왔다. 그는 “나는 두 주제 사이에서 많은 공통점을 발견한다. AGI에 대한 대중의 상상 속에는 일종의 마법적 사고가 자리하고 있다”며 “이러한 특징은 오늘날 음모론적 사고에서 볼 수 있는 종교적 상상력과도 밀접하게 맞닿아 있다”고 주장했다. 그들만의 비밀을 공유하는 AGI 신봉자들 누군가는 필자의 무지를 탓할지도 모른다. “당신은 AGI에 대해 아무것도 모른다”고 말할 수도 있다. 하지만 바로 그 점이 필자가 지적하고 싶은 부분이다. 이 담론에는 내부자와 외부자가 뚜렷하게 갈린다. 필자가 연구자나 엔지니어와 대화를 나눌 때면 그들은 AGI를 부정할 수 없는 사실로 여기며 눈을 반짝인다. 그들은 마치 필자가 모르는 무언가를 알고 있는 듯하지만, 그것이 정확히 무엇인지는 설명해 준 사람은 아무도 없었다. 그들은 진실이 어딘가에 분명히 존재한다고 믿는다. 코언의 주장에 따르면 음모론의 주된 관심은 숨겨진 진실을 밝히는 데 있다. 그는 “이는 음모론적 사고의 근본적 요소이며, 사람들이 AGI에 대해 말하는 방식에서도 뚜렷하게 드러나는 특징이다”라고 말했다. 지난해 23세의 전 오픈AI 직원이자 투자자인 레오폴드 아셴브레너(Leopold Aschenbrenner)는 ‘상황 인식(Situational Awareness)’이라는 165쪽 분량의 선언문을 공개했다. 이 글을 처음부터 끝까지 읽을 필요는 없다. 요지는 단순하다. 이 선언문은 다가올 미래를 ‘볼 수 있는 사람’과 ‘보지 못하는 사람’으로 나누며, 냉정한 증거나 명확한 사실은 중요하지 않다고 주장한다. 진실은 느끼기만 하면 되고, 이를 보지 못하는 사람들은 아직 깨달음에 이르지 못했을 뿐이라는 논리다. 이러한 사고방식은 필자와 괴르첼의 대화에서도 어렴풋이 느낄 수 있었다. 예컨대 필자가 많은 사람이 AGI에 회의적인 이유에 대해 그는 “인류 비행이나 전기의 발견처럼 역사상 중요한 기술적 성취를 앞두고 항상 수많은 전문가는 ‘절대 실현될 수 없다’고 말했다. 사실 사람들은 대체로 눈앞에 보이는 것만 믿는다”고 답했다.
정리
이러한 발언은 AGI가 일종의 신념처럼 받아들여지고 있음을 시사한다. AGI가 약 5년 안에 개발될 것이라 믿는 크루거에게 이 점을 언급하자 그는 “완전히 거꾸로 된 생각”이라며 냉소적으로 반응했다. 그의 입장에서 진짜 신념은 ‘AGI가 오지 않을 것이라는 믿음’이다. 회의론자들이야말로 명백한 현실을 부정하고 있다는 것이다(그럼에도 그는 “확실히 아는 사람은 아무도 없지만, AGI가 실현되지 않을 이유도 뚜렷하지 않다”고 조심스럽게 덧붙였다). 숨겨진 진실은 언제나 그것을 드러내려는 이들을 끌어모은다. 그러나 AGI에서는 단순히 감춰진 무언가를 밝혀내는 것만으로는 충분하지 않다. 여기서 계시는 전례 없는 창조 행위를 요구한다. AGI가 실현 가능하다고 믿는다면, 인간 지능에 견주거나 그것을 뛰어넘는 기계를 세상에 ‘탄생시키는’ 이들이 곧 미래의 조산사라는 믿음을 함께 받아들이는 셈이다. 밸러는 “기계적 신(神)을 탄생시키는 존재가 된다는 생각은 자신을 매우 특별한 존재로 느끼게 만든다”며 “초월을 위한 초기 기반을 스스로 구축하고 있다고 상상하게 하는 매혹적인 발상”이라고 말했다. 이는 음모론적 사고와 맞닿는 또 다른 지점이다. 혼란스럽고 무의미하게 느껴질 수 있는 세계에서 스스로 존재 이유를 찾고자 하는 욕망, 중요한 존재가 되고자 하는 갈망이 그 중심에 자리 잡고 있다. 버클리에 거주하는 크루거는 “AI 연구에 참여하는 사람 중 일부는 이 기술이 인간의 뒤를 이을 존재가 될 것으로 생각한다”고 말했다. 그는 “그들은 자신의 작업을 일종의 출산이나 새로운 생명을 창조하는 일처럼 여긴다”며 “참고로 그런 말을 하는 사람들은 대부분 실제로 자녀가 없다”고 덧붙였다. AGI는 우리의 유일한 구원자가 될 수도, 반대로 종말을 가져올 수도 있다. 코언은 현대의 수많은 음모론과 1970~80년대에 영향력이 절정에 달했던 뉴에이지 운동 사이에서 여러 유사성을 발견했다. 당시 신봉자들은 인류가 곧 영적 안정과 의식 확장의 시대를 열어 더 평화롭고 번영한 세계로 나가게 될 것이라고 믿었다. 요약하자면 인간이 점성술이나 치유용 수정 구슬을 정성 들여 관리하는 등의 준 종교적 실천을 통해 자신의 한계를 극복하고 일종의 히피식 유토피아에 도달할 수 있다는 발상이었다. 오늘날 기술 산업은 수정 구슬이 아니라 컴퓨팅에 기반하고 있지만, 그들이 생각하는 전환의 규모는 결코 작지 않다. 코언은 “기술이 근본적인 대전환을 일으키고, 일종의 종말론적 변곡점을 지나 궁극적으로 기술 유토피아에 도달할 것이라는 사고방식이 존재한다”며 “AGI가 결국 인류가 직면한 문제를 해결해 줄 것이라는 믿음도 그 연장선에 있다”고 설명했다. 많은 이들의 이야기 속에서 AGI는 한순간에 도래한다. AI의 점진적 발전이 누적되다가 어느 순간 AI가 스스로 더 나은 AI를 만들어내는 단계에 도달한다는 것이다. 이 지점에서는 ‘FOOM’이라 불리는 급격한 가속이 일어나고, ‘지능 폭발(intelligence explosion)’을 거쳐 AGI가 등장하며, 결국 되돌릴 수 없는 지점인 ‘특이점(Singularity)’에 이르게 된다는 시나리오다. 특이점은 AGI 커뮤니티에서 수년간 회자되어 왔으며 다소 우스꽝스럽게 여겨지기도 하는 개념이다. 물리학 개념을 차용한 이 ‘기술적 특이점’이라는 발상은 1980년대 공상과학 작가 버너 빈지(Vernor Vinge)가 처음 제시했다. 빈지는 기술 발전의 경로 어딘가에 인간이 만든 기계가 기하급수적 자기 향상을 통해 순식간에 인간을 앞질러 버리는 임계점이 존재할 것이라 상상했다. 이러한 순간을 일종의 ‘AI 빅뱅’이라고 부를 수 있을 것이다. 인류가 알고 있는 세계가 한순간에 뒤바뀌고, 그 이전과 이후가 뚜렷하게 나뉘어 인류가 영원히 변화하는 초월적 분기점이 생긴다는 뜻이다(그 변화가 구원과 종말 중 무엇이 될지는 알 수 없다). AI 임팩츠의 그레이스는 “사람들은 이를 하나의 사건처럼 상상한다”고 말했다. 밸러가 특히 주목하는 것은 이 신념 체계가 인간에 대한 믿음을 기술에 대한 믿음으로 대체하고 있다는 점이다. 뉴에이지 사상에는 비현실적인 요소가 있었지만, 최소한 인간이 스스로 잠재력을 발휘해 세상을 바꿀 수 있다는 희망에 기반해 있었다. 그녀는 “반면 AGI를 향한 열망 속에서 우리는 그러한 자기 확신을 잃어버리고, 오직 기술만이 인류를 구원할 수 있다는 생각을 받아들이게 되었다”고 지적한다. 이 믿음은 많은 이들에게 매력적으로 느껴지며, 때로는 위안이 되기도 한다. 밸러는 “우리는 인간의 삶과 사회를 물질적으로 개선할 수 있는 다른 경로들이 거의 소진된 것처럼 보이는 시대에 살고 있다”고 말했다. 기술은 한때 더 나은 미래로 향하는 길을 약속했다. 진보는 인간과 사회의 번영을 향해 나아가는 사다리로 여겨졌다. 밸러는 “우리는 그 정점을 지나왔다”며 “오늘날 미래에 대한 낙관을 다시 불러일으킬 수 있는 거의 유일한 대안이 AGI라고 느끼는 사람들이 많다”고 설명했다. 밸러는 “이러한 생각을 더 발전시키면 AGI가 일종의 신과 같은 존재가 된다”고 말한다. 지상의 고통으로부터 우리를 구원할 수 있는 존재로 여겨지기 때문이다. 노스캐롤라이나 대학교의 사회학자 켈리 조이스(Kelly Joyce)는 문화적·정치적·경제적 신념이 우리가 기술을 인식하고 사용하는 방식에 어떤 영향을 미치는지 연구한다. 그녀는 AGI와 관련된 이러한 과장된 예측을 보다 평범한 현상으로 이해한다. 기술 업계가 오랫동안 반복해 온 ‘허황된 약속’의 연장선이라는 것이다. 조이스는 “흥미로운 것은 우리가 매번 그 과대광고에 휘말린다는 점”이라며 “우리 사회에는 기술이 인간보다 우월하다는 깊은 믿음이 존재한다”고 말했다. 조이스는 이러한 믿음 때문에 기술에 대한 열풍이 일기 시작하면 사람들이 이를 쉽게 받아들이게 된다고 본다. 그녀는 “이러한 믿음은 일종의 종교다. 우리는 기술을 믿고, 기술을 신처럼 여긴다. 이런 믿음에 반대 목소리를 내기란 정말 어렵고, 사람들은 그런 이야기를 듣고 싶어 하지도 않는다”고 말했다. AGI는 어떻게 IT 산업을 장악했나? 사람이 할 수 있는 거의 모든 일을 해낼 수 있는 컴퓨터라는 환상은 매력적이다. 그러나 많은 음모론이 그렇듯 이러한 믿음은 현실에도 영향을 미친다. 현재의 기술 호황과 그 붕괴 가능성이 갖는 의미에 대한 우리의 인식을 왜곡하고, 더 시급하고 실질적인 기술 적용에 투입돼야 할 자원을 빨아들여 산업의 발전 방향을 바꿔 놓았을 가능성도 있다. 무엇보다 이 믿음은 우리에게 편하게 살 권리가 생긴 듯한 착각을 준다. 국제적 협력, 타협, 막대한 지원 등 전 지구적 문제들을 해결하기 위해 감수해야 하는 고된 노력을 피할 수 있을 것처럼 우리를 속인다. 곧 모든 문제를 대신 해결해 줄 기계가 나타날 것이라고 믿는다면 굳이 그런 힘든 일을 해야 할 이유가 어디 있겠는가? 이 거대한 프로젝트에 얼마나 막대한 자원이 투입되고 있는지 생각해 보자. 불과 지난달 오픈AI와 엔비디아는 최대 1,000억 달러(약 150조 원) 규모의 파트너십을 발표했다. 엔비디아는 챗GPT의 끝없는 수요를 충족하기 위해 최소 10기가와트의 전력을 공급할 예정이라고 밝혔다. 이는 웬만한 원자력 발전소의 출력을 넘어서는 수준이며, 번개 한 번이 방출하는 에너지와 맞먹는다. 영화 <백 투 더 퓨처(Back to the Future)>에서 에밋 브라운 박사가 드로리언 타임머신으로 마티를 시간 여행시키는 데 필요한 에너지는 고작 1.2기가와트였다. 하지만 불과 2주 뒤, 오픈AI는 또 다른 반도체 기업 AMD와 6기가와트 규모의 추가 협력 소식을 전했다. CNBC에 출연해 엔비디아와의 거래를 홍보하던 올트먼은 굳은 표정으로 “이런 데이터 센터 확충이 없다면 인류는 암 치료법과 무상 교육 중 하나를 선택해야 할 것”이며 “그런 선택을 하고 싶은 사람은 없을 것”이라고 주장했다(그리고 불과 몇 주 후, 그는 챗GPT에 성인용 대화 기능을 도입하겠다고 발표했다). 비용 문제를 떠나, 당장 사람들의 삶을 바꿀 수 있는 실용적인 기술에 대한 투자 기회가 사라지고 있다는 점도 문제다. 리리오의 시먼스는 “현실적으로 해결할 수 있는 문제들이 이미 존재하는데도 이처럼 실체가 모호한 목표에 자원을 쏟아붓는 것은 엄청난 기회 손실이라고 생각한다”고 지적했다. 하지만 오픈AI 같은 기업들은 그런 실용적 기준에 얽매일 필요가 없다. 시먼스는 “이처럼 막대한 자금이 쏟아지는 상황에서는 그럴 필요가 없다”며 “수천억 달러를 손에 쥐고 있다면 실용적이고 해결 가능한 프로젝트에 집중할 이유가 없다”고 말했다. 크루거는 AGI가 도래할 것이라는 확고한 신념을 갖고 있으면서도, 산업계가 이 기술에만 지나치게 몰두한 나머지 의료 서비스 개선처럼 해결 가능한 현실적 문제들이 외면받고 있다고 우려한다. 그는 “AGI라는 개념 자체에 대한 불만도 많고, 그것을 목표로 삼아야 한다는 주장에도 반발이 크다”며 “솔직히 말해 현장에서 AGI는 인기 있는 주제가 아니다”라고 말했다. 이러한 상황은 정부가 기술을 지원하고 규제하는 방식 전반에도 영향을 미친다. 캘리포니아대학교 데이비스 캠퍼스에서 기술 정책을 연구하는 티나 로(Tina Law)는 정책 입안자들이 AI가 언젠가 인류를 멸망시킬 것이라는 종말론적 시나리오에 휘둘리면서, 정작 오늘날 AI가 사람들의 삶에 미치는 즉각적이고 실질적인 영향은 외면하고 있다고 우려한다. 불평등 문제는 실존적 위험 논의에 가려 우선순위에서 뒤로 밀리고 있다. 로는 “과대광고는 기술 기업 입장에서 보면 매우 수익성 높은 전략”이라고 말한다. 이러한 과대광고의 핵심에는 ‘이 변화는 불가피하다’는 사고가 자리 잡고 있다. 우리가 만들지 않으면 다른 누군가가 만들 것이라는 논리다. 로는 “무언가가 불가피하다고 규정되는 순간, 사람들은 그러한 흐름에 저항해야 하는지뿐만 아니라 저항할 수 있는 능력 자체를 의심하게 된다”며 “결국 모두가 그 틀 안에 갇히게 된다”고 주장했다. 조지아 공과대학교에서 기술 정책과 규제를 연구하는 밀턴 뮬러(Milton Mueller)는 이러한 AGI 왜곡 현상이 기술 정책에만 국한되지 않는다고 말한다. AGI를 둘러싼 경쟁은 종종 원자폭탄 개발 경쟁에 비유된다. 그는 “먼저 AGI를 손에 넣는 국가가 다른 모든 국가를 지배할 절대적 권력을 갖게 된다는 사고방식은 매우 위험하며, 외교 정책의 방향을 심각하게 왜곡할 것”이라고 경고했다. 뮬러는 “기업(과 정부)이 AGI 신화를 밀어붙이는 데에는 분명한 사업적 동기가 있다”고 지적한다. 그래야 자신들이 가장 먼저 AGI에 도달할 것이라고 주장할 수 있기 때문이다. 하지만 이 경쟁에는 모두가 합의한 결승선이 존재하지 않기 때문에, 이 신화는 필요에 따라 계속 유지될 수 있다. 투자자들이 그 이야기를 믿어준다면 더욱 그렇다. 이 흐름이 맞이하게 될 결말은 어렵지 않게 짐작할 수 있다. 그것은 유토피아도, 디스토피아도 아니다. 그저 오픈AI와 그 주변 기업들이 훨씬 더 많은 돈을 벌게 되는 미래일 뿐이다. 거대한 AGI 음모론의 결말은? 다시 음모론 이야기로 돌아가 보자. 지금까지 우리는 소위 음모론적 사고의 주된 특징 중 하나, 즉 소수의 엘리트가 보이지 않는 곳에서 권력을 행사하고 있으며 진실을 추구하는 사람들이 그들의 존재를 드러낼 수 있다는 믿음을 의도적으로 배제해 왔다. 물론 AGI 신봉자들이 일루미나티(Illuminati)나 WEF 같은 세력이 AGI의 미래를 방해하거나 어떤 비밀을 감추고 있다고 공개적으로 주장하는 것은 아니다. 하지만 정말로 배후에서 조종하는 이들이 존재한다면 어떨까? 그리고 그들이야말로 처음부터 AGI 신화를 가장 강하게 주도해 온 사람들이라면? 실리콘밸리의 권력자들은 AGI 개발을 통해 막대한 이익을 얻기 위해 가능한 모든 자원을 쏟아붓고 있다. AGI 신화는 그 누구보다 그들에게 유리하게 작동한다. 한 AI 기업의 고위 임원은 최근 “AGI는 항상 ‘6개월에서 1년 뒤’에 올 것이라고 말해야 한다”고 털어놓았다. 그보다 멀다고 하면 제인스트리트 같은 대형 금융기업에서 인재를 데려올 수 없고, 반대로 너무 가깝다고 하면 이미 게임이 끝난 것이나 다름없다는 이유에서다. 밸러의 말처럼 “오픈AI가 기업의 권력을 지금보다 더 강화하는 기술을 만들고 있다고 솔직히 말한다면 그들은 결코 원하는 수준의 대중적 지지를 얻지 못할 것”이다. 기억하자. 신을 창조하는 사람은 곧 자신도 신적인 존재가 된다. 크루거는 실리콘밸리 전반에 퍼져 있는 한 가지 믿음을 지적했다. AI를 만드는 일이 곧 막강한 권력을 손에 넣을 수 있는 방법이라는 생각이다(이는 아셴브레너의 ‘상황 인식’에서도 주요 전제 중 하나로 언급된다). 크루거는 “우리는 신적인 힘을 손에 넣게 될 것이고, 그 힘을 어떻게 사용할지 스스로 결정해야 한다”며 “사람들은 대부분 먼저 AGI를 만들어내기만 하면 사실상 세상을 장악할 수 있다고 믿는다”고 말했다. 그는 이어 “그들은 AGI가 가져올 미래라는 비전을 퍼뜨리기 위해 엄청난 노력을 기울이고 있으며, 그들이 가진 막강한 영향력을 바탕으로 이미 상당한 성공을 거두고 있다”고 덧붙였다. 한편 괴르첼은 이 가상의 ‘비밀 집단’이 지나치게 성공한 상황을 조금 아쉬워하는 듯하다. 그는 한때 비주류에 머물던 시절이 그리워지기 시작했다고 말했다. “우리 세대에는 AGI를 연구하고 싶다면 남다른 비전이 필요했고 굉장한 뚝심도 있어야 했다. 하지만 이제는 누구나 경영학 대신 권하는 흔한 진로가 되어버렸다”고 말했다. 그는 “이 분야가 이렇게 주류로 받아들여지고 있다는 사실이 혼란스럽다”고 털어놓았다. 이어서 그는 “그래서 요즘은 사람들이 별로 주목하지 않는 다른 연구를 해보고 싶다는 생각이 들기도 한다”고 농담처럼 말하면서도 “물론 AGI 개발을 마무리하는 일이 미지의 영역을 개척하고 싶은 개인적 취향보다 훨씬 중요하다”고 강조했다. 그러나 필자는 여전히 이들이 정확히 무엇을 마무리하고 있다는 것인지 이해할 수 없다. 우리가 이런 동화 같은 서사에 몰입해 버린다면, 기술 전반에는 어떤 결과가 나타날까? 필자에게는 AGI라는 개념 자체가 애초에 기술의 역할에 대한 왜곡된 기대, 그리고 지능에 대한 비틀린 관념 위에 세워진 것처럼 느껴진다. 핵심만 따지면 AGI 담론은 AI라는 단일 기술이 매우 빠르게 발전해 왔고 앞으로도 그 속도를 유지할 것이라는 전제를 기반으로 한다. 이러한 지속적 발전 가능성에 대한 기술적 반론을 무시하면, 결국 지능이란 적절한 데이터나 연산 능력, 신경망만 있으면 얼마든지 더 생산해 낼 수 있는 일종의 상품이라는 주장만 남게 된다. 하지만 이는 잘못된 생각이다. 지능은 단순히 수치를 끌어올리듯 무한히 높일 수 있는 것이 아니다. 어떤 사람이 특정 분야에서는 탁월하더라도 다른 영역에서는 전혀 그렇지 않을 수 있다. 노벨상 수상자 중에 피아노를 전혀 치지 못하거나 육아에 서툰 사람은 얼마든지 있다. 그리고 아주 똑똑한 사람 중에도 AGI가 내년에 실현될 것이라고 굳게 믿는 이들이 여전히 존재한다. 앞으로는 어떤 서사가 우리를 사로잡을지 궁금해진다. 필자와의 통화를 마치기 직전 괴르첼은 최근 샌프란시스코에서 열린 AI 의식과 초심리학 관련 행사에 다녀왔다고 말했다. 그는 “초감각적 지각(ESP), 예지능력 같은 주제”가 다뤄졌다고 설명했다. 그는 “20년 전 AGI에 대한 논의도 바로 이런 수준에서 이뤄졌다. 당시에도 모두가 말도 안 되는 소리라고 생각했다”고 말했다. The post AGI는 어떻게 이 시대의 가장 강력한 ‘음모론’이 되었나?
자주 묻는 질문
Q. 어떤 정보를 제공하나요?
A. IT/기술 관련 최신 정보를 제공합니다.
Q. 신뢰할 수 있나요?
A. 검증된 출처만 선별합니다.
Q. 더 궁금한 점은?
A. 댓글로 문의하세요.
원문 출처
이 글은 원본 기사를 참고하여 작성되었습니다.
이 글과 함께 읽으면 좋은 글
-
→ 소비자 보고서에 따르면 오디오 애호가를 위한 최고의 헤드폰 13개
2025-11-26
-
→ 알트먼 “제미나이에 뒤처질 수도”…새 모델 ‘샬롯피트’로 반격 준비
2025-11-22
-
→ 리뷰에 대한 닉네임을 추가하는 Google 지도 및 Gemini ‘가기 전에 알아두세요’ 팁
2025-11-19
-
→ 리뷰에 대한 닉네임을 추가하는 Google 지도 및 Gemini ‘가기 전에 알아두세요’ 팁
2025-11-19
-
→ 구글, 기존 기상 모델보다 8배 빠르고 저렴한 ‘웨더넥스트 2’ 출시
2025-11-18