11월 18, 2025
AI 챗봇, 음모론 반박에 놀라운 효과 발휘 완벽가이드 소개 핵심 특징 상세 정보 자주 묻는 질문 AI 챗봇, 음모론 반박에 놀라운 효과 발휘 IT/기술 전문 정...

AI 챗봇, 음모론 반박에 놀라운 효과 발휘

IT/기술 전문 정보

AI 챗봇, 음모론 반박에 놀라운 효과 발휘

‘사실만으로는 사람의 생각을 바꿀 수 없다’는 말은 이제 상식처럼 통한다. 그리고 음모론만큼 이를 잘 보여주는 사례는 없을 것이다. 많은 사람들은 음모론자의 신념을 바꾸기 어렵다고 믿는다. 그러나 반드시 그런 건 아니다. 많은 음모론자들은 사실과 논리에 기반한 근거를 접하면 실제로 신념이 흔들릴 수 있고, 특히 AI 챗봇과의 맞춤형 대화가 이러한 변화를 이끌어내는 데 효과적인 것으로 나타났다. 이번 연구는 2,000명이 넘는 음모론 신봉자를 대상으로 진행됐다. 참여자들은 먼저 자신이 믿는 음모론과 그 이론을 믿는 이유를 직접 서술

핵심 특징

고품질

검증된 정보만 제공

빠른 업데이트

실시간 최신 정보

상세 분석

전문가 수준 리뷰

상세 정보

핵심 내용

‘사실만으로는 사람의 생각을 바꿀 수 없다’는 말은 이제 상식처럼 통한다. 그리고 음모론만큼 이를 잘 보여주는 사례는 없을 것이다. 많은 사람들은 음모론자의 신념을 바꾸기 어렵다고 믿는다. 그러나 반드시 그런 건 아니다. 많은 음모론자들은 사실과 논리에 기반한 근거를 접하면 실제로 신념이 흔들릴 수 있고, 특히 AI 챗봇과의 맞춤형 대화가 이러한 변화를 이끌어내는 데 효과적인 것으로 나타났다. 이번 연구는 2,000명이 넘는 음모론 신봉자를 대상으로 진행됐다. 참여자들은 먼저 자신이 믿는 음모론과 그 이론을 믿는 이유를 직접 서술했다. 이후 오픈AI의 GPT-4 터보(Turbo)를 기반으로 만든 ‘디벙크봇(DebunkBot)’과 약 8분간 대화를 나눴다. 연구진은 AI 모델에게 참여자가 음모론을 비판적으로 다시 생각하도록 유도하고, 보다 덜 음모론적인 관점을 받아들이도록 설득하라는 지시를 내렸다. 평균 8.4분 동안 세 차례의 문답으로 진행된 이 짧은 대화는 참여자의 신념에 대한 확신을 약 20% 낮추는 효과를 보였다. 대화 전까지 해당 음모론을 사실이라고 믿었던 참여자 가운데 약 4분의 1은 “더 이상 그 이론을 믿지 않는다”고 답했다. 이러한 변화는 존 F. 케네디 암살이나 달 착륙 조작설처럼 오래된 음모론은 물론, 2020년 미국 대선이나 코로나19를 둘러싼 최근의 정치적 음모론에서도 동일하게 나타났다. 오늘날 근거 없는 음모론이 정치 환경 전반에 과도한 영향을 미치고 있다는 점을 감안하면 이는 반가운 소식이다. 생성형 AI가 허위 정보를 확산하는 강력한 도구가 될 수 있다는 우려가 큰 가운데 이번 연구는 AI가 오히려 문제 해결의 수단이 될 가능성을 보여준다. 자신이 믿는 음모론이 절대적인 사실이라고 확신하거나 해당 신념이 자신의 가치관에서 매우 중요한 위치를 차지한다고 밝힌 참여자들 역시 대화 후 신념이 뚜렷하게 약화됐다. 더 주목할 점은 이 효과가 쉽게 사라지지 않았다는 점이다. 연구진이 두 달 뒤 참여자들을 다시 조사한 결과, 음모론에 대한 믿음은 대화 직후와 마찬가지로 크게 낮아진 상태로 유지됐다. 올해 과학 저널 <사이언스(Science)>에 실린 이번 연구는 많은 음모론 신봉자가 비합리적이어서가 아니라 잘못된 정보를 기반으로 신념을 형성하고 있을 뿐이며, 정확한 사실을 적절한 시점에 제시하는 것만으로도 이들에게 큰 변화가 일어날 수 있음을 보여준다. 특정 사건에 대해 사실에 기반한 설명을 한 번도 접하지 못했다면 합리적인 사람에게조차 음모론이 그럴듯해 보일 수 있다. 음모론적 주장 상당수는 사실과 다르더라도 표면적으로는 그럴듯해 보이며 이를 검증하거나 반박하려면 상당히 전문적이고 복잡한 지식이 필요하다. 대표적인 사례가 9‧11 테러 부정론이다. 일부 사람들은 항공유가 강철을 녹일 만큼 뜨겁게 타지 않는다는 점을 근거로 비행기가 쌍둥이 빌딩 붕괴의 직접적인 원인이 될 수 없다고 주장한다. 이에 대해 챗봇은 항공유가 강철을 녹이지는 못한다는 사실은 인정하면서도, 미국철강구조협회(AISC)에서 항공유가 강철의 강도를 50% 이상 약화시키는 온도까지는 도달한다고 밝히고 있다는 점을 지적한다. 이는 고층 건물을 붕괴하기에 충분한 조건이다

상세 분석

. 사실 정보는 그 어느 때보다 넘쳐나지만 방대한 지식의 저장고 속에서 정확한 정보를 효율적으로 찾아내기는 매우 어렵다. 무엇을 검색해야 하는지, 누구의 설명을 신뢰해야 하는지 알아야 할 뿐 아니라 기존의 신념과 충돌하는 정보를 스스로 찾아보려는 동기도 필요하다. 새로운 주장을 들을 때마다 이런 탐색을 반복하는 데에는 상당한 시간과 노력이 필요하기 때문에 우연히 접한 음모론적 주장을 별다른 검증 없이 받아들이기 쉽다. 더구나 일상에서 음모론을 반박하려는 사람들 대부분은 AI와 달리 정보를 정확히 알지 못하거나 대화 과정에서 감정적으로 휘둘리는 실수를 반복하곤 한다. 강철의 용융점이나 인장강도 같은 전문적인 정보를 정확히 알고 있는 사람은 거의 없고, 누군가가 감정적으로 몰아붙이는 상황에서 침착함을 유지하기란 쉬운 일이 아니다. 물론 충분한 시간과 노력이 있다면 인간도 이번 실험의 AI처럼 사실을 조사해 제시할 수 있다. 연구진이 진행한 후속 실험에서 참여자에게 대화 상대가 AI가 아니라 전문가라고 알렸을 때 설득 효과는 동일하게 나타났다. 설득 효과가 AI에만 특수하게 나타나는 것이 아니라 사실과 근거 자체가 설득의 핵심이라는 점이 확인된 셈이다. 다만 모든 근거를 빠짐없이 찾아 전달하기 위해서는 상당한 시간과 집중력이 필요하다. 반면 생성형 AI는 음모론적 주장을 검증하고 반박하는 데 필요한 인지적 노동을 훨씬 효율적으로 수행한다. 또 다른 대규모 후속 실험에서는 설득 효과를 이끈 결정적 요인이 바로 AI가 제시한 구체적 사실과 근거였음이 드러났다. 챗봇이 사용자의 신념을 바꾸려고 한다는 사실을 미리 알려도 효과는 줄지 않았지만, 모델에게 사실과 근거 없이 설득만 시도하라고 지시하자 효과는 완전히 사라졌다. 물론 이들 모델이 때때로 오류를 범하거나 환각을 보인다는 점은 익히 알려져 있다. 그럼에도 불구하고 인터넷에 축적된 반박 정보가 충분히 방대해, 이번 연구에서는 음모론 관련 대화가 대체로 정확한 방향으로 유지됐다. 연구진이 전문 팩트체커를 고용해 GPT-4의 답변을 검증하게 한 결과, 99% 이상이 사실로 평가됐으며 정치적 편향도 발견되지 않았다. 더 나아가 일부 참여자가 실제로 사실로 드러난 음모론을 언급한 경우에는 AI가 그 믿음을 바로잡으려 들지 않고 오히려 그 주장이 사실임을 확인해 주었다. 대표적인 사례가 1950년대 미국 중앙정보국(CIA)이 진행한 인간 실험 프로젝트 ‘MK 울트라(MK Ultra)’이다. 그동안 음모론적 사고에 대응하는 방식은 대부분 예방적 차원에 머물렀다. 사람들이 음모론에 깊이 빠져들기 전에 차단하는 데 집중했을 뿐, 이미 확고해진 신념을 되돌릴 마땅한 방법은 없었다. 그러나 생성형 AI의 등장으로 사실 기반의 대화를 통해 이미 형성된 신념까지 흔들 수 있는 새로운 도구가 등장한 것이다. 음모론을 반박하도록 설계된 봇은 소셜미디어 플랫폼에서 음모론적 콘텐츠를 공유하는 이용자와 직접 대화를 나누도록 배치될 수 있다. 음모론을 퍼뜨리는 다른 AI 챗봇에도 대응할 수 있다. 구글은 반박 전용 AI 모델을 검색 엔진과 연동해 음모론 관련 검색에 대해 사실 기반의 답변을 제공할 수도 있다. 식탁에서 음모론을 주장하는 삼촌과 소모적인 논쟁을 벌일 필요 없이 휴대전화를 건네 AI와 대화를 나누게 하는 것도 한 방법이다.

정리

이러한 변화는 우리가 세계를 이해하는 방식 전반에 더 깊은 함의를 던진다. 흔히 지금을 양극화와 정치적 이해관계가 사실과 증거를 압도하는 ‘탈진실(post-truth)’의 시대라고 말한다. 이런 관점에서는 인간의 감정이 진실보다 앞서고, 논리에 기반한 사고는 힘을 잃게 되며, 사람들의 생각을 바꾸는 유일한 방법은 강렬한 개인적 서사나 사회적 규범을 이용한 심리적 전략뿐이다. 그렇다면 민주주의 사회에서 대화와 토론을 통해 공감대를 형성하려는 노력은 사실상 무력해진다. 그러나 사실은 여전히 살아 있다. 이번 연구는 사실과 근거가 지닌 설득력이 얼마나 강력한지를 보여주는 최근의 연구 흐름 가운데서도 가장 극적인 사례이다. 한때는 정치적 성향과 부합하는 허위 정보를 바로잡으면 오히려 그 믿음이 더 공고해진다는 ‘역효과(backfire)’가 널리 받아들여졌지만, 이 개념은 이미 여러 연구를 통해 반박된 지 오래다. 다양한 연구에서 정정 정보나 경고 라벨이 허위 정보에 대한 믿음과 공유를 줄이는 효과가 있다는 사실이 일관되게 확인됐으며, 이는 팩트체커를 신뢰하지 않는 사람들에게서도 동일하게 나타났다. 정치적 현안에서도 근거 기반의 주장은 당파적 견해를 변화시키는 데 분명한 효과를 보였고, 그 주장이 자신이 지지하는 정당 지도자의 입장과 상충한다는 사실을 상기시킨 경우에도 결과는 달라지지 않았다. 나아가 콘텐츠를 공유하기 전에 ‘정확한지 한 번 더 생각하라’고 상기시키는 단순한 조치만으로도 허위 정보 확산을 크게 줄일 수 있다는 연구 결과도 있다. 사실이 죽지 않았다면 민주주의에도 희망이 있다. 물론 이를 위해서는 서로 다른 정치적 진영이 공유할 수 있는 공통의 사실 기반이 필요하다. 현재 기본적인 사실을 둘러싼 당파적 견해 차이는 크고, 음모론을 신봉하는 비율도 상당히 높지만 그렇다고 해서 인간의 사고가 정치적 정체성에 의해 되돌릴 수 없을 만큼 고착됐다는 의미는 아니다. 사람들은 불편하거나 받아들이기 어려운 내용일지라도 근거를 마주하면 생각을 바꿀 수 있다. 따라서 정확한 정보를 충분히 널리 퍼뜨릴 수 있다면, 그리고 그 과정에 AI가 도움을 줄 수 있다면 오늘날 사회에서 사라진 사실 기반의 공통 토대를 다시 세우는 일도 가능할 것이다. 연구진이 개발한 디벙크봇은 debunkbot.com에서 직접 사용해 볼 수 있다. 이 글을 쓴 토머스 코스텔로(Thomas Costello)는 카네기멜론대학교 사회·의사결정과학 부교수이다. 그는 심리학과 정치학, 인간과 컴퓨터 상호작용을 통합해 개인의 관점이 어디에서 비롯되고, 사람마다 어떻게 달라지며, 어떤 이유로 변화하는지를 연구한다. 또한 이러한 과정 전반에 AI가 미치는 영향을 분석한다. 고든 페니쿡(Gordon Pennycook)은 코넬대학교 도로시 및 아리즈 메타(Dorothy and Ariz Mehta) 교수가 후원하는 리더십 펠로우이자 심리학 부교수이다. 그는 분석적 사고의 원인과 결과를 탐구하며, 직관적·숙고적 사고가 의사결정에 어떤 영향을 미치는지 연구한다. 이를 통해 기후 대응 부족, 건강 관련 행동, 정치적 양극화 등 다양한 사회 문제의 근저에 있는 인지적 오류를 분석한다. 데이비드 랜드(David Rand)는 코넬대학교 정보과학과 마케팅·경영 커뮤니케이션 및 심리학 교수이다. 그는 계산사회과학과 인지과학적 접근을 활용해 인간과 AI의 대화가 잘못된 믿음을 어떻게 바로잡을 수 있는지, 사람들이 허위 정보를 공유하는 이유는 무엇인지, 정치적 양극화를 줄이고 협력을 촉진하는 방안은 무엇인지 연구한다. The post AI 챗봇, 음모론 반박에 놀라운 효과 발휘 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.

자주 묻는 질문

Q. 어떤 정보를 제공하나요?

A. IT/기술 관련 최신 정보를 제공합니다.

Q. 신뢰할 수 있나요?

A. 검증된 출처만 선별합니다.

Q. 더 궁금한 점은?

A. 댓글로 문의하세요.

원문 출처

이 글은 원본 기사를 참고하여 작성되었습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다