일부 사람들이 다른 사람들보다 인공 지능을 더 의심하는 이유
심리학 전문 정보
이메일을 작성하는 ChatGPT부터 TV 프로그램을 추천하고 질병 진단을 돕는 AI 시스템에 이르기까지 일상 생활에서 기계 지능의 존재는 더 이상 공상 과학 소설이 아닙니다. 그러나 속도, 정확성, 최적화에 대한 모든 약속에도 불구하고 여전히 불편함이 남아 있습니다. 어떤 사람들은 AI 도구를 사용하는 것을 좋아합니다. 다른 사람들은 불안하고 의심스럽고 심지어 배신감을 느끼기도 합니다. 왜? 대답은 AI가 작동하는 방식에만 국한되지 않습니다. 그것은 우리가 일하는 방식에 관한 것입니다. 우리는 그것을 이해하지 못하므로 믿지 않습니다
핵심 특징
고품질
검증된 정보만 제공
빠른 업데이트
실시간 최신 정보
상세 분석
전문가 수준 리뷰
상세 정보
핵심 내용
이메일을 작성하는 ChatGPT부터 TV 프로그램을 추천하고 질병 진단을 돕는 AI 시스템에 이르기까지 일상 생활에서 기계 지능의 존재는 더 이상 공상 과학 소설이 아닙니다. 그러나 속도, 정확성, 최적화에 대한 모든 약속에도 불구하고 여전히 불편함이 남아 있습니다. 어떤 사람들은 AI 도구를 사용하는 것을 좋아합니다. 다른 사람들은 불안하고 의심스럽고 심지어 배신감을 느끼기도 합니다. 왜? 대답은 AI가 작동하는 방식에만 국한되지 않습니다. 그것은 우리가 일하는 방식에 관한 것입니다. 우리는 그것을 이해하지 못하므로 믿지 않습니다. 인간은 자신이 이해하는 시스템을 더 신뢰합니다. 전통적인 도구는 친숙하게 느껴집니다. 열쇠를 돌리면 자동차가 출발합니다. 버튼을 누르면 엘리베이터가 도착합니다. 그러나 많은 AI 시스템은 블랙박스처럼 작동합니다
상세 분석
. 즉, 무언가를 입력하면 결정이 나타납니다. 그 사이에는 논리가 숨겨져 있습니다. 심리적으로 이것은 불안합니다. 우리는 원인과 결과를 보는 것을 좋아하고, 결정에 대해 질문하는 것을 좋아합니다. 그렇게 할 수 없을 때 우리는 무력감을 느낍니다. 이것이 알고리즘 혐오라고 불리는 이유 중 하나입니다. 이는 마케팅 연구원인 버클리 디트보스트(Berkeley Dietvorst)와 동료들이 대중화한 용어입니다. 그의 연구에 따르면 사람들은 특히 단 하나의 알고리즘 오류를 목격한 후에도 알고리즘 의사 결정보다 결함이 있는 인간의 판단을 선호하는 경우가 많습니다. 우리는 합리적으로 AI 시스템에 감정이나 의제가 없다는 것을 알고 있습니다. 그러나 이것이 우리가 AI 시스템에 투영하는 것을 막지는 않습니다. ChatGPT가 “너무 정중하게” 응답하면 일부 사용자는 기분이 나쁘다고 생각합니다. 추천 엔진이 너무 정확해지면 거슬리는 느낌이 듭니다.
정리
시스템에 자아가 없음에도 불구하고 우리는 조작을 의심하기 시작합니다. 이는 의인화의 한 형태입니다. 즉, 인간과 유사한 의도를 인간이 아닌 시스템에 귀속시키는 것입니다. 커뮤니케이션 교수인 Clifford Nass와 Byron Reeves는 다른 사람들과 함께 기계가 인간이 아니라는 것을 알면서도 기계에 사회적으로 반응한다는 것을 보여주었습니다. 우리는 AI가 틀릴 때를 싫어합니다. 행동 과학에서 발견한 흥미로운 사실 중 하나는 우리가 기계 오류보다 인간 오류를 더 관용한다는 것입니다. 인간이 실수를 하면 우리는 그것을 이해합니다. 우리는 공감할 수도 있습니다. 그러나 알고리즘이 실수를 하면, 특히 알고리즘이 객관적이거나 데이터 기반으로 제시된 경우 우리는 배신감을 느낍니다. 이것은 무언가가 어떻게 행동해야 하는지에 대한 가정이 붕괴될 때 기대 위반에 대한 연구와 연결됩니다. 이는 불편함과 신뢰 상실을 초래합니다. 우리는 기계가 논리적이고 공정하다고 믿습니다. 따라서 이미지를 잘못 분류하거나, 편향된 출력을 제공하거나,
자주 묻는 질문
Q. 어떤 정보를 제공하나요?
A. 심리학 관련 최신 정보를 제공합니다.
Q. 신뢰할 수 있나요?
A. 검증된 출처만 선별합니다.
Q. 더 궁금한 점은?
A. 댓글로 문의하세요.
원문 출처
이 글은 원본 기사를 참고하여 작성되었습니다.