ChatGPT에게 물었습니다. 두 번 물었습니다. 세 번 물었습니다. 세 번 모두 다른 답이 왔습니다. 그런데 세 답 모두 그럴듯했습니다. AI가 발전할수록 우리는 더 잘 생각하게 될 줄 알았습니다. 그런데 현실은 반대인 것 같더군요.
아이디어 시장에서 답변 시장으로
원래 지식 탐색은 품이 많이 들었습니다. 책을 찾고, 논문을 읽고, 전문가의 말을 들은 뒤 스스로 결론을 내렸습니다. 그 과정 자체가 이해였고, 그 이해가 쌓여 판단력이 됐습니다.
철학자들은 이걸 ‘아이디어 시장(marketplace of ideas)’이라고 불렀습니다. 서로 다른 주장이 경쟁하고, 더 강한 논리가 살아남는 구조입니다. 느리고 불편하지만, 그 불편함이 생각을 단련시켰습니다. 인지과학에서도 이 마찰을 긍정적으로 봅니다. 마찰이 있어야 깊은 이해가 생깁니다.
그런데 LLM은 이 마찰을 없애버렸습니다. 질문하면 즉각 완성된 답변이 나옵니다. 두 번 물으면 또 다른 완성된 답변이 나옵니다. Psychology Today는 이 현상을 ‘답변 시장(marketplace of answers)’이라고 표현했습니다. 우리의 임무가 ‘생각하기’에서 ‘고르기’로 바뀐 겁니다. 그리고 고르기는 생각하기와는 다릅니다.
설득력이 진실을 이기는 순간
고르기가 문제가 되는 이유는 뭘까요. 진실에 가장 가까운 답변을 고르면 되지 않냐고 생각할 수 있습니다. 하지만 뇌과학 연구들은 우리가 그렇게 하지 않는다고 말합니다.
AI 답변을 선택할 때 실제로 작동하는 3가지 인지 편향이 있습니다.
첫째, 인지적 편안함(cognitive ease). 문장이 매끄럽고 읽기 쉬울수록 더 신뢰가 가게 느껴집니다. Daniel Kahneman의 연구에서도 확인된 현상입니다. 내용이 아니라 형식이 신뢰를 만드는 거죠. AI는 항상 유창하게 씁니다.
둘째, 자신감 신호(confidence signals). 확신에 찬 어조의 답변은 근거가 얇아도 전문적으로 느껴집니다. AI는 틀려도 자신 있게 말합니다. 오히려 그게 더 신뢰감을 줍니다. (이게 은근히 무서운 지점이더군요.)
셋째, 확증 편향(confirmation bias). 이미 믿고 싶었던 것을 확인해 주는 답변에 손이 먼저 갑니다. 내 기존 생각과 일치하면 ‘맞다’고 느끼고 탐색을 멈춥니다. 저도 피해가기 어렵더군요.
세 편향의 공통점은 진위보다 ‘느낌’으로 작동한다는 겁니다. 결국 우리는 가장 진실한 답변이 아니라, 가장 그럴듯하게 느껴지는 답변을 선택하게 됩니다. 그리고 선택하는 순간 탐색은 끝납니다.
생각의 근육은 마찰에서 자란다
그렇다면 AI를 쓰지 말라는 걸까요. 그건 아닙니다. AI는 분명 복잡한 정보 탐색을 도와주고 지식 접근성을 높입니다. 문제는 도구가 아니라 습관입니다.
생각에는 변형적 요소가 있습니다. 어떤 문제와 씨름하는 과정이 우리의 정체성과 사고 방식 자체를 바꿔놓는다는 겁니다. 완성된 답변을 받으면 정보는 얻지만, 그 씨름의 기회는 잃습니다. 답변을 소비하는 사람과 생각을 단련하는 사람 사이의 격차는 시간이 갈수록 벌어질 겁니다.
제가 써보니 효과 있는 방법이 있습니다:
- AI 전에 30초 먼저 생각하기 — 질문하기 전에 내 답을 먼저 써봅니다. 그다음 AI 답변과 비교하면 비판적으로 볼 수 있게 됩니다.
- 반론 물어보기 — “이 답변의 반대 주장은 뭐야?”라고 AI에게 다시 물어보는 것만으로도 균형 잡힌 탐색이 됩니다.
- 출처 확인하는 습관 — 매끄러운 문장에 속지 않으려면 “이게 사실인지” 한 번 더 확인하는 루틴이 필요합니다.
결론은 이겁니다. AI가 답변을 대신할수록, 생각하는 습관은 더 의도적으로 지켜야 합니다. 뇌도 근육입니다. 쓰지 않으면 약해집니다. 오늘 하나만 바꿔보시길 — AI에게 묻기 전에 30초만 먼저 생각해 보는 것부터.






