TLDR
- 전문가의 직관은 "분석"이 아니라 패턴 인식이다 (게리 클라인, RPD 모델)
- 직관이 틀릴 때는 대부분 "이건 내가 아는 상황이야"라고 잘못 매칭했을 때
- 코딩 모르는 사람도 탐정 마인드셋으로 AI와 협업하면 기술 문제를 해결할 수 있다
- 막힐 때 빠져나오는 방법: 다른 관점을 가진 AI에게 같은 문제를 던져라
→ 무료 구독하기
1. 어젯밤에 생긴 일
블로그에 새 글을 올리고 모바일로 확인하다가 이상한 걸 발견했다. 화면이 옆으로 밀린다. 횡스크롤이 생긴 것이다.
분명 어제까지는 없었다. 뭘 건드렸지?
나는 개발자가 아니다. CSS가 뭔지는 알지만, 직접 코드를 뜯어볼 실력은 없다. 하지만 문제가 생기면 원인을 추적하는 건 할 수 있다. 그래서 AI에게 물었다.
"오늘 추가한 이메일 수집 팝업 코드 때문인 것 같은데, 확인해줘."
2. 전문가는 분석하지 않는다
여기서 잠깐. 내가 왜 "오늘 추가한 코드"를 의심했을까?
인지심리학자 게리 클라인(Gary Klein)은 소방관, 응급실 간호사, 전투기 조종사 같은 전문가들이 어떻게 순간적으로 결정을 내리는지 30년간 연구했다. 그가 발견한 건, 전문가들이 "분석"하지 않는다는 사실이었다.
대신 그들은 패턴을 인식한다.
"경험 많은 의사결정자는 빠르고 정확한 판단을 내릴 수 있다. 패턴 인식과 패턴 매칭이라는 직관적 과정을 통해서."
— Oxford Academic, Intuition in Business
클라인은 이걸 Recognition-Primed Decision(RPD) 모델이라고 불렀다. 전문가는 상황을 보면 과거 경험에서 유사한 패턴을 즉시 매칭하고, 그 패턴에 맞는 행동을 바로 실행한다.
숙련된 소방관은 건물에 들어서는 순간 "여기 이상하다"고 느낀다. 왜 이상한지 설명하기 전에, 몸이 먼저 반응한다. 나중에 분석해보면 불길의 색깔이 평소와 달랐거나, 열기가 예상보다 낮았거나, 소리가 이상했다. 하지만 그 순간에는 그냥 "이상하다"고만 느낀다.
나도 마찬가지였다. "모바일 레이아웃 깨짐 = 최근에 추가한 코드 문제"라는 패턴이 자동으로 작동했다.
3. 직관이 틀릴 때
AI에게 의심 지점을 던졌다. 팝업 코드의 CSS를 검토하고, 수정안을 받아서 적용했다. 안 됐다. 다른 방식으로 고쳐달라고 했다. 또 안 됐다.
여기서 클라인이 말한 **"전문가도 틀린다"**가 나온다.
전문가의 직관은 익숙한 상황에서 빛난다. 하지만 상황이 실제로 다르면, 그 직관은 오히려 함정이 된다.
내 직관은 "오늘 바꾼 게 원인"이라고 말했다. 합리적인 추론 같았다. 그런데 틀렸다.
문제는 내가 같은 프레임 안에서만 해결책을 찾고 있었다는 것이다. AI도 내 가정을 그대로 받아들여서, 그 범위 안에서만 답을 찾았다.
4. 프레임을 바꾸니 답이 보였다
결국 다른 AI에게 같은 문제를 던졌다. 이번엔 내 가정 없이, 그냥 "모바일에서 횡스크롤이 생긴다"는 현상만 전달했다.
그 AI는 테마 소스까지 들여다봤다. 그리고 찾아낸 원인은 이거였다:
"Bright 테마의 코드블록 스타일이 긴 한 줄을 줄바꿈 없이 가로로 늘립니다. 새 글에 있는 긴 링크가 화면 폭을 넘기면서 전체 페이지에 횡스크롤이 생긴 겁니다. 예전엔 그렇게 긴 한 줄이 없어서 안 보였던 문제예요."
범인은 팝업 코드가 아니라, 글 안에 있던 긴 코드블록이었다.
해결책? 관리자 설정에서 CSS 네 줄 추가하는 거였다. 1시간 넘게 헤맸는데, 답은 기본적인 곳에 있었다.
5. 문제해결에 직접적인 영향을 끼친 것은 코딩이 아니었다
이 경험에서 배운 건, 코드를 직접 짤 줄 몰라도 탐정 역할은 할 수 있다는 것이다.
내가 한 건 세 가지다:
첫째, 변화 지점을 특정했다. "어제까진 됐는데 오늘 안 된다"면, 그 사이에 뭐가 바뀌었는지 리스트업한다.
둘째, 가설을 세우고 AI에게 검증을 맡겼다. "이게 원인 같은데 확인해줘"라고 던지면, AI가 기술적 검증을 해준다.
셋째, 막히면 프레임을 바꿨다. 같은 AI에게 같은 방식으로 물어봤자 같은 답만 나온다. 다른 AI에게 가정 없이 현상만 던지니까 다른 관점이 나왔다.
게리 클라인의 연구에서 흥미로운 부분이 있다. 전문가가 틀리는 경우는 대부분 "이건 내가 아는 그 상황이야"라고 잘못 매칭했을 때다.
빠져나오는 방법은 단순하다. 다른 관점을 가진 누군가에게 같은 문제를 던지는 것이다. 그게 사람이든 AI든.
6. AI 시대의 문제 해결 공식
이 경험을 공식화하면:
| 단계 | 내가 한 것 | AI가 한 것 |
|---|---|---|
| 1. 감지 | "뭔가 이상하다" | - |
| 2. 특정 | "어제와 오늘 사이 변화 리스트" | - |
| 3. 가설 | "이게 원인 같다" | 기술적 검증 |
| 4. 막힘 | 프레임 전환 (다른 AI) | 새로운 관점 |
| 5. 해결 | 적용 | 구체적 코드 제공 |
핵심은 1~2단계는 사람이, 3~5단계는 AI와 협업한다는 것이다.
AI는 내 가정이 맞는지 검증하고, 구체적인 실행안을 만들어준다. 하지만 "뭔가 이상하다"고 느끼는 건 여전히 사람의 몫이다.
마치며
게리 클라인의 결론은 이렇다. 전문가의 직관은 수천 시간의 피드백이 쌓인 패턴 라이브러리다. 그래서 빠르고 대체로 정확하다.
하지만 그 라이브러리에 없는 상황이 오면? 전문가도 초보처럼 헤맨다. 아니, 오히려 더 헤맬 수 있다. "내가 아는 패턴일 거야"라는 확신이 새로운 가능성을 차단하니까.
AI 시대에 이 문제는 더 쉽게 풀린다. 막히면 다른 AI에게 같은 질문을 던지면 된다. 각 AI는 서로 다른 가정과 접근법을 가지고 있어서, 내가 놓친 관점을 잡아줄 수 있다.
오늘의 교훈: 전문가의 감은 출발점이지, 결론이 아니다. 코드를 몰라도, 탐정처럼 질문할 줄 알면 AI와 함께 기술 문제를 해결할 수 있다.
P.S. 횡스크롤의 진짜 원인은 Claude가 만들어준 엑셀 파일의 로컬 경로 링크(computer:///mnt/user-data/outputs/...)가 글에 그대로 남아있었던 것이다. AI가 생성한 콘텐츠를 그대로 발행하면 이런 일도 생긴다.
📞 AI 협업 워크플로우/그로스 컨설팅이 궁금하신가요?