AI한테 "이 글의 약점을 찾아라" — 이 프롬프트 하나가 문서를 바꿨다

반응형

글을 혼자 쓰면 내 논리의 빈틈이 안 보인다.

내가 맞다고 생각하니까 쓰는 거고, 그 확신이 약점을 가린다. 행정심판 청구서도 마찬가지였다. 열심히 썼는데 스스로 읽으면 완벽해 보였다. 그게 문제였다.

AI 하나한테만 맡기면 이 함정을 못 피한다.

ChatGPT는 내가 원하는 방향으로 잘 써준다. 잘 써준다는 게 문제다. 내 주장이 맞다는 전제로 글을 다듬으니까 약점이 그대로 남는다. 읽기 좋은 글이 되는 거지, 논리적으로 단단한 글이 되는 게 아니다.


구도를 바꿨다. AI를 검사로 세웠다

초안을 완성하면 Claude한테 역할을 바꿔서 넘겼다.

단순히 "검토해줘"가 아니다. 역할을 명확하게 줬다.

 
 
다음은 내가 작성한 문서 초안이다.
너는 지금 이 문서를 반박해야 하는 상대방이다.
이 문서에서 논리적으로 공격할 수 있는 부분을 찾아라.
내 입장을 옹호하지 마라. 빈틈만 찾아라.

결과가 달랐다. 같은 문서인데 Claude는 내가 당연하게 넘긴 전제들을 하나씩 짚어냈다. "이 부분은 주장만 있고 근거 연결이 없다", "여기 타임라인이 앞 단락과 충돌한다", "이 문장은 상대방이 다르게 해석할 여지가 있다" — 내가 전혀 못 본 것들이었다.

그걸 다시 ChatGPT로 가져갔다.

 
 
아래는 이 문서의 취약점 분석이다.
각 항목을 보완하는 방향으로 해당 섹션을 다시 써라.

수정된 버전을 다시 Claude한테 넘기고, 같은 프롬프트로 다시 검증했다. 이 사이클을 반복했다.


Gemini와 Grok은 상대방 자료를 파고들었다

내 글을 검증하는 것과 별개로, 상대방이 제출한 자료도 분석해야 했다.

Gemini한테는 상대방 주장을 넘기고 이렇게 물었다.

 
 
아래는 상대방 주장이다.
이 안에서 논리적 비약, 전제의 오류, 앞뒤 모순을 찾아라.
내 입장을 옹호하지 마라. 상대방 글 자체의 약점만 찾아라.

Grok은 상대방 주장과 제출 자료 사이의 불일치를 찾는 데 썼다.

 
 
아래는 상대방 주장과 제출 자료다.
주장과 자료가 서로 충돌하는 지점을 찾아라.
날짜, 수치, 인과관계 순서로 확인해라.

4개 AI가 전부 같은 역할이 아니었다. ChatGPT가 초안을 쓰고, Claude가 내 글의 빈틈을 찾고, Gemini가 상대방 주장의 논리를 해부하고, Grok이 상대방 자료의 모순을 찾는 구조였다.


프롬프트에서 중요한 것 하나

역할을 줄 때 애매하게 주면 안 된다.

"검토해줘"는 칭찬으로 돌아온다. "상대방 입장에서 공격해라"는 공격으로 돌아온다. AI는 역할을 구체적으로 줄수록 그 역할에 충실해진다.

그리고 AI끼리 직접 대화하게 하지 않았다. 항상 내가 중간에서 결과를 판단하고 다음 AI한테 넘겼다. AI 4개가 동시에 떠드는 게 아니라, 내가 감독이고 AI는 각자 다른 역할의 전문가인 구조였다.

4개월이 끝나고 나서 이게 AI를 쓰는 방식의 기본이 됐다. 하나한테 다 맡기지 않는 것, 역할을 명확히 나누는 것, 내가 항상 판단의 중심에 있는 것.

도구가 아무리 좋아도 설계는 사람이 한다.

 
반응형