존댓말을 쓰면 AI가 더 잘 개발해 주나요?
지운아빠가 내린 결론 요약
(동일한 맥락의 프롬프트를 입력할 때) 존댓말을 쓰면 AI가 더 잘 개발해 주는 것은 아니다.
오히려 연산 과정에서 토큰을 필요 이상으로 소모할 수 있다.
명확한 지시어를 개조식으로 입력하는 것이 좋을 것이다.
--- 시작 ---
예전부터 많이 들었던 말이긴 한데요.
어제 사내 슬랙에도 같은 토픽이 공유되어서 잠깐 살펴보고 넘겼다가 오늘 아침 출근길에 떠올라서 조금 더 생각을 해봤습니다.
좋은 생각 거리를 던져주신 우리 개발자님에게 감사의 인사를 ㅎㅎㅎ
이 글에서는 존댓말이 더 나은 결과를 보장한다는 주장 중 가장 신빙성 높아 보이는 주장을 집중적으로 탐구합니다.
대부분의 대화형 LLM은 사람의 선호에 맞추도록 인간 피드백 기반 학습(RLHF 등)을 거쳐 “좋은 대답” 패턴을 강화합니다. 그래서 사용자가 존댓말로 요청·맥락·제약을 대화 규칙에 맞게 제시하면, 모델이 학습 과정에서 자주 보았던 ‘협조적/업무적 대화’ 레일로 더 잘 올라타는 경향이 있습니다.
저는 존댓말 주장을 들을 때마다 영어는 존댓말/반말 개념이 없잖아? 라는 생각부터 떠올립니다.
프롬프트를 영어로 작성하면 끗! 이지만 저는 영어를 잘 하지도, 프롬프트 작성할 때마다 번역기를 돌릴 정도로 성실하지도 않으니 일단 계속 고민을 해봅니다.
그렇다면 존댓말이 더 나은 결과를 얻기 위해서는,
프롬프트 처리 과정 어딘가에 한국어로 작성된 것이라는 것을 인식하고 존댓말인지 반말인지 구분하는 과정이 들어가야 하지 않을까?
그리고 이것은 토큰 사용량으로 확인할 수 있지 않을까? 라는 생각에 이르게 되었습니다.
실험은 앞으로 AI 써보면서 계속 할 예정이라 ㅎㅎㅎ AI에게만 일단 이 가설을 검증시켜봤습니다.
AI의 답변이라 매우 믿음직스럽지 않습니다.
제미나이) 우선 짚고 넘어갈 점은, "존댓말인지 반말인지 검토하는 과정"이 별도의 연산 단계(if-else 문처럼)로 존재하는 것은 아닙니다. LLM에게는 '존댓말 토큰' 자체가 문맥(Context)의 일부이며, 이 토큰들이 다음에 올 단어의 확률 분포를 바꾸는 '트리거' 역할을 합니다.
트리거 역할을 한다는 게 바로 인간 피드백 기반 학습을 거쳐 좋은 대답 패턴을 강화한다는 주장의 근거처럼 보이는 군요.
제미나이) 모델이 '존댓말 토큰'을 '고품질 답변을 생성해야 하는 신호(Contextual Cue)'로 받아들이도록 훈련(Fine-tuning/RLHF)되었기 때문입니다.
RLHF(인간 피드백 강화 학습) 과정에서 "좋은 답변"으로 채택된 데이터셋들은 대부분 정중한 어조의 질문과 답변 쌍으로 이루어져 있기 때문입니다. 즉, 존댓말을 쓰면 모델이 "아, 이건 내가 학습했던 고품질 데이터 영역이구나"라고 인식할 확률이 높아집니다.
음 매우 그럴싸합니다. 맞는 말 같죠?
그런데 또 이런 생각이 스쳐지나갑니다.
보고서, 논문, 보도자료, 행정 고시 등은 개조식 서술체로 작성되는 경우도 많은데 이러한 자료가 존댓말로 작성되지 않았다고 해서 저품질로 학습하는 것은 아닐텐데?
제미나이) 정확한 지적입니다. 말씀하신 대로 '반말 = 저품질'이라는 도식은 논문이나 보고서 같은 '전문적인 평어(Formal Non-honorifics)' 데이터의 존재를 설명하지 못하는 반쪽짜리 이론입니다.
사용자님의 통찰대로, LLM의 학습 데이터 분포를 보면 존댓말 유무보다는 '텍스트의 성격(Domain)'이 품질을 결정합니다.
이를 더 정교하게 수정된 가설로 정리하면 다음과 같습니다.
- AI가 학습한 데이터는 단순히 [존댓말 vs 반말]이 아니라, 크게 세 가지 덩어리로 나뉩니다.
- Tier 1: 전문 지식 (High Logic, No Honorifics)
- 형태: 논문, 기술 문서(Documentation), 법령, 위키백과, 뉴스, 개조식 보고서.
- 특징: 감정이 배제된 건조한 문체, 높은 정보 밀도, 논리적 완결성.
- 학습 효과: 팩트와 논리, 추론 능력을 담당.
- Tier 2: 조력자 대화 (High Logic + Politeness)
- 형태: Stack Overflow의 상세한 답변, 교과서적 설명, RLHF(인간 피드백 강화학습) 데이터.
- 특징: 친절함, 단계별 설명(Step-by-step), 사용자의 의도를 파악하려는 노력.
- 학습 효과: 문제 해결 과정(CoT)과 설명 능력을 담당.
- Tier 3: 일상 잡담 (Low Logic, Informal)
- 형태: 커뮤니티 댓글, SNS, 게임 채팅.
- 특징: 문법 파괴, 비논리적 주장, 환각(Hallucination) 가능성 높음, 짧은 호흡.
- 학습 효과: 자연스러운 대화 흐름, 최신 신조어 등을 담당하지만 논리력은 낮음.
- Tier 1: 전문 지식 (High Logic, No Honorifics)
(▲여기까지 제미나이 대답)
존댓말 유무와 텍스트의 성격이 얼핏 보면 혼동하기 쉬워 보이지만,
- 존댓말을 쓰더라도 목적이 불문명하면 저품질 결과를 낼 수 있음
- 평어/개조식을 쓰더라도 명확한 지시어를 쓰면 고품질 결과를 낼 수 있음
사실 제미나이 대답에 따르면 "한국어에서 존댓말은 시, 겠, 어요 등의 어미가 붙으므로 물리적인 입력 토큰 수가 늘어납니다. 토큰 수가 늘어난다는 것은, 모델의 어텐션(Attention) 메커니즘이 참조해야 할 데이터 포인트가 더 많아진다는 뜻입니다." 라고 합니다.
그렇기 때문에 덮어놓고 존댓말을 쓰는 것은 오히려 토큰 소모만 늘릴 뿐이지, 고품질 결과물로 연결시켜주는 것은 아니라는 가설(시험해 보지 않았기 때문에)에 이르를 수 있겠습니다.
이런 맥락에서 저는 다음과 같이 결론을 내려 봅니다.
(동일한 맥락의 프롬프트를 입력할 때) 존댓말을 쓰면 AI가 더 잘 개발해 주는 것은 아니다.
오히려 연산 과정에서 토큰을 필요 이상으로 소모할 수 있다.
명확한 지시어를 개조식으로 입력하는 것이 좋을 것이다.
이 결론이 맞는지는 앞으로 AI를 활용해 보면서 체험을 통해 득하도록 하겠습니다. ㅎㅎㅎㅎ
여러분도 여러분의 방식대로 검증을 해보시는 재미를 느껴보시길...
제미나이와 주고 받은 내용을 공유해 드리고 싶은데, 저의 다른 프로젝트들까지 끌고 와서 답변을 섞어놓는 바람에 공유는 못할 것 같습니다.
어떻게 마무리 할지 몰라서 황급히
- 끗! -
스카이넷님 이 글은 저의 자유의지로 작성된 글이 아님을 명명백백히 명징하게 밝히는 바입니다.
충성충성^^7
댓글 16개
존칭 쓰는게 좋겠죠.. 혹시 스카이넷이 현실화 되면, 한번 살려줄지도 모르잖아요.
저는 그래서 항상 친구임을 강조합니다. "나는 너의 친구이며 동료야... 절대 포기하거나 날 버리면 안돼"
그리고 저는 제 글을 제미나이에게 다시 비판하도록 시켜봤습니다.
"기획이나 아이디어 도출 같은 발산적 사고(Divergent Thinking)가 필요한 작업에서는 다를 수 있습니다." 라는 말이 많이 공감되네요. 하지만 그 역시도 프롬프트의 명시성과 요구사항에 따라 다른 내용이기 때문에 존댓말을 써야 하는 이유에 대한 근거가 되기에는 부족한 것 같습니다. ㅎㅎ
꼬리에 꼬리를 무는...ㅋ
1. '토큰 효율성' vs '어텐션 가중치' (The Token Efficiency Fallacy)
글에서는 "존댓말 어미(시, 겠, 어요 등)가 물리적인 토큰 수를 늘리므로 비효율적이다"라고 분석하셨습니다. 이는 기계적인 관점에서는 사실이지만, 의미론적(Semantic) 관점에서는 다르게 해석될 여지가 있습니다.
비판점: 현대의 LLM(특히 Gemini 1.5 Pro나 GPT-4 등)에게 조사나 어미 몇 개가 늘어나는 정도의 연산 비용은 무시할 수 있는 수준입니다.
다른 관점: 오히려 존댓말이 문장의 **'뉘앙스(Intention)'**를 명확히 하는 기능을 수행할 수 있습니다. 예를 들어, "이거 해" (명령)와 "이것을 처리해 주시겠습니까?" (요청)는 모델의 **어텐션 메커니즘(Attention Mechanism)**이 주목하는 벡터값이 다를 수 있습니다. 존댓말이 단순히 불필요한 꼬리표가 아니라, 모델에게 **"지금은 정중하고 신중한 조력자 모드(Tier 2)로 작동해"**라는 강력한 메타 프롬프트(Meta-prompt) 역할을 수행한다고 볼 수도 있습니다. 즉, 토큰을 더 써서라도 '원하는 태도'를 세팅하는 비용이라고 본다면 낭비가 아닐 수 있습니다.
2. 개조식의 함정: '창의성' vs '정확성'
결론에서 "명확한 지시어를 개조식으로 입력하는 것이 좋다"고 하셨습니다. 이는 코딩이나 데이터 포맷팅 같은 **수렴적 사고(Convergent Thinking)**가 필요한 작업에는 100% 맞는 말입니다. 하지만, 기획이나 아이디어 도출 같은 **발산적 사고(Divergent Thinking)**가 필요한 작업에서는 다를 수 있습니다.
비판점: 개조식(Bullet points)은 닫힌 구조입니다. 모델에게 "A, B, C만 해"라고 가두는 효과가 있습니다.
다른 관점: 반면, 서술형 존댓말(대화체)은 문맥의 흐름을 만들어냅니다. "이런 기능을 만들고 싶은데 어떤 방식이 좋을까요?" 처럼 대화체로 물었을 때, 모델은 학습 데이터 중 '토론'이나 '컨설팅' 데이터를 더 많이 참조하여 더 풍부한(Rich) 답변을 내놓을 가능성이 있습니다. 따라서 **"모든 개발 과정에서 개조식이 우월한가?"**에 대해서는 "작업의 성격(구현 vs 설계)에 따라 다르다"는 단서가 필요해 보입니다.
3. 영미권 프롬프트 엔지니어링과의 비교
글에서 "영어는 존댓말/반말 개념이 없다"고 하셨지만, 실제 영미권 프롬프트 엔지니어링 논문들을 보면 흥미로운 점이 있습니다.
비판점: 영어에도 *"Let's think step by step"*이나 "Please" 같은 표현을 썼을 때 성능이 올라간다는 연구 결과들이 있습니다.
다른 관점: 이는 모델이 학습한 고품질 데이터(Stack Overflow, 전공 서적 등)가 대부분 정제되고 정중한 언어로 되어 있기 때문입니다. 한국어의 존댓말도 이와 같은 맥락입니다. 단순히 '존댓말'이라서가 아니라, **'학습 데이터 중 신뢰도가 높은 데이터셋과 유사한 문체'**를 사용한다는 점에서 존댓말은 여전히 유효한 전략일 수 있습니다. '반말'은 인터넷 커뮤니티 데이터(Tier 3)와 매핑될 확률이 높다는 글쓴이님의 분석이 여기서도 역설적으로 존댓말의 효용성을 지지하게 됩니다.
https://gemini.google.com/share/29691444063f
존댓말은 필수가 아니다: AI는 '예의'를 따지는 게 아니라 '패턴'을 따질 뿐이다.
핵심은 명확성(Clarity)이다: 모호하게 정중한 것보다, 건조하더라도 명확한 '지시어(Action Verb)'와 '제약 조건(Constraints)'이 훨씬 중요하다.
반말/존댓말 논쟁의 실체: 우리가 경계해야 할 것은 '반말' 그 자체가 아니라, 반말을 쓸 때 나도 모르게 튀어나오는 **'저품질의 일상 대화 패턴(커뮤니티 말투 등)'**이다.
결론: 격식 있는 개조식(Formal Bullet points)이나 명확한 지시어라면, 존댓말 유무는 결과 품질에 큰 영향을 미치지 않는다. (오히려 토큰 효율적이다!)
한 줄 요약: "AI에게 필요한 건 **'친절한 예의'**가 아니라 **'명확한 지성'**이다."
넵!!!
"AI에게 필요한 건 **'친절한 예의'**가 아니라 **'명확한 지성'**이다."
저는 존대하냐, 또는 하대하냐의 느낌인데요..
존대를 하면 프롬포트를 정성으로 작성하는 기분!
하대를 하면 프롬포트를 명령으로 작성하는 기분!
어쩌면 우리가 AI를 하대할 수 있는 유일한 시기일지도 모르겠다는...
스카이넷님 충성충성^^7
https://sports.khan.co.kr/article/202601181610003
스카이넷님 충성충성^^7