글을 쓰게된 이유... 개인 사유지만 답답해서 좀 적어 봅니다.
회사 프로젝트를 진행하면서 GPT가 글을 생성할때 오래걸리는 조건중 상반되는 문단 모양이나 형식을 요청시
답변이 느려진다는 것을 예전에 조사해 두었던 내용을 알고 있었습니다.
오늘 대표님이 오셔서 관련해 물어보시길래 제가 알고 있던 내용을 설명드렸습니다. 그런데 돌아온 말씀이 *“그런 이야기를 어떤 근거로 하느냐”*라는 질문이었습니다. LLM 사업을 하는 회사라면 GPT의 특성 정도는 알고 계시지 않을까 생각하며, 대중적인 GPT에서 본 내용이라고 말씀드렸습니다. 그러자 “ 내 얼굴이 다 부끄럽다”라는 표현을 들었고, GPT를 출처로 언급했다는 이유만으로 비아냥거리는 대표를 보았습니다.
그 순간 이 회사는 앞으로 쉽지 않을 수 있겠다는 생각이 들었습니다.
여러 사람이 어떻게 말하든 저는 나름 존중하며 일 했었는데, 그 마음이 스스로도 조금 부끄럽게 느껴졌습니다.
그럼 나는 정말 GPT 답변만 보았을까? 논문도 읽고 전문가 의견도 평소에 최대한 보고 있던 나인데...
뭐 중요한 것은 그 내용이 있다고 생각하고 출처를 이야기 대충 넘긴 나의 잘못인가? 아 모르겠고 출처를
정리해 봅시다.
이 글을 읽는 사람은 출처도 중요하지만 내용을 먼저 파악하길 바라며 적어 봅니다.
OverThink 공격 ( 미국 코넬 대학교에서 운영하는 논문 사이트 출처 )
폐쇄형(OpenAI o1, o1-mini, o3-mini) 및 개방형(DeepSeek R1) 가중치 추론 모델에 걸쳐 공격을 평가
https://arxiv.org/html/2502.02542v2
OverThink: Slowdown Attacks on Reasoning LLMs
Reasoning models are already deployed in general-use applications, e.g., ChatGPT and DeepSeek chat, and recently Copilot (Warren, 2025). These applications often integrate reasoning models into their services by making API calls to service providers like
arxiv.org

방식 :
Decoy reasoning problems (미끼 추론 문제)를 콘텐츠에 주입
LLM이 실제 답변을 내기 전에 과도하게 긴 추론을 하도록 유도
효과 :
최종 답변의 정확성은 유지하면서 응답 속도만 늦춤
SQuAD 데이터셋에서 최대 18배 응답 시간 증가
상반되는 지시사항 ( Conflicting Instructions )
경쟁적 목표 "Competing objectives" 개념: 모델의 능력("항상 지시를 따라야 함")과 안전 목표가 충돌하는 상황
블로그 ...
https://lilianweng.github.io/posts/2023-10-25-adv-attack-llm/
Adversarial Attacks on LLMs
The use of large language models in the real world has strongly accelerated by the launch of ChatGPT. We (including my team at OpenAI, shoutout to them) have invested a lot of effort to build default safe behavior into the model during the alignment proces
lilianweng.github.io
1. 지시 수용성 감소
• 안전 목표(거부/필터링) 때문에 모델이 일부 단순 지시조차도 창의적·정확하게 처리하지 못함
→ 이는 본연의 지시 순응 능력 약화 (성능 저하 느낌)로 이어짐.
2. 복수 패스/후처리 요구
• 여러 후보 응답 생성 후 안전성 비교, 외부 필터 툴과의 상호검증 등으로 평균적인 처리 시간이 증가할 수 있다.
모호하거나 서로 모순되는 지시가 포함된 프롬프트에서 모델 성능 저하-GPT 프롬프트 가이드
https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide
GPT-5 prompting guide | OpenAI Cookbook
GPT-5, our newest flagship model, represents a substantial leap forward in agentic task performance, coding, raw intelligence, and steera...
cookbook.openai.com
전제 간 충돌 (동의 필요 vs 동의 없이 일정 배정)
모델이 어떤 지시를 우선해야 할지 내부적으로 갈등을 겪음
모델이 지시 간 모순을 조정(reconcile) 하려는 과정에서 성능(생산 속도, 정확성 등)에 부정적 영향을 받을 수 있습니다
원문
Like GPT-4.1, GPT-5 follows prompt instructions with surgical precision, which enables its flexibility to drop into all types of workflows. However, its careful instruction-following behavior means that poorly-constructed prompts containing contradictory or vague instructions can be more damaging to GPT-5 than to other models, as it expends reasoning tokens searching for a way to reconcile the contradictions rather than picking one instruction at random.
명령어 충돌 ( Instruction Conflict) 및 복잡한 제약 조건이 LLM 성능과 추론 효율성
여기서 나아가서 텍스트 구조(포맷)만 바꿔도 LLM 성능이 달라질 수 있음
https://arxiv.org/pdf/2411.10541v1
텍스트 구조만 바뀌어도 결과가 달라질 수 있다는 것은 LLM 설계/평가에서 “입력 포맷의 민감도” 라는 중요한 요소를 고려해야 함을 보여줍니다
🟢 포맷 구조만 바꿔도 성능이 변화한다
“Prompt format choices may lead to substantial performance variations, raising concerns about current evaluation standards that ignore this factor.”
→ 프롬프트 구조/형식(template) 변화는 모델의 추론 성능(performance) 에 유의미한 영향을 준다.
🟢 모델 크기/구조에 따라 민감도 차이가 존재함
GPT-4는 GPT-3.5보다 포맷 변화에 덜 민감하지만, 완전히 무시될 수준은 아님.
상반된 지시 관련 벤치 마크 ㅡ.ㅡ 이제 출처 적는 것도 귀찮네요. 관련글은 대충 가져와 봅니다.
결국 출처 GPT라고 답변하고 싶은 나의 마음이 바뀌지 않네요.
https://arxiv.org/pdf/2311.07911
https://arxiv.org/pdf/2311.07911.pdf
복수의 제약 조건 동시 처리
논리적 모순/구조적 충돌
"Instruction Following Assessment" (IFEval 및 관련 벤치마크 연구)
Google DeepMind 등에서 발표한 이 논문은 모델이 여러 제약 조건(Constraints)을 동시에 처리할 때의 성능을 측정합니다.
• 상반된 지시의 영향: 예를 들어 "A라고 말하되, A를 언급하지 마라"와 같은 논리적 모순이나, "매우 상세하게 작성하되 50단어 이내로 요약하라"는 식의 구조적 충돌은 모델의 **Attentional Focus(주의 집중)**를 분산시켜 답변 생성 전의 '사전 연산 시간'을 늘리는 원인이 됩니다.
제약 조건의 복잡성: 사용자가 복잡하거나 여러 가지 제약 조건을 동시에 부여할수록 모델의 성능(정확도)이 급격히 떨어집니다.
Strict vs. Loose: 단순히 질문에 답하는 것보다, 상반되거나 엄격한 구조적 형식을 지키라고 요구할 때 GPT-4와 같은 고성능 모델조차 실패율이 높아집니다.
https://arxiv.org/pdf/2406.13542
**IFEval(Instruction Following Evaluation)**의 후속 연구들과 관련 벤치마크(FollowBench 등) 논문들에서 말씀하신 **"복잡한 제약 조건(Complex Constraints)이 모델의 추론 오버헤드(Reasoning Overhead)를 증가시킨다"**는 분석을 공통적으로 찾아볼 수 있습니다.
질문하신 내용에 대한 학술적 근거를 정리하고, 요청하신 대로 영어 번역과 표현 설명을 덧붙여 드립니다.
1. 학술적 분석 내용 (Analysis)
여러 연구(예: FollowBench, CRUX-Eval)에 따르면, 단순 질의응답과 달리 **'상반된 문단 모양'**이나 '글자 수 제한' 같은 제약 조건이 추가될 때 발생하는 현상은 다음과 같습니다.
- 추론 오버헤드(Reasoning Overhead)의 실체: 모델은 단순히 다음 단어를 예측하는 것이 아니라, 생성 중인 문장이 설정된 '제약 조건'에 부합하는지 계속해서 내부적으로 검증(Checking)해야 합니다. 이 과정에서 Attention 메커니즘이 분산되며 연산 자원을 더 많이 소모하게 됩니다.
- 답변 지연(Latency)과의 상관관계: 제약 조건이 복잡할수록 모델이 '최적의 토큰'을 결정하기 위한 확률 계산이 복잡해지며, 이는 **첫 번째 토큰 생성 시간(TTFT)**과 전체 생성 속도를 늦추는 직접적인 원인이 됩니다.
2. 영어 번역 및 표현 설명 (English Translation & Commentary)
[English Translation]
"Yes, that is correct. Follow-up studies on IFEval analyze that complex constraints significantly increase the reasoning overhead of the model. This occurs because the model must perform additional computational steps to verify adherence to constraints, which inevitably leads to higher latency and potential performance degradation."
[Grammar & Expression Tips]
- Reasoning Overhead: '추론 오버헤드'입니다. 오버헤드(Overhead)는 어떤 처리를 하기 위해 추가적으로 들어가는 시간이나 메모리 등의 자원을 뜻합니다.
- Adherence to Constraints: '제약 조건 준수'라는 뜻입니다. 모델이 사용자의 규칙을 얼마나 잘 따르는지 표현할 때 쓰는 격식 있는 표현입니다.
- Inevitably: '필연적으로'라는 부사입니다. 복잡한 명령이 들어가면 속도가 느려질 수밖에 없다는 인과관계를 강조할 때 유용합니다.
3. 신뢰할 수 있는 구체적 근거
- FollowBench (2024): 이 논문은 지시 사항의 난이도를 5단계로 분류했는데, 제약 조건이 겹칠수록(Multi-constraint) 모델이 '생성'보다 '제약 만족'에 에너지를 쏟느라 추론 효율성이 급격히 떨어진다고 명시하고 있습니다.
- Constraint-Satisfaction Studies: 많은 연구에서 "지시 준수(Instruction Following)" 자체가 단순 생성보다 더 높은 수준의 **Logical Reasoning(논리적 추론)**을 요구하며, 이것이 모델의 연산 비용을 높인다고 설명합니다.
결론적으로, 질문하신 "complex constraints가 reasoning overhead를 증가시킨다"는 분석은 최신 LLM 연구 분야에서 매우 정설로 받아들여지는 내용입니다.
'AI와 교육 > AI Literacy' 카테고리의 다른 글
| rag 개인화 구성 모델 검토 (2026.2.4) (0) | 2026.02.04 |
|---|---|
| AI tool 기업 도입에 대해서 (2026.01.25) (0) | 2026.01.27 |
| Open Code 설치 ( window 컴 2026.01.25 ) (0) | 2026.01.25 |
| claude code vscode에서 사용하기 설정 (2026.01.12) (0) | 2026.01.12 |
| 2026년 첫번째 AI사용 경험 gemini 스토리보드(2026.1.5) (0) | 2026.01.05 |