상세 컨텐츠

본문 제목

KT특강 강수진의 프롬프트 엔지니어링 실무 가이드

네트워크엔지니어/AX(Cloud, AI, automation)

by 척척석사 MJ 2025. 8. 25. 09:48

본문

728x90

 

AI 모델은 점점 발전하고 이제 이런 언어모델은 인간 석사, 박사 급의 지능이 지니게 되었다고 하는데 실제 삶에서 체감할 수 있을 정도로 AI가 유용하게 쓰이지는 않고있다. GPT 5가 출시되고 어떤 사람들은 GPT 4보다도 성능이 떨어진다는 사용자 리뷰도 있었다. GPT-5가 사용자 프롬프트를 먼저 보고 적절한 하위 모델을 선택해서 새 프롬프트를 생성하는 식으로 바뀌었기 때문에 프롬프트 엔지니어링을 정교하게 하지않으면 매번 다른 결과가 출력될 수 있다.

AI 성능, 왜 체감되지 않을까? 프롬프트에서 컨텍스트로

2020 GPT-3 OpenAI 파라미터 175B, LLM 대중화 촉진
2022 GPT-3.5 / ChatGPT OpenAI RLHF 적용, 대중형 챗봇
2023 GPT-4 OpenAI 멀티모달, 이미지 입력 지원
2023 Gemini Google DeepMind, 멀티모달 모델
2024 GPT-4o OpenAI 실시간 멀티모달, 고속응답
2024 Claude 3/Opus Anthropic 메타인지형 LLM
2025 GPT-4.5 OpenAI 연구자용, 성능 업그레이드
2025 GPT-4.1 OpenAI 응답속도 개선, Pro 모델
2025 Claude 4 Anthropic 최신 안전지향 대언어모델
2025 GPT-5 OpenAI 2025년 8월 8일 출시, AGI 접근 시도

 

2020년 GPT-3 등장 이후 5년, AI 언어 모델은 인간 전문가 수준의 지능을 갖추게 되었다고 평가받고 있습니다. 하지만 많은 사용자가 실무에서 그 성능을 온전히 체감하지 못하는 이유는 무엇일까요? GPT-5와 같은 최신 모델이 때로는 이전보다 못한 결과를 내놓는다는 평가가 나오는 현상은, 모델의 작동 방식 변화와 밀접한 관련이 있습니다.

최신 AI는 사용자의 프롬프트를 해석해 가장 적합한 내부 하위 모델을 선택하고, 새로운 프롬프트를 생성해 과업을 수행하는 방식으로 진화하고 있습니다. 이는 프롬프트 엔지니어링의 정교함이 결과물의 질을 결정하는 핵심 변수가 되었음을 의미합니다.

 

이러한 흐름 속에서 단순한 '프롬프트 엔지니어링'을 넘어, RAG(Retrieval-Augmented Generation) 기술 등을 활용해 AI가 참조할 맥락 자체를 고도화하는 '컨텍스트 엔지니어링' 이라는 개념이 부상하고 있습니다. AI와의 소통은 이제 단발성 명령이 아닌, 정교한 대화 설계의 영역으로 넘어가고 있는 것입니다.

✅ 1. 명확한 소통의 시작: 프롬프트의 4대 핵심 구성요소

효과적인 프롬프트는 대부분 4가지 핵심 요소를 포함하고 있습니다. 이는 AI와의 대화를 위한 기본 공식과 같습니다.

  • 지시 (Instruction): AI에게 수행할 과업을 명확히 전달하는 명령입니다. (예: "다음 텍스트를 요약해줘.")
  • 맥락 (Context): AI가 역할을 이해하고 결과물의 톤앤매너를 설정하도록 돕는 배경 정보입니다. (예: "너는 IT 전문 블로거야. 비전공자도 이해할 수 있게 쉬운 비유를 사용해줘.")
  • 입력 데이터 (Input Data): AI가 직접 처리하고 분석할 원본 데이터입니다. (예: 분석할 기사 본문, 요약할 회의록)
  • 출력 지시문 (Output Indicator): 원하는 결과물의 형식이나 구조를 구체적으로 지정합니다. (예: "결과는 서론, 본론, 결론 구조를 갖춘 1,000자 내외의 글로 작성해줘.")

 

이 4가지 요소를 체계적으로 조합하는 것만으로도 AI의 답변 품질은 극적으로 향상될 수 있습니다.

 

💡 2. AI의 잠재력을 깨우는 5가지 핵심 기법기본

 

뼈대를 세웠다면, 이제 AI를 더 정교하게 조종할 차례입니다. 아래 5가지 기법을 상황에 맞게 활용하면 AI의 잠재력을 최대한으로 이끌어낼 수 있습니다.

 

1. '역할'을 넘어 '성격'을 부여하기: 페르소나 설정

LLM 모델이 발전하면서 단순히 역할을 부여하는 것보다 성격과 특성을 부여하는게 더 유용해졌습니다. 기존의 역할을 부여하는 프롬프트를 화자중심으로만 작성했다면 화자와 청자를 함께 설정하고 그에 답변을 하는 LLM모델의 성격을 지정하면 답변의 품질이 높아집니다.

  • 화자 중심 페르소나: "너는 변호사야."
  • 청자 중심 페르소나: "도메인 전문가에게 조언을 주는 AI야."
  • 성격 페르소나: 진중한, 과묵한, 활발한(답변을 길게 작성), 정직한(답변의 왜곡을 줄임) 등

특히 성격에 따라 답변의 특성이 달라지는데 활발한 성격은 답을 길게 작성하고, 정직한 성격은 답변의 왜곡을 줄이는데 효과적입니다.

2. AI가 스스로 생각하게 만들기: CoT (Chain of Thought)

정답만 요구하는 대신, '사고의 과정'을 거치도록 유도하여 논리적 깊이를 더하는 기법입니다. CoT 기법은 답변의 질을 높여주는 동시에 일정한 품질의 답변을 만들어 주는 프롬프트 기법입니다. 모델의 성능이 높아질 수록 CoT를 활용한 프롬프트로 인해 답변의 품질이 더 좋아집니다.

  • 자문자답 (Self-Ask Prompting): "이 주제에 대해 10번 자문자답하며 최종 답변을 줘."
  • 성능 트리거 문구: "다시 생각해보자", "조금 쉬었다가 생각해보자." 와 같은 문구가 모델 성능을 높일 수 있습니다.
  • 그라운드 체킹 (Ground-Checking): 프롬프트 초반에 답변을 스스로 검증하라는 지시를 추가합니다.3. MS Copilot에 최적화된 프레임워크: 목표-맥락-소스-기대결과

3. Microsoft Copilot이 제안하는 4요소 구조

📌 프롬프트 라이브러리 예시

  • 목표 (Goal): 3분기 마케팅 실적 보고서 초안 작성
  • 맥락 (Context): 보고 대상은 마케팅 경험이 없는 임원진. 데이터보다는 핵심 성과와 향후 전략에 초점을 맞춰야 함.
  • 소스 (Source): 첨부된 3분기 실적 데이터(sales_Q3.csv), 지난 분기 보고서(report_Q2.pdf)
  • 기대결과 (Expectation): A4 2페이지 분량의 요약 보고서. 핵심 성과는 글머리 기호로 강조하고, 4분기 제안 전략은 명확한 액션 플랜으로 제시. 전문적이지만 이해하기 쉬운 톤 유지.

 

Copilot 프롬프트 프레임워크는 순서도 중요한데, 목표 > 맥락 > 기대결과 > 소스의 순으로 프롬프트를 작성할 때 가장 효과적입니다. (영어기준)

4. 때로는 감성에 호소하기: 심리적 프롬프팅

놀랍게도 AI는 감정이 담긴 긍정적 자극에 반응하여 더 높은 품질의 결과물을 생성하는 경향을 보입니다. 특히 Copilot이나 ChatGPT에서 이런 특성이 더 잘 발견되는데 프롬프트에 이모지를 추가하면 이모지의 감정에 따라 답변이 달라집니다. 특히 ChatGPT를 사용하고 있다면, 긍정적인 이모지를 프롬프트에 추가하는 것으로 더 구체적이고 친절한 답변을 얻을 수 있습니다.

  • 일반적인 예시: "이 프로젝트 기획안 좀 검토해줘."
  • 효과적인 예시: "이건 제 승진이 걸린 정말 중요한 프로젝트입니다. 최고의 컨설턴트처럼 날카롭게 피드백해주세요. 당신의 도움이 절실합니다! 😊"

5. 한국어 프롬프팅의 비밀: 명사형과 한자어 활용

한국어로 프롬프트를 작성할 때는 서술형 표현보다 명사형이나 한자어를 사용하는 것이 해석의 모호성을 줄여 더 명확한 결과를 가져옵니다. LLM 모델의 기본작동 방식은 A라는 단어가 오면 그 뒤에 오게될 B라는 단어가 올 확률을 계산하는 것인데, 한국어의 경우 이 확률이 모호한 경우가 많다고 합니다. 짧게 만들어줘라는 문장은 단순히 글의 단어수를 줄이라는 의미와 핵심 내용을 요약하라는 뜻이 있기 때문에 한자어를 통해 프롬프트를 작성하는게 AI 친화적입니다.

  • 아쉬운 예시: "이 글을 짧게 만들어줘."
  • 효과적인 예시: "이 글을 요약해줘." 또는 "이 글을 축약해줘."

🚀 결론: 가장 중요한 원칙, '맥락의 정제'

프롬프트 엔지니어링의 미래이자 핵심은 간결한 프롬프트 입니다. 이때 간결하다는 건 '맥락의 간결함' 이 아닌 '맥락의 정제' 에 있습니다. 불필요한 정보를 제거하고 핵심 요구사항을 명확하게 전달하는 것이 중요합니다.
특히 한국어는 주어 생략이 잦고 (이거 그거 저거를 LLM이 해석하기가 어렵다) 결론이 뒤에 나오는 고맥락(High-context) 언어이기에, AI가 의도를 파악하기 어려울 때가 많습니다. 이 때문에 강수진 박사는 프롬프트 엔지니어링을 영어로 하는 것을 권장한다고 합니다.

강의후기

프롬프트 강의를 많이 들어보고 나도 강의를 하면서 모르는게 없다고 생각했는데. 역시 악마는 디테일에 있다고, 단순히 프롬프트를 짜는 것보다 중요한 건 구조화를 하고 어디를 개선해야하는 지를 아는것이 중요한 것 같다.
AI 개발자가 아닌 AI 유저로서 경쟁력을 가질 수 있는 부분도 여기에 있는 것 같다. 현실적으로 AI 모델을 개발하고 파라미터를 개선할 수는 없기에 RAG를 깍고 프롬프트 엔지니어링을 깍는게 앞으로의 경쟁력이 될 것 같다.

728x90
반응형

관련글 더보기