• 뉴스 듣기

  • 글자 크기

    글자 크기 설정

    • 보통

    • 크게

    • 아주 크게

  • 기사 공유

  • 북마크

  • 다크모드

  • 프린트

네이버 채널구독

다음 채널구독

개념 → 정리 → 분석順…단계별로 쪼개 질문을

■ 할루시네이션 막는 프롬프트 작성법

구체적인 용어로 답변 범위 확 좁히고

스스로 모순 점검 지시하면 오류 줄어

입력2026-02-11 17:48

수정2026-02-11 18:46

지면 14면

인공지능(AI)이 그릇되거나 아예 존재하지 않는 정보를 사실인 양 말하는 ‘환각(Hallucination)’ 현상을 해결하기 위해 학계에서는 다양한 완화 기술이 제시되고 있다. 2024년 이슬람기술대(IUT)의 토히둘 이슬람 톤모이 연구원 등이 공동 작성한 논문 ‘대규모언어모델의 환각 완화 기술 종합 분석’은 32가지 이상의 기법을 소개하며 AI를 현명하게 사용하는 ‘프롬프트(질문) 기술’의 중요성을 강조한다. 환각을 줄이는 접근법은 크게 세 갈래다. 질문을 정교화하는 것, 생성 과정을 검증 중심으로 바꾸는 것 그리고 모델의 학습 구조를 개선하는 것이다.

우선 이용자의 프롬프트가 좀 더 명료해야 한다. AI에게 먼저 외부 자료나 참고 문헌 등 데이터를 제시하고 질문에 최신 사실관계를 포함하는 것이다. 복잡한 요구를 한 번에 던지기보다는 단계별로 나누어 묻는 방식도 효과적이다. 긴 보고서 작성이나 종합 분석을 요구하기보다 ‘개념 정의→사례 정리→비교 분석’처럼 작은 단위로 쪼개면 논리적 비약이 줄어든다. 또한 모호한 표현 대신 구체적인 용어를 사용하는 것이 좋다. ‘최근 연구’ 대신 ‘2023~2024년 발표된 국제 학술지 논문’처럼 명확히 규정할수록 AI의 답변 범위가 좁아진다.

이용자가 직접 모델에 정직성 조건을 부여할 수도 있다. 예컨대 “확실한 근거가 있는 내용만 제시하고 추측은 하지 말라”고 명시하는 것이다. 답변이 생성된 뒤에는 “작성한 내용이 사실인지 재검토하라”고 요구하는 자가 팩트체크 단계를 추가할 수도 있다. 이는 모델이 스스로 앞선 답변을 다시 읽고 오류 가능성을 줄이는 과정이다.

더 나아가 답변 내부의 모순을 점검하도록 지시하는 것도 도움이 된다. 앞뒤 주장이 충돌하는지, 제시된 수치가 서로 일관되는지를 확인하게 하는 교차 논리 점검이다. 외부 자료를 보여주고 직접 대조하도록 하는 ‘검색결합생성(RAG)’ 방식을 이용해 AI가 기억이 아니라 실제 문서를 근거로 답변하도록 유도한다.

모델 설계 차원에서는 불확실성이 높을 경우 답변을 제안하는 방식이 제한된다. 모르면 모른다고 말하도록 훈련하는 것이다. 존재하지 않는 논문이나 정보에 대해 그럴듯하게 지어내는 대신 답변을 거절하거나 추가 정보가 필요하다고 응답하게 하는 학습 방식이다.

이 기사를 추천합니다.

ⓒ 서울경제신문, 무단 전재-재배포, AI 학습 및 활용 금지

다음
이전
다음
이전