4. 최신 정보는 어떻게 아는가?
특정 시점까지만 학습한 AI가 최신 이슈에 답하는 것은 ‘웹 브라우징’ 기능 덕입니다. AI 자체가 아는 것이 아니라, 시스템이 실시간으로 웹을 검색해 얻은 정보를 AI에게 전달하고, AI는 이를 요약하고 정리해서 답변을 생성하는 것이죠. 검색엔진의 도움이 없으면 AI는 절름발이입니다.
5. 우리가 준 문서만 참고하게 할 수 있는가?
100% 보장은 어렵습니다. RAG(검색 증강 생성, Retrieval-Augmented Generation) 기술을 활용하면 특정 문서를 우선적으로 참고하도록 유도할 수는 있지만, AI는 여전히 기존에 학습한 방대한 지식을 답변에 섞어 넣을 수 있습니다.
6. AI가 제시한 출처는 믿을 만한가?
아닙니다. AI는 존재하지 않는 출처를 그럴듯하게 지어내거나(환각, 할루시네이션), 실제 있는 자료를 부정확하게 인용할 수 있습니다. AI가 제시하는 모든 출처는 반드시 직접 확인하는 습관이 필요합니다. 때로는 출처를 정확하게 나타내라고 ‘혼을 낼’ 필요도 있더군요.
7. 모든 문서를 입력할 수 있는데, RAG 기술이 왜 필요한가?
AI가 처리할 수 있는 정보의 양(컨텍스트 창)이 비약적으로 늘어난 것은 사실입니다. 하지만 관련 없는 정보까지 무작정 많이 입력하면 오히려 답변의 질이 떨어지고 비용과 속도 문제도 발생합니다. RAG는 여전히 가장 정확하고 관련성 높은 정보만 추려내 AI의 효율과 정확도를 높이는 핵심 기술입니다.
8. ‘환각(Hallucination)’ 현상을 없앨 수 있는가?
현재 기술로는 불가능합니다. 환각은 정답을 찾는 것이 아니라 확률적으로 가장 그럴듯한 단어를 예측하는 AI의 본질적인 특성이기 때문이죠. 다만, 앞서 언급한 RAG나 정교한 프롬프트 엔지니어링을 통해 발생 빈도를 줄이는 것은 가능합니다.
9. AI의 답변 오류를 어떻게 해야 효율적으로 검증하는가?
인간과 자동화의 협력이 필요합니다. 보고서나 분석처럼 복잡하고 미묘한 결과물은 인간의 검토가 필수적이며, 코드 생성이나 데이터 분류 같은 정형화된 작업은 자동화된 테스트로 효율을 높일 수 있습니다. 최근에는 또 다른 AI를 ‘심판’으로 내세워 검증하기도 하지만, 그 심판이 완벽하지는 않습니다.
10. 같은 질문에 항상 같은 답변을 받을 수 있는가?
거의 불가능합니다. ‘temperature’ 같은 기술적 설정을 조절해 답변의 일관성을 최대한 높일 수는 있지만, 표현이나 뉘앙스가 미세하게 달라지는 것까지 막을 수는 없습니다. 완전히 동일한 답변을 원한다면, 첫 답변을 저장해두고 복사해서 사용하는 ‘캐싱(caching)’ 방식이 유일하지만, 질문이 조금만 바뀌어도 소용이 없습니다.
결론적으로, 생성형 AI는 전지전능한 도구가 아니라, 여러분이 그 특성을 정확히 이해하고 활용해야 파트너일 뿐입니다. AI가 스스로 판단하고 기억하며 학습할 것이라는 막연하게 기대하지 마세요. AI의 작동 원리를 이해하고 명확한 규칙과 검증 체계를 마련해야 AI는 우리에게 더 높은 수준의 생산성에 도달하게 해줄 겁니다. 이 글이 여러분의 AI 리터러시를 조금이라도 높이는 데 도움이 되길 바랍니다. (끝)
*참고기사
https://sloanreview.mit.edu/article/how-llms-work/
|