ai정보오류1 할루시네이션이란? 정답처럼 말하는 AI 믿어도 되나? 요즘 챗GPT 같은 LLM를 쓰는 사람들이 정말 많아졌죠.궁금한 걸 물어보면 바로바로 답이 나오고글쓰기나 요약도 척척 도와주는 똑똑한 AI이니까요.그런데 혹시 이런 경험 있으신가요? “AI가 자신감 있게 말했는데, 나중에 보니 사실이 아니었다.” 이런 현상을 ‘AI 할루시네이션(Hallucination)’이라고 부릅니다.말 그대로 ‘환각’을 뜻하는 단어인데요,사람이 아닌 AI가 어떻게 환각을 겪는다는 걸까요?인공지능의 할루시네이션은 사실이 아닌 정보를그럴듯하게 만들어내는 현상을 말합니다.예를 들어, 존재하지 않는 논문 제목을 만들어내거나,틀린 내용을 진짜처럼 말하는 경우죠.문제는 이 정보들이 너무 자연스럽고 논리적으로들려서 우리가 쉽게 속을 수 있다는 점이에요. 특히 챗GPT, Bing Copilot, .. 2025. 5. 18. 이전 1 다음