confused by the result generated by AI hallucination

GPT 환각에 대한 오해와 진실

ChatGPT를 사용해보신 분이라면 한 번쯤 ‘환각(Hallucination)‘에 대해 들어보셨을 겁니다. “GPT는 헛소리를 잘한다.” “거짓말을 한다.” “환각이 너무 심하다.” 실제로 GPT는 그럴듯한 말투로 틀린 정보를 말하는 경우가 있습니다. 출처가 불분명한 내용을 마치 사실인 것처럼 전달하거나, 실존하지 않는 문서나 논문, 인물 등을 그럴듯하게 지어내는 경우도 있습니다. 이러한 현상은 일반적으로 “AI의 환각(Hallucination)”이라고 불리며, 많은 사용자들이 이를 두고 GPT의 한계나…

model collapse and synthetic data feedback loop

AI 검색 시대의 정보 붕괴: Model Collapse(모델 붕괴)와 Synthetic Data(합성 데이터)의 위협

AI 모델 붕괴(Model Collapse), 합성 데이터 순환오염(Synthetic Data Feedback Loop)이 검색 알고리즘 신뢰성을 위협하고 있습니다. 원본 데이터 확보와 합성 데이터 비율 관리가 핵심 대응 방안으로 부각됩니다.