생성형 AI 신뢰성 (데이터 고갈, 자기학습 루프, 비판적 사고)

 


발표 자료를 AI로 정리했다가 나중에 확인해 보니 출처가 불분명하고 일부 내용이 사실과 달랐던 경험, 혹시 있으신가요? 저는 있습니다. 그 순간 처음으로 '이거 그냥 믿으면 안 되는 거였나?' 싶었습니다. 생성형 AI가 일상 깊숙이 들어온 지금, 편리함 뒤에 조용히 쌓이고 있는 신뢰성 문제를 짚어봤습니다.

AI가 학습할 데이터가 바닥나고 있다는 게 사실일까요

챗GPT나 제미나이, 클로드 같은 대규모 언어 모델(LLM, Large Language Model)을 쓰면서 '이 녀석은 어디서 이런 걸 다 알지?' 하고 신기했던 적 있으시죠? LLM이란 인터넷에 공개된 방대한 텍스트 데이터를 학습해 인간의 언어를 이해하고 생성하도록 훈련된 AI 모델을 말합니다. 문제는 그 공개 데이터가 사실상 바닥을 드러내고 있다는 점입니다.

관련 연구들은 AI가 학습할 수 있는 공개 데이터가 2026년을 전후해 급격히 소진될 것으로 예상하고 있습니다. 이미 학습 가능한 대부분의 공개 텍스트는 흡수했다는 뜻입니다. 그렇다면 그다음 단계는 무엇일까요? 바로 합성 데이터(Synthetic Data)입니다. 합성 데이터란 AI가 스스로 생성한 텍스트나 정보를 뜻하는데, 사람이 만든 글이 아니라 AI가 만든 글을 다시 AI가 학습하는 구조입니다.

제가 직접 써봤는데, AI에게 특정 페이지를 요약해 달라고 했을 때 해당 페이지 내용이 아니라 전혀 다른 출처의 문장을 가져다 붙이는 경우가 있었습니다. 당시에는 단순한 오작동이라고 생각했는데, 지금 돌이켜 보면 AI가 학습한 데이터 안에서 유사한 패턴을 찾아 조합한 결과였을 가능성이 높습니다. AI가 만든 웹사이트를 답변 근거로 활용한 사례가 확인된 것만 1,000개가 넘는다는 보고도 이미 나와 있는 상황입니다.

자기학습 루프에 빠지면 어떤 일이 생길까요

자기학습 루프(Self-Training Loop)란 AI가 자신이 생성한 데이터를 반복적으로 재학습하는 현상을 말합니다. 사람이 만든 글에는 다양한 관점과 표현이 섞여 있지만, AI가 생성한 텍스트는 확률 기반의 패턴으로 구성됩니다. 그 패턴을 또 학습하면 점점 좁은 범위 안에서 비슷한 답변만 반복하게 됩니다. 정보의 다양성이 줄고, 왜곡된 내용이 확대 재생산될 가능성이 높아지는 구조입니다.

이게 단순한 기술 이야기로 끝나지 않는 이유가 있습니다. 유럽 방송 연맹(EBU)이 발표한 보고서에 따르면(출처: European Broadcasting Union), 챗GPT, 제미나이, 코파일럿 등 주요 AI 챗봇의 답변 중 절반 가까이에서 오류가 발견됐습니다. 정확도 저하, 출처 오기재, 오래된 정보를 현재 사실처럼 인용하는 문제가 포함됐습니다. 또한 생성형 AI 챗봇의 허위 답변을 분석한 연구에서는 주요 AI 모델 10개의 오류율이 평균 38.3%에 달하는 것으로 나타났습니다.

솔직히 이건 예상 밖이었습니다. 절반 가까이 오류라면 동전 던지기 확률과 크게 다르지 않은 수준입니다. 그런데도 많은 사람들이 AI의 답변을 검증 없이 쓰고 있습니다. 자기학습 루프에 빠진 AI가 내놓는 답변이 점점 더 자신감 있게 느껴질수록, 오히려 그 위험성은 커집니다.

자기학습 루프가 신뢰성에 미치는 영향을 정리하면 다음과 같습니다.

  1. 정보의 다양성 감소: 인간이 생성한 데이터와 달리 AI 합성 데이터는 특정 패턴에 수렴하는 경향이 있어 응답의 폭이 좁아집니다.
  2. 오류의 증폭: 한 번 잘못된 정보가 학습 데이터로 포함되면 이후 모델이 해당 오류를 사실처럼 반복할 가능성이 높아집니다.
  3. 출처 신뢰성 붕괴: AI가 생성한 웹사이트를 출처로 인용하는 경우, 정보를 검증할 근거 자체가 사라집니다.
  4. 환각 현상 심화: 할루시네이션(Hallucination), 즉 AI가 존재하지 않는 사실을 그럴듯하게 만들어내는 현상이 더 빈번해질 수 있습니다.

그래서 우리는 어떻게 AI를 써야 할까요

저도 AI 의존도가 높아질수록 뭔가 불편한 감각이 생겼습니다. 발표 준비 중 AI가 정리해 준 내용을 거의 그대로 사용했다가 나중에 일부가 틀렸다는 걸 확인한 이후로는 반드시 추가 검증을 거치는 습관을 들였습니다. 그런데 생각해 보면 그 전까지는 검증을 안 했다는 게 더 큰 문제였습니다.

AI를 많이 활용하는 MZ세대 사이에서도 비슷한 경험을 토로하는 경우가 많습니다. 운동 후 단백질 섭취 시간 같은 사소한 것부터 심리학 용어를 사용한 자가 진단, 자기소개서 작성까지 AI에 맡기는 범위가 점점 넓어지고 있습니다. 빠르고 그럴듯한 답변이 나오니까 굳이 검색해 볼 필요성 자체를 못 느끼게 됩니다. 이게 인지 오프로딩(Cognitive Offloading) 현상입니다. 인지 오프로딩이란 생각하고 판단하는 과정을 외부 도구에 위임하면서 스스로의 인지 능력이 점차 줄어드는 현상을 뜻합니다.

AI 성능을 높이려면 저작권이 있는 양질의 데이터, 즉 책이나 논문, 기사처럼 사람이 정제한 텍스트가 필요합니다. 그런데 창작물 대부분에는 저작권이 걸려 있어 학습 자체를 금지시킨 경우가 많습니다. 챗GPT의 지브리풍 이미지 변환 기능이 논란이 됐을 때, 스튜디오 지브리 측이 무단 학습 중단을 강하게 요청한 것도 같은 맥락입니다. AI 학습에 필요한 고품질 데이터와 저작권 보호 사이의 충돌은 단기간에 해결될 문제가 아닙니다. MIT 미디어랩 등 여러 연구기관이 이 문제를 꾸준히 다루고 있습니다(출처: MIT Media Lab).

제 경험상 AI를 가장 잘 쓰는 방법은 '초안 작성 도구'로 활용하는 것입니다. 방향을 잡거나 아이디어를 빠르게 끌어내는 데는 탁월하지만, 최종 판단은 반드시 사람이 해야 합니다. AI가 "모른다"고 말하지 않는다는 것, 그리고 틀려도 자신감 있게 말한다는 것을 항상 기억해 두면 과의존을 막는 데 도움이 됩니다.

AI가 이대로 멈추는 건 아닐 겁니다. 하지만 지금처럼 데이터 고갈과 자기학습 루프 문제가 해결되지 않은 채 의존도만 높아진다면, 우리는 점점 더 검증되지 않은 정보를 사실로 받아들이는 상황에 놓일 가능성이 있습니다. 기술이 발전하는 속도만큼 그것을 비판적으로 바라보는 능력도 함께 키워야 한다고 생각합니다. 편리함에 익숙해질수록 스스로 질문하는 힘을 잃지 않는 것, 그게 지금 AI 시대를 사는 우리에게 가장 필요한 태도가 아닐까요.

--- 참고: https://www.youtube.com/watch?v=m7AOMyHwA0g

이 블로그의 인기 게시물

스마트폰 가격 인상 보급형까지

맥북 네오 (가격 전략, 성능 한계, 구매 가이드)

GPT 무료 유료 선택 기준 완벽 정리