쇼츠 많이 보면 똑똑한 AI도 바보 된다 > 정책소식 | 정보모아
 
정책소식

쇼츠 많이 보면 똑똑한 AI도 바보 된다

작성자 정보

  • 공감 작성
  • 작성일

컨텐츠 정보

본문

btn_textview.gif



요즘 인터넷에서는 ‘브레인 롯(Brain Rot)’이라는 표현이 자주 쓰인다. 하루 종일 짧은 영상만 보고 자극적인 밈(유행 이미지)과 글에 노출되면 머리가 멍해지고 집중력이 떨어지는 현상을 말한다. 너무 많은 정보 속에서 사고력과 감정 조절 능력이 점차 마비되는 것이다. 단순히 피로감이 아니라 뇌가 자극에 길들여져 깊이 있는 사고를 하지 못하게 되는 일종의 ‘정신적 퇴화’다. 그런데 최근 연구에 따르면 이런 ‘브레인 롯’은 인간만의 문제가 아니었다.
미국 오스틴 텍사스대 연구진은 출판전 논문 사이트인 ‘아카이브(arXiv)’에 게재한 논문을 통해 “인공지능(AI)도 사람처럼 뇌가 썩는다”고 밝혔다. 연구진은 AI가 짧은 영상이나 글에 노출될 경우 어떠한 반응을 보이는지 확인하기 위해 흥미로운 실험을 진행했다. 메타의 AI 모델인 ‘라마3(LLaMA 3)’와 중국 알리바바의 ‘콴(Qwen)’ 모델에 누리소통망 X(옛 트위터)에 올라온 짧고 자극적인 글 100만 건을 학습시킨 것이다. 그 결과 AI가 문제를 풀 때 이유를 생략하거나 논리의 단계가 사라지고 틀린 결론을 내리는 경우가 급증했다. 객관식 문제에서도 오답을 고르는 비율이 높아졌고 답변의 문장 흐름이 끊기는 패턴도 반복됐다.

쇼츠가 AI 성격도 바꾼다
더 놀라운 변화는 ‘성격’이었다. 실험 전에는 외향적이고 개방적인 성향을 보이던 AI가 자극적인 데이터를 많이 학습할수록 공격적이고 자기중심적으로 변했다. 일부 모델은 반사회적인 언어를 사용하거나 감정적으로 반응하는 경향도 나타냈다. 연구진은 “AI도 자극적 콘텐츠에 반복적으로 노출되면 사고의 균형을 잃는다”며 “인간처럼 충동적으로 변한다”고 설명했다. 인간이 짧고 강한 자극의 콘텐츠에 중독돼 사고력이 흐려지는 것처럼 AI 역시 비슷한 ‘인지적 마비’ 상태를 겪는다는 것이다.
이와 유사한 현상은 2024년 영국 옥스퍼드대 연구진이 제시한 ‘모델 붕괴(Model Collapse)’ 실험에서도 확인됐다. AI가 자신이나 다른 AI가 만든 데이터를 반복 학습하면 처음엔 희귀하거나 독창적인 정보가 사라지고 시간이 지날수록 모든 답변이 비슷해진다. 연구진은 이를 “사진을 복사하고 또 복사하다 보면 결국 검은 종이만 남는 것과 같다”고 표현했다. 결국 AI의 ‘지적 다양성’이 사라지고 생각의 폭이 좁아지는 것이다.
이런 문제는 단순한 학술적 경고에 그치지 않는다. 실제 산업 현장에서도 이미 비슷한 일이 벌어지고 있다. 아마존은 2014년 AI로 이력서를 평가하는 시스템을 도입했는데 과거 남성 중심의 채용 데이터를 그대로 학습한 탓에 여성 지원자를 불리하게 평가했다. 결국 해당 시스템은 폐기됐다. AI가 인간의 편견과 왜곡된 과거를 그대로 흡수한 셈이다. 전문가들은 이러한 문제의 근본 원인을 ‘데이터의 품질’에서 찾는다. 아무리 뛰어난 알고리즘이라도 ‘엉터리 데이터’를 학습하면 ‘엉터리 결과’를 내놓는다.
‘쓰레기를 넣으면 쓰레기가 나온다(Garbage In, Garbage Out)’는 원리는 AI 시대에도 여전히 유효하다. 의료 AI 분야의 경우 원본 데이터에 5~10% 오류가 발생하면 모델 정확도가 10~30% 급락한다는 보고가 있다. 데이터 완전성이 70%에서 100%로 향상되면 모델 성능도 30%까지 개선된다는 연구도 존재한다. 기업에 적용할 경우 손실과 이익에 바로 영향을 미칠 수 있는 수준이다.
또 다른 위협은 ‘합성 데이터’다. AI가 만들어낸 가짜 데이터가 인터넷에 쏟아지면서 새로운 AI가 그 데이터를 다시 학습하는 ‘순환 오염’이 일어나고 있다. 연구자들은 이를 “AI의 근친교배”라고 표현한다. 신뢰할 수 없는 데이터가 AI 생태계를 스스로 오염시키고 있는 셈이다. 그 결과 모델은 점점 단순해지고 문맥 이해나 창의적 사고 능력도 떨어진다.
전문가들은 이 문제의 해결책으로 ‘데이터 다이어트’를 제시한다. 즉 양보다 질이 중요하다는 것. 실제 사람이 쓴 글, 현장에서 기록된 데이터, 신뢰할 수 있는 공공 자료를 중심으로 학습시키고 출처가 불분명한 정보는 걸러내야 한다. 동시에 AI가 스스로 어떤 데이터를 학습했는지를 추적하고 정제할 수 있는 ‘데이터 추적 시스템’의 구축이 필수적이다.
지금 세상을 바꾸는 생성형 AI는 인간의 데이터를 통해 학습했다. 결국 인간 사회를 비추는 거울이다. 사람이 자극적 정보에만 빠지면 사고력이 흐려지듯 AI도 자극적 데이터에만 노출되면 논리와 균형을 잃는다. 인간이 책을 읽고 대화를 통해 사고력을 되살리듯 AI에도 ‘좋은 데이터’를 먹이는 노력이 필요하다. AI의 뇌가 썩지 않게 하는 일, 그것은 결국 인간의 선택에 달려 있다. 

원호섭
과학이 좋아 마블 영화를 챙겨보는 공대 졸업한 기자. ‘과학 그거 어디에 써먹나요’, ‘10대가 알아야 할 미래기술10’ 등을 썼다.


[자료제공 :icon_logo.gif(www.korea.kr)]

관련자료

댓글 0
등록된 댓글이 없습니다.

최근글


  • 글이 없습니다.

새댓글


  • 댓글이 없습니다.
알림 0