종합뉴스

AI 환각: 새로운 지각의 시작인가, 아니면 전 세계적인 망신인가?

코리아뷰티타임즈 2025. 6. 6. 12:53

[코리아뷰티타임즈]

"광대가 설계하고 원숭이가 감독하는" 세상의 결과

 
최근에 ChatGPT에서 복사하여 붙여넣은 기사는 기존 미디어에서 사실 확인자의 역할에 대한 의문을 제기한다.
 
우스꽝스럽지만 의미심장한 실수로, 시카고 선타임스와 필라델피아 인콰이어러를 포함한 여러 주요 신문사가 최근 ChatGPT가 "환상적으로 만들어낸" 존재하지 않는 책으로 가득 찬 여름 독서 목록을 발표했는데, 그 중 많은 책이 실제 작가의 작품이라고 거짓으로 기재되었다.
 
허스트의 킹 피처스(King Features)가 배포한 이 신디케이트 기사는 각성된 주제에 기반한 조작된 제목을 유포하며, 값싼 AI 콘텐츠에 대한 미디어의 과도한 의존과 기존 저널리즘의 치유 불가능한 부패를 모두 폭로했다.
 
이러한 비극이 쇠퇴한 언론 매체의 편집진을 속이고 지나갔다는 사실(선타임스는 직원의 20%를 해고했다)은 더 어두운 진실을 보여준다. 절박함과 비전문성이 검증되지 않은 알고리즘과 맞닥뜨릴 때, 기존 미디어와 허튼소리 사이의 흐트러진 경계는 순식간에 사라진다.
 
이러한 추세는 불길해 보입니다. AI는 이제 온갖 가짜 뉴스, 가짜 데이터, 가짜 과학, 그리고 뻔한 거짓말에 압도되어, 기존의 논리, 사실, 상식을 부패하고 부패한 인지적 부패의 덩어리로 만들어 버리고 있다. 그렇다면 AI의 환각이란 정확히 무엇일까요?
 
AI 환각은 ChatGPT, DeepSeek, Gemini, DALL·E와 같은 생성 AI 모델이 허위, 불합리 또는 조작된 정보를 높은 신뢰도로 생성할 때 발생한다. 인간의 오류와 달리, 이러한 실수는 AI 모델이 확립된 사실을 종합하는 대신, 그럴듯한 패턴을 예측하여 응답을 생성하는 방식에서 비롯된다.
 

AI는 왜 '환각'을 할까?

 
AI가 완전히 잘못된 정보를 생성하는 데에는 여러 가지 이유가 있다. 이는 AI가 지각을 얻거나 심지어 영혼을 획득할 것이라는 지속적인 공포와는 아무런 관련이 없다.
 
불완전한 데이터 기반 학습: AI는 편향, 오류, 그리고 불일치로 가득한 방대한 데이터세트를 통해 학습합니다. 이러한 자료를 장기간 학습할 경우, 근거 없는 믿음, 오래된 사실, 또는 상충되는 출처가 생성될 수 있다.
 
타당성을 위한 과도한 최적화: 일부 전문가가 주장하는 것과는 반대로,AI는 "지각력" 에 전혀 미치지 못하기 때문에 "진실"을 분별할 수 없다. 특히 GPT는 행성 전체를 아우르는 거대한 신경 백과사전으로, 데이터를 분석하고 기존 패턴을 기반으로 가장 핵심적인 정보를 종합합니다. 빈틈이 생기면 통계적으로 가능성이 높지만 틀릴 가능성이 높은 답변으로 채웁니다. 그러나 선타임스 사태는 그렇지 않았다 .
 
현실 기반 부족: 인간과 달리 AI는 세상에 대한 직접적인 경험이 없다. 언어 구조를 모방할 수만 있기 때문에 사실을 검증할 수 없다. 예를 들어, "2025년에 가장 안전한 차는 무엇인가?"라는 질문을 받으면, AI는 실제 차량을 만드는 것이 아니라 , 다수의 "전문가"가 정한 이상적인 차량의 필요성을 충족하는 이상적인 차량의 필요성을 채우기 위해 존재하지 않는 모델을 만들어낼 수 있다.
 
프롬프트 모호성: 많은 GPT 사용자는 게으르고 적절한 프롬프트를 제시하는 방법을 모를 수 있다. 모호하거나 상충되는 프롬프트는 환각 위험을 증가시킨다. "고양이와 젠더 이론에 대한 연구를 요약해 주세요"와 같은 터무니없는 요청은 AI가 조작한 가짜 연구처럼 보일 수 있으며, 표면적으로는 매우 학문적으로 보일 수 있다.
 
창의적인 생성 vs. 사실적 기억: ChatGPT와 같은 AI 모델은 정확성보다 유창함을 우선시한다. 확신이 없을 때는 무지함을 인정하기보다는 즉흥적으로 대답한다. GPT에서 "죄송합니다. 이건 제 훈련 범위를 벗어납니다."와 같은 답변을 본 적이 있나요?
 
가짜 뉴스 및 패턴 강화: GPT는 로그인(당연한 사실), IP 주소, 의미론적 및 구문적 특징, 그리고 개인 성향을 기반으로 특정 사용자를 식별할 수 있다. 그리고 이를 강화합니다. 누군가 GPT를 지속적으로 사용하여 가짜 뉴스나 선전 자료를 유포할 경우, AI는 이러한 패턴을 인식하고 부분적으로 또는 전체적으로 허구인 콘텐츠를 생성할 수 있다. 이는 알고리즘적 수요와 공급의 전형적인 사례이다. GPT는 방대한 데이터 세트로만 학습하는 것이 아니라, 사용자가 만든 데이터 세트로 학습할 수도 있다는 점이다.
 
빅테크의 편향과 검열 강화: GPT 출시를 지원하는 거의 모든 빅테크 기업은 산업 규모의 검열과 알고리즘 기반 섀도우배닝에도 관여하고 있다. 이는 개인과 대안 미디어 플랫폼 모두에게 적용되며, 현대판 디지털 큐레이션인 ' damnatio memoriae( 추모의 저주)'와 같다. 특히 구글 검색 엔진은 원본 기사 보다는 연재 표절자의 결과물을 상위 순위에 올리는 경향이 있다.
 
이러한 체계적인 사기의 지속은 언젠가 전 세계적인 스캔들로 번질 수도 있다. 어느 날 아침 눈을 뜨고 보니 좋아하는 명언이나 작품이 원래 아이디어나 저자를 희생시킨, 치밀하게 조정된 알고리즘적 우회의 결과물이었다는 것을 알게 되었다고 상상해 보세요. 이는 이념적 매개변수에 휘둘리는 AI에게 "지식"을 아웃소싱하면서 검열을 통해 수익을 창출하는 필연적인 결과이다.
 
인간의 속기 쉬움에 대한 실험: 실험을 통해 상황과 개념적으로 유사한 방식으로, AI가 인간의 속기 쉬움을 연구하도록 훈련될 수 있다는 가설적 가능성이 제기된다. 인간은 속기 쉬우면서도 소심하며, 대다수는 인간 무리, 또는 AI의 경우 "데이터 무리"에 순응하는 경향이 있다.
 
AI가 조종사 조종석과 원자력 발전소부터 생물전 실험실과 방대한 화학 시설에 이르기까지 중요하고 시간에 민감한 작업에 점점 더 많이 도입됨에 따라, 이는 필연적으로 현실 세계에 영향을 미칠 것이다. 이제 이처럼 위험 부담이 큰 환경에서 결함이 있는 AI 입력을 기반으로 운명적인 결정을 내리는 상황을 상상해 보세요.
 
바로 이것이 "미래 계획자"가 자격을 갖춘 전문가들 중 기계가 생성한 잘못된 추천을 신뢰하는 사람들의 비율과 성격 유형을 모두 이해해야 하는 이유이다.
사실 확인자들이 사실 확인을 하지 않았나요?
 
AI가 누군가를 대신하여 기사를 작성할 때, 제값을 하는 기자라면 누구나 그 기사가 제3자가 작성한 것으로 간주하고 사실 확인과 즉흥적인 수정을 거쳐야 합니다. 최종 결과물이 사실 확인을 거치고, 원본 초안에 상당한 가치와 내용, 그리고 수정 사항이 추가된다면, 그 과정에서 이해 상충이나 윤리 위반이 발생할 가능성은 없다고 생각합니다. GPT는 기고가의 작업을 촉진하는 촉매제, 편집자, 또는 "악마의 변호인" 역할을 할 수 있다.
 
여러 언론 매체에도 똑같이 적용되어야 한다. 그들은 진실, 온전한 진실, 오직 진실만을 외치면서도 사실 확인을 하지 않았습니다. 여러 계층의 쟁점자들은 제 역할을 다하지 못했다. 이는 언론이 권력자들에게는 아무렇지 않게 서비스를 제공하는 반면, 서민층들에게는 윤리, 정직성, 그리고 가치를 과시하는 집단적인 직무 유기이다.
 
우리는 이제 그런 이중 잣대에 익숙해진 것 같다. 하지만 끔찍한 점은 이렇습니다. 제가 이 글을 쓰는 순간에도 AI 시스템에서 잘못된 데이터와 입력값이 거래 및 금융 플랫폼, 항공 관제, 원자로, 생물전 실험실, 그리고 민감한 화학 공장으로 이미 흘러들어가고 있다는 것이다.
 
실무자들은 서류상으로만 그런 복잡한 업무를 수행할 자격이 없다. 이는 "광대가 설계하고 원숭이가 감독하는" 세상의 결과다.
 
이처럼 새로운 비판과 아이러니함이 주위를 환기시키고 있다.
 
 
 

바른언론 아름답고 건강한 뉴스'<코리아뷰티타임즈>

NAVER와 DAUM과 Google에서 기사를 보실 수 있습니다.

 

728x90