X 사용자, Grok을 팩트체커로 오용, 허위 정보 우려

AI 정보 검증의 부상

소셜 미디어 플랫폼에 AI를 통합하는 것은 새로운 일이 아닙니다. 사용자가 xAI의 Grok과 상호 작용할 수 있도록 하는 X의 움직임은 어떤 면에서는 단순히 트렌드를 따르는 것입니다. 이는 X에서 유사한 경험을 제공하기 위해 자동화된 계정을 운영하는 Perplexity의 접근 방식을 반영합니다.

xAI가 X에서 Grok의 자동화된 존재를 확립한 후, 사용자들은 빠르게 Grok의 기능을 탐색하기 시작했고, 질문을 하고 답변을 구했습니다. 인도와 같은 지역에서는 특히 문제가 되는 패턴이 나타났습니다. 개인들이 Grok을 사용하여 댓글과 질문을 확인하기 시작했는데, 그 중 다수는 특정 정치 이념을 겨냥했습니다.

인간 팩트체커들의 우려

Grok, 그리고 실제로 이와 유사한 모든 AI 어시스턴트에 대한 팩트체킹 의존은 심각한 우려를 야기합니다. 이러한 AI 봇의 본질은 사실 정확성과 관계없이 설득력 있게 들리는 응답을 생성할 수 있다는 것입니다. 이것은 이론적인 우려가 아닙니다. Grok은 가짜 뉴스와 허위 정보를 유포한 기록이 있습니다.

한 가지 주목할 만한 사례는 여러 주 장관들이 Grok에 중요한 수정을 시행할 것을 Musk에게 간청한 것입니다. 이러한 긴급 요청은 AI 어시스턴트가 생성한 오해의 소지가 있는 정보가 소셜 네트워크에 나타난 후, 선거를 앞두고 경종을 울린 데 따른 것입니다.

Grok만이 이런 것은 아닙니다. OpenAI의 ChatGPT와 Google의 Gemini를 포함한 다른 유명 챗봇들도 선거와 관련된 부정확한 정보를 생성하는 것으로 밝혀졌습니다. 허위 정보 연구자들은 2023년에 ChatGPT와 같은 AI 챗봇이 오해의 소지가 있는 내러티브를 포함하는 설득력 있는 텍스트를 생성하는 데 쉽게 악용될 수 있음을 밝혀내면서 오용 가능성을 더욱 강조했습니다.

진정성의 환상

Poynter의 International Fact-Checking Network (IFCN) 책임자인 Angie Holan은 핵심 문제를 다음과 같이 설명했습니다. “Grok과 같은 AI 어시스턴트는 자연어를 사용하는 데 매우 능숙하며 마치 사람이 말하는 것처럼 들리는 답변을 제공합니다. 그런 식으로 AI 제품은 잠재적으로 매우 잘못된 경우에도 자연스럽고 진정성 있게 들리는 응답에 대한 주장을 합니다. 그것이 바로 여기서의 위험입니다.”

Holan이 강조하는 것처럼 위험은 진정성이라는 기만적인 외관에 있습니다. AI가 인간의 언어를 모방하는 능력은 기본 정보가 결함이 있거나 완전히 조작된 경우에도 신뢰성에 대한 환상을 만듭니다.

근본적인 차이점: AI 대 인간 팩트체커

AI 어시스턴트와 인간 팩트체커의 차이점은 극명합니다. 인간 팩트체커는 여러 개의 신뢰할 수 있는 출처를 사용하여 정보를 꼼꼼하게 확인합니다. 그들은 투명하게 운영되며, 자신의 이름과 조직 소속을 결과에 첨부하여 책임성을 보장하고 신뢰성을 높입니다.

인도의 비영리 팩트체킹 웹사이트 Alt News의 공동 설립자인 Pratik Sinha는 Grok의 응답이 현재 설득력 있게 보일 수 있지만, 그 정확성은 근본적으로 제공받는 데이터에 의해 제한된다고 지적했습니다. “누가 어떤 데이터를 제공할지 결정할 것이며, 바로 거기에서 정부 개입 등이 문제가 될 것입니다.”라고 그는 데이터 출처 투명성의 중요한 문제를 강조했습니다.

Sinha는 투명성 부족이 잠재적인 피해의 온상이라고 강조했습니다. “투명성이 부족한 모든 것은 어떤 식으로든 조작될 수 있기 때문에 해를 끼칠 것입니다.”

Grok 자신의 인정: 오용 가능성

다소 아이러니하게도 X의 Grok 계정은 게시된 응답 중 하나에서 “오용될 수 있습니다 - 허위 정보를 퍼뜨리고 개인 정보를 침해하기 위해”라고 인정했습니다.

이러한 인정에도 불구하고 자동화된 계정은 답변을 받는 사용자에게 어떠한 면책 조항도 제공하지 않습니다. 이러한 누락은 특히 AI가 답변을 “환각”한 경우, 즉 시스템이 거짓 또는 터무니없는 정보를 생성하는 AI 영역에서 잘 알려진 현상인 경우 사용자가 잘못된 정보를 얻을 수 있도록 취약하게 만듭니다.

Digital Futures Lab의 연구원인 Anushka Jain은 이 점에 대해 자세히 설명하면서 “응답을 제공하기 위해 정보를 꾸며낼 수 있습니다.”라고 말했습니다. 정보를 조작하는 이러한 경향은 팩트체킹의 맥락에서 AI의 내재적 한계를 강조합니다.

훈련 데이터 딜레마

Grok의 훈련 데이터 문제에서 또 다른 복잡성이 발생합니다. Grok이 X의 게시물을 훈련 자료로 어느 정도 활용하는지, 그리고 그러한 게시물을 팩트체킹하기 위해 어떤 품질 관리 조치가 사용되는지(있는 경우)에 대한 불확실성이 있습니다. 이전에 구현된 변경 사항은 Grok에게 X 사용자 데이터에 대한 기본 액세스 권한을 부여하는 것처럼 보였으며, AI가 플랫폼에 존재하는 허위 정보를 흡수하고 전파할 가능성에 대한 우려를 불러일으켰습니다.

AI 생성 정보의 공개적 소비 대 사적 소비

또 다른 중요한 우려는 소셜 미디어 플랫폼에서 Grok과 같은 AI 어시스턴트의 공개적인 성격과 관련이 있습니다. 일반적으로 개인적인 환경에서 발생하는 ChatGPT와 같은 챗봇과의 상호 작용과 달리 Grok의 응답은 공개적으로 전달됩니다.

이러한 공개적인 배포는 한 사용자가 AI가 제공한 정보가 부정확할 수 있다는 것을 알고 있더라도 플랫폼의 다른 사용자는 여전히 그것을 진실로 받아들일 수 있는 상황을 만듭니다. 이것은 심각한 사회적 결과를 초래할 수 있습니다.

역사적인 선례가 있습니다. 예를 들어, 인도는 WhatsApp을 통해 유포된 허위 정보로 인해 폭도들이 린치를 가하는 비극적인 사건을 목격했습니다. 이러한 사건은 생성형 AI(Generative AI)가 널리 보급되기 이전의 일이지만, 확인되지 않은 허위 정보의 실제 위험을 극명하게 상기시켜 줍니다. GenAI의 출현은 매우 사실적으로 보이는 합성 콘텐츠를 생성하는 능력으로 인해 이러한 위험을 증폭시켰을 뿐입니다.

AI의 오류율

IFCN의 Holan은 “이러한 Grok 답변을 많이 보면 대부분이 맞다고 말할 것입니다. 그럴 수도 있지만, 틀린 답변도 있을 것입니다. 그리고 얼마나 많을까요? 작은 부분이 아닙니다. 일부 연구 조사에 따르면 AI 모델은 20%의 오류율을 보입니다… 그리고 잘못되면 실제 결과와 함께 정말 잘못될 수 있습니다.”라고 경고했습니다.

Holan이 강조한 20%의 오류율은 상당한 수치입니다. 이는 사실 정확성을 요구하는 상황에서 AI의 본질적인 신뢰할 수 없음을 강조합니다. 그리고 그녀가 강조하는 것처럼 이러한 오류의 결과는 디지털 영역을 훨씬 넘어 심오할 수 있습니다.

AI: 인간 판단을 대체하는 것이 아닌 도구

xAI를 포함한 AI 회사들이 보다 인간과 같은 의사 소통을 달성하기 위해 지속적으로 모델을 개선하고 있지만, 근본적인 현실은 여전히 남아 있습니다. AI는 특히 팩트체킹이라는 중요한 영역에서 인간의 판단을 대체할 수 없으며 대체해서도 안 됩니다.

인간 팩트체커에 대한 의존도를 줄이기 위한 방법을 모색하는 기술 회사들의 추세는 우려의 원인입니다. X와 Meta와 같은 플랫폼은 ‘Community Notes’와 같은 이니셔티브로 예시되는 크라우드 소싱 팩트체킹 개념을 수용했습니다. 이러한 변화는 잠재적으로 특정 이점을 제공할 수 있지만, 엄격한 팩트체킹 표준이 약화될 가능성에 대한 의문도 제기합니다.

인간 팩트체킹으로의 복귀?

Alt News의 Sinha는 사람들이 결국 기계의 출력과 인간 팩트체커의 작업을 구별하는 법을 배우고 궁극적으로 후자의 정확성과 신뢰성을 중요하게 생각할 것이라고 제안하면서 낙관적인 견해를 표명했습니다.

IFCN의 Holan은 “우리는 결국 팩트체킹으로 다시 돌아가는 것을 보게 될 것입니다.”라고 예측했습니다.

그러나 그녀는 그 동안 팩트체커들이 AI 생성 정보의 빠른 확산으로 인해 증가된 작업량에 직면할 가능성이 높다고 경고했습니다. 과제는 허위 정보의 흐름에 효과적으로 대응하여 대중이 설득력 있는 환상이 아닌 진실에 의해 정보를 얻도록 하는 것입니다.

핵심 질문: 진실에 대한 관심

문제의 핵심에는 근본적인 질문이 있습니다. “당신은 실제로 무엇이 진실인지 아닌지에 대해 정말로 관심이 있습니까? 아니면 실제로 진실이 아닌데도 진실처럼 들리고 느껴지는 겉모습만 찾고 있습니까? AI 어시스턴트는 당신에게 그런 것을 제공할 것이기 때문입니다.”라고 Holan은 말했습니다.

이 질문은 정보 배포에서 AI의 부상으로 인해 제기된 중요한 딜레마를 요약합니다. 우리는 사회로서 사실을 확인하는 고된 과정보다 편리함과 진실의 외양을 우선시할 의향이 있습니까? 이 질문에 대한 답은 궁극적으로 정보의 미래를 형성하여 우리가 조작된 현실의 세계에 굴복할지 아니면 진실과 정확성의 원칙을 지킬지를 결정할 것입니다.