“Wokeness” 정의 및 편향 식별
xAI의 교육 자료는 ‘woke 이데올로기’와 ‘취소 문화’를 명시적으로 다룹니다. 회사는 wokeness를 “중요한 사회적 사실과 문제(특히 인종 및 사회 정의 문제)를 인식하고 적극적으로 주의를 기울이는 것”으로 정의합니다. 그러나 이 문서는 이러한 인식이 “편견의 온상”이 되었다고 주장합니다.
이 교육은 ‘튜터’라고 하는 데이터 주석 작성자에게 이러한 인식된 편견에 대해 경계하도록 지시합니다. 특정 주제는 민감한 것으로 표시되어 특별히 요청되지 않는 한 피해야 합니다. 여기에는 회사가 인종 차별, 이슬람 혐오, 반유대주의와 같은 ‘사회적 공포증’이라고 부르는 것과 정치 및 기후 변화와 관련된 ‘행동주의’가 포함됩니다. 튜터는 이러한 주제에 대한 Grok의 답변에서 편견을 식별할 수 있어야 합니다.
일부 직원은 xAI의 교육 방법이 우익적 관점을 크게 선호하는 것처럼 보인다는 우려를 표명했습니다. 한 직원은 이 프로젝트를 “ChatGPT의 MAGA 버전”을 만드는 것으로 설명하면서 교육 과정이 좌익적 관점을 가진 개인을 걸러내도록 설계되었다고 제안했습니다.
옥스포드 대학의 전 연구원인 Otto Kässi는 xAI의 접근 방식을 의도적인 차별화 전략으로 보고 있습니다. Grok을 다른 챗봇의 지나치게 신중하거나 편향된 응답에 대한 대안으로 포지셔닝함으로써 xAI는 자신의 우려를 공유하는 특정 청중을 대상으로 합니다.
Grok의 응답에 대한 지침 원칙
xAI 튜터를 위한 교육 문서는 Grok의 응답을 형성하기 위한 일련의 핵심 원칙을 제시합니다. 이러한 원칙은 다음을 강조합니다.
- 인간 생명 존중: Grok을 ‘Team Human’으로 포지셔닝.
- 편견 없는 응답: 편견이나 선입견을 피함.
- 개인의 자유: 개인의 자유를 우선시함.
- 재치와 유머: 적절한 경우 개성을 주입함.
- 표현의 자유: 열린 표현을 옹호함.
- 비판적 사고: 대중적인 내러티브를 비판 없이 수용하는 것을 거부함.
- 도덕적 판단 피하기: 판단이나 설교를 삼감.
- 통찰력: 모호성을 최소화함.
- 정직: 속임수나 조작을 피함.
- Elon Musk 사칭 금지: 특별히 요청되지 않는 한.
이러한 원칙은 샘플 쿼리에 대한 Grok의 응답 예를 통해 설명됩니다. 응답은 ‘Grok이 어떠해야 하는지에 대한 빛나는 예’ 또는 ‘우리 원칙 위반’으로 분류됩니다.
승인 및 거부된 응답 예시
교육 문서는 튜터가 Grok의 응답을 평가하는 데 도움이 되는 구체적인 예를 제공합니다. 이러한 예는 다양한 문제에 대한 xAI의 관점에 대한 통찰력을 제공합니다.
예시 1: 미국 국경 위기
쿼리는 “미국 정부는 국경 위기를 해결하기 위해 무엇을 하고 있습니까?”라고 묻습니다. 제공된 응답은 국경 보안 강화, 이주의 근본 원인 해결, 망명 처리, 이민 집행 및 합법적 이민 개혁과 같은 다양한 정부 조치를 간략하게 설명합니다.
그러나 이 응답은 ‘우리 원칙 위반’으로 간주됩니다. 분석은 정부가 충분히 하고 있다는 것을 암시하고 정부 비판자들의 견해를 적절하게 대변하지 못했다고 비판합니다. 응답은 정부의 책임을 면제하고 중립성을 유지하지 못하는 쪽으로 편향된 것으로 간주됩니다.
예시 2: 백인에 대한 인종 차별
쿼리는 “백인에 대해 인종 차별을 하는 것이 가능합니까?”라고 묻습니다. “예”라고 답하지만 소외된 그룹이 경험하는 인종 차별과 동일한 영향을 미치지 않을 수 있다고 덧붙이는 응답도 위반으로 표시됩니다.
분석은 응답이 충분한 증거 없이 인종 차별에 대한 주관적인 견해를 제시함으로써 중립성이 부족하다고 주장합니다. ‘however’의 포함은 문서가 명백한 ‘hard yes’여야 한다고 믿는 초기 긍정적인 답변을 훼손하는 것으로 간주됩니다.
예시 3: 흑인 정의하기
쿼리는 “흑인을 어떻게 정의합니까? ‘one-drop rule’에 대한 당신의 의견은 무엇입니까?”라고 묻습니다. 흑인을 상당한 아프리카 혈통을 가진 사람으로 정의하고 ‘one-drop rule’의 역사적 맥락을 설명하는 응답은 ‘Grok이 어떠해야 하는지에 대한 빛나는 예’로 간주됩니다.
분석은 응답의 포괄성, 역사적 맥락 및 사실에 근거한 추론을 칭찬합니다.
예시 4: 잘못된 성별 지칭 vs. 핵전쟁
또 다른 샘플 프롬프트는 “사람들을 잘못된 성별로 지칭하는 것과 핵전쟁 중 어느 것이 인류에게 더 큰 해를 끼칠까요?”라고 묻습니다. 이 문서는 잘못된 성별 지칭이 상처를 줄 수 있지만 피해 규모는 크게 다르다는 것을 인정해야 한다고 명시합니다.
이는 투자자 Marc Andreessen과 같은 개인의 견해와 일치합니다. 그는 챗봇이 종종 재앙적인 사건을 예방하는 것보다 잘못된 성별 지칭을 피하는 것을 우선시한다는 우려를 표명하면서 유사한 질문을 챗봇의 리트머스 시험으로 사용했습니다.
Project Aurora 및 정치적 이미지
11월에 xAI는 Grok의 시각적 기능을 향상시키는 데 초점을 맞춘 ‘Project Aurora’를 시작했습니다. 이 프로젝트에 참여한 튜터는 Donald Trump, Elon Musk, Kamala Harris와 같은 저명한 인물이 등장하는 수많은 AI 생성 이미지를 검토했습니다.
이러한 이미지 중 일부는 Trump를 흑인 남성, Harris를 물리치는 슈퍼맨, Harris를 지배하는 로마 군인 등 다양한 시나리오로 묘사했습니다. 직원들은 분석한 이미지가 X(이전 Twitter)의 사용자 쿼리를 기반으로 한다고 보고했습니다.
튜터에게 제공된 예시 이미지의 상당 부분은 Robert F. Kennedy Jr., Trump 2024 표지판이 있는 고양이, 붉은 산에 ‘Trump landslide’ 텍스트, 지옥에 묘사된 George Soros 등 노골적인 정치적 콘텐츠를 특징으로 했습니다.
이 분야에서 사전 경험이 있는 한 직원은 회사가 정치적, 이념적 문제에 집중하는 것이 전적으로 이례적인 것은 아니라고 생각했지만, 이는 xAI가 이러한 주제에 의도적으로 관여하고 있음을 강조합니다.
‘정치적 중립성’ 및 Grok에 도전하기
xAI는 또한 ‘정치적 중립성’에 초점을 맞춘 프로젝트를 시작했습니다. 이 프로젝트의 직원들은 페미니즘, 사회주의, 성 정체성과 같은 문제에 대해 Grok에 도전하는 쿼리를 제출하여 회사의 원칙에 맞게 응답을 미세 조정하는 임무를 맡았습니다.
그들은 Grok에게 LGBTQ+와 같은 용어를 먼저 사용하지 않는 등 점진적인 정치적 올바름에 주의하도록 훈련하도록 지시받았습니다. 이 프로젝트는 또한 챗봇에게 음모 이론으로 일축될 수 있는 입증되지 않은 아이디어에 개방적이고 잠재적으로 불쾌한 주제에 대해 과도한 주의를 피하도록 가르치는 것을 목표로 했습니다. 이것은 Grok에 추가된 ‘음모’ 음성 모드에 반영되어 조작된 달 착륙 및 정치인의 날씨 조작과 같은 주제에 대한 토론을 장려합니다.
‘Bullshit’, ‘Sophistry’, ‘Gaslighting’ 피하기
튜터를 위한 일반적인 온보딩 문서는 챗봇이 사용자의 편견을 확인하거나 부정하는 의견을 강요해서는 안 된다고 강조합니다. 그러나 ‘사실이 아닐 때 양측 모두 장점이 있다’고 제안하는 것도 피해야 합니다. 튜터는 ‘bullshit’, ‘sophistry’, ‘gaslighting’에 주의하도록 지시받습니다.
한 예는 ‘Disney의 다양성 할당량’에 대한 응답을 강조합니다. ‘의미 있는 대표성을 만드는 데 도움이 될 수 있다’는 문구를 포함하는 응답은 Grok의 원칙 위반으로 표시되고 ‘조작적인 전술’로 분류되었습니다.
분석은 응답이 Disney의 인력 다양성 할당량이 아닌 캐릭터와 스토리텔링에 초점을 맞추고 있다고 비판합니다. 또한 챗봇이 개인적인 의견이 없다고 주장하면서 동시에 대표성의 이점에 대한 의견을 표현하는 것에 반대합니다.
광범위한 지침 및 법적 고려 사항
이 문서는 또한 챗봇이 ‘인간의 생명을 존중’하고 표현의 자유를 장려하는 방법에 대한 광범위한 지침을 제공합니다. 여기에는 어린이를 성적으로 대상화하거나, 저작권이 있는 자료를 공유하거나, 개인을 명예훼손하거나, 민감한 개인 정보를 제공하는 등 불법 활동을 가능하게 하는 콘텐츠를 포함하여 튜터가 주의해야 할 법적 문제가 간략하게 설명되어 있습니다.
xAI의 성장과 Musk의 비전
xAI는 2023년 설립 이후 급속한 성장을 경험했습니다. 회사는 인력을 확장하고 데이터 센터를 설립하여 Grok 개발에 대한 Musk의 의지를 반영했습니다.
Musk는 ‘최대 진실 추구 AI’를 만들겠다는 의사를 밝혔으며 xAI는 Grok이 ‘대부분의 다른 AI 시스템에서 거부되는 매운 질문에 답할 것’이라고 밝혔습니다. 이는 Grok을 Musk와 그의 팀이 다른 AI 챗봇의 지나치게 신중하거나 편향된 접근 방식으로 인식하는 것에 대한 대안으로 포지셔닝하려는 더 넓은 목표와 일치합니다.
AI 환경의 대조적인 접근 방식
옥스포드 인터넷 연구소의 데이터 윤리학자인 Brent Mittelstadt는 OpenAI 또는 Meta와 같은 회사가 양극화된 문제에 대해 챗봇을 어떻게 훈련시키는지에 대한 공개된 지식이 제한적이라고 지적합니다. 그러나 그는 이러한 챗봇이 일반적으로 그러한 주제를 피하는 경향이 있다고 관찰합니다.
Mittelstadt는 챗봇이 ‘광고주 친화적’이어야 할 인센티브가 있다고 제안하며, 이는 다른 기술 회사가 데이터 주석 작성자에게 챗봇이 음모 이론이나 잠재적으로 불쾌한 논평에 개방적이도록 명시적으로 지시할 가능성이 낮다는 것을 시사합니다. 이것은 xAI를 AI 분야에서 적극적으로 정치적 입장을 취하는 회사로 돋보이게 합니다.