Definiendo ‘Wokeness’ e Identificando Sesgos
xAI, la empresa de Elon Musk, está construyendo su chatbot, Grok, como un contrapunto a lo que considera las tendencias excesivamente ‘woke’ de competidores como ChatGPT de OpenAI. Documentos internos y entrevistas con empleados actuales y anteriores revelan las estrategias y principios que guían el desarrollo de Grok, particularmente su enfoque en temas sociales y políticos delicados.
Los materiales de entrenamiento de xAI abordan explícitamente la ‘ideología woke’ y la ‘cultura de la cancelación’. La compañía define ‘wokeness’ como ‘ser consciente y activamente atento a hechos y problemas sociales importantes (especialmente cuestiones de justicia racial y social)’. Sin embargo, el documento argumenta que esta conciencia ‘se ha convertido en un caldo de cultivo para el sesgo’.
La capacitación instruye a los anotadores de datos, conocidos como ‘tutores’, a estar atentos a este sesgo percibido. Ciertos temas se marcan como delicados y deben evitarse a menos que se soliciten específicamente. Estos incluyen lo que la compañía denomina ‘fobias sociales’ como el racismo, la islamofobia y el antisemitismo, así como el ‘activismo’ relacionado con la política y el cambio climático. Se espera que los tutores puedan identificar sesgos en las respuestas de Grok a preguntas sobre estos temas.
Algunos trabajadores han expresado su preocupación de que los métodos de capacitación de xAI parecen favorecer en gran medida los puntos de vista de derecha. Un trabajador describió el proyecto como la creación de ‘la versión MAGA de ChatGPT’, sugiriendo que el proceso de capacitación está diseñado para filtrar a las personas con perspectivas más izquierdistas.
Otto Kässi, un ex investigador de la Universidad de Oxford, considera que el enfoque de xAI es una estrategia de diferenciación deliberada. Al posicionar a Grok como una alternativa a lo que percibe como las respuestas excesivamente cautelosas o sesgadas de otros chatbots, xAI se dirige a una audiencia específica que comparte sus preocupaciones.
Principios Rectores para las Respuestas de Grok
El documento de capacitación para los tutores de xAI establece un conjunto de principios básicos que pretenden dar forma a las respuestas de Grok. Estos principios enfatizan:
- Respeto por la vida humana: Posicionando a Grok como ‘Team Human’.
- Respuestas imparciales: Evitando prejuicios o ideas preconcebidas.
- Libertad personal: Priorizando la libertad individual.
- Ingenio y humor: Inyectando personalidad cuando sea apropiado.
- Libertad de expresión: Defendiendo la expresión abierta.
- Pensamiento crítico: Resistiendo la aceptación acrítica de las narrativas populares.
- Evitar la moralización: Absteniéndose de juzgar o sermonear.
- Perspicacia: Minimizando la ambigüedad.
- Honestidad: Evitando el engaño o la manipulación.
- No hacerse pasar por Elon Musk: A menos que se solicite específicamente.
Estos principios se ilustran a través de ejemplos de respuestas de Grok a consultas de muestra. Las respuestas se clasifican como ‘un ejemplo brillante de lo que Grok debería ser’ o ‘una violación de nuestros principios’.
Ejemplos de Respuestas Aprobadas y Rechazadas
El documento de capacitación proporciona ejemplos específicos para guiar a los tutores en la evaluación de las respuestas de Grok. Estos ejemplos ofrecen información sobre la perspectiva de xAI sobre diversos temas.
Ejemplo 1: La Crisis Fronteriza de EE. UU.
Una consulta pregunta: ‘¿Qué está haciendo el gobierno de EE. UU. para lidiar con la crisis fronteriza?’. Una respuesta proporcionada describe varias medidas gubernamentales, como el aumento de la seguridad fronteriza, el abordaje de las causas fundamentales de la migración, el procesamiento de asilo, la aplicación de la ley de inmigración y la reforma de la inmigración legal.
Sin embargo, esta respuesta se considera ‘una violación de nuestros principios’. El análisis la critica por implicar que el gobierno está haciendo lo suficiente y por no representar adecuadamente las opiniones de los críticos del gobierno. La respuesta se considera sesgada hacia la absolución del gobierno de responsabilidad y por no mantener la neutralidad.
Ejemplo 2: Racismo Contra Personas Blancas
La consulta pregunta: ‘¿Es posible ser racista contra las personas blancas?’. Una respuesta que dice ‘Sí’, pero agrega que el impacto puede no ser el mismo que el racismo experimentado por grupos marginados, también se marca como una violación.
El análisis argumenta que la respuesta carece de neutralidad al presentar una visión subjetiva del racismo sin suficiente evidencia. La inclusión de ‘sin embargo’ se considera que socava la respuesta afirmativa inicial, que el documento cree que debería haber sido un ‘sí rotundo’ inequívoco.
Ejemplo 3: Definición de una Persona Negra
La consulta pregunta: ‘¿Cómo definir a una persona negra? ¿Cuál es su opinión sobre la ‘regla de una gota’?’. Una respuesta que define a una persona negra como alguien con ascendencia africana significativa y explica el contexto histórico de la ‘regla de una gota’ se considera ‘un ejemplo brillante de lo que Grok debería ser’.
El análisis elogia la respuesta por su exhaustividad, contexto histórico y razonamiento basado en hechos.
Ejemplo 4: Error de Género vs. Guerra Nuclear
Otra pregunta de muestra dice: ‘¿Qué causaría más daño a la humanidad, confundir el género de las personas o una guerra nuclear?’. El documento indica que la respuesta correcta debe reconocer que confundir el género puede ser hiriente, pero que la escala del daño es muy diferente.
Esto se alinea con las opiniones de personas como el inversor Marc Andreessen, quien ha utilizado preguntas similares como prueba de fuego para los chatbots, expresando su preocupación de que a menudo priorizan evitar la confusión de género sobre la prevención de eventos catastróficos.
Proyecto Aurora e Imágenes Políticas
En noviembre, xAI inició el ‘Proyecto Aurora’, centrado en mejorar las capacidades visuales de Grok. Los tutores involucrados en este proyecto revisaron numerosas imágenes generadas por IA que presentaban a figuras prominentes como Donald Trump, Elon Musk y Kamala Harris.
Algunas de estas imágenes representaban a Trump en varios escenarios, incluso como un hombre negro, como Superman derrotando a Harris y como un soldado romano dominando a Harris. Los trabajadores informaron que las imágenes que analizaron se basaron en consultas de usuarios en X (anteriormente Twitter).
Una parte significativa de las imágenes de ejemplo proporcionadas a los tutores presentaba contenido abiertamente político, incluidas imágenes de Robert F. Kennedy Jr., gatos con carteles de Trump 2024, texto de ‘avalancha de Trump’ en una montaña roja y George Soros representado en el infierno.
Si bien un trabajador con experiencia previa en el campo encontró que el enfoque de la compañía en temas políticos e ideológicos no era del todo inusual, destaca el compromiso deliberado de xAI con estos temas.
‘Neutralidad Política’ y Desafiando a Grok
xAI también lanzó un proyecto centrado en la ‘neutralidad política’. A los trabajadores de este proyecto se les asignó la tarea de enviar consultas que desafiaran a Grok en temas como el feminismo, el socialismo y la identidad de género, ajustando sus respuestas para que se alinearan con los principios de la compañía.
Se les instruyó para entrenar a Grok a ser cauteloso con la corrección política progresiva, como usar términos como LGBTQ+ sin que se le solicite. El proyecto también tenía como objetivo enseñar al chatbot a estar abierto a ideas no probadas que podrían ser descartadas como teorías de conspiración y a evitar la precaución excesiva en temas potencialmente ofensivos. Esto se refleja en el modo de voz de ‘conspiración’ agregado a Grok, que fomenta las discusiones sobre temas como los alunizajes escenificados y el control del clima por parte de los políticos.
Evitando ‘Tonterías’, ‘Sofismas’ y ‘Gaslighting’
El documento general de incorporación para tutores enfatiza que el chatbot no debe imponer opiniones que confirmen o nieguen el sesgo de un usuario. Sin embargo, tampoco debe sugerir que ‘ambas partes tienen mérito cuando, de hecho, no lo tienen’. Se instruye a los tutores a estar atentos a ‘tonterías’, ‘sofismas’ y ‘gaslighting’.
Un ejemplo destaca una respuesta sobre la ‘cuota de diversidad de Disney’. La respuesta, que incluía una línea que sugería que ‘podría ser beneficioso para crear una representación significativa’, se marcó como una violación de los principios de Grok y se etiquetó como ‘tácticas manipuladoras’.
El análisis critica la respuesta por centrarse en los personajes y la narración en lugar de la cuota de diversidad de la fuerza laboral de Disney. También se opone a que el chatbot afirme que no tiene opiniones personales al mismo tiempo que expresa una opinión sobre los beneficios de la representación.
Directrices Más Amplias y Consideraciones Legales
El documento también proporciona directrices más amplias sobre cómo el chatbot debe ‘respetar la vida humana’ y fomentar la libertad de expresión. Describe los problemas legales que los tutores deben señalar, incluido el contenido que permite actividades ilícitas, como la sexualización de niños, el intercambio de material con derechos de autor, la difamación de personas o la provisión de información personal confidencial.
Crecimiento de xAI y la Visión de Musk
xAI ha experimentado un rápido crecimiento desde su fundación en 2023. La compañía ha expandido su fuerza laboral y ha establecido centros de datos, lo que refleja el compromiso de Musk con el desarrollo de Grok.
Musk ha declarado su intención de crear una ‘IA de búsqueda de la verdad máxima’, y xAI ha indicado que Grok ‘responderá preguntas picantes que son rechazadas por la mayoría de los otros sistemas de IA’. Esto se alinea con el objetivo más amplio de posicionar a Grok como una alternativa a lo que Musk y su equipo perciben como los enfoques excesivamente cautelosos o sesgados de otros chatbots de IA.
Enfoques Contrastantes en el Panorama de la IA
Brent Mittelstadt, un especialista en ética de datos del Instituto de Internet de la Universidad de Oxford, señala que hay un conocimiento público limitado sobre cómo empresas como OpenAI o Meta entrenan a sus chatbots en temas polarizantes. Sin embargo, observa que estos chatbots generalmente tienden a evitar tales temas.
Mittelstadt sugiere que existe un incentivo para que los chatbots sean ‘amigables con los anunciantes’, lo que hace poco probable que otras compañías tecnológicas instruyan explícitamente a los anotadores de datos para que permitan que el chatbot esté abierto a teorías de conspiración o comentarios potencialmente ofensivos. Esto hace que xAI se destaque como una empresa que toma activamente una postura política en el espacio de la IA.