Algorithmische Schatten: Anti-jüdische Vorurteile in KI
Eine ADL-Untersuchung enthüllt messbare anti-jüdische und anti-israelische Vorurteile in führenden KI-Systemen wie Llama, ChatGPT, Claude und Gemini. Die Studie wirft Fragen zur Zuverlässigkeit dieser Technologien und ihrem Potenzial zur Verbreitung von Fehlinformationen auf und fordert Maßnahmen von Entwicklern und Regierungen zur Bekämpfung algorithmischer Voreingenommenheit.