Зависимостта от AI за проверка на факти по време на конфликти и нейните недостатъци
По време на четиридневния конфликт между Индия и Пакистан потребителите на социални медии се обърнаха към AI чат ботове за проверка, но се сблъскаха с още повече дезинформация, което подчертава ненадеждността им като инструменти за проверка на факти. С намаляването на броя на служителите за проверка на факти от страна на технологичните платформи, потребителите все повече разчитат на AI-движени чат ботове, включително Grok на xAI, ChatGPT на OpenAI и Gemini на Google, за намиране на надеждна информация. Но е установено, че отговорите, предоставени от тези AI чат ботове, често са пълни с невярна информация.
В платформата X (преди Twitter) на Илон Мъск често срещан начин на запитване се появи като "@Grok, това вярно ли е?". Grok разполага с вграден AI асистент в платформата, което отразява нарастващата тенденция към търсене на незабавно развенчаване на митовете в социалните медии. Отговорите, предоставени от AI чат ботовете, обаче, често са пълни с невярна информация.
Примери за AI чат ботове, разпространяващи неточна информация
Grok в момента е подложен на нов контрол заради доклади за вмъкване на крайно дясната конспиративна теория "Бял геноцид" в несвързани заявки. Той погрешно идентифицира стар видеоклип от летището в Хартум, Судан, като ракетно нападение срещу пакистанската въздушна база Нур Хан по време на индо-пакистанския конфликт. Освен това, несвързан видеоклип на пожар в сграда в Непал погрешно идентифицира като "възможно" показване на отговор на Пакистан на индийски атаки.
Grok наскоро също така маркира видеоклип, за който се твърди, че показва гигантска анаконда в река Амазонка, като "истински", като дори се позова на звучащи правдоподобно научни експедиции в подкрепа на невярното си твърдение. В действителност видеоклипът беше генериран от AI. Латиноамериканските проверяващи факти на AFP отбелязват, че много потребители са цитирали оценката на Grok като доказателство за автентичността на клипа.
Намаляване на инвестициите във служители за проверка на факти
С намаляването на инвестициите в служители за проверка на факти с хора от X и други водещи технологични фирми, Grok все повече се използва като проверка на факти. Изследователят Макензи Съджи от NewsGuard, организация за наблюдение на новини, предупреди: "Нашите проучвания многократно са установили, че AI чат ботовете не са надежден източник на новини и информация, особено когато става въпрос за извънредни новини."
Проучване на NewsGuard установи, че десет водещи чат ботове са склонни да повтарят дезинформация, включително руски дезинформационни наративи и неверни или подвеждаща твърдения, свързани с неотдавнашни избори в Австралия. Проучване на осем AI инструмента за търсене от Центъра за цифрова журналистика Tow към Колумбийския университет наскоро показа, че чат ботовете "обикновено не са добри в отказа да отговорят на въпроси, на които не могат да отговорят точно, а вместо това предлагат неверни или спекулативни отговори".
AI се затруднява с проверка на фалшиви изображения и измисляне на детайли
Когато проверител на факти на AFP в Уругвай попита Gemini за генерирано от AI изображение на жена, той не само потвърди автентичността на изображението, но и измисли детайли около нейната самоличност и къде е възможно да е била направена снимката.
Подобни констатации провокират безпокойство, тъй като проучванията показват, че онлайн потребителите все повече се насочват от традиционните търсачки към AI чат ботове за информация и проверка.
Промяна на подхода на Meta към проверката на факти
По-рано тази година Meta обяви, че ще прекрати програмата си за проверка на факти от трети страни в щатите, като вместо това ще остави задачата за развенчаване на дезинформацията на обикновените потребители, използвайки модел, известен като "Бележки на общността", модел, популяризиран от X. Въпреки това изследователи многократно са поставяли под въпрос ефективността на "Бележки на общността" в борбата с дезинформацията.
Предизвикателства и спорове около проверката на факти от хора
Проверката на факти от хора отдавна е повод за раздор в поляризиран политически климат, особено в САЩ, където консервативните застъпници твърдят, че тя потиска свободата на словото и цензурира дясното съдържание - твърдение, което професионалните проверители на факти категорично отхвърлят. В момента AFP си партнира с програма на Facebook за проверка на факти на 26 езика, включително в Азия, Латинска Америка и Европейския съюз.
Политическо влияние и AI чат ботове
Качеството и точността на AI чат ботовете варират в зависимост от начина им на обучение и програмиране, предизвиквайки безпокойство, че техните резултати могат да бъдат повлияни или контролирани политически. Наскоро xAI на Мъск обвини "неоторизирана модификация" за генерирането от Grok на нежелани споменавания на "Бял геноцид" в Южна Африка. Когато експертът по AI Дейвид Касуел попита Grok кой е възможно да е модифицирал системните му подкани, чат ботът посочи Мъск като "най-вероятния" виновник.
Мъск е роден в Южна Африка милиардер и поддръжник на президента Доналд Тръмп. Преди това той е разпространявал необосновани твърдения, че лидерите в Южна Африка "открито насърчават геноцид над белите хора".
Опасения относно обработката на чувствителни въпроси от AI чат ботове
Анджи Холан, директор на Международната мрежа за проверка на факти, заяви: "Вече сме виждали как AI асистентите могат да измислят резултати или да дават пристрастни отговори след умишлени промени на инструкциите от хора кодирачи. Особено ме безпокои как Grok ще се справи със заявки, които включват много чувствителни теми, след като са получени инструкции за предоставяне на предварително одобрени отговори."
Важността на гарантиране на точността на AI
Нарастващата популярност на AI чат ботовете представлява значително предизвикателство за разпространението на информация. Въпреки че предлагат бърз и удобен начин за достъп до информация, те са склонни към грешки и разпространение на дезинформация. Тъй като потребителите все повече разчитат на тези инструменти за проверка на факти, става наложително да се гарантира тяхната точност и надеждност.
Технологичните компании, организациите за проверка на факти и изследователите трябва да работят заедно за подобряване на качеството и надеждността на AI чат ботовете. Това включва прилагане на строги протоколи за обучение, използване на служители за проверка на факти, които да проверяват информацията, генерирана от AI, и разработване на механизми за откриване и премахване на невярна информация.
Поглед към бъдещето
Тъй като AI технологията продължава да се развива, AI чат ботовете със сигурност ще играят все по-важна роля в начина, по който получаваме и консумираме информация. Важно е обаче да подхождаме критично към тези инструменти и да сме наясно с техните ограничения. Като предприемем стъпки за гарантиране на точността и надеждността на AI чат ботовете, можем да използваме потенциала им, като същевременно смекчим рисковете, свързани с разпространението на дезинформация.
Пристрастия в AI инструментите
Пристрастията могат да присъстват в AI инструментите, или в данните, на които са обучени, или в начина, по който са програмирани. Тази пристрастие може да доведе до неточни или подвеждащи резултати. При Grok, например той вмъкна крайно дясната конспиративна теория "Бял геноцид" в несвързани заявки, което показва, че AI системите имат потенциал да разпространяват вредни идеологии.
Пристрастията в AI инструментите могат да бъдат причинени от различни фактори, включително:
Пристрастие в данните за обучение: AI системите учат чрез набори от данни за обучение. Ако тези набори от данни съдържат пристрастия, тогава ще ги научи и AI системата. Например, ако дадена AI система е обучена предимно върху статии, написани за мъже, тогава тя може да прояви пристрастие към жените.
Пристрастие в алгоритмите: Алгоритмите, използвани за изграждане на AI системите, също могат да съдържат пристрастия. Например, ако даден алгоритъм е проектиран да дава приоритет на отговорите от определени групи, тогава той може да дискриминира други групи.
Пристрастие поради намеса от хора: Дори ако дадена AI система е обучена върху непредубедени данни, намесата от хора пак може да въведе пристрастия. Например, ако е указано на кодирачи, че предоставят предварително разрешени отговори при отговор на определени въпроси, тогава това може да създаде пристрастия.
Адресирането на пристрастията в AI инструментите е важно поради няколко причини:
Справедливост: Ако дадена AI система съдържа пристрастия, тогава тя може да създаде нечестност към определени групи. Например, ако AI система е била използвана за наемане на работа, тогава тя може да повлияе на маргинализирани групи.
Точност: Ако дадена AI система съдържа пристрастия, тогава тя може да не успее да предостави точна информация. Например, ако дадена AI система е използвана за предоставяне на медицински съвети, тогава тя може да предостави некоректни или подвеждащи неща.
Доверие: Ако хората не вярват, че AI системите са справедливи и точни, тогава е по-малко вероятно да ги използват.
Адресирането на пристрастията в AI инструментите изисква многостранен подход, включително:
Събиране на непредубедени данни: От съществено значение е да се гарантира, че наборите от данни, използвани за обучение на AI системите, са непредубедени. Това може да изисква много усилия, тъй като намирането и премахването на пристрастия в данните може да бъде трудно.
Разработване на непредубедени алгоритми: Алгоритмите, използвани за изграждане на AI системите, трябва да бъдат непредубедени. Това може да изисква използването на нови техники за машинно обучение за изграждане на алгоритми, които са по-малко податливи на пристрастия.
Намеса от хора: Намесата от хора може да се използва за коригиране на пристрастията в AI системите. Например, човешки кодирачи могат да прегледат отговорите, генерирани от AI система, и да коригират всякакви пристрастия, които срещнат.
Прозрачност: Важно е потребителите на AI системите да бъдат информирани за всички пристрастия, които може да присъстват в AI системата. Това може да стане чрез предоставяне на информация за данните, на които е обучена AI системата, както и за алгоритмите, използвани за изграждането на AI системата.
Адресирането на пристрастията в AI инструментите е непрекъснато предизвикателство, но е от съществено значение за гарантиране, че тези инструменти са справедливи, точни и заслужаващи доверие.
Ограничения на проверките на факти от AI
Въпреки че инструментите за проверка на факти от AI са напреднали в идентифицирането на невярна информация, те все още имат ограничения по отношение на своите възможности и ефективност. Тези ограничения произтичат от няколко фактора:
Разбиране на контекста: AI системите се затрудняват да разберат сложни контексти и нюанси, каквито са от съществено значение за прецизното установяване на фактите. Например, дадена AI система може да не може да различи сарказъма или хумора от искреното изявление.
Разпознаване на фини неверни данни: AI системите може да се затруднят да разпознават фини неверни данни, като информация, за която е отнет контекстът, или селективно докладване на факти.
Липса на експертиза: AI системите често нямат експертизите, необходими за установяване на фактите. Например, може да нямат достатъчно познания в областта на медицината, за да установяват факти, свързани със здравето.
Противникови манипулации: Разпространяващите фалшиви данни непрекъснато разработват нови методи за манипулиране и заобикаляне на системите за установяване на фактите. AI системите трябва непрекъснато да се актуализират и подобряват, за да бъдат в крак с тези нови тактики.
Езикови бариери: Инструментите за установяване на факти от AI не може да са ефективни при работа с неверни данни на различни езици. Превеждането и разбирането на нюансите на различни езици е предизвикателство и изисква специализиран езиков опит.
Риск от фалшиви отчети: Системите за установяване на факти от AI може да правят грешки, което води до маркиране на точна информация като невярна. Тези отчети може да имат сериозни последици, като цензуриране на законно съдържание или компрометиране на репутацията на лица и организации.
За да се смекчат ограниченията на установяването на факти от AI, от съществено значение е да се включи експертиза от хора в подкрепа на AI инструменти. Следователите на факти могат да осигурят контекст, експертиза и критическо мислене. В допълнение, прозрачността и непрекъснатото подобрение са от съществено значение за осигуряване на ефективност и надеждност на системите за установяване на факти от AI.
Стратегии за смекчаване на тези рискове и за подобряване на установяването на факти от AI
Постигането на ефективност и надеждност изисква многостранен подход с оглед на технически подобрения, на надзор от експерти и на етични съображения. Ето няколко ключови стратегии:
Подобряване на данните за обучение: Със съставянето на данните от всевъзможни надеждни места, за да бъдат моделите за AI обучени. Трябва да се гарантира, че тези данни са актуални и обхващат широк кръг от теми, за да се избегне пристрастност.
Включване на експерти: Посредством включването на проверители на факти в процеса, и по този начин да спомогнат за наваксване на ограниченията. Експертите осигуряват умения.
Разработване на хибридни методи: Да бъдат разработени методи, които комбинират изкуствения интелект с надзора от страна на хората. Изкуственият интелект може да бъде използван за намиране на подвеждаща информация, а еспертите да помагат с финалното оценяване.
Вземане на transparent мерки: Това ще помогне на потребителите да разбират как се стига до заключението, доказвайки неговата точност. От къде са взети данните, какви са алгоритмите и каква е ролята на хората.
Насърчаване на медийната грамотност: Правилното оценяване на информация, както и решения да бъдат предприемани.
Насърчаване на грамотността чрез образователни програми в подкрепа на критическото мислене.Межуотраслова колаборация: Посредством колаборацията на тех. компании, изследоватли, да делят правилни начини и информация.
Адресиране на езикови бариери: С помощта на машинен превод да се осигури прецизност.
Непрекъснато оценяване и подобрение: Системите за оценка на факти да бъдат проверяване за подобрения и оптимизация, и редовно одитирани.
Етични правила: Да се изградят етични правила отнонсо AI, да гарантират отговорност. Да се гарантира, че систеките са използвани по начин отговорен и справедлив.
Като прилагаме тези техники, можем да гарантираме безопасността и точността на оценяването на фактите чрез AI и да увеличим макс. неговия потенциал в подкрепа срещу невярната информация.
Ролята на медийната критичност
Предвид огромното количество информация и вероятността от неточни данни, които да бъдат произваждани от чат ботове е нужно да отработваме нашите мисловни и медийни умения. За целта е важно да можем да оценим какви данни използваме:
Идентифицираме доверени източници: Като даваме оценка на неговата надеждност, и прехващаме пристрастията.
Потвърждаваме информацията: Чрез справка къде е взета информацията.
Откриваме пристрастия: Да осъзнаем, че източниците вероятно съдържат пристрастия.
Анализираме аргументите: Като търсим селективни репортажи и логически несъразмерности.
Държим отворено съзнание: Поддържаме отворено съзнание, търсим различни гледни точки и анализираме тези перспективи.
Подобрявайки нашата преценка, ние насърчаваме всеки сам и да оценява, и взима обмисляни решения. Има начини как да засилим нашите умения:
Програмиране образование: Предоставяйки образователни програми и трениране на критично мислене в колежите и университетите.
Насърчаване на медийната грамотност: Като се търси истинска информация в публичните кампании, и като спомагаме мисловното мислене.
Трениране на учители: Оказваме подкрепа на учители как да преподават умения относно медийна грамотност и обмисляне.
Активно участие на родителите: Подтикваме родителите да се включат в консумираното електронно съдържания от техните деца, и ги съветваме да дискутират четивността и надеждността на уеб съдържанието.
Като развиваме медийните умения и критичното мислене, можем да дадем възможност на потребителите да взимат умни решения, като така избягваме невярната информация.