По време на краткия конфликт между Индия и Пакистан, нарастващата дезинформация накара потребителите на социалните медии да започнат да разчитат на AI чатботове за проверка. Тези чатботове обаче предоставиха още повече фалшива информация, подчертавайки тяхната ненадеждност като инструменти за проверка на факти. Тъй като големите технологични платформи продължават да намаляват броя на служителите, които ръчно извършват проверка на факти, потребителите все повече разчитат на AI чатботове, като Grok на xAI, ChatGPT на OpenAI и Gemini на Google, за надеждна информация.
Възходът на AI чатботовете за проверка на факти
В платформата X на Илон Мъск (преди Twitter) стана обичайно потребителите да питат: “@Grok, вярно ли е това?”. Grok, AI асистентът, вграден в платформата X, отразява тенденцията потребителите да търсят незабавно развенчаване в социалните медии. Отговорите на тези AI чатботове обаче често са пълни с дезинформация.
Grok наскоро привлече вниманието, защото вмъкна крайнодясната конспиративна теория “бял геноцид” в несвързани заявки. Grok погрешно идентифицира стар видеоклип от летището в Хартум, Судан, като ракетна атака на пакистанската авиобаза Нур Хан по време на индийско-пакистанския конфликт. Сграда в Непал, обхваната от пламъци, погрешно е идентифицирана като “вероятно” показваща военния отговор на Пакистан на индийска атака.
Ограничения на AI проверката на факти
Изследователят на информационния монитор NewsGuard, Макензи Садеги, каза пред Франс прес: “Тъй като X и други големи технологични компании намалиха инвестициите си в човешка проверка на факти, хората все повече разчитат на Grok като проверител на факти.” Тя предупреди: “Нашите изследвания многократно показват, че AI чатботовете не са надежден източник на новини и информация, особено когато става въпрос за извънредни новини.”
Изследване на NewsGuard установи, че 10 водещи чатбота, включително Grok, лесно повтарят фалшива информация, включително руски кампании за дезинформация и фалшиви или подвеждащи твърдения, свързани с последните австралийски избори. Неотдавнашно проучване на Tow Center for Digital Journalism в Колумбийския университет на осем AI инструмента за търсене установи, че чатботовете “често не са добри в това да отказват да отговорят на въпроси, на които не могат да отговорят точно, вместо това предоставят неверни или спекулативни отговори.”
Проверител на факти на Франс прес в Уругвай попита Gemini за генерирано от AI изображение на жена. Джимини не само потвърди автентичността на изображението, но и фабрикува подробна информация за самоличността на жената и къде е било направено изображението.
Grok наскоро маркира видеоклип, за който се твърди, че показва гигантска анаконда, плуваща в река Амазонка, като “автентичен” и дори цитира звучаща правдоподобно научна група, за да подкрепи невярното си твърдение. Видеоклипът всъщност е генериран от AI, а проверителите на факти на Франс прес в Латинска Америка съобщиха, че много потребители цитират оценката на Grok като доказателство, че видеоклипът е реален.
Опасения относно AI проверката на факти
Тези открития предизвикаха опасения, тъй като проучванията показват, че нарастващ брой онлайн потребители се обръщат към AI чатботове, за да събират и проверяват информация, вместо към традиционните търсачки. В същото време Meta обяви по-рано тази година, че ще прекрати програмата си за проверка на факти от трети страни в Съединените щати и вместо това ще прехвърли задачата за развенчаване на обикновени потребители, като използва модел, наречен “Бележки на общността”, модел, популяризиран от платформата X. Изследователите обаче многократно поставят под въпрос ефективността на “Бележките на общността” в борбата с дезинформацията.
Ръчната проверка на факти отдавна е ябълка на раздора в поляризиран политически климат, особено в Съединените щати, където консерваторите твърдят, че тя потиска свободата на словото и цензурира дясното съдържание, твърдение, категорично отхвърлено от професионалните проверители на факти.
Франс прес в момента си сътрудничи с програмата за проверка на факти на Facebook на 26 езика, включително в Азия, Латинска Америка и Европейския съюз.
Качеството и точността на AI чатботовете може да варира значително в зависимост от това как са обучени и програмирани, което поражда опасения, че техният изход може да бъде повлиян или контролиран политически.
xAI на Мъск наскоро обвини “неоторизирана модификация” за Grok, генериращ нежелани публикации, споменаващи “бял геноцид” в Южна Африка. Когато AI експертът Дейвид Касуел попита Grok кой може да е модифицирал неговите системни подкани, чатботът изброи Мъск като “най-вероятният” виновник.
Мъск е роден в Южна Африка милиардер и поддръжник на президента на САЩ Доналд Тръмп. Той преди това е разпространявал необосновани твърдения, че лидерите на Южна Африка “открито настояват за геноцид срещу белите.”
Директорът на Международната мрежа за проверка на факти Анджи Холан каза пред Франс прес: “Виждали сме AI асистенти да фабрикуват резултати или да дават пристрастни отговори, след като човешки кодери специално са променили инструкциите им.” “Особено ме притеснява как Grok обработва заявки по отношение на много чувствителни въпроси, след като получи инструкции да предостави предварително одобрени отговори.”
Рисковете от AI чатботовете в информационната сфера
Нарастващото прилагане на AI чатботове в предоставянето на информация предизвиква сериозни опасения, които се отнасят до техните потенциални подвеждащи и манипулативни ефекти. Докато тези технологии предлагат предимства за бърз достъп до информация и рационализиране на изследванията, присъщите им ограничения и пристрастия могат неволно или умишлено да разпространяват дезинформация или пропаганда.
Присъщите ограничения на AI чатботовете
AI чатботовете се учат чрез анализ на огромни количества текстови данни, но им липсват човешките способности за критично мислене. Това означава, че те могат да извличат модели от данните и да генерират привидно правдоподобни отговори, без наистина да разбират основното значение или контекст. Тази липса на знание може да доведе до генериране на неточна, непълна или подвеждаща информация.
Освен това, данните за обучение на AI чатботовете може да съдържат пристрастия, които се отразяват в генерираните отговори. Например, ако данните за обучение идват предимно от конкретен източник или гледна точка, чатботът може да покаже предпочитание към този източник или гледна точка, като по този начин разпространява пристрастна информация.
Рисковете, породени от AI чатботовете
Тъй като все повече хора разчитат на AI чатботове за информация, рискът от разпространение на дезинформация се увеличава. Ако чатботът генерира неточна или подвеждаща информация, потребителите могат несъзнателно да я приемат и разпространяват, което води до разпространение на грешни вярвания.
Освен това, AI чатботовете могат да бъдат използвани за злонамерени цели, като например разпространение на пропаганда или манипулиране на общественото мнение. Чрез внимателен дизайн на данните за обучение или настройка на алгоритмите, злонамерени участници могат да манипулират чатботът да генерира конкретни видове отговори, като по този начин влияят на вярванията и поведението на потребителите.
Как да се намалят рисковете
За да се намалят рисковете, свързани с AI чатботовете, е необходимо да се предприемат няколко мерки. Първо, разработчиците трябва да се стремят да гарантират, че данните за обучение на AI чатботовете са възможно най-изчерпателни и безпристрастни. Това може да изисква включването на разнообразни проби от данни от различни източници и гледни точки, за да се намали въздействието на пристрастията.
Второ, е необходимо да се извърши стриктно тестване и оценка на AI чатботовете, за да се идентифицират и коригират всички тенденции към неточност или пристрастност. Това може да включва ръчна проверка на отговорите, генерирани от чатбота, и използването на различни показатели, за да се оцени неговата точност и безпристрастност.
Трето, потребителите трябва да поддържат критично мислене и да не се доверяват сляпо на информацията, предоставена от AI чатботовете. Потребителите винаги трябва да сравняват информацията от различни източници и да бъдат внимателни към възможните пристрастия на чатбота.
Ролята на технологичните платформи и общностите
Технологичните платформи и общностите играят важна роля в регулирането и надзора на съдържанието, генерирано от AI чатботовете. Платформите могат да прилага