Възходът на AI при проверката на информация
Интегрирането на изкуствен интелект (AI) в социалните медийни платформи не е ново. Ходът на X да позволи на потребителите да взаимодействат с Grok на xAI, в известен смисъл, просто следва тенденция. Това отразява подхода на Perplexity, която управлява автоматизиран акаунт в X, за да предложи подобно изживяване.
След като xAI установи автоматизираното присъствие на Grok в X, потребителите бързо започнаха да изследват възможностите му, задавайки въпроси и търсейки отговори. В региони като Индия се появи особено тревожна тенденция: хората започнаха да използват Grok, за да проверяват коментари и запитвания, много от които бяха насочени към конкретни политически идеологии.
Опасенията на хората, проверяващи факти
Това разчитане на Grok, и всъщност на всеки AI асистент от този вид, за проверка на факти е причина за сериозно безпокойство. Самата природа на тези AI ботове е, че те могат да формулират отговори, които звучат убедително, независимо от тяхната фактическа точност. Това не е теоретично безпокойство; Grok има документирана история на разпространение на фалшиви новини и дезинформация.
Един забележителен случай се случи, когато няколко държавни секретари призоваха Musk да приложи crucial modifications на Grok. Това спешно искане последва появата на подвеждаща информация, генерирана от AI асистента, в социалните мрежи, което предизвика тревога в навечерието на изборите.
Grok не е сам в това. Други известни чатботове, включително ChatGPT на OpenAI и Gemini на Google, също бяха установени, че произвеждат неточна информация, свързана с изборите. Изследователите на дезинформацията допълнително подчертаха потенциала за злоупотреба, разкривайки през 2023 г., че AI чатботове като ChatGPT могат лесно да бъдат използвани за генериране на убедителни текстове, съдържащи подвеждащи разкази.
Илюзията за автентичност
Angie Holan, директор на International Fact-Checking Network (IFCN) в Poynter, формулира основния проблем, казвайки: “AI асистентите, като Grok, те са наистина добри в използването на естествен език и дават отговор, който звучи като казано от човешко същество. И по този начин, AI продуктите имат това твърдение за естественост и автентично звучащи отговори, дори когато са потенциално много грешни. Това би било опасността тук.”
Опасността, както подчертава Holan, се крие в измамната поява на автентичност. Способността на AI да имитира човешкия език създава илюзия за достоверност, дори когато основната информация е погрешна или изцяло измислена.
Фундаменталната разлика: AI срещу хората, проверяващи факти
Контрастът между AI асистентите и хората, проверяващи факти, е ярък. Хората, проверяващи факти, щателно проверяват информацията, като се позовават на множество, достоверни източници. Те работят с прозрачност, като прикачват имената си и организационните си принадлежности към своите констатации, като по този начин гарантират отчетност и повишават доверието.
Pratik Sinha, съосновател на индийския уебсайт за проверка на факти с нестопанска цел Alt News, посочи, че докато отговорите на Grok в момента може да изглеждат убедителни, точността му е фундаментално ограничена от данните, които получава. “Кой ще реши с какви данни да се снабдява и това е мястото, където ще се намеси правителството и т.н.”, отбеляза той, подчертавайки критичния въпрос за прозрачността на източника на данни.
Липсата на прозрачност, подчерта Sinha, е благодатна почва за потенциална вреда. “Всичко, което няма прозрачност, ще причини вреда, защото всичко, което няма прозрачност, може да бъде оформено по всякакъв начин.”
Собственото признание на Grok: Потенциалът за злоупотреба
В донякъде ироничен обрат, акаунтът на Grok в X, в един от публикуваните си отговори, призна, че “може да бъде злоупотребен - за разпространение на дезинформация и нарушаване на поверителността”.
Въпреки това признание, автоматизираният акаунт не предоставя никакви откази от отговорност на потребителите, получаващи неговите отговори. Това пропускане оставя потребителите уязвими да бъдат дезинформирани, особено в случаите, когато AI е “халюцинирал” отговора, добре документиран феномен в областта на AI, където системата генерира невярна или безсмислена информация.
Anushka Jain, научен сътрудник в Digital Futures Lab, обясни по-подробно тази точка, заявявайки: “Той може да измисли информация, за да предостави отговор.” Тази тенденция да се измисля информация подчертава присъщите ограничения на AI в контекста на проверката на факти.
Дилемата с данните за обучение
Допълнителен слой сложност възниква от въпроса за данните за обучение на Grok. Има несигурност относно степента, до която Grok използва публикации в X като материал за обучение, и мерките за контрол на качеството, ако има такива, използвани за проверка на фактите на такива публикации. Промяна, въведена по-рано, изглежда предостави на Grok default access до данните на потребителите на X, което поражда опасения относно потенциала AI да абсорбира и разпространява дезинформация, присъстваща на платформата.
Публично срещу частно потребление на AI-генерирана информация
Друго значително безпокойство се върти около публичния характер на AI асистенти като Grok в социалните медийни платформи. За разлика от взаимодействията с чатботове като ChatGPT, които обикновено се случват в частна среда, отговорите на Grok се доставят публично.
Това публично разпространение създава ситуация, при която, дори ако един потребител е наясно, че информацията, предоставена от AI, може да е неточна, други потребители на платформата все още могат да я приемат като истина. Това може да доведе до сериозни обществени последици.
Съществуват исторически прецеденти. Индия, например, стана свидетел на трагични инциденти на линчуване от тълпа, подхранвани от дезинформация, разпространявана чрез WhatsApp. Тези събития, макар и да предхождат широкото разпространение на Generative AI, служат като ярко напомняне за реалните опасности от неконтролираната дезинформация. Появата на GenAI, със способността му да генерира синтетично съдържание, което изглежда забележително реалистично, само засили тези рискове.
Процентът на грешки на AI
Holan от IFCN предупреди, че: “Ако видите много от тези отговори на Grok, ще кажете, хей, ами повечето от тях са правилни, и това може да е така, но ще има някои, които са грешни. И колко? Това не е малка част. Някои от изследователските проучвания показват, че AI моделите са обект на 20% грешки… и когато се обърка, може да се обърка наистина зле с реални последици.”
20%-ният процент на грешки, както е подчертано от Holan, е значителна цифра. Той подчертава присъщата ненадеждност на AI в ситуации, изискващи фактическа точност. И, както тя подчертава, последиците от тези грешки могат да бъдат дълбоки, простиращи се далеч отвъд дигиталната сфера.
AI: Инструмент, а не заместител на човешката преценка
Докато AI компаниите, включително xAI, непрекъснато усъвършенстват своите модели, за да постигнат по-човешка комуникация, основната реалност остава: AI не може и не трябва да замества човешката преценка, особено в критичната област на проверката на факти.
Тенденцията сред технологичните компании да изследват възможности за намаляване на зависимостта от хората, проверяващи факти, е причина за безпокойство. Платформи като X и Meta са възприели концепцията за crowdsourced проверка на факти, илюстрирана от инициативи като ‘Community Notes’. Тези промени, макар и потенциално да предлагат определени предимства, също повдигат въпроси относно потенциалната ерозия на строгите стандарти за проверка на факти.
Махалото се връща към човешката проверка на факти?
Sinha от Alt News изрази оптимистична гледна точка, предполагайки, че хората в крайна сметка ще се научат да разграничават резултатите от машините и работата на хората, проверяващи факти, като в крайна сметка оценяват точността и надеждността на последните.
“Ще видим махалото да се върне в крайна сметка към повече проверка на факти”, прогнозира Holan от IFCN.
Тя обаче предупреди, че междувременно проверяващите факти вероятно ще се сблъскат с увеличено натоварване поради бързото разпространение на AI-генерирана информация. Предизвикателството ще бъде да се противодейства ефективно на вълната от дезинформация, като се гарантира, че обществеността остава информирана от истината, а не от убедителни илюзии.
Основният въпрос: Грижа ли ви е за истината?
В основата на въпроса лежи един фундаментален въпрос: “Наистина ли ви е грижа за това, което всъщност е вярно или не? Търсите ли просто фурнира на нещо, което звучи и се чувства вярно, без всъщност да е вярно? Защото това е, което AI асистенцията ще ви даде”, заяви Holan.
Този въпрос капсулира критичната дилема, поставена от възхода на AI в разпространението на информация. Готови ли сме ние, като общество, да дадем приоритет на удобството и външния вид на истината пред painstaking процеса на проверка на фактите? Отговорът на този въпрос в крайна сметка ще оформи бъдещето на информацията, определяйки дали ще се поддадем на свят на изфабрикувани реалности или ще поддържаме принципите на истината и точността.