ИИ инструменти грешат с цитати

Проблемът с неточните цитирания

Неотдавнашно проучване разкри значителен недостатък в настоящото поколение генеративни AI инструменти за търсене: те често не успяват да предоставят точни цитати за новинарски статии. Това ограничение служи като важно напомняне за границите на тези бързо развиващи се технологии, особено след като платформите за социални медии все повече ги интегрират в потребителското изживяване.

Tow Center for Digital Journalism проведе проучването и констатациите му са обезпокоителни. Изследването показва, че по-голямата част от известните AI търсачки се затрудняват с правилното цитиране на новинарски статии. Инструментите често измислят референтни връзки или просто не могат да предоставят отговор, когато бъдат запитани за източник.

Проучването визуално представи представянето на различни AI чатботове в диаграма, разкривайки обща липса на надеждност при предоставянето на релевантни цитати. Трябва да се отбележи, че чатботът Grok на xAI, който Илон Мъск рекламира като „най-правдивия“ AI, е сред най-неточните и ненадеждни ресурси в това отношение.

В доклада се посочва:

“Като цяло, чатботовете предоставиха неправилни отговори на повече от 60% от заявките. При различните платформи нивото на неточност варираше, като Perplexity отговори неправилно на 37% от заявките, докато Grok имаше много по-висок процент грешки, отговаряйки неправилно на 94% от заявките.”

Това подчертава значителното несъответствие в нивата на точност на различните AI инструменти, като някои се представят значително по-зле от други.

Достъп до ограничено съдържание

Друг обезпокоителен аспект, разкрит от доклада, се отнася до способността на AI инструментите да имат достъп и да предоставят информация от източници, които са приложили мерки за предотвратяване на извличането на данни от AI.

В доклада се отбелязва:

“В някои случаи чатботовете или отговаряха неправилно, или отказваха да отговорят на заявки от издатели, които им позволяваха достъп до тяхното съдържание. От друга страна, понякога те отговаряха правилно на заявки за издатели, до чието съдържание не би трябвало да имат достъп.”

Това наблюдение предполага, че някои доставчици на AI може да не спазват командите robots.txt, предназначени да ги блокират от достъп до материали, защитени с авторски права. Това повдига въпроси относно етичните и правните последици от заобикалянето на тези ограничения от AI инструментите.

Нарастващото разчитане на AI за изследвания

Основният проблем се крие в нарастващото разчитане на AI инструменти като търсачки, особено сред по-младите потребители. Много млади хора сега израстват с ChatGPT като основен инструмент за изследване. Тази тенденция е тревожна, предвид демонстрираната ненадеждност на AI инструментите при предоставянето на точна информация и надеждното обучение на потребителите по ключови теми.

Резултатите от изследването служат като ярко напомняне, че генерираните от AI отговори не винаги са ценни или дори използваеми. Истинската опасност се крие в популяризирането на тези инструменти като заместители на истинските изследвания и преки пътища към знанието. За по-младите потребители в частност, това може да доведе до поколение от индивиди, които са по-малко информирани, по-малко подготвени и прекалено зависими от потенциално дефектни системи.

AI като инструмент, а не като решение

Марк Кюбан, известен бизнесмен, ефективно обобщи това предизвикателство по време на сесия в SXSW. Той подчерта:

“AI никога не е отговорът. AI е инструментът. Каквито и умения да имате, можете да използвате AI, за да ги усилите.”

Гледната точка на Кюбан подчертава, че макар AI инструментите да могат да предложат предимства и да бъдат изследвани за техния потенциал да подобрят производителността, те не са самостоятелни решения.

AI може да генерира видео съдържание, но му липсва капацитетът да разработи завладяващ разказ, най-важният елемент. По същия начин, AI може да произведе код, за да помогне при разработването на приложения, но не може да изгради самото приложение.

Тези ограничения подчертават незаменимата роля на критичното мислене и човешкия опит. Резултатите от AI несъмнено могат да помогнат при различни задачи, но те не могат да заменят основната нужда от човешка изобретателност и умения.

Необходимостта от критична оценка и развитие на умения

Опасението, особено в контекста на това изследване, е, че младите хора са подведени да вярват, че AI инструментите могат да предоставят окончателни отговори. Проучването обаче, заедно с многобройни други изследователски усилия, последователно показва, че AI не е особено добър в това.

Вместо да се популяризира AI като заместител на традиционните методи за изследване, фокусът трябва да бъде върху обучението на хората за това как тези системи могат да увеличат съществуващите им способности. За да използват ефективно AI, потребителите трябва първо да притежават силни изследователски и аналитични умения, както и опит в съответните области.

По-задълбочен поглед върху последиците

Последиците от това изследване се простират отвъд непосредствената загриженост за неточните цитирания. То повдига по-широки въпроси относно ролята на AI при оформянето на нашето разбиране за света и потенциала за бързо разпространение на дезинформация.

1. Ерозията на доверието в източниците на информация:

Когато AI инструментите последователно предоставят неправилни или изфабрикувани цитати, това подкопава доверието в информационната екосистема като цяло. Потребителите може да станат все по-скептични към всички източници, което затруднява разграничаването между достоверна и ненадеждна информация.

2. Въздействието върху образованието и обучението:

Разчитането на AI инструменти за изследвания, особено сред по-младите потребители, може да има пагубни последици за образованието и обучението. Студентите могат да развият повърхностно разбиране на предметите, липсвайки им критичните умения за мислене, необходими за ефективна оценка на информацията.

3. Етичните отговорности на разработчиците на AI:

Констатациите от това проучване подчертават етичните отговорности на разработчиците на AI. Те трябва да дадат приоритет на точността и прозрачността в своите системи и да гарантират, че AI инструментите не се използват за разпространение на дезинформация или подкопаване на целостта на източниците на информация.

4. Необходимостта от медийна грамотност и критично мислене:

В епоха, доминирана от генерирано от AI съдържание, медийната грамотност и уменията за критично мислене са по-важни от всякога. Хората трябва да бъдат подготвени да оценяват критично информацията, да идентифицират пристрастия и да разграничават достоверните от ненадеждните източници.

5. Бъдещето на AI в изследванията и извличането на информация:

Изследването подчертава необходимостта от непрекъснато развитие и усъвършенстване на AI инструментите за изследвания и извличане на информация. Въпреки че AI има потенциала да революционизира тези области, от решаващо значение е да се обърне внимание на настоящите ограничения и да се гарантира, че тези инструменти се използват отговорно и етично.

Разширяване на специфичните опасения

Нека се задълбочим допълнително в някои от специфичните опасения, повдигнати от изследването:

A. Проблемът с “халюцинациите”:

AI чатботовете са известни със склонността си да “халюцинират” или да генерират информация, която е напълно изфабрикувана. Това е особено проблематично в контекста на цитатите, където точността е от първостепенно значение. Констатацията на проучването, че AI инструментите често измислят референтни връзки, подчертава сериозността на този проблем.

Б. Проблемът с пристрастията:

AI моделите се обучават на огромни масиви от данни, които могат да съдържат пристрастия, отразяващи обществени предразсъдъци или изкривени гледни точки. Тези пристрастия могат да се проявят в отговорите на AI, което води до неточна или подвеждаща информация. Това е особено тревожно, когато AI инструментите се използват за изследване на чувствителни или противоречиви теми.

В. Проблемът с прозрачността:

Вътрешната работа на много AI модели често е непрозрачна, което затруднява разбирането как те стигат до своите заключения. Тази липса на прозрачност затруднява идентифицирането и коригирането на грешки или пристрастия в системата.

Г. Проблемът с авторските права:

Констатацията на проучването, че някои AI инструменти имат достъп до съдържание от източници, които са ги блокирали, повдига сериозни опасения за авторските права. Разработчиците на AI трябва да зачитат правата върху интелектуалната собственост и да гарантират, че техните инструменти не се използват за нарушаване на авторски права.

Пътят напред: Отговорно разработване на AI и образование

Пътят напред изисква двустранен подход: отговорно разработване на AI и цялостно образование.

1. Отговорно разработване на AI:

Разработчиците на AI трябва да дадат приоритет на точността, прозрачността и етичните съображения при проектирането и внедряването на своите системи. Това включва:

  • Подобряване на точността на цитирането: Разработване на техники, за да се гарантира, че AI инструментите предоставят точни и проверими цитати.
  • Справяне с пристрастията: Внедряване на методи за смекчаване на пристрастията в AI моделите и гарантиране, че те предоставят справедлива и балансирана информация.
  • Подобряване на прозрачността: Правене на AI моделите по-прозрачни и обясними, което позволява на потребителите да разберат как те стигат до своите заключения.
  • Зачитане на авторските права: Гарантиране, че AI инструментите зачитат правата върху интелектуалната собственост и не осъществяват достъп и не използват материали, защитени с авторски права, без разрешение.

2. Цялостно образование:

Хората, особено младите хора, трябва да бъдат образовани относно възможностите и ограниченията на AI инструментите. Това включва:

  • Насърчаване на медийната грамотност: Преподаване на умения за критично мислене и способността за оценка на информация от различни източници.
  • Подчертаване на изследователските умения: Засилване на значението на традиционните методи за изследване и способността за самостоятелна проверка на информацията.
  • Разбиране на ограниченията на AI: Обучение на потребителите относно потенциала на AI да генерира неточна или пристрастна информация.
  • Насърчаване на отговорната употреба: Насърчаване на отговорното и етично използване на AI инструменти.

Чрез комбиниране на отговорно разработване на AI с цялостно образование, можем да впрегнем потенциала на AI, като същевременно смекчим рисковете от него. Целта е да се създаде бъдеще, в което AI служи като ценен инструмент за учене и открития, а не като източник на дезинформация и объркване. Констатациите от това проучване предоставят важно напомняне за работата, която предстои. Пътуването към едно наистина информирано и AI-грамотно общество изисква постоянна бдителност, критична оценка и ангажимент за отговорни иновации.