Изследване показва, че AI асистентите допускат множество грешки при предаването на новинарска информация
Водещи асистенти с изкуствен интелект изкривяват новинарско съдържание в близо от половината на своите отговори, сочи ново изследване, публикувано в сряда 22 октомври от Европейския съюз за радио и телевизия (EBU).
Международното проучване анализирало 3 000 отговора на въпроси, свързани с новини, дадени от най-популярните AI асистенти – софтуерни приложения, които използват изкуствен интелект, за да разбират естествен човешки език и изпълняват задачи по заявка на потребителя.
Изследването обхванало 14 езика и оценявало точността, източниците и способността на моделите да разграничават мнение от факт. В него били включени:
- ChatGPT,
- Copilot (Microsoft),
- Gemini (Google)
- и Perplexity AI.
Резултатите показват, че общо 81% имат някакъв вид неточност.
Gemini (AI асистентът на Google) е заявил на уебсайта си, че приветства обратна връзка, за да подобрява платформата.
От OpenAI и Microsoft по-рано са признали, че така наречените „халюцинации“ – случаи, в които моделът генерира неверни или подвеждащи твърдения е проблем, който се опитват да решат.
Според сайта на Perplexity, неговият режим Deep Research има 93,9% точност при проверка на факти.
Най-лоши резултати има Gemini, където 72% от отговорите имат сериозни проблеми с източниците, докато при останалите асистенти процентът е под 25.
Неточности са открити в 20% от всички анализирани отговори, включително остаряла информация.



В проучването участвали 22 обществени медии от 18 държави, сред които Франция, Германия, Испания, Украйна, Великобритания и САЩ.
Примерите, цитирани от проучването, включват Gemini, който неправилно посочва промени в закон за вейповете за еднократна употреба, и ChatGPT, който съобщава, че папа Франциск е настоящият папа няколко месеца след неговата смърт.
Тъй като AI асистентите все повече заместват традиционните търсачки за новини, общественото доверие може да бъде подкопано, заяви EBU.
„Когато тези системи изкривяват, грешно преписват или изваждат от контекст достоверни новини, те подкопават общественото доверие,“ се казва в изявлението.
„Изискването ни е просто: ако влизат факти – трябва да излизат факти. AI инструментите не бива да компрометират достоверността на новините, които използват.“
Четете още: OpenAI представя новия уеб браузър Atlas












