20min.by

«ИИ-проклятие» - В ЕС и США предупредили об ошибках нейросетей, которые могут стоить свободы

Опубликовано: 17 ноября 2025г. 11:41 Редакция

Новое исследование в Европейском союзе показало, что популярные модели нейросетей и чат-боты на основе искусственного интеллекта (ИИ) очень часто дают неверные ответы: почти в половине случаев. Причем проблема оказалась настолько серьезной, что даже в американских судах столкнулись с последствиями.

«ИИ-проклятие» - В ЕС и США предупредили об ошибках нейросетей, которые могут стоить свободы

“Не соответствовали критериям правдивости”

Так, Европейский вещательный союз (ЕВС) совместно с журналистами протестировал самые популярные ИИ-системы. Эксперты проанализировали более 3000 ответов таких «звезд» рынка, как ChatGPT, Copilot (от Microsoft), Gemini (от Google) и Perplexity.

Сначала заменит начальство? Глава OpenAI рассказал, кому следует беспокоиться из-за ИИ

Журналисты оценивали ответы по нескольким критериям:

  • точность информации;
  • качество и надежность источников;
  • умение отличать факты от мнений;
  • предоставление необходимого контекста.

Результаты, мягко говоря, насторожили, а кого-то могли и напугать. Оказалось, что 45% ответов ИИ не соответствовали критериям правдивости. При этом в 31% случаев источники, на которые ссылались нейросети, и вовсе были либо полностью враньём, либо не имели никакого отношения к заданному вопросу.

Галлюцинации и устаревшие данные

Особую тревогу вызвал тот факт, что в 20% случаев искусственный интеллект просто фантазировал или предоставлял устаревшую информацию. Проблема, известная как «галлюцинация ИИ», когда алгоритм генерирует правдоподобный, но полностью вымышленный ответ, никуда не исчезла, несмотря на заверения создателей.

Причем самый плохой результат показал Gemini от Google — ошибки встречались в 76% ответов нейронки. Впрочем, другие ИИ оказались тоже далеки от идеала.

Что такое «галлюцинация ИИ»? Это явление,когда искусственный интеллект генерирует текст, который выглядит правдоподобно, но не соответствует действительности, а просто полностью придуман. Алгоритм может даже приводить несуществующие факты, цитаты, исторические события или даже выдумывать научные исследования, не говоря уже о фамилиях людей.

«Это была ошибка»: ИИ добрался до американских судов

Тем временем проблема неточности ИИ начала создавать реальные проблемы в таких сферах, как судебная система. Издание Politico сообщило, что два федеральных судьи в США были вынуждены отозвать свои решения из-за ошибок, допущенных при использовании искусственного интеллекта их сотрудниками.

Один из судей, Генри Вингейт из Южного округа Миссисипи, признался: «Это был черновик, который никогда не должен был попасть в дело. Это была ошибка». По его словам, один из судебных помощников использовал сервис Perplexity при подготовке проекта судебного решения.

Аналогичная история произошла и с судьей Джулиеном Нилсом из Нью-Джерси. Он сообщил, что практикант в его офисе использовал ChatGPT, несмотря на внутренний запрет на использование ИИ.

Беларусь потребовала от «коллективного Запада» дать доступ к «выключателю» искусственного интеллекта

Реакция властей и будущее ИИ

Сенатор Чак Грассли, председатель судебного комитета Сената США, уже заявил: «Мы не можем позволить лени, апатии или чрезмерной зависимости от искусственного интеллекта подорвать приверженность судебной системы целостности и фактической точности».

Европейский вещательный союз, судя по результатам исследования, планирует проводить подобные проверки и дальше.

Ранее министр связи и информатизации Беларуси Кирилл Залесский , выступая на форуме, выказал мнение о том, что внедряя искусственный интеллект во все сферы жизни, крайне важно использовать его профессионально.

«Есть планы по внедрению в госсистемы» — На форуме AI4Development обсудили развитие ИИ в Беларуси

Оцените новость