10.04.2026
09:33
134
Новости

ИИ-поиск от Google галлюцинирует: пользователи ежедневно получают миллионы неверных ответов

Формат AI Overview в поиске Google, который показывает готовый ответ прямо над ссылками, оказался не таким надёжным, как может показаться. Анализ показал, что около 10% таких сводок содержат ошибки, сообщает El.kz.

Речь идёт о кратких пояснениях, которые Google всё чаще выводит вверху страницы вместо привычного набора ссылок. Это действительно экономит время, но вместе с удобством пришла и старая проблема генеративного ИИ — уверенные ответы, которые не всегда совпадают с фактами.

По данным анализа, который Oumi провела для The New York Times, точность AI Overview составила около 85% для Gemini 2 и 91% после перехода на Gemini 3. На бумаге это выглядит неплохо, но в масштабе Google даже такой уровень ошибок превращается в гигантский поток недостоверной информации.

Проблема становится особенно заметной, если учитывать объём поисковых запросов. При более чем 5 трлн запросов в год даже доля ошибок на уровне примерно 1 ответа из 10 означает миллионы неверных справок каждый час.

Отдельный вопрос вызывает работа со ссылками. Исследователи отмечают, что AI Overview нередко показывает источники, которые не подтверждают сказанное полностью, а иногда ответ и вовсе расходится с тем, на что ссылается система. Для пользователя это самая неприятная ловушка — всё выглядит солидно, а опора под текстом может быть весьма шаткой.

Есть и ещё одна уязвимость. Ars Technica пишет, что AI-поиск можно сравнительно быстро ввести в заблуждение ложной или манипулятивной публикацией, после чего такая информация способна попасть в готовые ответы поиска уже на следующий день.

Google с выводами исследования не согласилась и заявила, что в нём есть серьёзные изъяны. При этом сама компания всё равно напоминает, что искусственный интеллект может ошибаться, и советует перепроверять ответы, особенно если вопрос касается важных решений.

Итог здесь довольно приземлённый. AI-поиск действительно удобен и экономит время, но пока не дотягивает до уровня, при котором ему можно безоговорочно доверять в темах, где цена ошибки слишком высока.

Казахстанцы сняли первый ИИ-сериал для международной платформы.