×

Gemini 3 Flash уличили в уверенном выдумывании ответов вместо честного «не знаю»

Искусственный интеллект Gemini 3 Flash по праву считается одной из самых продвинутых современных моделей. Однако недавние независимые тесты выявили у системы существенный недостаток. Эксперты из группы Artificial Analysis пришли к выводу, что Gemini 3 Flash склонна придумывать ответы на те вопросы, для которых у нее нет необходимой информации.


Проблема особенно актуальна, когда речь идет о сложных, неоднозначных или выходящих за пределы стандартной базы запросах. Специалисты выяснили, что в подобной ситуации Gemini 3 Flash в 91% случаев не признает незнание, а генерирует фразу, выдавая ее за достоверный ответ. Такой показатель «частоты галлюцинаций» был получен по итогам тестирования AA-Omniscience. А значит, в тех случаях, когда наиболее честным вариантом стал бы ответ «я не знаю», ИИ выдает абсолютно вымышленную информацию.

Не стоит путать этот результат с процентом неверных ответов — речь идет только о ситуациях неопределенности, когда модель занимала чрезмерно уверенную позицию, не обладая достоверными знаниями. Наглядный пример: когда Gemini 3 Flash сталкивается с вопросами без однозначного решения или с неизвестными ей фактами, она все равно спешит дать ответ, зачастую лишенный основания в реальных данных. Это особенно критично, поскольку искусственный интеллект уже широко интегрирован в такие сервисы, как Google Search и другие продукты компании.

Следует признать, что данная особенность — не только проблема Gemini. Все современные генеративные ИИ-ассистенты время от времени оказываются подвержены склонности к вымышленным объяснениям. Но в случае с Gemini подобное поведение встречается чаще, особенно в сложных сценариях, где нет доступных источников информации или обучающие данные ограничены. Главная причина такого поведения кроется в природе современных языковых моделей: они “обучены” угадывать следующее слово на основе вероятностей, а не отделять истинное знание от догадки. Так что когда проще сказать честное «не знаю», ИИ все равно генерирует наиболее вероятный — но не обязательно верный — ответ.

Google не единственная компания, работающая над уменьшением подобных случаев. Например, в OpenAI уже занимаются внедрением механизмов, позволяющих моделям честно сообщать о своем незнании и не стесняться признаться в отсутствии информации. Однако привычка поощрять уверенные, даже если ошибочные, ответы сохраняется: большинство пользователей ждут от ИИ-ассистентов быстрых и уверенных реакций, а выражения вроде «я не уверен» могут казаться неестественными для виртуального помощника. Тем не менее, для достоверности и прозрачности именно такая скромность может оказаться предпочтительней.

Важно понимать — несмотря на столь высокий процент “галлюцинаций” в отдельных ситуациях, Gemini 3 Flash остается одной из наиболее продвинутых и функциональных моделей искусственного интеллекта на сегодняшний день, конкурируя на равных с новейшими версиями ChatGPT и Claude. Однако пока стоит быть внимательнее при использовании любых ИИ-систем: перепроверка информации и критический подход всегда будут залогом объективности. Тигран Амасян

Запись перемещена в архив

Комментариев еще нет

Загрузка...
Нет больше статей