Выездные менеджеры Сбера в 2025 году проехали 2,7 млн км и доставили клиентам 1 млн карт
26 декабря, 18:35
Коллекторы под жёстким контролем: что изменилось с 1 декабря — разбор юриста
26 декабря, 17:30
"Газпром нефть" в 2025 году увеличила на 8% поставки топлива в северные регионы России
26 декабря, 16:17
Главное за ночь: умерла Вера Алентова, Путин в "Простоквашино" и трезвые села в Приангарье
26 декабря, 10:50
Офисы Сбера изменят режим работы в новогодние праздники
25 декабря, 18:10
Умное кольцо Sber получило новые функции
25 декабря, 17:45
Главное за ночь: Кадышева — самый дорогой исполнитель, а в "Чебурашке 2" будет крокодил
25 декабря, 10:45
Полиция не дала подрядчикам забрать шарф-рекордсмен у памятника Бабру в Иркутске
24 декабря, 21:25
Энергоблок мощностью 120 МВт введен в работу на модернизируемой Владивостокской ТЭЦ-2
24 декабря, 21:05
Сбер и Школа дизайна НИУ ВШЭ запустили конкурс "Промпт-выходные"
24 декабря, 19:15
"Пятёрочка" могла бы быть на месте "Реми" и "Самбери"
24 декабря, 18:30
Каждый четвёртый платёж через терминал в России совершали по QR-коду, NFC или улыбке
24 декабря, 18:20
Карты Сбера с оригинальным дизайном разработаны для департамента здравоохранения Чукотки
24 декабря, 18:11
Троих читинцев и двух иностранцев будут судить за контрабанду золота на 66 млн рублей
24 декабря, 16:20
Сделано в России: как проходит импортозамещение инфраструктурного ПО на Дальнем Востоке
24 декабря, 14:40

Эксперты ВТБ рассказали, как снизить риски ИИ‑галлюцинаций

30 июля, 21:05 Общество
Тематическая изображение сгенерировано с помощью ИИ Qwen3-235B-A22B-2507 (18+)
Тематическая изображение
Фото: сгенерировано с помощью ИИ Qwen3-235B-A22B-2507 (18+)
Нашли опечатку?
Ctrl+Enter

Специалисты ВТБ назвали ключевые способы борьбы с галлюцинациями нейросетей — генерацией текста, который выглядит правдоподобно, но содержит вымышленные факты, неточные данные или ссылки на несуществующие источники. Подобные ошибки способны не только создать для пользователя серьезные затруднения при работе с информацией, но и привести к финансовым и репутационным рискам для бизнеса, сообщает ИА PrimaMedia.

"Бывают случаи, когда нейросеть предлагает несуществующие книги в списке рекомендаций или формирует условия продукта, которых на самом деле нет. Модель не проверяет факты, а подбирает наиболее вероятный ответ, поэтому такие ошибки выглядят правдоподобно, но вводят в заблуждение. В первую очередь, снизить количество галлюцинаций можно за счет четко сформулированных запросов. Чем точнее и понятнее формулировка, тем меньше вероятность, что модель начнет фантазировать. Но все же самый надежный способ контроля — это внимательная проверка результата человеком", — сообщил Лев Меркушов, руководитель направления разработки ИИ-решений ВТБ.

Как отметил лидер команды по разработке моделей Алексей Пустынников, для предотвращения искажений информации со стороны ИИ важно понимать и учитывать и характер самих ошибок. Языковые модели не понимают смысл информации и не проверяют ее достоверность в реальном времени, поэтому сбои проявляются по‑разному. В одних случаях система искажает проверяемые данные, в других — формирует вымышленные сведения или неправильно следует заданным инструкциям.

"Галлюцинации в работе языковых моделей можно условно разделить на несколько типов. Есть фактические галлюцинации, когда модель выдает проверяемую информацию с ошибками: например, указывает неправильное имя изобретателя или дату события, либо создает несуществующую связь между объектами. Есть фабрикация фактов, когда нейросеть просто придумывает данные, которые невозможно подтвердить, либо преувеличивает их значение. И отдельная группа — галлюцинации при следовании инструкциям: модель может выполнить другую операцию вместо заданной, не учесть контекст или допустить логические ошибки, например, утверждать, что дважды два равно шести", — сказал Алексей Пустынников.

Причины возникновения ИИ-галлюцинаций связаны с особенностями обучения и работы языковых моделей. Они формируют ответы на основе вероятностных связей в данных, а не на понимании фактов, поэтому при нехватке или противоречивости информации стремятся "додумать" ответ. Дополнительную роль играют ограничения обучающей выборки: модели не обладают сведениями о событиях, произошедших после окончания сбора данных, не имеют доступа к проверке фактов в реальном времени. В результате ошибки могут возникать как из-за недостатка знаний в редких областях, так и из-за неточностей или искажений, изначально содержащихся в используемых данных.

"Другой распространенной причиной ИИ-галлюцинаций являются сложные и абстрактные задачи, которые значительно повышают вероятность ошибок в работе больших языковых моделей. Чтобы снизить такие ошибки, мы рекомендуем использовать несколько подходов. Один из них — продуманная постановка вопросов и инструкций для модели, чтобы она лучше понимала задачу. Еще один способ — так называемая цепочка рассуждений, когда сложный запрос разбивают на простые шаги. Часто применяют и специальные системы, которые перед формированием ответа ищут информацию в проверенных базах данных. Кроме того, модели дообучают на данных из конкретной области, чтобы они лучше понимали термины и нюансы. А специальные защитные механизмы — AI guardrails — помогают отслеживать ответы и вовремя останавливать модель, если она выдает что‑то неверное", — подчеркнул Лев Меркушов.

На основе собственного анализа установлено, что в практике самого банка применяются каскадные решения, когда несколько моделей последовательно обрабатывают данные и корректируют результаты друг друга.

Эксперты ВТБ подчеркивают, что использование искусственного интеллекта требует не только технологической зрелости, но и ответственного отношения к качеству данных, прозрачности алгоритмов и контролю за результатами. Такой подход позволяет внедрять ИИ-инструменты, которые действительно помогают бизнесу, минимизируют ошибки и формируют устойчивое доверие со стороны клиентов.

143124
83
89