Искусственный интеллект уже неотъемлемая часть процессов в целом ряде отраслей — медицине, юриспруденции, финансах, маркетинге и прочих. Однако нейросети склонны к галлюцинациям — выдаче ложной информации на вопросы пользователей. С одной стороны, галлюцинации — это компромисс, без них были бы невозможны креативные функции LLM. А с другой — проблема, которая несет риски для бизнеса и критичных процессов.
Какие методы минимизации галлюцинаций языковых моделей существуют и какие специалисты работают над решением проблемы, «Коммерсанту» рассказал генеральный директор MWS AI Денис Филиппов:
«Есть несколько методов для снижения вероятности галлюцинаций в ИИ. Одним из наиболее эффективных является метод RAG (Retrieval-Augmented Generation), который позволяет модели сначала искать информацию в проверенных источниках, а затем на основе этих данных генерировать ответ. Другим методом является настройка модели с использованием точных и однозначных данных, что значительно снижает возможность ошибочных генераций. Третий важный аспект — ограничение уверенности модели: если система не уверена в своем ответе, она должна об этом сообщить».
Он добавил, что в ближайшие три-пять лет у всех крупных компаний будут собственные промт-инженеры или операторы ИИ-систем, которые будут задавать модели четкие инструкции, такие как «отвечать только на основе проверенных фактов» или «воздерживаться от ответа при недостаточной уверенности».