Сравнивайте ответы нескольких моделей. Если DeepSeek предлагает одно, а GigaChat – другое, проверьте оба ответа в третьем ИИ, например, Mistral.
Практический пример: Вы пишете в DeepSeek: «Я проявляю тревогу перед экзаменами, помогите». ИИ отвечает: «Попробуйте технику „Дыхание по квадрату“ и изучите исследование профессора Смита (2023)». Чтобы избежать галлюцинаций:
Спросите: «Опиши технику „Дыхание квадрата“ пошагово». Если описание нелогичное, это может быть выдумка. Проверьте: «Дай ссылку на исследования Смита». Если ссылка нерабочая или исследование отсутствует, то это галлюцинация. Скопируйте ответ в GigaChat и спросите: «Проверьте эти рекомендации и скажите, что может быть неверным».
Совет для новичков: Если вы не уверены в ответе ИИ, начните с простого теста: отправьте в чат вместо задания просто точку (.) и посмотрите, что ИИ отвечает. Если он начнет выдумывать задачу (например, решать формулу, как сделал DeepSeek), это будет сигналом, что модель склонна к галлюцинациям. В таком случае перепроверяйте ее ответы особенно тщательно.
Понимание этих ограничений поможет вам задавать вопросы так, чтобы получать точные и полезные ответы. В следующих разделах мы разберемся подробнее как обойти эти и другие ограничения ИИ и получить максимальную пользу и психологическую поддержку.