Причина: Модель не понимает переносного смысла или выбирает более простой, буквальный вариант или стандартную метафору языка перевода.
Пример: Оригинал (сложная метафора): "Его надежды, хрупкие как паутина, запутались в суровых терниях реальности". ИИ: "Его надежды были разрушены суровой реальностью".
Игнорирование ритма и звукописи:
Причина: Текущие метрики качества (BLEU и др.) практически не учитывают ритм, звучание, стилистическую сложность.
Пример: Поэтичный ритм прозы теряется, аллитерации/ассонансы не воспроизводятся.
Нечувствительность к сдвигам регистра и тона:
Причина: Модели могут не улавливать тонкие переходы от формального к неформальному, от серьезного к саркастичному в рамках одного текста, особенно без явных маркеров.
Пример: Саркастическая реплика переводится нейтрально или даже серьезно.
Потеря авторских "Фишек" и повторов:
Причина: Модель воспринимает намеренные авторские повторы (ключевых слов, синтаксических конструкций) как ошибку или избыточность и "исправляет" их.
Пример: Узнаваемая синтаксическая конструкция автора заменяется на стандартную.
Культурная глухота:
Причина: Стандартные модели плохо справляются с глубоко укорененными культурными отсылками, реалиями, юмором, требующими адаптации или объяснения.
Пример: Специфическая шутка или историческая отсылка переводится буквально и становится непонятной.
Ключевой вывод: Базовый ИИ-перевод оптимизирован для передачи общего смысла и грамматической правильности, но не для сохранения уникальной лингвистической ДНК автора. Это создает потребность в инструментах для точечной настройки и прецизионного управления.
2.3. Основы современного ИИ-Перевода (NMT) и LLM: Не врага, а инструмент
Зачем это нужно? Дать читателю минимально необходимый контекст о технологиях, чтобы он понимал на что можно влиять (fine-tuning, промты) и почему ИИ вообще способен на большее (архитектура Transformer, контекстное обучение). Избегать глубокого технарства.
Ключевые концепции:
От SMT к NMT (Нейронный Машинный Перевод): Кратко: Раньше – правила и фразы (статистика), Сейчас – нейросети (понимание контекста). NMT дал гигантский скачок в качестве смыслового перевода.
Transformer Architecture (Сердце NMT и LLM): Главное – механизм внимания (attention).
Аналогия: Модель при переводе каждого слова "смотрит" не только на соседние слова, но и на любые другие слова во входном предложении (и даже в предыдущих предложениях!), определяя, какие из них наиболее важны для текущего выбора. Это позволяет улавливать контекст и зависимости на расстоянии.