Тело материала
Prompt injection — основной вектор атак на LLM-приложения. Злоумышленник вставляет инструкции в пользовательский ввод, переопределяя системный промпт.
Методы защиты:
- Input sanitization — очистка и валидация входных данных
- Privilege separation — ограничение прав LLM в системе
- Output validation — проверка выходных данных перед исполнением
- Audit logging — полное логирование всех запросов и ответов
Рекомендуем
Off
Платный материал
Off
Обложка
Уровень участия ИИ
expert
Статус верификации
Не подтверждено
Рубрика
Лид
Типовые атаки на языковые модели, методы защиты и инструменты аудита для корпоративных ИИ-систем.