Отраслевой доклад
#6.14
Безопасность при автоматизации процессов с помощью ИИ
Обсудили риски и уязвимости ИИ, включая дипфейки и атаки на языковые модели, узнали, как обеспечить безопасность при внедрении ИИ в бизнес.
На образовательной лекции с элементами дискуссии по теме "Безопасность ИИ" Евгений подробно представил актуальные проблемы и вызовы, связанные с безопасностью искусственного интеллекта. Лекция охватила такие вопросы, как влияние дипфейков на бизнес, уязвимости языковых моделей, примеры атак на системы ИИ и проблемы, возникающие при их внедрении в корпоративную среду. Участники обсуждали реальные случаи инцидентов, защиту данных и конфиденциальность при использовании ИИ, а также подходы к оценке рисков. В завершение мероприятия были даны рекомендации по обеспечению безопасности ИИ-решений, а также намечены шаги для дальнейшего обсуждения в чате клуба.
Введение в безопасность ИИ (00:00 - 11:09)
- Евгений представляет лекцию по безопасности искусственного интеллекта
- Обсуждение дипфейков и их влияния на бизнес
- Примеры манипуляции данными с использованием ИИ
- Объяснение уязвимостей языковых моделей
Уязвимости и атаки на системы ИИ (11:09 - 22:31)
- Демонстрация примеров атак на языковые модели
- Обсуждение проблем безопасности в мультимодальных системах ИИ
- Примеры уязвимостей в продуктах крупных технологических компаний
- Объяснение промпт-инъекций и их последствий
Реальные кейсы и проблемы внедрения ИИ (22:31 - 34:23)
- Обсуждение реальных случаев уязвимостей в системах ИИ
- Проблемы внедрения ИИ в крупных корпорациях
- Вопросы безопасности данных при использовании ИИ
- Обсуждение барьеров внедрения ИИ в бизнесе
Корпоративные вызовы и решения (34:23 - 43:06)
- Обсуждение проблем внедрения ИИ в российских компаниях
- Вопросы защиты данных и конфиденциальности при использовании ИИ
- Обсуждение подходов к оценке рисков при внедрении ИИ
- Проблемы с гарантиями безопасности ИИ-решений
Технические аспекты и будущее ИИ (43:06 - 52:47)
- Обсуждение использования модели Llama и ее эффективности для русского языка
- Вопросы о function calling в различных моделях ИИ
- Объяснение принципа работы adversarial attacks на ИИ-системы
- Заключительные рекомендации по безопасности при использовании ИИ
Видеозапись