Loading...
ended icon

Событие завершено

Yappi Days. Эффективность и безопасность GenAI код и редтиминг на практике, 17 декабря 2025 в 18:00

event main image
event main image

Когда:Событие закончилось

Начало:Среда 17.12, 18:00 GMT+03

Конец:Среда 17.12, 20:00 GMT+03

Где:Ярославль

Формат:

Офлайн

Тип:

Мастер-класс

Источник:

Timepad

Генеративный ИИ ускоряет разработку, но создает новые риски

Как внедрять AI-инструменты, не жертвуя безопасностью и качеством? Разберем на реальных кейсах: от тестирования моделей на уязвимости до построения надежных AI-агентов.

Практические подходы к разработке и тестированию генеративного искусственного интеллекта

Спикеры и темы

18:10 – 19:00. Александр Константинов

Технический эксперт по облачным технологиям, Cloud.ru

Управляемая AI-разработка: как генерировать код быстро и с минимумом риска

Как внедрить ИИ в пайплайн разработки, чтобы он помогал, а не создавал новые проблемы?

  • Подход к организации процессов для контролируемой генерации кода.
  • Настройка инфраструктуры, которая обеспечивает качество и безопасность.
  • Разбор реальных кейсов внедрения.

19:10 – 19:30. Никита Беляевский

AI Red Teamer

Come with me if you want to live... Тестируем агента, чтобы он не превратился в Скайнет

Сегодня агенты уже умеют самостоятельно открывать браузер, кликать, заполнять формы, писать код и запускать его, просто «глядя» в экран и двигая курсор. Но нельзя просто взять и написать надёжного агента с первого раза. AI-агенты, способные действовать в интерфейсах, это новый уровень возможностей и рисков.

  • Разберем примеры реальных атак и фейлов агентов (например, Computer Use).
  • Поговорим о бенчмарках и методиках стресс-тестирования.
  • Дадим пошаговую инструкцию, как выстроить собственный процесс тестирования агентов.

19:30 – 19:50. Юрий Лебединский

Разработчик фреймворка для редтиминга HiveTrace Red

Тестирование AI на прочность: как находить уязвимости промпт-атаками

Промпт-инъекции и извлечение системных инструкций – реальные угрозы для AI-продуктов.

  • Разберем основные типы атак на языковые модели.
  • На практике протестируем LLM-модель на генерацию вредоносного контента и попробуем извлечь системный промпт.
  • Обсудим инструменты и методологии для защиты ваших проектов.

Офлайн

Бесплатно

info icon

Событие завершено

Похожие события

Когда:Событие закончилось

Начало:Среда 17.12, 18:00 GMT+03

Конец:Среда 17.12, 20:00 GMT+03

Где:Ярославль

Формат:

Офлайн

Тип:

Мастер-класс

Источник:

Timepad