СБЕР

Technical Lead — CUDA/Triton Kernel Development for LLM Acceleration

Не указана
  • Москва
  • Полная занятость
  • Удаленная работа
  • Более 6 лет

Мы создаём самые сильные языковые модели в России и одни из самых больших в мире такие как GigaChat3 Ultra. Создание таких систем требует оптимизации архитектуры под GPU и решение проблем с масштабированием на кластера из тысяч видеокарт. Все это - нетривиальные инженерные вызовы, решение которых закладывается в следующие поколения наших моделей. У нас вы будете работать с современным набором видеокарт: NVIDIA B200/H100. Наш стек полностью интегрирован с PyTorch/TensorRT/ONNX и активно использует Triton, CUDA, CUTLASS и кастомные ядра для оптимизации: FlashAttention, PagedAttention, DeepEP, и др.

Среди наших достижений - реализация собственных ядер для распределённого обучения: асинхронный Expert & Tensor Parallel, а также Async Liger. Но хочется больше

Цель - снизить latency и увеличить throughput, оптимизировать новые архитектуры, делать их обучение экономически выгодным по сравнению с классическими LLM & MoE

Обязанности

  • лидировать направление по разработке и оптимизации CUDA/Triton-ядер для LLM
  • тесно взаимодействовать с ML-инженерами и research-командами для понимания workload’ов и bottleneck’ов (например: multinode inference, sparse attention, mixture-of-experts, long-context inference)
  • участвовать в open-source инициативах (возможно — форки/патчи в Triton, upstream в PyTorch/TensorRT/SGLang)

Мы ожидаем, что вы:

  • имеете 5+ лет опыта в low-level GPU программировании (CUDA C++, PTX/SASS, shared memory/coalescing/warp-shuffle, async memcpy, stream management)
  • глубоко понимаете архитектуру NVIDIA GPU (Tensor Cores, warp execution, occupancy, L2 cache hierarchy) и умеете профилировать через Nsight
  • владеете Triton (или готовы освоить быстро) и понимаете его trade-offs vs чистая CUDA
  • есть опыт работы с современными фреймворками: PyTorch (custom ops, torch.compile), TensorRT (plugins), возможно — SGLang
  • имеете опыт управления технической командой (2+ лет как lead/tech lead)

Плюсом будет:

  • понимание сетевой составляющей обучений на больших кластерах (опыт работы с NVSHMEM, NCC)
  • знание CPU/GPU взаимодействия (pinned memory, zero-copy, unified memory pitfalls)
  • опыт оптимизации под конкретные HW — например, Hopper vs Ampere.

Условия

  • удалённо по всей России
  • возможность оформления в аккредитованную IT-компанию
  • годовая премия по итогам работы
  • регулярный пересмотр зарплат
  • корпоративный спортзал и зоны отдыха
  • более 400 программ СберУниверситета для роста
  • программа адаптации и помощь руководителя на старте
  • крупнейшее DS&AI community – более 600 DS банка, регулярный обмен знаниями, опытом и лучшими практиками, интерактивные лекции и мастер-классы от ведущих ВУЗов и экспертов технологических компаний, дайджест о самых последних разработках в области DS&AI и отчеты с крупнейших конференций мира, регулярные внутренние митапы
  • ДМС, льготное страхование для семьи, корпоративная пенсионная программа
  • ипотека для сотрудников по дисконтной программе
  • СберПрайм+ и скидки у партнёров
  • бонус за рекомендации в команду.