Треккинг объектов на видео. SAMURAI + SAM2.
Треккер SAMURAI основывается на модели Segment anything model 2. В этом видео взглянем на демо, которое предоставляют авторы. Однако эксперименты будем проводить на собственных видео с народными танцами. Очень интересно будет посмотреть как будут трекаться люди в одинаковых нарядах и которые часто перекрывают друг друга. В первом эксперименте мы разметим объект только на первом кадре, а дальше модель сама выполнить трекинг. Сравним как sam2 с samurai, так и по размеру модели базовую и крошечную. Затем взглянем на датасет-бенчмарк LaSOT и как с некоторыми видео справляется Samurai. А затем разметим своё видео (каждый кадр) на задачу отслеживания ботинка во время танца. И посмотрим, что из этого получится. Таймкоды: 00:00 | Введение 02:18 | Установка инфраструктуры 05:01 | Разбираемся с примером demo.py и смотрим на результаты 15:05 | Подготавливаем программу для пакетного эксперимента (аналог Grid Search) 18:40 | Сравниваем результаты трекинга SAM2 и SAMURAI 24:29 | Большое/маленькое разрешение видео 25:11 | Промежуточные итоги 26:10 | Датасет LaSOT 29:04 | Запуск main_inference.py на примерах из датасета LaSOT 33:04 | Разметка видео для задачи трекинга 37:19 | ChatGPT пишет нам простой скрипт 38:47 | Испытываем трекинг на нашем размеченном видео.