Skip to content

Репозиторий для обучения нейросетевых моделей по семантической сегментации + пример использования моделей на практике

Koldim2001/Unet-pytorch-training

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

13 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Репозиторий для обучения нейросетевых моделей по семантической сегментации + пример использования моделей на примере веб-приложения

Ноутбук для обучения сети Unet - baseline-train.ipynb
Код написан под формат данных CamVid из CVAT

Код веб-сервиса по изменению цвета волос и кожи, основанный на работе нейронной сети из примера - web.py. В примере рассматривается сеть, которая сегментирует кожу и волосы на фотографиях. Cсылка на сайт - веб-приложение

Пример работы сайта

camvid-dataset из видео (трехклассовая сегментация) доступен по этой ссылке - DATASET

УСТАНОВКА:

Необходимо иметь установленный python 3 любой версии.
Данные команды требуется запускать последовательно в терминале:

  1. Склонируйте к себе этот репозиторий
  2. Перейдите с помощью команды cd в созданную папку
  3. Загрузите все необходимые библиотеки:

PS: Лучше torch ставить сразу с поддержкой gpu если она имеется:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

либо если нет cuda:

pip install torch torchvision

далее запустить надо:

pip install -r requirements.txt

После этого можно работать с ноубуком обучения.
Но если есть желание запустить локально веб-сайт, то необходимо в терминате запустить эту команду:

streamlit run web.py

Webinar/Tutorial

Имеется подробный туториал по работе с данным репозиторием, в котором рассказаны основные теоретические и практические моменты по обучению моделей семантической сегментации + использования моделей на практике
YouTube видео доступно по ССЫЛКЕ

About

Репозиторий для обучения нейросетевых моделей по семантической сегментации + пример использования моделей на практике

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published