Spark in me - Internet, data science, math, deep learning, philo

snakers4 @ telegram, 1166 members, 1154 posts since 2016

All this - lost like tears in rain.

Internet, data science, math, deep learning, philosophy.
No bullshit.

На чай
- goo.gl/zveIOr
- Договор ТКС 5011673505

Сайт spark-in.me
Файл goo.gl/5VGU5A
Чат goo.gl/IS6Kzz

November 01, 06:55

Подборка статей с канала на тему "Статьи и заметки автора"

55 Заметка про TTA - snakers41.spark-in.me/1368, snakers41.spark-in.me/1369

56 Заметка про SELU - snakers41.spark-in.me/1375

57 Модели и датасеты для семантической классификации - snakers41.spark-in.me/1393

58 Статья автора про поиск работы - snakers41.spark-in.me/1395

59 Итог конкурса carvana - snakers41.spark-in.me/1401

60 Заметка про оптимальное использование железа для нейросетей - snakers41.spark-in.me/1422

61 Классические статьи про нейросети - Resnet - Inception - snakers41.spark-in.me/1465

62 Детальный ответ автора про последнее соревнование - spark-in.me/post/fish-object-detection-ssd-yolo

#digest

#data_science

Spark in me

Пара слов - заметка про TTA = test-time-augmentation. В современных нейросетях зачастую используются такие способы регуляризации для избежания оверфиттинга - Аугментации входных данных (повороты, изменение размера, изменения цветовой гаммы, зум, обрезка, итд) - Batch normalization - Нормализация входных данных TTA - это применение аугментаций при формировании предсказаний на самой последней стадии при тестировании на отложенной выборке. Грубо говоря, если мы учили нейросеть, показывая ей измененные и искаженные данные, то при предсказании можно попробовать показывать нейросети разные варианты одной и той же картинки и потом усреднять. Тут описывается применение такого подхода - http://benanne.github.io/2015/03/17/plankton.html #data_science