Тонкая настройка

Заморозьте некоторые из сверточных слоев предварительно обученной модели (обычно большинство сверточных слоев рядом с входом, поскольку эти слои сохраняют много базовой информации) или даже ни один из сетевых слоев, и обучите оставшиеся сверточные слои (обычно некоторые сверточные слои рядом с выходом) и полносвязные слои.

Принцип тонкой настройки

Принцип точной настройки заключается в использовании известной структуры сети и известных параметров сети, изменении выходного слоя на наш собственный уровень и точной настройке параметров нескольких слоев перед последним слоем, чтобы эффективно использовать мощные возможности обобщения. глубоких нейронных сетей и устраняет необходимость проектирования сложных моделей и трудоемкого обучения, поэтому точная настройка является более подходящим выбором, когда объем данных недостаточен. Поэтому тонкая настройка является более подходящим выбором, когда объем данных недостаточен.

Значение тонкой настройки

1. стоять на плечах гигантов: модели, обученные предыдущими людьми с большими усилиями, будут мощнее моделей, которые вы строите с нуля, поэтому нет необходимости повторно строить колесо.
2. стоимость обучения может быть очень низким: если вы используете метод экспорта векторов признаков для обучения миграции, стоимость последующего обучения будет очень низкой, а ЦП будет полностью беззаботным, и никакая машина глубокого обучения также не справится.
3. для небольших наборы данных: для случая самих небольших наборов данных (несколько тысяч изображений) нереально обучать большие нейронные сети с десятками миллионов параметров с нуля, т.к. чем больше модель, тем больше требования к данным, переобучения не избежать . В настоящее время, если мы все еще хотим использовать возможности больших нейронных сетей по извлечению суперфункций, мы можем полагаться только на миграционное обучение.