Короче говоря, вы не можете выполнять обратное распространение, если у вас нет целевой функции. У вас не может быть целевой функции, если у вас нет меры между прогнозируемым значением и помеченным значением (фактические или обучающие данные). Таким образом, для достижения «обучения без учителя» вам, возможно, придется отказаться от возможности расчета градиента.
Каковы ограничения обратного распространения?
Недостатки алгоритма обратного распространения:
Он полагается на входные данные для решения конкретной проблемы. Чувствителен к сложным/зашумленным данным. Ему нужны производные функций активации для времени проектирования сети.
Как исправить обратное распространение?
Процесс обратного распространения в глубокой нейронной сети
- Введите значения. Х1=0,05. …
- Начальный вес. W1=0,15 w5=0,40. …
- Ценности смещения. b1=0,35 b2=0,60.
- Целевые значения. Т1=0,01. …
- Передача вперед. Чтобы найти значение H1, мы сначала умножаем входное значение из весов как. …
- Обратный проход на выходном слое. …
- Обратный проход на скрытом слое.
Эффективно ли обратное распространение?
Обратное распространение эффективно, что позволяет обучать многослойные сети, содержащие множество нейронов, при обновлении весов для минимизации потерь.
Какую проблему решает обратное распространение при работе с нейронными сетями?
При подборе нейронной сети обратное распространение вычисляет градиентфункция потерь относительно весов сети для одного примера ввода-вывода, и делает это эффективно, в отличие от наивного прямого вычисления градиента относительно каждого веса в отдельности.