Отныне я буду коллекционером математических доказательств и аналитических выводов различных фактов по нейронным сетям.
Пока их у меня два:
1. Теорема о сходимости персептрона
2. Аналитическая форма производной dE/dw_ij для функции ошибки во внутренних слоях многослойного персептрона.
Какое доказательство интересно получить. Например аналитически-статистическое доказательство того, что residual network сходиться быстрее, чем 'обычные' cNN + fullconnection сети. Ещё интересно различные факты о том, как влияет конкретные изменения архитектуры сети на её свойства. Что то такое.
#ai #NN #мойлюбимыйперсептрон
Пока их у меня два:
1. Теорема о сходимости персептрона
2. Аналитическая форма производной dE/dw_ij для функции ошибки во внутренних слоях многослойного персептрона.
Какое доказательство интересно получить. Например аналитически-статистическое доказательство того, что residual network сходиться быстрее, чем 'обычные' cNN + fullconnection сети. Ещё интересно различные факты о том, как влияет конкретные изменения архитектуры сети на её свойства. Что то такое.
#ai #NN #мойлюбимыйперсептрон
From now on, I will be a collector of mathematical evidence and analytical conclusions of various facts on neural networks.
While I have two of them:
1. The perceptron convergence theorem
2. The analytical form of the derivative dE / dw_ij for the error function in the inner layers of the multilayer perceptron.
What evidence is interesting to get. For example, analytical and statistical evidence that the residual network converges faster than the 'normal' cNN + fullconnection networks. The various facts about how specific changes in the network architecture affect its properties are also interesting. Something like this.
#ai #NN #my favoriteperceptron
While I have two of them:
1. The perceptron convergence theorem
2. The analytical form of the derivative dE / dw_ij for the error function in the inner layers of the multilayer perceptron.
What evidence is interesting to get. For example, analytical and statistical evidence that the residual network converges faster than the 'normal' cNN + fullconnection networks. The various facts about how specific changes in the network architecture affect its properties are also interesting. Something like this.
#ai #NN #my favoriteperceptron
У записи 5 лайков,
0 репостов.
0 репостов.
Эту запись оставил(а) на своей стене Наима Джошуа