Про хаос в мозге.
Не прошло и года с небольшим с тех пор как я покинул свою лабораторию в Париже (http://iec-lnc.ens.fr/group-for-neural-theory/), как наконец-то понял насколько крутыми вещами занимаются люди, которе там работают. А именно Софи Денёв (http://iec-lnc.ens.fr/members/faculty-186/deneve-sophie-phd/) и Серджан Остожик (http://iec-lnc.ens.fr/members/faculty-186/ostojic-srdjan/). Много лет не понимал до конца, в чем-то разобрался только сейчас. Текст непростой.
Чтобы описать что к чему, как обычно, начну издалека. Нейробиологов уже давно интересует то, как нервной системе удается выполнять надежные вычисления, построенные на ненадежных элементах вроде нейронов. Отдельный нейрон, как и любая другая клетка в организме не вечен. Если вы случайно ударились головой, будьте уверены, что какое-то количество нейронов при этом погибло. Однако, в большинстве случаев, это не приводит к тому, что вы больше не можете ходить, разговаривать и думать. Каким же образом мозгу удается надежно сохранять функцию, даже если какие-то из элементов больше не работают.
Один из способов решить эти противоречия заключается в том, чтобы функции опирались не на работу одного нейрона, а на активность большого их количества. Таким образом, если какие-то элементы сети выходят из строя, то всегда найдутся другие, которые смогут поддержать функцию. Но как можно построить сеть таким образом и какая активность может может в ней быть.
Если посмотреть на разряды отдельных нейронов в коре мозга близких нам макак, то окажется, что нервные импульсы или спайки генерируются достаточно случайно (http://www.jneurosci.org/content/18/10/3870.short). Это происходит как в состоянии покоя, так и при выполнении определенной функции, например, при подготовке движения рукой. Математически время генерации импульсов будет неплохо описываться с помощью Процесса Пуассона (https://ru.wikipedia.org/wiki/Процесс_Пуассона). Это не так страшно как кажется, таким же образом ходят автобусы - приходят с определенной частотой, но когда именно предсказать сложно. Импульсы нейронов ведут себя похожим образом. Также случайно, но с определенной интенсивностью, срабатывают нейроны коры. Конечно, не все нейроны в мозге разряжаются именно так, многих нейробиологов по словам Кристофа Коха (https://en.wikipedia.org/wiki/Christof_Koch), можно называть кортикальными шовинистами. Но все дело в том, что именно в этой эволюционно новой части мозга выполняются самые сложные вычисления, которые позволяют нам и другим млекопитающим быть такими умными.
Но вернемся к вопросу о случайности срабатывания нейронов. Например, в компьютере при нажатии одной и той же клавиши, вы получите один и тот же результат вероятностью 99%. В мозге, при предъявлении одного и того же стимула, например, зрительного, ответ будет совершенно разным в каждом случае, даже если стимул будет один и тот же (https://www.ncbi.nlm.nih.gov/pubmed/8791593). Каким же образом мозгу удается понять, что стимул один и тот же не смотря на то, что ответы такие разные? Иными словами, если в мозге есть представление о стимуле в форме активности нейронов, то как оно выглядит?
Теперь, после преамбулы, можно начать объяснить про хаос в сетях нейронов. Довольно давно Карл ван Врисвик и Хаим Сомполински предложили объяснение с помощью элегантной модели (https://www.ncbi.nlm.nih.gov/pubmed/8939866). Оказалось, что в больших сетях нейронов около 10 000, связанных случайными возбуждающими и тормозными связями хаотическая активность возникает сама по себе. Такое явление хорошо известно в физике как динамический хаос (https://ru.wikipedia.org/wiki/Динамический_хаос). Про этот феномен сложно рассказать в двух словах, но я попытаюсь. Это не совсем тот хаос, который представляли древние греки до сотворения мира, но в чем-то похоже (https://ru.wikipedia.org/wiki/Хаос).
Дело в том, что в системах с большим количеством элементов (хотя бы больше трех), существуют режимы активности, когда решениями являются как бы случайные траектории, похожие на шум (https://books.google.com/books/about/Nonlinear_Dynamics_and_Chaos.html?id=FIYHiBLWCJMC). Дело в том, что в таком режиме система является крайне чувствительной к начальным условиям. Это значит, что даже небольшое изменение начальных условий приводит к быстрому расхождению траекторий. Например, в таком режиме изменения начальных условий даже на 0.00000001, уже через несколько шагов по времени приведет к совершенно различным траекториям (https://ru.wikipedia.org/wiki/Теория_хаоса).
Если вам уже сейчас читать тяжело, следующие два абзаца лучше пропустить.
С помощью геометрической метафоры объяснить хаос можно примерно так. Представьте, что траектория системы - это траектория падающего шарика, который падает на седло (https://en.wikipedia.org/wiki/Saddle_point). Немного постояв на седле он скатывается вниз слева или справа на еще одно седло, а затем на еще одно и так далее. При этом на пути шарика не будет ни одной ямы, где бы он мог застрять, тогда он будет вечно падать по хитрой траектории. В случае хаоса траектории системы ведут себя примерно так.
Классическим примером хаотической системы является аттрактор Лоренца (https://en.wikipedia.org/wiki/Lorenz_system, https://vk.com/id34622912). Уравнения, которыми он описываются возникают в динамике жидкости. Упрощенная система состоит всего из трех. В определенном режиме параметров в такой системе возникает хаос. В этом режиме траектории системы в трехмерном пространстве напоминают тонкую бабочку (https://en.wikipedia.org/wiki/File:Lorenz_attractor_yb.svg). При этом траектории отдельных координат будут казаться случайными и шумными (http://www.physics.emory.edu/faculty/weeks//research/time/tseries1/vlorenz.gif). Это является важной особенностью хаоса - во времени все выглядит крайне шумным и случайным, но если посмотреть на форму траекторий, то все встает на свои места и уже совсем не выглядит столь беспорядочным.
Те, кто дочитал до этого места могут задать вопрос, какое же отношение хаос имеет к мозгу и чем может быть там полезен? Первой особенностью хаоса в больших система вроде сети нейронов около 10 000 элементов является его устойчивость. Если возбуждающие и тормозные связи находятся в балансе статистически, то конкретное значение связей между нейронами не будет играть большую роль. Главное, чтобы в среднем связи были в определенном диапазоне. Также, если нейронов достаточно много, какую-то часть из них можно удалить, хаотический аттрактор сильно не измениться.
С динамической точки зрения хаос в сети нейронов обладает очень богатым поведением. Иными словами, в такой сети постоянно возникают новые и новые паттерны активности, в которых можно найти практически любые комбинации. Не смотря на красивую динамику (https://www.youtube.com/watch?v=Y6DhBBWJrJU), непонятно как можно использовать непредсказуемые ответы сети для выполнения точных вычислений.
Из-за чувствительности к начальным условиям в состоянии хаоса, каждый раз ответы сети на тот же стимул будут разные. То есть, хаос не решает, а порождает проблему устойчивого кодирования информации в сетях нейронов. Если в сети все время происходит неповторимая сложная активность в ответ на один и тот же стимул, как вообще это может быть полезным?
А теперь самое интересное. Хаотические сети нейронов можно научить генерировать заданные динамические ответы в ответ на определенные стимулы. Один из алгоритмов был недавно предложен Ларри Абботтом и Дэвидом Суцилло (http://www.sciencedirect.com/science/article/pii/S0896627309005479). Он позволяет сети, которая изначально находится в хаотическом режиме выучивать строго определенные паттерны активности за счет изменения связей между нейронами. С помощью наученной сети можно даже управлять небольшим роботом. Важно, что при этом сохраняется вариабельность ответов, как в биологических нейронных сетях коры мозга. Ключевым здесь является правильное считывание активности сети. Обучать необходимо лишь определенные синапсы. Для этого используется вариант рекурсивного метода наименьших квадратов (https://en.wikipedia.org/wiki/Recursive_least_squares_filter) Важно, что обучение в таком случае происходит онлайн. Как и в мозге, у сети нейронов нет времени ждать, пока вся доступная информация будет получена. Активность должна обучаться на ходу. Если музыкант будет долго думать какую ноту сыграть следующей, никакой музыки не получится.
Безусловно, все это далеко не конец истории с обучением. Дело в том, что предложенная модель обучения работает для очень простых нейронов, так называемых частотных или firing-rate (http://people.brandeis.edu/~pmiller/COMP_NEURO/ratemodels.pdf). В глубоком обучении тоже часто используют подобные модели. Такие модели описывают только частоту импульсов нейронов. Реальные нейроны передают информацию в дискретном виде. Как только начинают использовать такие модели нейронов, учить такие сети становится крайне трудно. Столь успешный алгоритм обратного распространения ошибки популярный в искусственных нейронных сетях в биологических нейронах не существует (https://en.wikipedia.org/wiki/Backpropagation). Это однозначно говорит о том, что мозг использует другие механизмы обучения (https://twitter.com/jpillowtime/status/836730966085230593). Однако, некоторые ученые, как например, Sophie Deneve в Париже придумывают алгоритмы обучения таких сетей нейронов, которые с одной стороны возможны в настоящих нейронах, а с другой позволяют вычислять что-то полезное, например, аппроксимировать функции. Это позволяет хаотическим сетям нейронов стабильно чем-то управлять.
Любопытно, что само слово хаос в древней Греции обозначало первичное состояние вселенной до сотворения материи и пространства. Так и кора мозга ребенка, которые приходит в этот мир не знает о нем ничего, кроме информации, которая приходит от органов чувств. Взаимодействуя с миром, он обучается, что приводит к закреплению определенных паттернов активности. Можно сказать, что жизнь ума - это путь от хаоса к порядку через хаос.
Эти метафоры могут завести далеко, поэтому не будем их пока пр
Не прошло и года с небольшим с тех пор как я покинул свою лабораторию в Париже (http://iec-lnc.ens.fr/group-for-neural-theory/), как наконец-то понял насколько крутыми вещами занимаются люди, которе там работают. А именно Софи Денёв (http://iec-lnc.ens.fr/members/faculty-186/deneve-sophie-phd/) и Серджан Остожик (http://iec-lnc.ens.fr/members/faculty-186/ostojic-srdjan/). Много лет не понимал до конца, в чем-то разобрался только сейчас. Текст непростой.
Чтобы описать что к чему, как обычно, начну издалека. Нейробиологов уже давно интересует то, как нервной системе удается выполнять надежные вычисления, построенные на ненадежных элементах вроде нейронов. Отдельный нейрон, как и любая другая клетка в организме не вечен. Если вы случайно ударились головой, будьте уверены, что какое-то количество нейронов при этом погибло. Однако, в большинстве случаев, это не приводит к тому, что вы больше не можете ходить, разговаривать и думать. Каким же образом мозгу удается надежно сохранять функцию, даже если какие-то из элементов больше не работают.
Один из способов решить эти противоречия заключается в том, чтобы функции опирались не на работу одного нейрона, а на активность большого их количества. Таким образом, если какие-то элементы сети выходят из строя, то всегда найдутся другие, которые смогут поддержать функцию. Но как можно построить сеть таким образом и какая активность может может в ней быть.
Если посмотреть на разряды отдельных нейронов в коре мозга близких нам макак, то окажется, что нервные импульсы или спайки генерируются достаточно случайно (http://www.jneurosci.org/content/18/10/3870.short). Это происходит как в состоянии покоя, так и при выполнении определенной функции, например, при подготовке движения рукой. Математически время генерации импульсов будет неплохо описываться с помощью Процесса Пуассона (https://ru.wikipedia.org/wiki/Процесс_Пуассона). Это не так страшно как кажется, таким же образом ходят автобусы - приходят с определенной частотой, но когда именно предсказать сложно. Импульсы нейронов ведут себя похожим образом. Также случайно, но с определенной интенсивностью, срабатывают нейроны коры. Конечно, не все нейроны в мозге разряжаются именно так, многих нейробиологов по словам Кристофа Коха (https://en.wikipedia.org/wiki/Christof_Koch), можно называть кортикальными шовинистами. Но все дело в том, что именно в этой эволюционно новой части мозга выполняются самые сложные вычисления, которые позволяют нам и другим млекопитающим быть такими умными.
Но вернемся к вопросу о случайности срабатывания нейронов. Например, в компьютере при нажатии одной и той же клавиши, вы получите один и тот же результат вероятностью 99%. В мозге, при предъявлении одного и того же стимула, например, зрительного, ответ будет совершенно разным в каждом случае, даже если стимул будет один и тот же (https://www.ncbi.nlm.nih.gov/pubmed/8791593). Каким же образом мозгу удается понять, что стимул один и тот же не смотря на то, что ответы такие разные? Иными словами, если в мозге есть представление о стимуле в форме активности нейронов, то как оно выглядит?
Теперь, после преамбулы, можно начать объяснить про хаос в сетях нейронов. Довольно давно Карл ван Врисвик и Хаим Сомполински предложили объяснение с помощью элегантной модели (https://www.ncbi.nlm.nih.gov/pubmed/8939866). Оказалось, что в больших сетях нейронов около 10 000, связанных случайными возбуждающими и тормозными связями хаотическая активность возникает сама по себе. Такое явление хорошо известно в физике как динамический хаос (https://ru.wikipedia.org/wiki/Динамический_хаос). Про этот феномен сложно рассказать в двух словах, но я попытаюсь. Это не совсем тот хаос, который представляли древние греки до сотворения мира, но в чем-то похоже (https://ru.wikipedia.org/wiki/Хаос).
Дело в том, что в системах с большим количеством элементов (хотя бы больше трех), существуют режимы активности, когда решениями являются как бы случайные траектории, похожие на шум (https://books.google.com/books/about/Nonlinear_Dynamics_and_Chaos.html?id=FIYHiBLWCJMC). Дело в том, что в таком режиме система является крайне чувствительной к начальным условиям. Это значит, что даже небольшое изменение начальных условий приводит к быстрому расхождению траекторий. Например, в таком режиме изменения начальных условий даже на 0.00000001, уже через несколько шагов по времени приведет к совершенно различным траекториям (https://ru.wikipedia.org/wiki/Теория_хаоса).
Если вам уже сейчас читать тяжело, следующие два абзаца лучше пропустить.
С помощью геометрической метафоры объяснить хаос можно примерно так. Представьте, что траектория системы - это траектория падающего шарика, который падает на седло (https://en.wikipedia.org/wiki/Saddle_point). Немного постояв на седле он скатывается вниз слева или справа на еще одно седло, а затем на еще одно и так далее. При этом на пути шарика не будет ни одной ямы, где бы он мог застрять, тогда он будет вечно падать по хитрой траектории. В случае хаоса траектории системы ведут себя примерно так.
Классическим примером хаотической системы является аттрактор Лоренца (https://en.wikipedia.org/wiki/Lorenz_system, https://vk.com/id34622912). Уравнения, которыми он описываются возникают в динамике жидкости. Упрощенная система состоит всего из трех. В определенном режиме параметров в такой системе возникает хаос. В этом режиме траектории системы в трехмерном пространстве напоминают тонкую бабочку (https://en.wikipedia.org/wiki/File:Lorenz_attractor_yb.svg). При этом траектории отдельных координат будут казаться случайными и шумными (http://www.physics.emory.edu/faculty/weeks//research/time/tseries1/vlorenz.gif). Это является важной особенностью хаоса - во времени все выглядит крайне шумным и случайным, но если посмотреть на форму траекторий, то все встает на свои места и уже совсем не выглядит столь беспорядочным.
Те, кто дочитал до этого места могут задать вопрос, какое же отношение хаос имеет к мозгу и чем может быть там полезен? Первой особенностью хаоса в больших система вроде сети нейронов около 10 000 элементов является его устойчивость. Если возбуждающие и тормозные связи находятся в балансе статистически, то конкретное значение связей между нейронами не будет играть большую роль. Главное, чтобы в среднем связи были в определенном диапазоне. Также, если нейронов достаточно много, какую-то часть из них можно удалить, хаотический аттрактор сильно не измениться.
С динамической точки зрения хаос в сети нейронов обладает очень богатым поведением. Иными словами, в такой сети постоянно возникают новые и новые паттерны активности, в которых можно найти практически любые комбинации. Не смотря на красивую динамику (https://www.youtube.com/watch?v=Y6DhBBWJrJU), непонятно как можно использовать непредсказуемые ответы сети для выполнения точных вычислений.
Из-за чувствительности к начальным условиям в состоянии хаоса, каждый раз ответы сети на тот же стимул будут разные. То есть, хаос не решает, а порождает проблему устойчивого кодирования информации в сетях нейронов. Если в сети все время происходит неповторимая сложная активность в ответ на один и тот же стимул, как вообще это может быть полезным?
А теперь самое интересное. Хаотические сети нейронов можно научить генерировать заданные динамические ответы в ответ на определенные стимулы. Один из алгоритмов был недавно предложен Ларри Абботтом и Дэвидом Суцилло (http://www.sciencedirect.com/science/article/pii/S0896627309005479). Он позволяет сети, которая изначально находится в хаотическом режиме выучивать строго определенные паттерны активности за счет изменения связей между нейронами. С помощью наученной сети можно даже управлять небольшим роботом. Важно, что при этом сохраняется вариабельность ответов, как в биологических нейронных сетях коры мозга. Ключевым здесь является правильное считывание активности сети. Обучать необходимо лишь определенные синапсы. Для этого используется вариант рекурсивного метода наименьших квадратов (https://en.wikipedia.org/wiki/Recursive_least_squares_filter) Важно, что обучение в таком случае происходит онлайн. Как и в мозге, у сети нейронов нет времени ждать, пока вся доступная информация будет получена. Активность должна обучаться на ходу. Если музыкант будет долго думать какую ноту сыграть следующей, никакой музыки не получится.
Безусловно, все это далеко не конец истории с обучением. Дело в том, что предложенная модель обучения работает для очень простых нейронов, так называемых частотных или firing-rate (http://people.brandeis.edu/~pmiller/COMP_NEURO/ratemodels.pdf). В глубоком обучении тоже часто используют подобные модели. Такие модели описывают только частоту импульсов нейронов. Реальные нейроны передают информацию в дискретном виде. Как только начинают использовать такие модели нейронов, учить такие сети становится крайне трудно. Столь успешный алгоритм обратного распространения ошибки популярный в искусственных нейронных сетях в биологических нейронах не существует (https://en.wikipedia.org/wiki/Backpropagation). Это однозначно говорит о том, что мозг использует другие механизмы обучения (https://twitter.com/jpillowtime/status/836730966085230593). Однако, некоторые ученые, как например, Sophie Deneve в Париже придумывают алгоритмы обучения таких сетей нейронов, которые с одной стороны возможны в настоящих нейронах, а с другой позволяют вычислять что-то полезное, например, аппроксимировать функции. Это позволяет хаотическим сетям нейронов стабильно чем-то управлять.
Любопытно, что само слово хаос в древней Греции обозначало первичное состояние вселенной до сотворения материи и пространства. Так и кора мозга ребенка, которые приходит в этот мир не знает о нем ничего, кроме информации, которая приходит от органов чувств. Взаимодействуя с миром, он обучается, что приводит к закреплению определенных паттернов активности. Можно сказать, что жизнь ума - это путь от хаоса к порядку через хаос.
Эти метафоры могут завести далеко, поэтому не будем их пока пр
About the chaos in the brain.
Not even a year has passed since I left my laboratory in Paris (http://iec-lnc.ens.fr/group-for-neural-theory/), as I finally realized how cool people are doing things, who work there. Namely, Sophie Deneuve (http://iec-lnc.ens.fr/members/faculty-186/deneve-sophie-phd/) and Serjan Ostozhik (http://iec-lnc.ens.fr/members/faculty- 186 / ostojic-srdjan /). For many years I did not understand until the end, I figured out something just now. The text is not easy.
To describe what's what, as usual, I’ll start from afar. Neuroscientists have long been interested in how the nervous system manages to perform reliable calculations based on unreliable elements like neurons. A single neuron, like any other cell in the body, is not eternal. If you accidentally hit your head, be sure that a certain number of neurons died during this. However, in most cases, this does not mean that you can no longer walk, talk and think. How does the brain manage to reliably maintain function, even if some of the elements no longer work.
One of the ways to solve these contradictions is to use functions not based on the operation of one neuron, but on the activity of a large number of them. Thus, if some network elements fail, then there are always others who can support the function. But how can you build a network in this way and what activity can be in it.
If you look at the discharges of individual neurons in the cerebral cortex of macaques close to us, it turns out that nerve impulses or spikes are generated quite randomly (http://www.jneurosci.org/content/18/10/3870.short). This occurs both at rest and when performing a certain function, for example, when preparing a hand movement. Mathematically, the pulse generation time will be well described using the Poisson Process (https://ru.wikipedia.org/wiki/Poisson_Process). It’s not as scary as it seems, in the same way buses go - they come with a certain frequency, but when it is difficult to predict exactly. Impulses of neurons behave in a similar way. Also by accident, but with a certain intensity, the cortical neurons are triggered. Of course, not all neurons in the brain are discharged in this way, many neuroscientists, according to Christoph Koch (https://en.wikipedia.org/wiki/Christof_Koch), can be called cortical chauvinists. But the thing is that it is in this evolutionarily new part of the brain that the most complex calculations are performed that allow us and other mammals to be so smart.
But back to the question of random triggering of neurons. For example, on a computer when you press the same key, you will get the same result with a probability of 99%. In the brain, upon presentation of the same stimulus, for example, visual, the answer will be completely different in each case, even if the stimulus is the same (https://www.ncbi.nlm.nih.gov/pubmed/8791593) . How does the brain manage to understand that the stimulus is the same despite the fact that the answers are so different? In other words, if the brain has an idea of a stimulus in the form of neuronal activity, then what does it look like?
Now, after the preamble, we can begin to explain about chaos in the networks of neurons. Quite a long time ago, Karl Van Wriswick and Chaim Sompolinski proposed an explanation using an elegant model (https://www.ncbi.nlm.nih.gov/pubmed/8939866). It turned out that in large networks of neurons about 10,000 connected by random excitatory and inhibitory bonds, chaotic activity occurs on its own. Such a phenomenon is well known in physics as dynamic chaos (https://ru.wikipedia.org/wiki/Dynamic_haos). It's hard to tell about this phenomenon in a nutshell, but I'll try. This is not exactly the chaos that the ancient Greeks represented before the creation of the world, but in some ways (https://ru.wikipedia.org/wiki/Khaos).
The fact is that in systems with a large number of elements (at least more than three), there are activity modes when the solutions are random trajectories, similar to noise (https://books.google.com/books/about/Nonlinear_Dynamics_and_Chaos. html? id = FIYHiBLWCJMC). The fact is that in this mode, the system is extremely sensitive to the initial conditions. This means that even a small change in the initial conditions leads to a fast divergence of the trajectories. For example, in this mode, changes in the initial conditions, even by 0.00000001, in just a few time steps will lead to completely different trajectories (https://ru.wikipedia.org/wiki/Khaosa_theory).
If it’s hard for you to read now, it’s better to skip the next two paragraphs.
Using a geometric metaphor, chaos can be explained as follows. Imagine that the trajectory of the system is the trajectory of a falling ball that falls onto a saddle (https://en.wikipedia.org/wiki/Saddle_point). After standing a little on the saddle, he rolls down to the left or right to another saddle, and then to another and so on. In this case, there will not be a single hole in the path of the ball where it could get stuck, then it will always fall along a tricky path
Not even a year has passed since I left my laboratory in Paris (http://iec-lnc.ens.fr/group-for-neural-theory/), as I finally realized how cool people are doing things, who work there. Namely, Sophie Deneuve (http://iec-lnc.ens.fr/members/faculty-186/deneve-sophie-phd/) and Serjan Ostozhik (http://iec-lnc.ens.fr/members/faculty- 186 / ostojic-srdjan /). For many years I did not understand until the end, I figured out something just now. The text is not easy.
To describe what's what, as usual, I’ll start from afar. Neuroscientists have long been interested in how the nervous system manages to perform reliable calculations based on unreliable elements like neurons. A single neuron, like any other cell in the body, is not eternal. If you accidentally hit your head, be sure that a certain number of neurons died during this. However, in most cases, this does not mean that you can no longer walk, talk and think. How does the brain manage to reliably maintain function, even if some of the elements no longer work.
One of the ways to solve these contradictions is to use functions not based on the operation of one neuron, but on the activity of a large number of them. Thus, if some network elements fail, then there are always others who can support the function. But how can you build a network in this way and what activity can be in it.
If you look at the discharges of individual neurons in the cerebral cortex of macaques close to us, it turns out that nerve impulses or spikes are generated quite randomly (http://www.jneurosci.org/content/18/10/3870.short). This occurs both at rest and when performing a certain function, for example, when preparing a hand movement. Mathematically, the pulse generation time will be well described using the Poisson Process (https://ru.wikipedia.org/wiki/Poisson_Process). It’s not as scary as it seems, in the same way buses go - they come with a certain frequency, but when it is difficult to predict exactly. Impulses of neurons behave in a similar way. Also by accident, but with a certain intensity, the cortical neurons are triggered. Of course, not all neurons in the brain are discharged in this way, many neuroscientists, according to Christoph Koch (https://en.wikipedia.org/wiki/Christof_Koch), can be called cortical chauvinists. But the thing is that it is in this evolutionarily new part of the brain that the most complex calculations are performed that allow us and other mammals to be so smart.
But back to the question of random triggering of neurons. For example, on a computer when you press the same key, you will get the same result with a probability of 99%. In the brain, upon presentation of the same stimulus, for example, visual, the answer will be completely different in each case, even if the stimulus is the same (https://www.ncbi.nlm.nih.gov/pubmed/8791593) . How does the brain manage to understand that the stimulus is the same despite the fact that the answers are so different? In other words, if the brain has an idea of a stimulus in the form of neuronal activity, then what does it look like?
Now, after the preamble, we can begin to explain about chaos in the networks of neurons. Quite a long time ago, Karl Van Wriswick and Chaim Sompolinski proposed an explanation using an elegant model (https://www.ncbi.nlm.nih.gov/pubmed/8939866). It turned out that in large networks of neurons about 10,000 connected by random excitatory and inhibitory bonds, chaotic activity occurs on its own. Such a phenomenon is well known in physics as dynamic chaos (https://ru.wikipedia.org/wiki/Dynamic_haos). It's hard to tell about this phenomenon in a nutshell, but I'll try. This is not exactly the chaos that the ancient Greeks represented before the creation of the world, but in some ways (https://ru.wikipedia.org/wiki/Khaos).
The fact is that in systems with a large number of elements (at least more than three), there are activity modes when the solutions are random trajectories, similar to noise (https://books.google.com/books/about/Nonlinear_Dynamics_and_Chaos. html? id = FIYHiBLWCJMC). The fact is that in this mode, the system is extremely sensitive to the initial conditions. This means that even a small change in the initial conditions leads to a fast divergence of the trajectories. For example, in this mode, changes in the initial conditions, even by 0.00000001, in just a few time steps will lead to completely different trajectories (https://ru.wikipedia.org/wiki/Khaosa_theory).
If it’s hard for you to read now, it’s better to skip the next two paragraphs.
Using a geometric metaphor, chaos can be explained as follows. Imagine that the trajectory of the system is the trajectory of a falling ball that falls onto a saddle (https://en.wikipedia.org/wiki/Saddle_point). After standing a little on the saddle, he rolls down to the left or right to another saddle, and then to another and so on. In this case, there will not be a single hole in the path of the ball where it could get stuck, then it will always fall along a tricky path
У записи 19 лайков,
3 репостов,
1584 просмотров.
3 репостов,
1584 просмотров.
Эту запись оставил(а) на своей стене Анатолий Бучин