Нейрон функции: Page not found — CogniFit

Содержание

Создана наиболее полная карта нейронов головного мозга

Уникальная карта нейронных связей головного мозга была создана учеными. О том, в чем заключается особенность новой модели и почему мозг похож на симфонический оркестр, рассказывает отдел науки «Газеты.Ru».

Даже самые простые сети нейронов в головном мозге состоят из миллионов соединений, и изучение этих огромных сетей имеет решающее значение для понимания того, как работает мозг. Ученые уже давно пытаются изучить микроскопические процессы, стоящие за теми или иными реакциями мозга на внешние возбудители.

В последнем выпуске журнала Nature была опубликована статья, авторы которой сделали важный шаг к пониманию работы нейронных сетей. Международная группа ученых провела наиболее полное на сегодняшний день исследование сети нейронов коры головного мозга, в которой происходит активная обработка внешних сигналов-возбудителей. В результате было обнаружено несколько важных особенностей того, как организованы нейронные сети. По сути,

ученые создали первую в мире карту нейронов мозга, на которой совмещена информация об электрической мозговой активности и схема физического соединения нейронов между собой.

До сих пор на протяжении десятилетий ученые исследовали эти области по отдельности, будучи не в состоянии связать их между собой.

Так, совсем недавно было опубликовано исследование, авторы которого при помощи метода магнитно-резонансной томографии построили карту нейронных связей в головном мозге человека и выяснили, как образ жизни влияет на количество этих связей. Тем не менее в этой работе была отражена лишь физическая сущность нейронных связей.

В текущей работе ученые исследовали зрительную кору мозга мыши. Сначала они определили, какие нейроны откликаются на определенные зрительные стимулы, например на вертикальные или горизонтальные полосы на экране. Затем были получены детальные изображения срезов головного мозга с миллионами интересующих нейронов и синапсов — контактов между нейронами — или получающими нейронный сигнал клетками другого типа. В дальнейшем по этим плоским изображениям была построена трехмерная карта нейронных сетей мозга.

30 сентября 15:42

По словам ученых, уникальность их исследования состоит в том, что в своей работе они совместили методы оптической томографии и электронной микроскопии. До сегодняшнего дня макроскопические методы изучения мозговой активности и микроскопические методы изучения нейронов и их синапсов, которые имеют размеры порядка нанометров, были не связаны между собой. Между тем очень важно понять, какие именно микроскопические механизмы стоят за процессами активности мозга.

«Мы получили микроскопические данные беспрецедентного масштаба и детализации, — говорит один из авторов работы, Р. Клэй Рид из Института наук о мозге Аллена (США).

— Сначала мы определяли, какую функцию выполняет конкретный нейрон, а затем смотрели, как он соединяется с похожими нейронами и с нейронами другого типа».

«Это исследование стало кульминацией исследовательской программы, которая началась почти десять лет назад, — добавляет Клэй Рид. — Мозговые сети слишком велики и сложны для понимания по частям, поэтому мы использовали методы высокой пропускной способности для сбора огромных массивов данных мозговой активности и взаимосвязей нейронов».

Анализируя полученные данные, ученые пришли к следующим выводам. Во-первых, они подтвердили гипотезу о том, что нейроны, отвечающие за один вид активности, чаще связаны друг с другом, чем нейроны, выполняющие разные функции. Во-вторых, соединения между такими нейронами прочнее, несмотря на то что они перепутаны со многими другими нейронами, которые выполняют совершенно разные функции.

«Мы обнаружили первые свидетельства наличия модульной архитектуры сети нейронов коры головного мозга и определили структурную основу функциональной связи между нейронами,

— говорит Вэй-Чжун Ли, ведущий автор работы. — Методы, которые мы использовали, позволили нам определить принципы организации нейронных сетей.

Несмотря на то что это исследование является знаковым моментом нашей работы, это только начало. Теперь у нас есть инструменты для того, чтобы создать более точную компьютерную модель мозга, зная связи между схемами соединений нейронов и сетевых вычислений». «Это как симфонический оркестр, музыканты которого сидят в случайном порядке, — добавляет Клэй Рид. — Если вы будете слышать только тех музыкантов, которые сидят рядом с вами, в этом не будет никакого смысла. А вот если вы услышите всех, вы поймете музыку — она даже станет проще».

Авторы работы уверены, что их достижение окажет огромную помощь всем ученым, которые занимаются исследованиями мозга и созданием искусственных нейронных сетей, — отдел науки «Газеты.Ru» уже рассказывал о том, как суперкомпьютер позволил ученым смоделировать работу тысяч нейронов. Однако для того, чтобы успешно симулировать работу мозга, необходимо лучше понять, как работают нейронные сети в реальных живых организмах.

Правда или вымысел? Девять популярных утверждений о мозге

Мозг, несмотря на многолетние исследования, до сих пор наименее понятный орган. Вопросы, связанные с его работой, не только интересны, но и практически применимы. Поэтому мы поговорили с доцентом медико-биологического факультета ВГУ

Валерием Сулиным, чтобы подтвердить или развенчать распространённые утверждения о мозге.

1. Нервные клетки мозга не восстанавливаются.
Ложь

Мозг обладает уникальной пластичностью. Процессы образования, развития и дифференцирования синапсов (место контакта между двумя нейронами или между нейроном и получающей сигнал эффекторной клеткой) происходят постоянно.

Большинство нейронов живут на протяжении всего онтогенеза – индивидуального развития организма. Долгое время считали, что нейроны после их созревания не способны к делению. Отсюда выражение «нервные клетки не восстанавливаются». Однако нейробиолог Фернанд Нотебом обнаружил нейрогенез (образование новых нейронов) у взрослых птиц: у канареек и зябликов нейроны появлялись при заучивании новых песен. Кроме того, нейробиолог Элизабет Гуд с коллегами из Принстонского университета ещё в 1990-х годах доказали, что в головном мозге взрослых млекопитающих, в том числе у приматов, образуются новые нейроны.

2. Мы используем только 10% мозга.
Ложь

Головной мозг – это 10 в 11-й степени нейронов. Язык общения между клетками, между нейронами и клетками, органами происходит на двух уровнях: путём электрохимического возбуждения (процесс, когда нервные клетки генерируют электрический потенциал) и биохимического процесса (когда выделяются особые вещества – медиаторы, с помощью которых клетки оказывают регуляцию и передают информацию). На самом деле, получается, что нервные клетки не могут все сразу объединиться в нечто целое, быть активными, синхронизировать работу. Напротив, каждая регуляция, каждая деятельность обеспечивается взаимодействием определённого количества нейронов. Они располагаются на разных уровнях и вовлекаются в процесс возбуждения, формируя функциональную констелляцию (взаимодействие) нейронов специфическим образом.

Как можно судить о том, что мы используем 10% потенциала мозга? Например, есть психологические исследования, которые оценивают уровень IQ. Человек с высоким уровнем считается исключительным. В зависимости от этого уровня становится понятно, какими возможностями обладает обычный человек. Но каждую функциональную систему формируют определённые группы нервных клеток, и это небольшое количество. В каждый конкретный момент времени в некую констелляцию нейронов, которые выполняют определённую функцию, вовлекается только ограниченное количество нервных клеток. Остальные занимаются другими процессами (например, регулируют работу внутренних органов). Мы не осознаём, как регулируются сердечная деятельность, моторика желудочно-кишечного тракта, артериальное давление – в этом нет необходимости. Есть интересная закономерность: когда человек что-то выполняет впервые, в этот процесс вовлекается большее количество нейронов, нежели когда мы автоматизируем тот или иной процесс – тогда происходит минимизация. То есть в эту управляющую систему включается только необходимое минимальное количество клеток, а остальные исключаются из этого процесса. Поэтому дело не в количестве нейронов, которые работают, а в их эффективности.

3. Для нормального функционирования мозга необходимо ежедневно спать не менее 8 часов.
Индивидуально

Сон – это неоднородное функциональное состояние. Есть фазы быстрого и медленного сна. Оказалось, что в разные фазы активность головного мозга разная. В фазу медленноволнового сна организм отдыхает. Но она сменяется фазой быстрого движения глаз, и активность головного мозга может быть больше, чем  в состоянии бодрствования. Поэтому не продолжительность сна влияет на активность человека в дневное время, а то, каким образом происходила смена этих фаз – в какой последовательности, какой длительности. Был такой эксперимент: добровольцев разделяли на две группы (одной группе давали спать в фазу медленного сна, а другой – только в фазу быстрого сна). По энцефалограмме смотрели, когда человек переходил в определённую фазу. Если эта фаза исключалась для этой группы – его будили. Через некоторое время у тех, кого будили в фазу быстрого сна, стали появляться галлюцинации. Эксперимент пришлось прервать.

С одной стороны, в фазе быстрого сна мы чаще всего видим сны, с другой стороны – в эту фазу человек переживает реальные ситуации заново (свой опыт), и это переходит в долговременную память. Но есть ещё одна концепция: в момент сна человек фиксирует не только опыт. Мозг пытается, как компьютер, смоделировать будущее, чтобы подготовить организм и нервную систему к возможным повторениям событий. Мы работаем на опережение.

4. Сладкое помогает работать продуктивно, но вызывает зависимость.
Правда

Глюкоза – это легкоусваиваемый и хороший субстрат для возобновления энергии. Нейроны активно используют глюкозу как наиболее доступный субстрат, из которого ресинтезируется аденозинтрифосфат – универсальный источник энергии для биохимических процессов, протекающих в живых системах.

Глюкоза – очень лёгкое подкрепление. Поэтому зависимость существует и определяется разными механизмами. Когда мы говорим о процессе пищеварения, не стоит забывать, что информация от вкусовых рецепторов поступает в головной мозг. Чувствительность нервных клеток меняется: если эта информация наиболее важная, то и ожидание её возрастает. С другой стороны, у нас есть микрофлора – 2,5–3 кг микроорганизмов, которые выделяют биологически активные вещества. Они поступают в кровь и влияют на головной мозг, формируя потребность именно в тех веществах, которые им понравились и которые они хотят. Ещё неизвестно, кто управляет нашим организмом.

5.  Левое полушарие отвечает за рациональное мышление, а правое – за образное.
Ложь

Зародился этот миф в 1973 году, когда в приложении к New York Times появилась статья, посвящённая исследованиям будущего Нобелевского лауреата Роджера Сперри. «У каждого из нас доминирует либо левое полушарие, либо правое», – заявлял учёный. Далее отмечалось: судя по всему, правое полушарие мозга отвечает за творческие или артистические способности, а левое – за логику и аналитическое мышление; каждый человек больше склонен к одному или другому типу способностей. Единственное здравое зерно в этой выдумке – определённые отделы левого полушария мозга действительно изначально вовлечены в речевую деятельность и выполнение математических задач, расчётов, запоминание собственного распорядка дня. Но само утверждение, что люди делятся на «правополушарных», с более выраженными творческими способностями, и «левополушарных», склонных к логическому мышлению, не имеет оснований. Математики и программисты, как художники и поэты, в одинаковой степени задействуют мощь обоих полушарий.

Убедительнее всего миф о доминировании правого или левого полушария развенчало исследование учёных из университета Юты, опубликованное в 2013 году. Они изучили результаты МРТ мозга более тысячи людей от 7 до 29 лет, чтобы удостовериться, существует ли подтверждение этой теории. После серии исследований учёные заключили: «Полученные нами данные идут вразрез с описанием мозга в целом, предполагающим, что у одних индивидуумов сильнее развита нейронная сеть правого полушария, тогда как у других — нейронная сеть левого полушария».

6.  Для развития мозга необходимы логические игры (задействование всех органов чувств).
Правда

Не только логические игры. Нервные клетки между собой и между клетками нашего организма взаимодействуют, оказывают регуляцию за счёт особых образований – синапсов. Эти синапсы, с одной стороны, вроде как морфологическая структура. С другой, могут вновь образовываться и разрушаться. Это подвижные взаимодействия. Ситуация совершенно простая: если мы не используем какие-то группы нейронов, объединённые через синапсы, значит эти синапсы не так начинают работать. В коре головного мозга большинство нейронов – ассоциативные, они не строго специфичны. Они могут включаться в разную деятельность, поэтому они должны работать также, как и мышцы. Если мы не заставляем головной мозг работать, не заставляем нервные клетки взаимодействовать между собой, значит, они функционально что-то теряют, перестают эффективно взаимодействовать.

7. С возрастом когнитивные функции нарушаются, что осложняет мышление и процесс обучения.
Ложь

Правильнее будет сказать: с возрастом когнитивные функции меняются. Если исключить заболевания, то возрастные когнитивные функции человека определяются его деятельностью.

8. Человек может воспринимать информацию через разные каналы, поэтому есть разделение на визуалов, аудиалов, кинестетиков.
Ложь

Мы можем взять группу людей, провести исследование и выявить, что они чаще используют для обучения: одни чаще используют зрительную систему, другим нужно больше тактильных ощущений, третьим лучше учиться через слуховой анализатор. В процессе индивидуального развития человек может использовать и одно, и другое, и третье. Мы всё равно используем разные способы для познания мира. Просто у каждого человека в процессе его индивидуального развития формируются свои функциональные системы в зависимости от того, как человек чего-либо достигал, получал удовольствие. Поэтому людей можно таким образом делить, но это не является принципиальным подходом.

9.  В стрессовых ситуациях мозг лучше работает.
Индивидуально

Зависит от уровня стресса, реактивности организма на стрессовые раздражители. Возможны альтернативные варианты: от активации и эффективной работы организма до полнейшего ступора. Всё определяет та функциональная система деятельности человека в условиях стресса, которую он сформировал.

Рекомендации, что почитать / посмотреть о мозге:

  1. Ася Казанцева – «Мозг материален»
  2. Лоретта Бройнинг – «Гормоны счастья»
  3. 15 лекций на Постнауке
  4. Лекции Константина Анохина о мозге

Анна НОВОХАТСКАЯ

Нейроны для «чайников» — vechnayamolodost.ru

Нейроны – особая группа клеток организма, распространяющих информацию по всему телу. Используя электрические и химические сигналы, они помогают мозгу координировать все жизненно необходимые функции.

Если упростить, задачи нервной системы – собрать сигналы, поступающие из окружающей среды или из организма, оценить ситуацию, принять решение, как на них отреагировать (например, изменить частоту сердечных сокращений), а также подумать о происходящем и запомнить это. Основной инструмент для выполнения этих задач – нейроны, сплетенные по всему организму сложной сетью.

По средним оценкам, количество нейронов в головном мозге составляет 86 миллиардов, каждый из них связан еще с 1000 нейронов. Это создает невероятную сеть взаимодействия. Нейрон – основная единица нервной системы.

Нейроны (нервные клетки) составляют около 10% мозга, остальное – глиальные клетки и астроциты, функция которых заключается в поддержании и питании нейронов.

Как выглядит нейрон?

В строении нейрона можно выделить три части:

·        Тело нейрона (сома) – получает информацию. Содержит ядро клетки.

·        Дендриты – короткие отростки, принимающие информацию от других нейронов.

·        Аксон – длинный отросток, несет информацию от тела нейрона в другие клетки. Чаще всего аксон оканчивается синапсом (контактом) с дендритами других нейронов.


Схема строения нейрона (здесь и далее рисунки из Википедии).

Дендриты и аксоны называют нервными волокнами.

Аксоны сильно варьируют по длине, от нескольких миллиметров до метра и более. Самыми длинными являются аксоны спинномозговых ганглиев.

Типы нейронов

Классификацию нейронов можно провести по нескольким параметрам, например, по строению или выполняемой функции.

Типы нейронов в зависимости от функции:

·        Эфферентные (двигательные) нейроны – несут информацию от центральной нервной системы (головного и спинного мозга) к клеткам других частей тела.

·        Афферентные (чувствительные) нейроны – собирают информацию от всего организма и несут ее в центральную нервную систему.

·        Вставочные нейроны – передают информацию между нейронами, чаще в пределах центральной нервной системы.

Как нейроны передают информацию?

Нейрон, получая информацию от других клеток, накапливает ее до тех пор, пока она не превысит определенный порог. После этого нейрон посылает по аксону электрический импульс – потенциал действия.

Потенциал действия формируется движением электрически заряженных частиц через мембрану аксона.

В состоянии покоя электрический заряд внутри нейрона отрицательный относительно окружающей его межклеточной жидкости. Эта разница называется мембранным потенциалом. Обычно он составляет 70 милливольт.

Когда тело нейрона получает достаточно заряда, и он «выстреливает», в соседнем участке аксона происходит деполяризация – мембранный потенциал быстро растет, а затем падает примерно за 1/1000 секунды. Этот процесс запускает деполяризацию соседнего участка аксона, и так далее, пока импульс не пройдет по всей длине аксона. После процесса деполяризации наступает гиперполяризация – кратковременное состояние отдыха, в этот момент передача импульса невозможна.


Потенциал действия чаще всего генерируют ионы калия (К+) и натрия (Na+), которые по ионным каналам перемещаются из межклеточной жидкости внутрь клетки и обратно, меняя заряд нейрона и делая его сначала положительным, а затем снижая его.

Потенциал действия обеспечивает работу клетки по принципу «все или ничего», то есть импульс или передается, или нет. Слабые сигналы будут накапливаться в теле нейрона до тех пор, пока их заряда не будет достаточно для передачи по отросткам.

Миелин

Миелин – это белое густое вещество, покрывающее большинство аксонов. Это покрытие обеспечивает электроизоляцию волокна и повышает скорость прохождения импульса по нему .


Миелинизированное волокно в сравнении с немиелинизированным.

Миелин вырабатывается шванновскими клетками на периферии и олигодендроцитами в центральной нервной системе. По ходу волокна миелиновая оболочка прерывается – это перехваты Ранвье. Потенциал действия перемещается от перехвата к перехвату, что обеспечивает быструю передачу импульса.

Такое распространенное и серьезное заболевание, как рассеянный склероз, вызвано разрушением миелиновой оболочки.

Как работают синапсы

Нейроны и ткани, которым они передают импульс, физически не соприкасаются, между клетками всегда существует пространство – синапс.

В зависимости от способа передачи информации, синапсы могут быть химическими и электрическими.

Химический синапс

После того как сигнал, передвигаясь по отростку нейрона, достигает синапса, происходит высвобождение химических веществ – нейромедиаторов (нейротрансмиттеров) в пространство между двумя нейронами. Это пространство называют синаптической щелью.


Схема строения химического синапса.

Нейромедиатор из передающего (пресинаптического) нейрона, попадая в синаптическую щель, взаимодействует с рецепторами на мембране принимающего (постсинаптического) нейрона, запуская целую цепь процессов.

Виды химических синапсов:

·        глютаматэргический – медиатором является глютаминовая кислота, обладает возбуждающим эффектом на синапс;

·        ГАМК-эргический – медиатором является гамма-аминомасляная кислота (ГАМК), обладает тормозящим эффектом на синапс;

·        холинергический – медиатором является ацетилхолин, осуществляет нервно-мышечную передачу информации;

·        адренергический – медиатором является адреналин.

Электрические синапсы

Электрические синапсы встречаются реже, распространены в центральной нервной системе. Клетки сообщаются посредством особых белковых каналов. Пресинаптическая и постсинаптическая мембраны в электрических синапсах расположены близко друг к другу, поэтому импульс способен проходить непосредственно от клетки к клетке.

Скорость передачи импульса по электрическим синапсам гораздо выше, чем по химическим, поэтому они расположены преимущественно в тех отделах, где необходима быстрая реакция, например, отвечающих за защитные рефлексы.

Еще одно отличие двух типов синапсов в направлении передачи информации: если химические синапсы могут передавать импульс только в одном направлении, то электрические в этом смысле универсальны.

Заключение

Нейроны – это, пожалуй, самые необычные клетки организма. Каждое действие, которое осуществляет тело человека, обеспечивается работой нейронов. Сложная нейронная сеть формирует личность и сознание. Они отвечают как за самые примитивные рефлексы, так и за самые сложные процессы, связанные с мышлением.

Аминат Аджиева, портал «Вечная молодость» http://vechnayamolodost.ru по материалам Medical News Today: Neurons: The basics.


Исследование показывает, как некоторые нейроны компенсируют смерть своих соседей

Исследования Чикагского университета выясняют, что происходит в мозге, когда нейрон умирает, и как себя ведут окружающие нейроны, — пишет eurekalert.org со ссылкой на Journal of Neuroscience.

Наш мозг представляет собой сложную сеть из миллиардов нейронов, постоянно передающих информацию через синапсы, и это общение лежит в основе каждой нашей мысли и движения. Но что происходит со схемой, когда нейрон умирает? Могут ли другие нейроны вокруг него усилиться, чтобы поддерживать тот же уровень функции?

Некоторые нейроны могут, но не все обладают такой способностью. Изучая несколько нейронных пар, которые иннервируют отдельные мышцы на модели плодовой мушки, исследователи обнаружили, что некоторые нейроны компенсируют потерю соседнего партнера.

Результаты являются шагом в направлении понимания пластичности мозга и использования этих знаний для лучшего понимания не только нормального развития, но и нейродегенеративных заболеваний.

«Теперь, когда мы знаем, что некоторые нейроны могут компенсировать смерть других нейронов, мы можем спросить, может ли этот процесс также происходить при неврологических заболеваниях», — сказал Роберт Каррильо, доцент кафедры молекулярной генетики и клеточной биологии и автор статьи.

Поскольку человеческий мозг невероятно сложен, исследователи используют сравнительно простую модель плодовой мушки для исследования фундаментальных концепций нейробиологии, которые потенциально могут быть перенесены в наш мозг высшего порядка.

Чтобы лучше понять, как мозг адаптируется к структурным и функциональным изменениям, Каррильо и аспирант Юпу Ван исследовали нервно-мышечную систему плодовой мушки, где каждая мышца иннервируется двумя двигательными нейронами. Хотя известно, что нейроны могут изменять свою активность, когда в их собственных синапсах происходят возмущения, этот процесс известен как синаптическая пластичность, они задались вопросом, что произойдет, если один нейрон будет удален из системы. Смогут ли другие нейроны отреагировать и компенсировать эту потерю?

На этот вопрос нелегко ответить: удалить отдельные нейроны без одновременного разрушения других нейронов сложно, и также трудно измерить базовую активность одного нейрона. Исследователи решили эту проблему, экспрессируя гены, способствующие гибели клеток, в очень специфической подгруппе моторных нейронов. Затем они использовали изображения и электрофизиологические записи, чтобы выделить активность одного оставшегося нейрона в паре.

В одной мышце они обнаружили, что оставшийся нейрон расширил свою синаптическую ветвь и компенсировал как спонтанную, так и вызванную нейротрансмиссию отсутствующего соседа. Однако, когда исследователи выполнили ту же процедуру на двух других мышцах, они обнаружили, что оставшийся нейрон не компенсировал потерю своего соседа.

«Похоже, что некоторые нейроны обладают способностью обнаруживать и компенсировать соседние нейроны, а другие — нет», — сказал Ван.

Это может быть связано с тем, что, как обнаружили исследователи, каждый нейрон имеет разные функциональные свойства. Нейрон, который компенсировал потерю своего соседа, также вносил наибольший вклад в общую активность мышцы в исходных условиях.

Это все еще оставило исследователей перед интригующим вопросом: откуда оставшийся нейрон знает, сколько нужно компенсировать? Они предположили, что пары нейронов работают вместе, чтобы установить «точку отсчета» для активности при формировании цепи. В самом деле, они обнаружили, что если сосед нейрона никогда не формирует синапсы — если система никогда не знала, что должна получать информацию от двух нейронов, — то оставшийся нейрон не будет компенсировать.

Это оставляет надежду на то, что дальнейшие исследования могут помочь выяснить, могут ли нейроны, чьи соседи поражены нейрогенеративными заболеваниями, такими как боковой амиотрофический склероз (БАС), который вызывает прогрессирующую гибель нейронов и потерю мышечной функции, проявлять синаптическую пластичность.

Затем исследователи изучат механизм, вызывающий компенсацию. Они надеются лучше понять, как посылается сигнал о том, что нейрон умер, и как этот сигнал, в свою очередь, заставляет другой нейрон компенсировать исчезновение умершего.

[Фото: eurekalert.org]

Технический справочник по алгоритму нейронной сети (Майкрософт)

  • Чтение занимает 11 мин

В этой статье

Область применения: SQL Server Analysis Services Azure Analysis Services Power BI Premium

Алгоритм нейронной сети ( Microsoft ) использует сеть в виде многослойного перцептрона , также известного под названием сеть дельта-правила с обратным распространением, в состав которой может входить до трех слоев нейронов, или перцептронов. Такими слоями являются входной слой, необязательный скрытый слой и выходной слой.

В задачи настоящей документации не входит подробное рассмотрение таких нейронных сетей, как многослойные перцептроны. В данном разделе содержится описание базовой реализации алгоритма, в том числе метода, используемого для нормализации входных и выходных значений. Приводится также описание методов выбора компонентов, которые применяются для снижения количества элементов атрибута. В данном разделе описываются параметры и другие настройки, с помощью которых можно управлять поведением алгоритма. Приводятся также ссылки на дополнительную информацию о запросах к модели.

Реализация алгоритма нейронной сети (Майкрософт)

В нейронной сети в виде многослойного перцептрона каждый нейрон получает один или несколько входов, а также создает один или несколько одинаковых выходов. Каждый выход является простой нелинейной функцией суммы входов, полученных нейроном. Входы передаются в прямом направлении от узлов во входном слое к узлам в скрытом слое, а оттуда передаются на выходной слой; нейроны в составе слоя не соединены друг с другом. Если скрытый слой отсутствует, как в модели логистической регрессии, то входы передаются в прямом направлении непосредственно от узлов входного слоя к узлам выходного слоя.

В нейронной сети, создаваемой с помощью алгоритма нейронной сети ( Microsoft ), существует три типа нейронов.

Входные нейроны

Входные нейроны предоставляют модели интеллектуального анализа данных значения входных атрибутов. Для дискретных входных атрибутов входной нейрон обычно представляет одно состояние из входного атрибута. Сюда входят также отсутствующие значения, если обучающие данные содержат для этого атрибута значения NULL. Дискретный входной атрибут, имеющий более двух состояний, создает один входной нейрон для каждого состояния и один входной нейрон для отсутствующего состояния, если обучающие данные содержат какие-либо значения NULL. Непрерывный входной атрибут создает два входных нейрона: один нейрон для отсутствующего состояния и один нейрон для значения самого непрерывного атрибута. Входные нейроны обеспечивают входы для одного или нескольких скрытых нейронов.

Скрытые нейроны

Скрытые нейроны получают входные данные от входных нейронов и передают выходные данные выходным нейронам.

Выходные нейроны

Выходные нейроны представляют значения прогнозируемых атрибутов для модели интеллектуального анализа данных. Для дискретных входных атрибутов выходной нейрон обычно указывает одно прогнозируемое состояние для прогнозируемого атрибута, включая пропущенные значения. Например, бинарный прогнозируемый атрибут создает один выходной узел, который описывает отсутствующее или существующее состояние, указывая на наличие значения для такого атрибута. Логический столбец, используемый как прогнозируемый, создает три выходных нейрона: один нейрон для истинного значения, один для ложного и один для отсутствующего или существующего состояния. Дискретный прогнозируемый атрибут, имеющий более двух состояний, создает один выходной нейрон для каждого состояния и один выходной нейрон для отсутствующего или существующего состояния. Непрерывные прогнозируемые столбцы создают два выходных нейрона: один нейрон для отсутствующего или существующего состояния и один нейрон для значения самого непрерывного столбца. При создании путем просмотра набора прогнозируемых столбцов более 500 выходных нейронов службы Службы Analysis Services формируют для представления дополнительных выходных нейронов новую сеть в модели интеллектуального анализа данных.

Нейрон получает входы от других нейронов или из других данных, в зависимости от того, в каком слое сети он находится. Входной нейрон получает на входе оригинальные данные. Скрытые нейроны и выходные нейроны получают входы из выхода других нейронов нейронной сети. Входы устанавливают связи между нейронами, и эти связи являются путем, по которому производится анализ для конкретного набора вариантов.

Каждому входу присвоено значение, именуемое весом, которое описывает релевантность или важность конкретного входа для скрытого или выходного нейрона. Чем больше вес, присвоенный входу, тем более релевантным или важным является значение этого входа. Значения веса могут быть отрицательными; это означает, что вход может подавлять, а не активировать конкретный нейрон. Чтобы выделить важность входа для конкретного нейрона, значение входа умножается на вес. В случае отрицательных весов умножение значения на вес служит для уменьшения важности входа.

Каждому нейрону присвоена простая нелинейная функция, называемая функцией активации, которая описывает релевантность или важность определенного нейрона для этого слоя нейронной сети. В качестве функции активации скрытые нейроны используют функцию гиперболического тангенса (tanh), а выходные нейроны — сигмоидальную функцию . Обе функции являются нелинейными, непрерывными функциями, позволяющими нейронной сети моделировать нелинейные связи между входными и выходными нейронами.

Обучение нейронных сетей

Обучение модели интеллектуального анализа данных, использующей алгоритм нейронной сети ( Microsoft ), основано на нескольких шагах. На указанные шаги сильное влияние оказывают заданные значения параметров алгоритма.

Алгоритм сначала оценивает и извлекает обучающие данные из источника данных. Определенный процент обучающих данных, называемых контрольными данными, зарезервирован для использования при определении точности сети. В процессе обучения после каждой итерации по обучающим данным выполняется оценка сети. После прекращения роста точности модели процесс обучения завершается.

Значения параметров SAMPLE_SIZE и HOLDOUT_PERCENTAGE используются для определения количества вариантов, которое необходимо выбрать из обучающих данных, а также количества вариантов, которое необходимо зарезервировать для использования в качестве контрольных данных. Значение параметра HOLDOUT_SEED используется для определения случайным образом конкретных вариантов, подлежащих резервированию в качестве контрольных данных.

Примечание

Эти параметры алгоритма отличны от свойств HOLDOUT_SIZE и HOLDOUT_SEED, применяемых к структуре интеллектуального анализа данных для определения набора проверочных данных.

Затем алгоритм определяет количество и сложность сетей, поддерживаемых моделью интеллектуального анализа данных. Если в модели интеллектуального анализа данных содержится один или несколько атрибутов, используемых только для прогнозирования, то алгоритм создает одну сеть, которая представляет все эти атрибуты. Если в модели интеллектуального анализа данных содержится один или несколько атрибутов, используемых как для ввода, так и для прогнозирования, то поставщик алгоритмов создает сеть для каждого такого атрибута.

Для входных и прогнозируемых атрибутов, которые имеют дискретные значения, каждый входной или выходной нейрон соответственно представляет одно состояние. Для входных и прогнозируемых атрибутов, которые имеют непрерывные атрибуты, каждый входной или выходной нейрон соответственно представляет диапазон и распределение значений атрибута. И в том, и в другом случае максимальное количество поддерживаемых состояний зависит от значения параметра алгоритма MAXIMUM_STATES . Если количество состояний конкретного атрибута превышает значение параметра алгоритма MAXIMUM_STATES , то выбираются наиболее популярные или релевантные состояния такого атрибута в количестве, равном максимально возможному количеству состояний. Для целей анализа остальные состояния группируются как пропущенные значения.

Алгоритм затем использует значение параметра HIDDEN_NODE_RATIO при определении начального количества нейронов, необходимых для создания скрытого слоя. Для интерпретации нейронной сети как логистической регрессии можно задать параметр HIDDEN_NODE_RATIO равным 0, чтобы предотвратить в сетях создание скрытого слоя, создаваемого алгоритмом для модели интеллектуального анализа данных.

Поставщик алгоритмов циклично оценивает вес всех одновременно появляющихся в сети входов. Для этого берется набор предварительно зарезервированных обучающих данных и сравнивается фактическое известное значение каждого объекта в составе контрольных данных с прогнозом сети, — этот процесс известен как пакетное обучение. После оценки всего набора обучающих данных алгоритм просматривает прогнозированное и фактическое значение каждого нейрона. Алгоритм вычисляет погрешность, если таковая имеется, и регулирует весовые значения, связанные с входами для данного нейрона, обрабатывая сначала выходные, а затем входные нейроны, — этот процесс известен как обратное распространение. Алгоритм затем повторяет процесс в отношении всего набора обучающих данных. Поскольку алгоритм может поддерживать множество весовых значений и выходных нейронов, то для управления процессом обучения, присваивающим и оценивающим весовые значения входов, используется алгоритм сопряженных градиентов. В задачи настоящей документации не входит рассмотрение алгоритма сопряженных градиентов.

Выбор компонентов

Если количество входных или прогнозируемых атрибутов превышает соответственно значение параметра MAXIMUM_INPUT_ATTRIBUTES или MAXIMUM_OUTPUT_ATTRIBUTES , то для снижения сложности сетей, включенных в модель интеллектуального анализа данных, используется алгоритм выбора компонентов. Выбор компонентов уменьшает количество входных или прогнозируемых атрибутов, ограничивая их теми атрибутами, которые с точки зрения статистики наиболее релевантны для такой модели.

Выбор компонентов автоматически применяется всеми алгоритмами интеллектуального анализа данных служб Службы Analysis Services для улучшения качества анализа и снижения вычислительной нагрузки. Применяемый метод выбора компонентов в моделях нейронных сетей зависит от типа данных атрибута. Для справки, следующая таблица показывает методы выбора компонентов, применяемые в моделях нейронных сетей, а также методы выбора компонентов, используемые для алгоритма логистической регрессии, основанного на алгоритме нейронной сети.

АлгоритмМетод анализаКомментарии
Нейронная сетьОценка интересности

Энтропия Шеннона

Алгоритм Байеса с априорной оценкой K2

Эквивалент Дирихле метода Байеса с однородной априорной оценкой (выбор по умолчанию)

В алгоритме нейронных сетей могут применяться оба метода: на основе энтропии и байесовских оценок — при условии, что данные содержат непрерывные столбцы.

По умолчанию.

Логистическая регрессияОценка интересности

Энтропия Шеннона

Алгоритм Байеса с априорной оценкой K2

Эквивалент Дирихле метода Байеса с однородной априорной оценкой (выбор по умолчанию)

Возможность передать параметр в этот алгоритм для управления поведением при выборе характеристик отсутствует, поэтому используются значения по умолчанию. Таким образом, если все атрибуты являются дискретными или дискретизированными, то по умолчанию используется метод BDEU.

Выбором компонентов в модели нейронной сети управляют следующие параметры алгоритма: MAXIMUM_INPUT_ATTRIBUTES, MAXIMUM_OUTPUT_ATTRIBUTES и MAXIMUM_STATES. Число скрытых слоев можно также регулировать с помощью параметра HIDDEN_NODE_RATIO.

Методы количественной оценки

Количественная оценка представляет собой разновидность нормализации, и в контексте модели нейронной сети означает процесс преобразования величины (например дискретной текстовой метки) в значение, которое можно сравнить с другими типами входов и присвоить ему определенный вес в сети. Например, если один входной атрибут — «Пол», с возможными значениями «Мужской» и «Женский», а другой атрибут — «Доход» с переменным диапазоном значений, величины этих двух атрибутов нельзя напрямую сравнивать между собой; их нужно закодировать на некоторой общей шкале, чтобы иметь возможность сравнить их веса. Количественной оценкой называется процесс нормализации таких входов для превращения их в числовые значения, а именно в вероятностный диапазон. Функции, которые используются для нормализации, помогают также более равномерно распределять входные значения на однородной шкале, чтобы экстремальные значения не искажали результатов анализа.

Выходы нейронной сети также закодированы. Если у выхода только одна цель (то есть прогноз) или несколько целей, которые используются только для прогноза, но не для входа, модель создает одну сеть, в которой нормализация, возможно, не потребуется. Однако если несколько атрибутов используются для ввода и прогнозирования, модель создает несколько сетей; тогда все величины должны быть нормализованы и выходы закодированы в момент выхода из сети.

Кодирование входов производится суммированием всех дискретных величин в обучающих вариантах и умножением этой величины на ее вес. Это называется взвешенной суммой. Она передается функции активации в скрытом слое. Для кодирования используется z-показатель, как показано ниже.

Дискретные значения

μ = p — Прошлая вероятность состояния;

StdDev = sqrt(p(1-p))

Непрерывные величины

Значение существует= 1 - μ/σ

Нет существующего значения= -μ/σ

После кодирования всех величин производится взвешенное суммирование входов, в котором в качестве весов используются интенсивности ребер сети.

Кодирование выходов производится с помощью сигмоидальной функции, которую очень удобно использовать для прогнозов. Одно из полезных свойств этой функции заключается в том, что, независимо от масштабирования исходных данных и от того, положительны или отрицательны значения, результат этой функции всегда является числовым значением в диапазоне от 0 до 1. Это полезно при оценке вероятностей. Другое полезное свойство сигмоидальной функции — ее сглаживающий эффект: по мере того, как величины удаляются от точки перегиба, вероятность данного значения движется от 0 к 1, но плавно.

Настройка алгоритма нейронной сети (Майкрософт)

Алгоритм нейронной сети ( Microsoft ) поддерживает несколько параметров, которые влияют на поведение, производительность и точность итоговой модели интеллектуального анализа данных. Можно также изменять способ обработки данных в модели, устанавливая на столбцах флаги моделирования или устанавливая флаги распределения, чтобы задать способы обработки значений столбцов.

Задание параметров алгоритма

В следующей таблице описываются параметры, которые можно использовать с алгоритмом нейронной сети (Майкрософт).

HIDDEN_NODE_RATIO
Указывает соотношение скрытых нейронов к входным и выходным нейронам. Следующая формула определяет начальное количество нейронов в скрытом слое:

HIDDEN_NODE_RATIO * SQRT (количество входных нейронов * количество выходных нейронов)

Значение по умолчанию — 4,0.

HOLDOUT_PERCENTAGE
Указывает процент вариантов в составе обучающих данных, используемых для вычисления ошибки контрольных данных, которая применяется как один из критериев остановки во время обучения модели интеллектуального анализа данных.

Значение по умолчанию — 30.

HOLDOUT_SEED
Указывает значение, используемое генератором псевдослучайных чисел в качестве начального, когда алгоритм случайным образом задает контрольные данные. При установке данного параметра равным 0 алгоритм формирует начальное значение на основе имени модели интеллектуального анализа данных, что гарантирует неизменность содержимого модели при повторной обработке.

Значение по умолчанию — 0.

MAXIMUM_INPUT_ATTRIBUTES
Определяет максимальное количество входных атрибутов, которое может быть задано для алгоритма до использования выбора компонентов. Установка этого значения равным 0 отключает выбор компонентов для входных атрибутов.

Значение по умолчанию — 255.

MAXIMUM_OUTPUT_ATTRIBUTES
Определяет максимальное количество выходных атрибутов, которое может быть задано для алгоритма до использования выбора компонентов. Установка этого значения равным 0 отключает выбор компонентов для выходных атрибутов.

Значение по умолчанию — 255.

MAXIMUM_STATES
Указывает максимальное число дискретных состояний на один атрибут, поддерживаемое алгоритмом. Если число состояний конкретного атрибута превышает число, указанное для данного параметра, то алгоритм использует наиболее популярные состояния такого атрибута и считает остальные состояния пропущенными.

По умолчанию используется значение 100.

SAMPLE_SIZE
Указывает количество вариантов, которые будут использоваться для обучения модели. Алгоритм использует меньшее из двух значений — либо число, либо заданный параметром HOLDOUT_PERCENTAGE процент от общего количества вариантов, не включенных в состав контрольных данных.

Другими словами, если для параметра HOLDOUT_PERCENTAGE задано значение 30, то алгоритм будет использовать либо значение этого параметра, либо значение, равное 70 процентам от общего количества вариантов, в зависимости от того, какое из двух указанных значений меньше.

Значение по умолчанию — 10 000.

Флаги моделирования

Далее перечислены флаги модели, которые поддерживает алгоритм нейронной сети ( Microsoft ).

NOT NULL
Указывает, что столбец не может принимать значение NULL. Если во время обучения модели службы Analysis Services обнаружат значение NULL, возникнет ошибка.

Применяется к столбцам структуры интеллектуального анализа данных.

MODEL_EXISTENCE_ONLY
Указывает, что модель должна принимать во внимание только существование или отсутствие значения для данного атрибута. Конкретное значение не играет роли.

Применяется к столбцам модели интеллектуального анализа данных.

Флаги распределения

Далее перечислены флаги распределения, которые поддерживает алгоритм нейронной сети ( Microsoft ). Модель рассматривает эти флаги только как указания; если алгоритм обнаруживает иное распределение, то использует его, не учитывая указания.

Норм.
Указывает, что величины в столбце должны обрабатываться так, как если бы они представляли собой нормальное, или гауссово, распределение.

Равномерное
Указывает, что значения этого столбца следует обрабатывать, как если бы они были распределены равномерно; то есть, как если бы вероятность появления любого значения была бы примерно одинаковой и являлась функцией от общего числа значений.

Логарифмическое нормальное
Указывает, что значения этого столбца следует обрабатывать, как если бы они были распределены по логарифмически нормальной кривой; то есть логарифм этих значений имеет нормальное распределение.

Требования

Модель нейронной сети должна содержать по крайней мере один входной столбец и один выходной столбец.

Входные и прогнозируемые столбцы

Алгоритм нейронной сети ( Microsoft ) поддерживает определенные входные столбцы данных и прогнозируемые столбцы, которые перечислены ниже в таблице.

СтолбецТипы содержимого
Входной атрибутContinuous, Cyclical, Discrete, Discretized, Key, Table и Ordered
Прогнозируемый атрибутContinuous, Cyclical, Discrete, Discretized и Ordered

Примечание

Типы содержимого Cyclical и Ordered поддерживаются, но алгоритм обрабатывает их как дискретные величины и не производит их особой обработки.

См. также:

Алгоритм нейронной сети (Майкрософт)
Содержимое моделей интеллектуального анализа данных для моделей нейронных сетей (Analysis Services — интеллектуальный анализ)
Примеры запросов к модели нейронной сети

Нейронные сети, или Как обучить искусственный интеллект — Интернет изнутри

Машинное обучение является не единственным, но одним из фундаментальных разделов искусственного интеллекта, занимающимся вопросами самостоятельного извлечения знаний интеллектуальной системой в процессе ее работы. Основу машинного обучения составляют так называемые искусственные нейронные сети, принцип работы которых напоминает работу биологических нейронов нервной системы животных и человека.
Технологии искусственного интеллекта все активнее используются в самых различных областях – от производственных процессов до финансовой деятельности. Популярные услуги техгигантов, такие как «Яндекс.Алиса», Google Translate, Google Photos и Google Image Search (AlexNet, GoogleNet) основаны на работе нейронных сетей.
Что такое нейронные сети и как они работают – об этом пойдет речь в статье.

Введение

У искусственного интеллекта множество определений. Под этим термином понимается, например, научное направление, в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются творческими или интеллектуальными, а также соответствующий раздел информатики, задачей которого является воссоздание с помощью вычислительных систем и иных искусственных устройств разумных рассуждений и действий, равно как и свойство систем выполнять «творческие» функции. Искусственный интеллект уже сегодня прочно вошел в нашу жизнь, он используется так или иначе во многих вещах, которые нас окружают: от смартфонов до холодильников, — и сферах деятельности: компании многих направлений, от IT и банков до тяжелого производства, стремятся использовать последние разработки для
повышения эффективности. Данная тенденция будет лишь усиливаться в будущем.

Машинное обучение является не единственным, но одним из основных разделов, фундаментом искусственного интеллекта, занимающимся вопросами самостоятельного извлечения знаний интеллектуальной системой в процессе ее работы. Зародилось это направление еще в середине XX века, однако резко возросший интерес направление получило с существенным развитием области математики, специализирующейся на нейронных сетях, после недавнего изобретения эффективных алгоритмов обучения таких сетей. Идея создания искусственных нейронных сетей была перенята у природы. В качестве примера и аналога была использована нервная система как животного, так и человека. Принцип работы искусственной нейронной сети соответствует алгоритму работы биологических нейронов.

Нейрон – вычислительная единица, получающая информацию и производящая над этой информацией какие-либо вычисления. Нейроны являются простейшей структурной единицей любой нейронной сети, из их множества, упорядоченного некоторым образом в слои, а в конечном счете – во всю сеть, состоят все сети. Все нейроны функционируют примерно одинаковым образом, однако бывают некоторые частные случаи нейронов, выполняющих специфические функции. Три основных типа нейронов:

Рис. 1. Основные типы нейронов.

Входной – слой нейронов, получающий информацию (синий цвет на рис. 1).
Скрытый – некоторое количество слоев, обрабатывающих информацию (красный цвет на рис. 1).
Выходной – слой нейронов, представляющий результаты вычислений (зеленый цвет на рис. 1).

Помимо самих нейронов существуют синапсы. Синапс – связь, соединяющая выход одного нейрона со входом другого. Во время прохождения сигнала через синапс сигнал может усиливаться или ослабевать. Параметром синапса является вес (некоторый коэффициент, может быть любым вещественным числом), из-за которого информация, передающаяся от одного нейрона к другому, может изменяться. При помощи весов входная информация проходит обработку — и после мы получаем результат.

Рис. 2. Модель искусственного нейрона.

На рис. 2 изображена математическая модель нейрона. На вход подаются числа (сигналы), после они умножаются на веса (каждый сигнал – на свой вес) и суммируются. Функция активации высчитывает выходной сигнал и подает его на выход.

Сама идея функции активации также взята из биологии. Представьте себе ситуацию: вы подошли и положили палец на конфорку варочной панели. В зависимости от сигнала, который при этом поступит от пальца по нервным окончаниям в мозг, в нейронах вашего мозга будет принято решение: пропускать ли сигнал дальше по нейронным связям, давая посыл мышцам отдернуть палец от горячей конфорки, или не пропускать сигнал, если конфорка холодная и палец можно оставить. Математический аналог функции активации имеет то же назначение. Таким образом, функция активации позволяет проходить или не проходить сигналам от нейрона к нейронам в зависимости от информации, которую они передают. Т.е. если информация является важной, то функция пропускает ее, а если информации мало или она недостоверна, то функция активации не позволяет ей пройти дальше.

Таблица 1. Популярные разновидности активационных функций искусственного нейрона

В таблице 1 представлены некоторые виды активационных функций нейрона. Простейшей разновидностью функции активации является пороговая. Как следует из названия, ее график представляет из себя ступеньку. Например, если поступивший в нейрон суммарный сигнал от предыдущих нейронов меньше 0, то в результате применения функции активации сигнал полностью «тормозится» и дальше не проходит, т.е. на выход данного нейрона (и, соответственно, входы последующих нейронов) подается 0. Если же сигнал >= 0, то на выход данного нейрона подается 1.

Функция активации должна быть одинаковой для всех нейронов внутри одного слоя, однако для разных слоев могут выбираться разные функции активации. В искусственных нейронных сетях выбор функции обуславливается областью применения и является важной исследовательской задачей для специалиста по машинному обучению.

Нейронные сети набирают все большую популярность и область их использования также расширяется. Список некоторых областей, где применяются искусственные нейронные сети:

  1. Ввод и обработка информации. Распознавание текстов на фотографиях и различных документах, распознавание голосовых команд, голосовой ввод текста.
  2. Безопасность. Распознавание лиц и различных биометрических данных, анализ трафика в сети, обнаружение подделок.
  3. Интернет. Таргетинговая реклама, капча, составление новостных лент, блокировка спама, ассоциативный поиск информации.
  4. Связь. Маршрутизация пакетов, сжатие видеоинформации, увеличение скорости кодирования и декодирования информации.

Помимо перечисленных областей, нейронные сети применяются в робототехнике, компьютерных и настольных играх, авионике, медицине, экономике, бизнесе и в различных политических и социальных технологиях, финансово-экономическом анализе.

Архитектуры нейронных сетей

Архитектур нейронных сетей большое количество, и со временем появляются новые. Рассмотрим наиболее часто встречающиеся базовые архитектуры.

Персептрон
Рис. 3. Пример архитектуры персептрона.

Персептрон – это простейшая модель нейросети, состоящая из одного нейрона. Нейрон может иметь произвольное количество входов (на рис. 3 изображен пример вида персептрона с четырьмя входами), а один из них обычно тождественно равен 1. Этот единичный вход называют смещением, его использование иногда бывает очень удобным. Каждый вход имеет свой собственный вес. При поступлении сигнала в нейрон, как и было описано выше, вычисляется взвешенная сумма сигналов, затем к сигналу применяется функция активации и сигнал передается на выход. Такая
простая на первый взгляд сеть, всего из одного-единственного нейрона, способна, тем не менее, решать ряд задач: выполнять простейший прогноз, регрессию данных и т.п., а также моделировать поведение несложных функций. Главное для эффективности работы этой сети – линейная разделимость данных.

Для читателей, немного знакомых с таким разделом как логика, будут знакомы логическое И (умножение) и логическое ИЛИ (сложение). Это булевы функции, принимающие значение, равное 0, всегда, кроме одного случая, для умножения, и, наоборот, значения, равные 1, всегда, кроме одного случая, для сложения. Для таких функций всегда можно провести прямую (или гиперплоскость в многомерном пространстве), отделяющие 0 значения от 1. Это и называют линейной разделимостью объектов. Тогда подобная модель сможет решить поставленную задачу классификации и сформировать базовый логический элемент. Если же объекты линейно неразделимы, то сеть из одного нейрона с ними не справится. Для этого существуют более сложные архитектуры нейронных сетей, в конечном счете, тем не менее, состоящие из множества таких персептронов, объединенных в слои.

Многослойный персептрон

Слоем называют объединение нейронов, на схемах, как правило, слои изображаются в виде одного вертикального ряда (в некоторых случаях схему могут поворачивать, и тогда ряд будет горизонтальным). Многослойный персептрон является обобщением однослойного персептрона. Он состоит из некоторого множества входных узлов, нескольких скрытых слоев вычислительных
нейронов и выходного слоя (см. рис. 4).

Рис. 4. Архитектура многослойного персептрона.

Отличительные признаки многослойного персептрона:

  • Все нейроны обладают нелинейной функцией активации, которая является дифференцируемой.
  • Сеть достигает высокой степени связности при помощи синаптических соединений.
  • Сеть имеет один или несколько скрытых слоев.

Такие многослойные сети еще называют глубокими. Эта сеть нужна для решения задач, с которыми не может справиться персептрон. В частности, линейно неразделимых задач. В действительности, как следствие из теоремы Колмогорова, именно многослойный персептрон является единственной универсальной нейронной сетью, универсальным аппроксиматором, способным решить любую задачу. Возможно, не самым эффективным способом, который могли бы обеспечить более узкопрофильные нейросети, но все же решить.
Именно поэтому, если исследователь не уверен, нейросеть какого вида подходит для решения стоящей перед ним задачи, он выбирает сначала многослойный персептрон.

Сверточная нейронная сеть (convolution neural network)

Сверточная нейронная сеть – сеть, которая обрабатывает передаваемые данные не целиком, а фрагментами. Данные последовательно обрабатываются, а после передаются дальше по слоям. Сверточные нейронные сети состоят из нескольких типов слоев: сверточный слой, субдискретизирующий слой, слой полносвязной сети (когда каждый нейрон одного слоя связан с каждым нейроном следующего – полная связь). Слои свертки и подвыборки (субдискретизации) чередуются и их набор может повторяться несколько раз (см. рис. 5). К конечным слоям часто добавляют персептроны, которые служат для последующей обработки данных.

Рис. 5. Архитектура сверточной нейронной сети.

Название архитектура сети получила из-за наличия операции свёртки, суть которой в том, что каждый фрагмент изображения умножается на матрицу (ядро) свёртки поэлементно, а результат суммируется и записывается в аналогичную позицию выходного изображения. Необходимо это для перехода от конкретных особенностей изображения к более абстрактным деталям, и далее – к
ещё более абстрактным, вплоть до выделения понятий высокого уровня (присутствует ли что-либо искомое на изображении).

Сверточные нейронные сети решают следующие задачи:

  • Классификация. Пример: нейронная сеть определяет, что или кто находится на изображении.
  • Детекция. Пример: нейронная сеть определяет, что/кто и где находится на изображении.
  • Сегментация. Пример: нейронная сеть может определить каждый пиксель изображения и понять, к чему он относится.

Описанные сети относятся к сетям прямого распространения. Наряду с ними существуют нейронные сети, архитектуры которых имеют в своем составе связи, по которым сигнал распространяется в обратную сторону.

Рекуррентная нейронная сеть

Рекуррентная нейронная сеть – сеть, соединения между нейронами которой образуют ориентированный цикл. Т.е. в сети имеются обратные связи. При этом информация к нейронам может передаваться как с предыдущих слоев, так и от самих себя с предыдущей итерации (задержка). Пример схемы первой рекуррентной нейронной сети (НС Хопфилда) представлен на рис. 6.

Рис. 6. Архитектура рекуррентной нейронной сети.

Характеристики сети:

  • Каждое соединение имеет свой вес, который также является приоритетом.
  • Узлы подразделяются на два типа: вводные (слева) и скрытые (1, 2, … K).
  • Информация, находящаяся в нейронной сети, может передаваться как по прямой, слой за слоем, так и между нейронами.

Такие сети еще называют «памятью» (в случае сети Хопфилда – автоассоциативной; бывают также гетероассоциативные (сеть Коско – развитие сети Хопфилда) и другие). Почему? Если подать данной сети на вход некие «образцы» – последовательности кодов (к примеру, 1000001, 0111110 и 0110110) — и обучить ее на запоминание этих образцов, настроив веса синапсов сети определенным образом при помощи правила Хебба3, то затем, в процессе функционирования, сеть сможет «узнавать» запомненные образы и выдавать их на выход, в том числе исправляя искаженные поданные на вход образы. К примеру, если после обучения такой сети я подам на вход 1001001, то сеть узнает и исправит запомненный образец, выдав на выходе 1000001. Правда, эта нейронная сеть не толерантна к поворотам и сдвигам образов, и все же для первой нейронной сети своего класса сеть весьма интересна.

Таким образом, особенность рекуррентной нейронной сети состоит в том, что она имеет «области внимания». Данная область позволяет задавать фрагменты передаваемых данных, которым требуется усиленная обработка.

Информация в рекуррентных сетях со временем теряется со скоростью, зависящей от активационных функций. Данные сети на сегодняшний день нашли свое применение в распознавании и обработке текстовых данных. Об этом речь пойдет далее.

Самоорганизующаяся нейронная сеть

Пример самоорганизующейся нейронной сети – сеть Кохонена. В процессе обучения осуществляется адаптация сети к поставленной задаче. В представленной сети (см. рис. 7) сигнал идет от входа к выходу в прямом направлении. Структура сети имеет один слой нейронов, которые не имеют коэффициентов смещения (тождественно единичных входов). Процесс обучения сети происходит при помощи метода последовательных приближений. Нейронная сеть подстраивается под закономерности входных данных, а не под лучшее значение на выходе. В результате обучения сеть находит окрестность, в которой находится лучший нейрон. Сеть функционирует по принципу «победитель получает все»: этот самый лучший нейрон в итоге на выходе будет иметь 1, а остальные нейроны, сигнал на которых получился меньше, 0. Визуализировать это можно так: представьте, что правый ряд нейронов, выходной, на
рис. 7 – это лампочки. Тогда после подачи на вход сети данных после их обработки на выходе «зажжется» только одна лампочка, указывающая, куда относится поданный объект. Именно поэтому такие сети часто используются в задачах кластеризации и классификации.

Рис. 7. Архитектура самоорганизующейся нейронной сети.
Алгоритмы обучения нейронных сетей

Чтобы получить решение поставленной задачи с использованием нейронной сети, вначале требуется сеть обучить (рис. 8). Процесс обучения сети заключается в настройке весовых коэффициентов связей между нейронами.

Рис. 8. Процесс обучения нейронной сети.

Алгоритмы обучения для нейронной сети бывают с
учителем и без.

  • С учителем: предоставление нейронной сети некоторой выборки обучающих примеров. Образец подается на вход, после происходит обработка внутри нейронной сети и рассчитывается выходной сигнал, сравнивающийся с соответствующим значением целевого вектора (известным нам «правильным ответом» для каждого из обучающих примеров). Если ответ сети не совпадает с требуемым, производится коррекция весов сети, напрямую зависящая от того, насколько отличается ответ сети от правильного (ошибка). Правило этой коррекции называется правилом Видроу-Хоффа и является прямой пропорциональностью коррекции каждого веса и размера ошибки, производной функции активации и входного сигнала нейрона. Именно после изобретения и доработок алгоритма распространения этой ошибки на все нейроны скрытых слоев глубоких нейронных сетей эта область искусственного интеллекта вернула к себе интерес.
  • Без учителя: алгоритм подготавливает веса сети таким образом, чтобы можно было получить согласованные выходные векторы, т.е. предоставление достаточно близких векторов будет давать похожие выходы. Одним из таких алгоритмов обучения является правило Хебба, по которому настраивается перед работой матрица весов, например, рекуррентной сети Хопфилда.

Рассмотрим теперь, какие архитектуры сетей являются наиболее востребованными сейчас, каковы особенности использования нейросетей на примерах известных крупных проектов.

Рекуррентные сети на примерах Google и «Яндекса»

Уже упоминавшаяся выше рекуррентная нейронная сеть (RNN) – сеть, которая обладает кратковременной «памятью», из-за чего может быстро производить анализ последовательностей различной длины. RNN разбивает потоки данных на части и производит оценку связей между ними.

Сеть долговременной краткосрочной памяти (Long shortterm memory – LSTM) – сеть, которая появилась в результате развития RNN-сетей. Это интересная модификация RNN-сетей, позволяющая сети не просто «держать контекст», но и умеющая «видеть» долговременные зависимости. Поэтому LSTM подходит для прогнозирования различных изменений при помощи экстраполяции (выявление тенденции на основе данных), а также в любых задачах, где важно умение «держать контекст», особенно хорошо подвластное для данной нейросети.

Рис. 9. Модули рекуррентной нейронной сети.

Форма рекуррентных нейронных сетей представляет собой несколько повторяющихся модулей. В стандартном виде эти модули имеют простую структуру. На рисунке 9 изображена сеть, которая имеет в одном из слоев гиперболический тангенс в качестве функции активации.


Рис. 10. Модуль LSTM-сети.

LSTM также имеет цепочечную структуру. Отличие состоит в том, что сеть имеет четыре слоя, а не один (рис. 10). Главным отличием LSTM-сети является ее клеточное состояние (или состояние ячейки), которое обозначается горизонтальной линией в верхней части диаграммы и по которой проходит информация (рис. 11). Это самое состояние ячейки напоминает ленту конвейера: она проходит напрямую через всю цепочку, участвуя в некоторых преобразованиях. Информация может как «течь» по ней, не подвергаясь изменениям, так и быть подвергнута преобразованиям со стороны нейросети7. (Представьте себе линию контроля на конвейере: изделия продвигаются на ленте перед сотрудником контроля, который лишь наблюдает за ними, но если ему что-то покажется важным или подозрительным, он может вмешаться).

Рис. 11. Клеточное состояние LSTM-модуля.

LSTM имеет способность удалять или добавлять информацию к клеточному состоянию. Данная способность осуществляется при помощи вентилей, которые регулируют процессы взаимодействия с информацией. Вентиль – возможность выборочно пропускать информацию. Он состоит из сигмоидного слоя нейронной сети и операции поточечного умножения (рис. 12).

Рис. 12. Вентиль.

Сигмоидный слой (нейроны с сигмоидальной функцией активации) подает на выход числа между нулем и единицей, описывая таким образом, насколько каждый компонент должен быть пропущен сквозь вентиль. Ноль – «не пропускать вовсе», один – «пропустить все». Таких «фильтров» в LSTM-сети несколько. Для чего сети нужна эта способность: решать, что важно, а что нет? Представьте себе следующее: сеть переводит предложение и в какой-то момент ей предстоит перевести с английского языка на русский, скажем, местоимение, прилагательное или причастие. Для этого сети необходимо, как минимум, помнить род и/или число предыдущего существительного, к которому переводимое слово относится. Однако как только мы встретим новое существительное, род предыдущего можно забыть. Конечно, это очень упрощенный пример, тем не
менее, он позволяет понять трудность принятия решения: какая информация еще важна, а какую уже можно забыть. Иначе говоря, сети нужно решить, какая информация будет храниться в состоянии ячейки, а затем – что на выходе из нее будет выводить.

Примеры использования нейронных сетей

Мы рассмотрели основные типы нейронных систем и познакомились с принципами их работы. Остановимся теперь на их практическом применении в системах Google Translate, «Яндекс.Алиса», Google Photos и Google Image Search (AlexNet, GoogleNet).

LSTM в Google Translate

Google-переводчик в настоящее время основан на методах машинного обучения и использует принцип работы LSTM-сетей. Система производит вычисления, чтобы понять значение слова или фразы, основываясь на предыдущих значениях в последовательности (контексте). Такой алгоритм помогает системе понимать контекст предложения и верно подбирать перевод среди различных вариантов. Еще несколько лет назад Google Translate работал на основе статистического машинного перевода – это разновидность перевода, где перевод генерируется на основе статистических моделей (бывают: по словам, по фразам, по синтаксису и т.д.), а параметры этих моделей являются результатами анализа корпусов текстов двух выбранных для перевода языков. Эти статистические модели обладали большим быстродействием, однако их эффективность ниже. Общий прирост качества перевода после внедрения системы на основе нейросетей в Google-переводчик составил, казалось бы, не очень много – порядка 10%, однако для отдельных языковых пар эффективность перевода достигла 80-90%,
вплотную приблизившись к оценкам качества человеческого перевода. «Платой» за такое качество перевода является сложность построения, обучения и перенастройки системы на основе нейросети: она занимает недели. Вообще для современных глубоких нейронных сетей, использующихся в таких крупных проектах, в порядке вещей обучение, занимающее дни и недели.

Рис. 13. Рекуррентная двунаправленная нейронная сеть Google-переводчика.

Рассмотрим LSTM-сеть переводчика (GNMT) подробнее. Нейронная сеть переводчика имеет разделение на два потока (см. рис. 13). Первый поток нейронной сети (слева) является анализирующим и состоит из восьми слоев. Данный поток помогает разбивать фразы или предложения на несколько смысловых частей, а после производит их анализ. Сеть позволяет читать предложения в двух направлениях, что помогает лучше понимать контекст. Также она занимается формированием модулей внимания, которые позволяют второму потоку определять ценности отдельно взятых смысловых фрагментов.

Второй поток нейронной сети (справа) является синтезирующим. Он позволяет вычислять самый подходящий вариант для перевода, основываясь на контексте и модулях внимания (показаны голубым цветом).

В системе нейронной сети самым маленьким элементом является фрагмент слова. Это позволяет сфокусировать вычислительную мощность на контексте предложения, что обеспечивает высокую скорость и точность переводчика. Также анализ фрагментов слова сокращает риски неточного перевода слов, которые имеют суффиксы, префиксы и окончания.

LSTM в «Яндекс.Алисе»

Компания «Яндекс» также использует нейросеть типа LSTM в продукте «Яндекс.Алиса». На рисунке 14 изображено взаимодействие пользователя с системой. После вопроса пользователя информация передается на сервер распознавания, где она преобразуется в текст. Затем текст поступает в классификатор интентов (интент (от англ. intent) – намерение, цель пользователя, которое он вкладывает в запрос), где при помощи машинного обучения анализируется. После анализа интентов они поступают на семантический теггер (tagger) – модель, которая позволяет выделить полезную и требующуюся информацию из предложения. Затем полученные результаты структурируются и передаются в модуль dialog manager, где обрабатывается полученная информация и генерируется ответ.

Рис. 14. Процесс работы сервиса «Яндекс.Алиса».


LSTM-сети применяются в семантическом теггере. В этом модуле используются двунаправленные LSTM с attention. На этом этапе генерируется не только самая вероятная гипотеза, потому что в зависимости от диалога могут потребоваться и другие. От состояния диалога в dialog manager происходит повторное взвешивание гипотез. Сети с долговременной памятью помогают лучше вести диалог с пользователем, потому что могут помнить предыдущие сообщения и более точно генерировать ответы, а также они помогают разрешать много проблемных ситуаций. В ходе диалога нейронная сеть может убирать слова, которые не несут никакой важной информации, а остальные анализировать и предоставлять ответ9. Для примера на рис. 14 результат работы системы будет следующим. Сначала речь пользователя в звуковом формате будет передана на сервер распознавания, который выполнит лексический анализ (т.е. переведет сказанное в текст и разобьет его на слова – лексемы), затем классификатор интентов выполнит уже роль семантического анализа (понимание смысла того, что было сказано; в данном случае – пользователя интересует погода), а семантический теггер выделит полезные элементы информации: теггер выдал бы, что завтра – это дата, на которую нужен прогноз погоды. В итоге данного анализа запроса пользователя будет составлено внутреннее представление запроса – фрейм, в котором будет указано, что интент – погода, что погода нужна на +1 день от текущего дня, а где – неизвестно. Этот фрейм попадет в диалоговый менеджер, который хранит тот самый контекст беседы и будет принимать на основе хранящегося контекста решение, что делать с этим запросом. Например, если до этого беседа не происходила, а для станции с «Яндекс.Алисой» указана геолокация г. Москва, то менеджер получит через специальный интерфейс (API) погоду на завтра в Москве, отправит команду на генерацию текста с этим прогнозом, после чего тот будет передан в синтезатор речи помощника. Если же Алиса до этого вела беседу с пользователем о достопримечательностях Парижа, то наиболее вероятно, что менеджер учтет это и либо уточнит у пользователя информацию о месте, либо сразу сообщит о погоде в Париже. Сам диалоговый менеджер работает на основе скриптов (сценариев обработки запросов) и правил, именуемых form-filling. Вот такой непростой набор технических решений, методов, алгоритмов и систем кроется за фасадом, позволяющим пользователю спросить и узнать ответ на простой бытовой вопрос или команду.

Свёрточные нейронные сети, используемые для классификации изображений, на примере Google Photos и Google Image Search

Задача классификации изображений – это получение на вход начального изображения и вывод его класса (стол, шкаф, кошка, собака и т.д.) или группы вероятных классов, которая лучше всего характеризует изображение. Для людей это совершенно естественно и просто: это один из первых навыков, который мы осваиваем с рождения. Компьютер лишь «видит» перед собой пиксели изображения, имеющие различный цвет и интенсивность. На сегодня задача классификации объектов, расположенных на изображении, является основной для области компьютерного зрения. Данная область начала активно развиваться с 1970-х, когда компьютеры стали достаточно мощными, чтобы оперировать большими объёмами данных. До развития нейронных сетей задачу классификации изображений решали с помощью специализированных алгоритмов. Например, выделение границ изображения с помощью фильтра Собеля и фильтра Шарра или использование гистограмм градиентов10. С появлением более мощных GPU, позволяющих значительно эффективнее обучать нейросеть, применение нейросетей в сфере компьютерного зрения значительно возросло.

В 1988 году Ян Лекун предложил свёрточную архитектуру нейросети, нацеленную на классификацию изображений. А в 2012 году сеть AlexNet, построенная по данной архитектуре, заняла первое место в конкурсе по распознаванию изображений ImageNet, имея ошибку распознавания равную 15,3%12. Свёрточная архитектура нейросети использует некоторые особенности биологического распознавания образов, происходящих в мозгу человека. Например, в мозгу есть некоторые группы клеток, которые активируются, если в определённое поле зрения попадает горизонтальная или вертикальная граница объекта. Данное явление обнаружили Хьюбель и Визель в 1962 году. Поэтому, когда мы смотрим на изображение, скажем, собаки, мы можем отнести его к конкретному классу, если у изображения есть характерные особенности, которые можно идентифицировать, такие как лапы или четыре ноги. Аналогичным образом компьютер может выполнять классификацию изображений через поиск характеристик базового уровня, например, границ и искривлений, а затем — с помощью построения более абстрактных концепций через группы сверточных слоев.

Рис. 15. Архитектура свёрточной сети AlexNet.

Рассмотрим подробнее архитектуру и работу свёрточной нейросети (convolution neural network) на примере нейросети AlexNet (см. рис. 15). На вход подаётся изображение 227х227 пикселей (на рисунке изображено желтым), которое необходимо классифицировать (всего 1000 возможных классов). Изображение цветное, поэтому оно разбито по трём RGB-каналам. Наиболее важная операция – операция свёртки.

Операция свёртки (convolution) производится над двумя матрицами A и B размера [axb] и [cxd], результатом которой является матрица С размера

, где s – шаг, на который сдвигают матрицу B. Вычисляется результирующая матрица следующим образом:

см. рис. 16.

Рисунок 16. Операция свёртки15: Исходная матрица A обозначена голубым цветом (имеет большую размерность), ядро свертки – матрица B — обозначена темно-синим цветом и перемещается по матрице A; результирующая матрица изображена зеленым, при этом соответствующая каждому шагу свертки результирующая ячейка отмечена темно-зеленым.

Рис. 16. Операция свёртки.

Чем больше результирующий элемент ci,j,, тем более похожа область матрицы A на матрицу B. A называют изображением, а B – ядром или фильтром. Обычно шаг смещения B равен s = 1. Если увеличить шаг смещения, можно добиться уменьшения влияния соседних пикселей друг на друга в сумме (уменьшить рецептивное поле восприятия нейросети), в подавляющем большинстве случаев шаг оставляют равным 1. На рецептивное поле также влияет и размер ядра свёртки. Как видно из рис. 16, при свёртке результат теряет в размерности по сравнению с матрицей A. Поэтому, чтобы избежать данного явления, матрицу A дополняют ячейками (padding). Если этого не сделать, данные при переходе на следующие слои будут теряться слишком быстро, а информация о границах слоя будет неточной.

Таким образом, свёртка позволяет одному нейрону отвечать за определённый набор пикселей в изображении. Весовыми коэффициентами являются коэффициенты фильтра, а входными переменными – интенсивность свечения пикселя плюс параметр смещения.

Данный пример свёртки (см. рис. 16) был одномерным и подходит, например, для черно-белого изображения. В случае цветного изображения операция свёртки происходит следующим образом: в один фильтр включены три ядра, для каждого канала RGB соответственно, над каждым каналом операция свёртки происходит идентично примеру выше, затем три результирующие матрицы поэлементно складываются — и получается результат работы одного
фильтра – карта признаков.

Эта на первый взгляд непростая с математической точки зрения процедура нужна для выделения тех самых границ и искривлений – контуров изображения, при помощи которых, по аналогии с мозгом человека, сеть должна понять, что же изображено на картинке. Т.е. на карте признаков будут содержаться выделенные характеристические очертания детектированных объектов. Эта карта признаков будет являться результатом работы чередующихся слоев свертки и пулинга (от англ. pooling, или иначе – subsampling layers). Помните, в разделе описания концепции архитектуры сверточных сетей мы говорили, что эти слои чередуются и их наборы могут повторяться несколько раз (см. рис. 5)? Для чего это нужно? После свертки, как мы знаем, выделяются и «заостряются» некие характеристические черты анализируемого изображения (матрицы пикселей) путем увеличения значений соответствующих ядру ячеек матрицы и «занулению» значений других. При операции субдискретизации, или пулинга, происходит уменьшение размерности сформированных отдельных карт признаков. Поскольку для сверточных нейросетей считается, что информация о факте наличия искомого признака важнее точного знания его координат на изображении, то из нескольких соседних нейронов карты признаков выбирается максимальный и принимается за один нейрон уплотнённой карты признаков меньшей размерности. За счёт данной операции, помимо ускорения дальнейших вычислений, сеть становится также более инвариантной к масштабу входного изображения, сдвигам и поворотам изображений. Данное чередование слоев мы видим и для данной сети AlexNet (см. рис. 15), где слои свертки (обозначены CONV) чередуются с пулингом (обозначены эти слои как POOL), при этом следует учитывать, что операции свертки тем ресурсозатратнее, чем больше размер ядра свертки (матрицы B на рис. 16), поэтому иногда, когда требуется свертка с ядром достаточно большой размерности, ее заменяют на две и более последовательных свертки с ядром меньших
размерностей. (Об этом мы поговорим далее.) Поэтому на рис. 15 мы можем увидеть участок архитектуры AlexNet, на котором три слоя CONV идут друг за другом.

Самая интересная часть в сети – полносвязный слой в конце. В этом слое по вводным данным (которые пришли с предыдущих слоев) строится и выводится вектор длины N, где N – число классов, по которым мы бы хотели классифицировать изображение, из них программа выбирает нужный. Например, если мы хотим построить сеть по распознаванию цифр, у N будет значение 10, потому что цифр всего 10. Каждое число в этом векторе представляет собой вероятность конкретного класса. Например, если результирующий вектор для распознавания цифр это [0 0.2 0 0.75 0 0 0 0 0.05], значит существует 20% вероятность, что на изображении «1», 75% вероятность – что «3», и 5% вероятность – что «9». Если мы хотим сеть по распознаванию букв латинского алфавита, то N должно быть равным 26 (без учета регистра), а если и буквы, и цифры вместе, то уже 36. И т.д. Конечно, это очень упрощенные примеры. В сети AlexNet конечная размерность выхода (изображена на рис. 15 зеленым) — 1000, а перед этим идут еще несколько полносвязных слоев с размерностями входа 9216 и выхода 4096 и обоими параметрами 4096 (изображены оранжевым и отмечены FC – full connected — на рисунке).

Способ, с помощью которого работает полносвязный слой, – это обращение к выходу предыдущего слоя (который, как мы помним, должен выводить высокоуровневые карты свойств) и определение свойств, которые больше связаны с определенным классом. Поэтому в результате работы окончания сверточной сети по поданному на вход изображению с лужайкой, на которой, скажем, собака гоняется за птичкой, упрощенно можно сказать, что результатом может являться следующий вывод:
[dog (0.6), bird (0.35), cloud (0.05)].

Свёрточная нейронная сеть GoogleNet

В 2014 году на том же соревновании ImageNet, где была представлена AlexNet, компания Google показала свою свёрточную нейросеть под названием GoogleNet. Отличительная особенность этой сети была в том, что она использовала в 12 раз меньше параметров (почувствуйте масштабы: 5 000 000 против 60 000 000) и её архитектура структурно была не похожа на архитектуру AlexNet, в которой было восемь слоёв, причём данная сеть давала более точный результат – 6,67% ошибки против 16,4%16.

Разработчики GoogleNet пытались избежать простого увеличения слоёв нейронной сети, потому что данный шаг привёл бы к значительному увеличению использования памяти и сеть была бы больше склонна к перенасыщению при обучении на небольшом и ограниченном наборе примеров.

Проанализируем приём, на который пошли разработчики компании Google для оптимизации скорости и использования памяти. В нейросети GoogleNet свёртка с размером фильтра 7×7 используется один раз в начале обработки изображения, далее максимальный размер – 5×5. Так как количество параметров при свёртке растёт квадратично с увеличением размерности ядра, нужно стараться заменять одну свёртку на несколько свёрток с меньшим размером фильтра, вместе с этим пропустить промежуточные результаты через ReLU (функция активации, возвращающая 0, если сигнал отрицателен, и само значение сигнала, если нет), чтобы внести дополнительную нелинейность. Например, свёртку с размером фильтра 5×5 можно заменить двумя последовательными операциями с размером ядра 3×3. Такая оптимизация позволяет строить более гибкие и глубокие сети. На хранение промежуточных свёрток тратится память, и использовать их более разумно в слоях, где размер карты признаков небольшой. Поэтому в начале сети GoogleNet вместо трёх свёрток 3×3 используется одна 7×7, чтобы избежать избыточного использования памяти.

Рис. 17. Первая реализация блока Inception.

Схему архитектуры сети целиком мы приводить здесь не будем, она слишком громоздка и на ней трудно что-либо разглядеть, кому это будет интересно, могут ознакомиться с ней на официальном ресурсе16. Отличительной особенностью нейросети от компании Google является использование специального модуля – Inception (см. рис. 17). Данный модуль, по своей сути, является небольшой локальной сетью. Идея данного блока состоит в том, что на одну карту признаков накладывается сразу несколько свёрток разного размера, вычисляющихся параллельно. В конце все свёртки объединяются в единый блок. Таким образом, можно из исходной карты признаков извлечь признаки разного размера, увеличив эффективность сети и точность обработки признаков. Однако при использовании данной реализации (см. рис. 17) нужно выполнить колоссальный объём вычислений, между тем, при включении данных модулей друг за другом размерность блока будет только расти. Поэтому разработчики во второй версии добавили свёртки, уменьшающие размерность (см. рис. 18).

Рис. 18. Вторая реализация блока Inception.

Жёлтые свёртки размера 1×1 введены для уменьшения глубины блоков, и благодаря им, значительно снижается нагрузка на память. GoogleNet содержит девять таких Inception-модулей и состоит из 22 слоёв.

Из-за большой глубины сети разработчики также столкнулись с проблемой затухания градиента при обучении (см. описание процедуры обучения нейросети: коррекция весов осуществляется в соответствии со значением ошибки, производной функции активации – градиента – и т.д.) и ввели два вспомогательных модуля классификатора (см. рис. 19). Данные модули представляют собой выходную часть малой свёрточной сети и уже частично классифицируют объект по внутренним характеристикам самой сети. При обучении нейронной сети данные модули не дают ошибке, распространяющиейся с конца, сильно уменьшиться, так как вводят в середину сети дополнительную ошибку.

Рис. 19. Вспомогательный модуль GoogleNet, использующийся при обучении сети.

Ещё один полезный аспект в архитектуре GoogleNet, по мнению разработчиков, состоит в том, что сеть интуитивно правильно обрабатывает изображение: сначала картинка обрабатывается в разных масштабах, а затем результаты агрегируются. Такой подход больше соответствует тому, как подсознательно выполняет анализ окружения человек.

В 2015 году разработчики из Google представили модифицированный модуль Inception v2, в котором свёртка 5×5 была заменена на две свёртки 3×3, по причинам, приведённым выше, вдобавок потери информации в картах признаков при таком действии происходят незначительные, так как соседние ячейки имеют между собой сильную корреляционную связь. Также, если заменить свёртку 3×3 на две последовательные свёртки 3×1 и 1×3, то это будет на 33% эффективнее, чем стандартная свёртка, а две свёртки 2×2 дадут выигрыш лишь в 11%17. Данная архитектура нейросети давала ошибку 5,6%, а потребляла ресурсов в 2,5 раза меньше.

Стоит отметить, что точного алгоритма построения архитектуры нейросети не существует. Разработчики составляют свёрточные нейросети, основываясь на результатах экспериментов и собственном опыте.

Нейронную сеть можно использовать для точной классификации изображений, загруженных в глобальную сеть, либо использовать для сортировки фотографий по определённому признаку в галерее смартфона.

Свёрточная нейронная сеть имеет следующие преимущества: благодаря своей структуре, она позволяет значительно снизить количество весов в сравнении с полносвязанной нейронной сетью, её операции легко поддаются распараллеливанию, что положительно сказывается на скорости обучения и на скорости работы, данная архитектура лидирует в области классификации изображений, занимая первые места на соревновании ImageNet. Из-за того, что для сети более важно наличие признака, а не его место на изображении, она инвариантна к различным сдвигам и поворотам сканируемого изображения.

К недостаткам данной архитектуры можно отнести следующие: состав сети (количество её слоёв, функция активации, размерность свёрток, размерность pooling-слоёв, очередность слоёв и т.п.) необходимо подбирать эмпирически к определённому размеру и виду
изображения; сложность обучения: нейросети с хорошим показателем ошибки должны тренироваться на мощных GPU долгое время; и, наверное, главный недостаток – атаки на данные нейросети. Инженеры Google в 2015 году показали, что к картинке можно подмешать невидимый для человеческого зрения градиент, который приведёт к неправильной классификации.

Нейрон. Его строение и функции

Мозг человека состоит из 10 в 12-ой нервных клеток. Обычная нервная клетка получает информацию от сотен и тысяч других клеток и передаёт сотням и тысячам, а количество соединений в головном мозге превышает 10 в 14ой — 10 в 15ой . Открытые более 150 лет тому назад в морфологических исследованиях Р. Дютроше, К. Эренберга и И. Пуркинье, нервные клетки не перестают привлекать к себе внимание исследователей. Как независимые элементы нервной системы они были открыты сравнительно недавно – в XIX в. Гольджи и Рамон-и-Кахал применили достаточно совершенные методы окраски нервной ткани и нашли, что в структурах мозга можно выделить клетки двух типов: нейроны и глию. Нейробиолог и нейроанатом Рамон-и-Кахал использовал метод окраски по Гольджи для картирования участков головного и спинного мозга. В результате была показана не только чрезвычайная сложность, но и высокая степень упорядоченности нервной системы. С тех пор появились новые методы исследования нервной ткани, позволяющие выполнить тонкий анализ её строения, – например, использование гисторадиохимии выявляет сложнейшие связи между нервными клетками, что позволяет выдвигать принципиально новые предположения о построении нейронных систем.

Имеющая исключительно сложное строение, нервная клетка – это субстрат самых высокоорганизованных физиологических реакций, лежащих в основе способности живых организмов к дифференцированному реагированию на изменения внешней среды. К функциям нервной клетки относят передачу информации об этих изменениях внутри организма и её запоминание на длительные сроки, создание образа внешнего мира и организацию поведения наиболее целесообразным способом, обеспечивающим живому существу максимальный успех в борьбе за своё существование.

Исследования основных и вспомогательных функций нервной клетки в настоящее время развились в большие самостоятельные области нейробиологии. Природа рецепторных свойств чувствительных нервных окончаний, механизмы межнейронной синаптической передачи нервных влияний, механизмы появления и распространения нервного импульса по нервной клетке и её отросткам, природа сопряжения возбудительного и сократительного или секреторного процессов, механизмы сохранения следов в нервных клетках – всё это кардинальные проблемы, в решении которых за последние десятилетия достигнуты большие успехи благодаря широкому внедрению новейших методов структурного, электрофизиологического и биохимического анализов.

Размер и форма

Размеры нейронов могут быть от 1 (размер фоторецептора) до 1000 мкм (размер гигантского нейрона у морского моллюска Aplysia) (см. [Сахаров, 1992]). Форма нейронов также исключительно разнообразна. Наиболее ясно форма нейронов видна при приготовлении препарата полностью изолированных нервных клеток. Нейроны чаще всего имеют неправильную форму. Существуют нейроны, напоминающие «листик» или «цветок». Иногда поверхность клеток напоминает мозг – она имеет «борозды» и «извилины». Исчерченность мембраны нейронов увеличивает её поверхность более чем в 7 раз.

В нервных клетках различимы тело и отростки. В зависимости от функционального назначения отростков и их количества различают клетки монополярные и мультиполярные. Монополярные клетки имеют только один отросток – это аксон. Согласно классическим представлениям, у нейронов один аксон, по которому возбуждение распространяется от клетки. Согласно же наиболее новым результатам, полученным в электрофизиологических исследованиях с использованием красителей, которые могут распространяться от тела клетки и прокрашивать отростки, нейроны имеют более чем один аксон. Мультиполярные (биполярные) клетки имеют не только аксоны, но и дендриты. По дендритам сигналы от других клеток поступают в нейрон. Дендриты в зависимости от их локализации могут быть базальными и апикальными. Дендритное дерево некоторых нейронов чрезвычайно разветвлено, а на дендритах находятся синапсы – структурно и функционально оформленные места контактов одной клетки с другой.

Какие клетки более совершенны – униполярные или биполярные? Униполярные нейроны могут быть определённым этапом в развитии биполярных клеток. В то же время у моллюсков, которые на эволюционной лестнице занимают далеко не верхний этаж, нейроны униполярные. Новыми гистологическими исследованиями показано, что даже у человека при развитии нервной системы клетки некоторых структур мозга из униполярных «превращаются» в биполярные. Подробное исследование онтогенеза и филогенеза нервных клеток убедительно показало, что униполярное строение клетки является вторичным явлением и что во время эмбрионального развития можно шаг за шагом проследить постепенное превращение биполярных форм нервных клеток в униполярные. Рассматривать биполярный или униполярный тип строения нервной клетки как признак сложности строения нервной системы вряд ли верно.

Отростки-проводники придают нервным клеткам способность объединяться в нервные сети различной сложности, что является основой для создания из элементарных нервных клеток всех систем мозга. Для приведения в действие этого основного механизма и его использования нервные клетки должны обладать вспомогательными механизмами. Назначением одного из них является превращение энергии различных внешних воздействий в тот вид энергии, который может включить процесс электрического возбуждения. У рецепторных нервных клеток таким вспомогательным механизмом являются особые сенсорные структуры мембраны, позволяющие изменять её ионную проводимость при действии тех или иных внешних факторов (механических, химических, световых). У большинства других нервных клеток – это хемочувствительные структуры тех участков поверхностной мембраны, к которым прилежат окончания отростков других нервных клеток (постсинаптические участки) и которые могут изменять ионную проводимость мембраны при взаимодействии с химическими веществами, выделяемыми нервными окончаниями. Возникающий при таком изменении локальный электрический ток является непосредственным раздражителем, включающим основной механизм электрической возбудимости. Назначение второго вспомогательного механизма – преобразование нервного импульса в процесс, который позволяет использовать принесённую этим сигналом информацию для запуска определённых форм клеточной активности.

Цвет нейронов

Следующая внешняя характеристика нервных клеток – это их цвет. Он также разнообразен и может указывать на функцию клетки – например, нейроэндокринные клетки имеют белый цвет. Жёлтый, оранжевый, а иногда и коричневый цвет нейронов объясняется пигментами, которые содержатся в этих клетках. Размещение пигментов в клетке неравномерно, поэтому её окраска различна по поверхности – наиболее окрашенные участки часто сосредоточены вблизи аксонного холмика. По-видимому, существует определённая взаимосвязь между функцией клетки, её цветом и её формой. Наиболее интересные данные об этом получены в исследованиях на нервных клетках моллюсков.

Синапсы

Биофизический и клеточно-биологический подход к анализу нейронных функций, возможность идентификации и клонирования генов, существенных для сигнализации, вскрыли тесную связь между принципами, которые лежат в основе синаптической передачи и взаимодействия клеток. В результате было обеспечено концептуальное единство нейробиологии с клеточной биологией.

Когда выяснилось, что ткани мозга состоят из отдельных клеток, соединённых между собой отростками, возник вопрос: каким образом совместная работа этих клеток обеспечивает функционирование мозга в целом? На протяжении десятилетий споры вызывал вопрос о способе передачи возбуждения между нейронами, т.е. каким путём она осуществляется: электрическим или химическим. К середине 20-х гг. большинство учёных приняли ту точку зрения, что возбуждение мышц, регуляция сердечного ритма и других периферийных органов – результат воздействия химических сигналов, возникающих в нервах. Эксперименты английского фармаколога Г. Дейла и австрийского биолога О. Леви были признаны решающими подтверждениями гипотезы о химической передаче.

Усложнение нервной системы развивается по пути установления связей между клетками и усложнения самих соединений. Каждый нейрон имеет множество связей с клетками-мишенями. Эти мишени могут быть нейронами разных типов, нейросекреторными клетками или мышечными клетками. Взаимодействие нервных клеток в значительной мере ограничено специфическими местами, в которые могут приходить соединения – это синапсы. Данный термин произошёл от греческого слова «застёгивать» и был введён Ч. Шеррингтоном в 1897 г. А на полвека раньше К. Бернар уже отмечал, что контакты, которые формируют нейроны с клетками-мишенями, специализированы, и, как следствие, природа сигналов, распространяющихся между нейронами и клетками-мишенями, каким-то образом изменяется в месте этого контакта. Критичные морфологические данные о существовании синапсов появились позже. Их получил С. Рамон-и-Кахал (1911), который показал, что все синапсы состоят из двух элементов – пресинаптической и постсинаптической мембраны. Рамон-и-Кахал предсказал также существование третьего элемента синапса – синаптической щели (пространства между пресинаптическим и постсинаптическим элементами синапса). Совместная работа этих трёх элементов и лежит в основе коммуникации между нейронами и процессами передачи синаптической информации. Сложные формы синаптических связей, формирующихся по мере развития мозга, составляют основу всех функций нервных клеток – от сенсорной перцепции до обучения и памяти. Дефекты синаптической передачи лежат в основе многих заболеваний нервной системы.

Синаптическая передача через большую часть синапсов мозга опосредуется при взаимодействии химических сигналов, поступающих из пресинаптической терминали, с постсинаптическими рецепторами. В течение более чем 100 лет изучения синапса все данные рассматривались с точки зрения концепции динамической поляризации, выдвинутой С. Рамон-и-Кахалом. В соответствии с общепринятой точкой зрения синапс передаёт информацию только в одном направлении: информация течёт от пресинаптической к постсинаптической клетке, антероградно направленная передача информации обеспечивает финальный шаг в сформированных нейронных коммуникациях.

Анализ новых результатов заставляет предполагать, что существенная часть информации передаётся и ретроградно – от постсинаптического нейрона к пресинаптическим терминалям нерва [Jessell, Kandel, 1993]. В некоторых случаях были идентифицированы молекулы, которые опосредуют ретроградную передачу информации. Это целый ряд веществ от подвижных маленьких молекул окиси азота до больших полипептидов, таких, как фактор роста нерва. Даже если сигналы, которые передают информацию ретроградно, различны по своей молекулярной природе, принципы, на основе которых эти молекулы действуют, могут быть сходными. Бидирекциональность передачи обеспечивается и в электрическом синапсе, в котором щель в соединительном канале формирует физическую связь между двумя нейронами, без использования нейромедиатора для передачи сигналов от одного нейрона на другой. Это позволяет осуществлять бидирекциональную передачу ионов и других маленьких молекул. Но реципрокная передача существует также в дендродендритных химических синапсах, где оба элемента имеют приспособления для высвобождения передатчика и ответа. Так как эти формы передачи часто трудно дифференцировать в сложных сетях мозга, случаев бидирекциональной синаптической коммуникации может оказаться значительно больше, чем это кажется сейчас.

Бидирекциональная передача сигналов в синапсе играет важную роль в любом из трёх основных аспектов работы нервной сети: синаптической передаче, пластичности синапсов и созревании синапсов во время развития. Пластичность синапсов – это основа для формирования связей, которые создаются при развитии мозга и при научении. В обоих случаях требуется ретроградная передача сигналов от постк пресинаптической клетке, сетевой эффект которой заключается в том, чтобы сохранить или потенциировать активные синапсы. Ансамбль синапсов вовлекает координированное действие протеинов, высвобождаемых из преи постсинаптической клетки. Первичная функция белков состоит в том, чтобы индуцировать биохимические компоненты, требуемые для высвобождения передатчика из пресинаптической терминали, а также для того, чтобы организовать устройство для передачи внешнего сигнала постсинаптической клетке.

Электрическая возбудимость

Все функции, свойственные нервной системе, связаны с наличием у нервных клеток структурных и функциональных особенностей, обеспечивающих возможность генерации под влиянием внешнего воздействия особого сигнального процесса – нервного импульса (основными свойствами которого являются незатухающее распространение вдоль клетки, возможность передачи сигнала в необходимом направлении и воздействие с его помощью на другие клетки). Способность к генерации нервной клеткой распространяющегося нервного импульса определяется особым молекулярным устройством поверхностной мембраны, позволяющим воспринимать изменения проходящего через неё электрического поля, изменять практически мгновенно свою ионную проводимость и создавать за счёт этого трансмембранный ионный ток, используя в качестве движущей силы постоянно существующие между внеи внутриклеточной средой ионные градиенты.

Этот комплекс процессов, объединяемых под общим названием «механизм электрической возбудимости», является яркой функциональной характеристикой нервной клетки. Возможность направленного распространения нервного импульса обеспечивается наличием у нервной клетки ветвящихся отростков, нередко простирающихся на значительные расстояния от её сомы и обладающих в области своих окончаний механизмом передачи сигнала через межклеточную щель на последующие клетки.

Применение микроэлектродной техники позволило выполнить тонкие измерения, характеризующие основные электрофизиологические характеристики нервных клеток [Костюк, Крышталь, 1981; Окс, 1974; Ходоров, 1974]. Измерения показали, что каждая нервная клетка имеет отрицательный заряд, величина которого равна -40 – -65 мВ. Главное отличие нервной клетки от любой другой заключается в том, что она способна быстро изменять величину заряда вплоть до противоположного. Критический уровень деполяризации нейрона, при достижении которого возникает быстрый разряд, называется порогом генерации потенциала действия (ПД). Длительность потенциала действия различна у позвоночных и беспозвоночных животных – у беспозвоночных она равна 0,1 мс, а у беспозвоночных 1–2 мс. Серия потенциалов действия, распределённых во времени, является основой для пространственно-временного кодирования.

Внешняя мембрана нейронов чувствительна к действию специальных веществ, которые выделяются из пресинаптической терминали – к нейромедиаторам. В настоящее время идентифицировано около 100 веществ, которые выполняют эту функцию. На внешней стороне мембраны расположены специализированные белковые молекулы – рецепторы, которые и взаимодействуют с нейромедиатором. В результате происходит открытие каналов специфической ионной проницаемости – только определённые ионы могут массированно проходить в клетку после действия медиатора. Развивается локальная деполяризация или гиперполяризация мембраны, которая называется постсинаптическим потенциалом (ПСП). ПСП могут быть возбудительными (ВПСП) и тормозными (ТПСП). Амплитуда ПСП может достигать 20 мВ.

Пейсмекер

Один из удивительных видов электрической активности нейронов, регистрируемой внутриклеточным микроэлектродом, – это пейсмекерные потенциалы. А. Арванитаки и Н. Халазонитис [Arvanitaki, Chalazonitis, 1955] впервые описали осциллирующие потенциалы нервной клетки, не связанные с поступлением к ней синаптических влияний. Эти колебания в ряде случаев могут приобретать такой размах, что превышают критический уровень потенциала, необходимый для активации механизма электрической возбудимости. Наличие в соме клетки таких волн мембранного потенциала было обнаружено на нейронах моллюсков. Они были расценены как проявление спонтанной, или ауторитмической активности, имеющей эндогенное происхождение [Alving, 1968].

Аналогичные ритмические колебания были затем описаны и во многих других типах нейронов. Способность к длительной ритмической активности сохраняется у некоторых клеток в течение длительного времени после полного их выделения [Chen et al., 1971; Греченко, Соколов, 1986]. Следовательно, в её основе действительно лежат эндогенные процессы, приводящие к периодическому изменению ионной проницаемости поверхностной мембраны. Важную роль играют изменения ионной проницаемости мембраны под действием некоторых цитоплазматических факторов, например системы обмена циклических нуклеотидов. Изменения активности этой системы при действии на соматическую мембрану некоторых гормонов или других внесинаптических химических влияний могут модулировать ритмическую активность клетки (эндогенная модуляция).

Запускать генерацию колебаний мембранного потенциала могут синаптические и внесинаптические влияния. Л. Тауц и Г.М. Гершенфельд [Tauc, Gerschenfeld, 1960] обнаружили, что соматическая мембрана нейронов моллюсков, не имеющая на своей поверхности синаптических окончаний, обладает высокой чувствительностью к медиаторным веществам и, следовательно, имеет молекулярные хемоуправляемые структуры, свойственные постсинаптической мембране. Наличие внесинаптической рецепции показывает возможность модуляции пейсмекерной активности диффузным действием выделяющихся медиаторных веществ.

Сложившаяся концепция о двух типах мембранных структур – электровозбудимой и электроневозбудимой, но химически возбудимой, заложила основу представлений о нейроне как пороговом устройстве, обладающем свойством суммации возбуждающих и тормозных синаптических потенциалов. Принципиально новое, что вносит эндогенный пейсмекерный потенциал в функционирование нейрона, заключается в следующем: пейсмекерный потенциал превращает нейрон из сумматора синаптических потенциалов в генератор. Представление о нейроне как управляемом генераторе заставляет по-новому взглянуть на организацию многих функций нейрона.

Пейсмекерными потенциалами в собственном смысле этого слова называют близкие к синусоидальным колебания частотой 0,1–10 Гц и амплитудой 5–10 мВ. Именно эта категория эндогенных потенциалов, связанных с активным транспортом ионов, образует механизм внутреннего генератора нейрона, обеспечивающего периодическое достижение порога генерации ПД в отсутствие внешнего источника возбуждения. В самом общем виде нейрон состоит из электровозбудимой мембраны, химически возбудимой мембраны и локуса генерации пейсмекерной активности. Именно пейсмекерный потенциал, взаимодействующий с хемовозбудимой и электровозбудимой мембраной, делает нейрон устройством со «встроенным» управляемым генератором [Bullock, 1984].

Если локальный потенциал является частным случаем механизма генерации ПД, то пейсмекерный потенциал принадлежит к особому классу потенциалов – электрогенному эффекту активного транспорта ионов. Особенности ионных механизмов электрической возбудимости соматической мембраны лежат в основе важных свойств нервной клетки, в первую очередь её способности генерировать ритмические разряды нервных импульсов. Электрогенный эффект активного транспорта возникает в результате несбалансированного переноса ионов в разных направлениях. Широко известен гиперполяризационный постоянный потенциал как результат активного вывода ионов натрия, суммирующийся потенциалом Нернста [Ходоров, 1974]. Дополнительное включение активного насоса ионов натрия создаёт фазичекие медленные волны гиперполяризации (негативные отклонения от уровня мембранного потенциала покоя), обычно возникающие вслед за высокочастотной группой ПД, которая приводит к избыточному накоплению натрия в нейроне.

Несомненно, что некоторые из компонентов механизма электрической возбудимости соматической мембраны, а именно электроуправляемые кальциевые каналы, вместе с тем являются фактором, сопрягающим мембранную активность с цитоплазматическими процессами, в частности с процессами протоплазматического транспорта и нервной трофики. Детальное выяснение этого важного вопроса требует дальнейшего экспериментального изучения.

Пейсмекерный механизм, являясь эндогенным по происхождению, может активироваться и инактивироваться на длительное время в результате афферентных воздействий на нейрон. Пластические реакции нейрона могут обеспечиваться изменениями эффективности синаптической передачи и возбудимости пейсмекерного механизма (Соколов, Тавкхелидзе, 1975).

Пейсмекерный потенциал является компактным способом передачи внутринейронной генетической информации. Приводя к генерации ПД, он обеспечивает возможность выхода эндогенных сигналов на другие нейроны, в том числе и эффекторные, обеспечивающие реакцию [Bullock, 1984]. Тот факт, что генетическая программа включает звено управления пейсмекерным потенциалом, позволяет нейрону реализовывать последовательность своих генетических программ. Наконец пейсмекерный потенциал в той или иной степени может подвергаться синаптическим влияниям. Этот путь позволяет интегрировать генетические программы с текущей активностью, обеспечивая гибкое управление последовательными программами. Пластические изменения пейсмекерного потенциала ещё больше расширяют возможность приспособления наследственно фиксированных форм к потребностям организма. Пластические изменения развиваются в этом случае не в геноме, а на пути выхода наследственной программы на реализацию (на уровне генерации ПД).

новых типов экспериментов показывают, что нейрон функционирует как несколько независимых пороговых единиц.

  • 1.

    Андерсон, Дж., Бинцеггер, Т., Кахана, О., Мартин, К., Сегев, И. ответы нейронов зрительной коры. Природа нейробиологии 2 , 820–824 (1999).

    CAS Статья PubMed Google ученый

  • 2.

    Эйлер Т., Детвайлер П. Б. и Денк В. Направленно-селективные кальциевые сигналы в дендритах амакриновых клеток со вспышкой звездообразования. Природа 418 , 845–852 (2002).

    ADS CAS Статья PubMed Google ученый

  • 3.

    Гаспарини, С., Мильоре, М. и Маги, Дж. С. О инициации и распространении дендритных шипов в пирамидных нейронах СА1. Журнал неврологии 24 , 11046–11056 (2004).

    CAS Статья PubMed Google ученый

  • 4.

    Cai, X. et al. . Уникальные роли SK и Kv4. 2 калиевых канала в дендритной интеграции. Нейрон 44 , 351–364 (2004).

    CAS Статья PubMed Google ученый

  • 5.

    Бранко Т. и Хойссер М. Отдельная дендритная ветвь как фундаментальная функциональная единица нервной системы. Текущее мнение в области нейробиологии 20 , 494–502 (2010).

    CAS Статья PubMed Google ученый

  • 6.

    Смит, С. Л., Смит, И. Т., Бранко, Т. и Хойссер, М. Дендритные шипы повышают избирательность стимулов в корковых нейронах in vivo . Природа 503 , 115–120 (2013).

    ADS CAS Статья PubMed Google ученый

  • 7.

    Ларкум, М. Э. и Невиан, Т. Синаптическая кластеризация с помощью дендритных сигнальных механизмов. Текущее мнение в области нейробиологии 18 , 321–331 (2008).

    CAS Статья PubMed Google ученый

  • 8.

    Лю Г. Локальный структурный баланс и функциональное взаимодействие возбуждающих и тормозных синапсов в дендритах гиппокампа. Природа нейробиологии 7 , 373–379 (2004).

    CAS Статья PubMed Google ученый

  • 9.

    Лондон, М. и Хойссер, М. Дендритные вычисления. Annu. Rev. Neurosci. 28 , 503–532 (2005).

    CAS Статья PubMed Google ученый

  • 10.

    Чкловский Д. Б., Мел Б., Свобода К. Кортикальная перестройка и хранение информации. Природа 431 , 782–788 (2004).

    ADS CAS Статья PubMed Google ученый

  • 11.

    Чкловский Д. Б. Синаптическая связность и морфология нейронов: две стороны одной медали. Нейрон 43 , 609–617 (2004).

    CAS PubMed Google ученый

  • 12.

    Poirazi, P. & Mel, B. W. Влияние активных дендритов и структурной пластичности на емкость памяти нервной ткани. Нейрон 29 , 779–796 (2001).

    CAS Статья PubMed Google ученый

  • 13.

    Польский А., Мел Б. В. и Шиллер Дж. Вычислительные субъединицы в тонких дендритах пирамидных клеток. Природа нейробиологии 7 , 621–627 (2004).

    CAS Статья PubMed Google ученый

  • 14.

    Шиллер, Дж., Шиллер, Ю., Стюарт, Г., Сакманн, Б. Потенциалы действия кальция, ограниченные дистальными апикальными дендритами пирамидных нейронов неокортекса крыс. Журнал физиологии 505 , 605–616 (1997).

    CAS Статья PubMed PubMed Central Google ученый

  • 15.

    Тейлор, У. Р., Хе, С., Левик, У. Р. и Вейни, Д. И. Дендритные вычисления избирательности направления ганглиозными клетками сетчатки. Наука 289 , 2347–2350 (2000).

    ADS CAS Статья PubMed Google ученый

  • 16.

    Голло Л. Л., Киноучи О. и Копелли М. Статистический физический подход к вычислению дендритов: приближение среднего поля возбудимых волн. Физический обзор E 85 , 011911 (2012).

    ADS Статья Google ученый

  • 17.

    Ким Ю.-Т., Голденфельд Н. и Данциг Дж. Расчет дендритных микроструктур с использованием метода установки уровня. Физический обзор E 62 , 2471 (2000).

    ADS CAS Статья Google ученый

  • 18.

    Юсте, Р. и Денк, В. Дендритные шипы как основные функциональные единицы нейрональной интеграции. Природа 375 , 682 (1995).

    ADS CAS Статья PubMed Google ученый

  • 19.

    Сингл, С., Хааг, Дж. И Борст, А. Дендритные вычисления избирательности направления и управления усилением в визуальных интернейронах. Журнал неврологии 17 , 6023–6030 (1997).

    CAS PubMed Google ученый

  • 20.

    Джордж С., Хаслер Дж., Козиол, С., Нис, С. и Рамакришнан, С. Маломощные вычисления дендритов для определения слов. Журнал маломощной электроники и приложений 3 , 73–98 (2013).

    Артикул Google ученый

  • 21.

    Хэкстра, Дж., Роу, Э. и Дюбуа, Д. М. В материалах конференции AIP . 308–322 (AIP).

  • 22.

    Власиц, А. Л. и др. . Роль синаптического входного распределения в дендритном вычислении направления движения в сетчатке. Нейрон 89 , 1317–1330 (2016).

    CAS Статья PubMed PubMed Central Google ученый

  • 23.

    Гиллори, К. и Норманн, Р. 100-канальная система для обнаружения и хранения внеклеточных спайковых волн в реальном времени. Журнал методов нейробиологии 91 , 21–29 (1999).

    CAS Статья PubMed Google ученый

  • 24.

    Фи, М. С., Митра, П. П. и Кляйнфельд, Д. Вариабельность внеклеточных спайковых волн корковых нейронов. Журнал нейрофизиологии 76 , 3823–3833 (1996).

    CAS PubMed Google ученый

  • 25.

    Аксенова Т.И. и др. . Неконтролируемый автоматический метод сортировки нейрональных спайков волн у бодрствующих и свободно движущихся животных. Методы 30 , 178–187 (2003).

    CAS Статья PubMed Google ученый

  • 26.

    Вуд, Ф., Блэк, М. Дж., Варгас-Ирвин, К., Феллоуз, М. и Донохью, Дж. П. О вариативности ручной сортировки колосьев. Транзакции IEEE по биомедицинской инженерии 51 , 912–918 (2004).

    Артикул PubMed Google ученый

  • 27.

    Такахаши, С., Anzai, Y. & Sakurai, Y. Новый подход к сортировке спайков для мультинейронной активности, записанной с помощью тетрода — как ICA может быть практичным. Исследования в области неврологии 46 , 265–272 (2003).

    Артикул PubMed Google ученый

  • 28.

    Левицки, М. С. Обзор методов сортировки спайков: обнаружение и классификация нейронных потенциалов действия. Сеть: вычисления в нейронных системах 9 , R53 – R78 (1998).

    CAS Статья МАТЕМАТИКА Google ученый

  • 29.

    Harris, K. D., Henze, D. A., Csicsvari, J., Hirase, H. & Buzsáki, G. Точность разделения спайков тетрода, определяемая одновременными внутриклеточными и внеклеточными измерениями. Журнал нейрофизиологии 84 , 401–414 (2000).

    CAS PubMed Google ученый

  • 30.

    Бретт, Р. и Герстнер, В. Адаптивная экспоненциальная модель интеграции и запуска как эффективное описание нейронной активности. Журнал нейрофизиологии 94 , 3637–3642 (2005).

    Артикул PubMed Google ученый

  • 31.

    Науд, Р., Марсиль, Н., Клопат, К. и Герстнер, У. Шаблоны возбуждения в адаптивной экспоненциальной модели интегрирования и запуска. Биологическая кибернетика 99 , 335 (2008).

    MathSciNet Статья PubMed PubMed Central МАТЕМАТИКА Google ученый

  • 32.

    Беркитт, А. Н. Обзор модели нейрона интеграции и запуска: I. Однородный синаптический вход. Биологическая кибернетика 95 , 1–19 (2006).

    MathSciNet CAS Статья PubMed МАТЕМАТИКА Google ученый

  • 33.

    Лю, Ю.-Х. И Ван, X.-J. Адаптация частоты всплесков обобщенной дырявой модели нейрона «интегрируй и зажигай». Журнал вычислительной неврологии 10 , 25–45 (2001).

    CAS Статья PubMed Google ученый

  • 34.

    Ходжкин А. Л. и Хаксли А. Ф. Количественное описание мембранного тока и его применение к проводимости и возбуждению в нерве. Журнал физиологии 117 , 500 (1952).

    CAS Статья PubMed PubMed Central Google ученый

  • 35.

    Ноубл Д. Применение уравнений Ходжкина-Хаксли к возбудимым тканям. Психологические обзоры 46 , 1–50 (1966).

    CAS PubMed Google ученый

  • 36.

    Ходжкин, А.Л. и Хаксли, А.Ф. Токи, переносимые ионами натрия и калия через мембрану гигантского аксона Лолиго. Журнал физиологии 116 , 449 (1952).

    CAS Статья PubMed PubMed Central Google ученый

  • 37.

    Кистлер, В. М., Герстнер, В. и ван Хеммен, Дж. Л. Сведение уравнений Ходжкина-Хаксли к пороговой модели с одной переменной. Нейронные вычисления 9 , 1015–1045 (1997).

    Артикул Google ученый

  • 38.

    Варди, Р. и др. . Механизм импеданса нейронного отклика, реализующий совместные сети с низкой скоростью срабатывания и точностью до микросекунд. Фронт. Нейронные схемы 9 , 29 (2015).

  • 39.

    Spors, H., Wachowiak, M., Коэн, Л. Б. и Фридрих, Р. В. Временная динамика и латентные паттерны ввода рецепторных нейронов в обонятельную луковицу. Журнал неврологии 26 , 1247–1259 (2006).

    CAS Статья PubMed Google ученый

  • 40.

    Мармари, Х., Варди, Р. и Кантер, И. Хаотические и не хаотические фазы в экспериментальных реакциях одиночного нейрона. EPL (Europhysics Letters) 106 , 46002 (2014).

    ADS Статья Google ученый

  • 41.

    Xu, N.-l et al . Нелинейная дендритная интеграция сенсорных и моторных входов во время задачи активного зондирования. Природа 492 , 247–251 (2012).

    ADS CAS Статья PubMed Google ученый

  • 42.

    Бранко, Т., Кларк, Б.А. и Хойссер, М.Дендритное различение временных входных последовательностей в корковых нейронах. Наука 329 , 1671–1675 (2010).

    ADS CAS Статья PubMed Google ученый

  • 43.

    Шеперд, Г. М. и Брайтон, Р. К. Логические операции — это свойства смоделированных компьютером взаимодействий между возбудимыми дендритными шипами. Неврология 21 , 151–165 (1987).

    CAS Статья PubMed Google ученый

  • 44.

    Лавзин М., Рапопорт С., Польский А., Гарион Л. и Шиллер Дж. Нелинейная дендритная обработка определяет угловую настройку нейронов бочкообразной коры in vivo . Природа 490 , 397–401 (2012).

    ADS CAS Статья PubMed Google ученый

  • 45.

    Legenstein, R. & Maass, W. Пластичность, специфичная для ветвей, делает возможным самоорганизацию нелинейных вычислений в отдельных нейронах. Журнал неврологии 31 , 10787–10802 (2011).

    CAS Статья PubMed Google ученый

  • 46.

    Задор А. М., Клэйборн Б. Дж., Браун Т. Х. и Клэрборн Б. Нелинейное разделение паттернов в отдельных нейронах гиппокампа с активной дендритной мембраной. Достижения в системах обработки нейронной информации , 51–51 (1993).

  • 47.

    Науд Р., Пайер А. и Лонгтин А. Шум, управляемый дендросоматическими взаимодействиями, увеличивает передачу информации. Физический обзор X 7 , 031045 (2017).

    ADS Статья Google ученый

  • 48.

    Варди, Р., Голденталь, А., Шейнин, А., Сарди, С. и Кантер, И.Быстрое обратимое обучение, основанное на функционировании нейронов как анизотропных мультиплексных концентратора. EPL (Europhysics Letters) 118 , 46002 (2017).

    ADS Статья Google ученый

  • 49.

    Варди, Р., Голденталь, А., Сарди, С., Шейнин, А. и Кантер, И. Одновременная запись нескольких патч-зажимов и внеклеточного массива: один нейрон отражает сетевую активность. Научные отчеты 6 (2016).

  • 50.

    Винсент, К., Таускела, Дж. С. и Тивьерж, Ж.-П. Извлечение функционально прямых сетей из популяции импульсных нейронов. Границы вычислительной нейробиологии 6 (2012).

  • 51.

    Сансеверино, Э. Р., Агнати, Л., Майоли, М. и Галлетти, С. Поддержание активности отдельных нейронов в полосатых и не полосатых областях зрительной коры головного мозга кошек. Исследование мозга 54 , 225–242 (1973).

    CAS Статья PubMed Google ученый

  • 52.

    Мовшон, Дж. А., Томпсон, И. Д. и Толхерст, Д. Дж. Пространственное суммирование в рецептивных полях простых клеток полосатой коры головного мозга кошки. Журнал физиологии 283 , 53 (1978).

    CAS Статья PubMed PubMed Central Google ученый

  • 53.

    Барлоу, Х. Временное и пространственное суммирование в человеческом зрении при различной интенсивности фона. Журнал физиологии 141 , 337 (1958).

    CAS Статья PubMed PubMed Central Google ученый

  • 54.

    Сценяк, М. П., Рингач, Д. Л., Хокен, М. Дж. И Шепли, Р. Эффект контраста на пространственное суммирование нейронов V1 макаки. Природа нейробиологии 2 , 733–739 (1999).

    CAS Статья PubMed Google ученый

  • 55.

    Харди, Дж. Д., Вольф, Х. Г. и Гуделл, Х. Исследования боли. Новый метод измерения болевого порога: наблюдения за пространственным суммированием боли. Журнал клинических исследований 19 , 649 (1940).

    CAS Статья PubMed PubMed Central Google ученый

  • 56.

    Кападиа, М. К., Вестхаймер, Г. и Гилберт, К. Д. Динамика пространственного суммирования в первичной зрительной коре бдительных обезьян. Труды Национальной академии наук 96 , 12073–12078 (1999).

    ADS CAS Статья Google ученый

  • 57.

    Энрот-Кугелл, К., Робсон, Дж., Швейцер-Тонг, Д. и Уотсон, А. Пространственно-временные взаимодействия в ганглиозных клетках сетчатки кошки, демонстрирующие линейное пространственное суммирование. Журнал физиологии 341 , 279 (1983).

    CAS Статья PubMed PubMed Central Google ученый

  • 58.

    Сарди, С., Голдентал, А., Амир, Х., Варди, Р. и Кантер, И. Жизнеспособность нейронных сетей в условиях повторяющихся катастрофических сбоев. Научные отчеты 6 (2016).

  • 59.

    Huguenard, J.Р., Хэмилл, О. П. и Принс, Д. А. Натриевые каналы в дендритах кортикальных пирамидных нейронов крыс. Труды Национальной академии наук 86 , 2473–2477 (1989).

    ADS CAS Статья Google ученый

  • 60.

    Регер В. Г., Коннерт А. и Армстронг К. М. Потенциалы действия натрия в дендритах клеток Пуркинье мозжечка. Труды Национальной академии наук 89 , 5492–5496 (1992).

    ADS CAS Статья Google ученый

  • 61.

    Лай, Х. С. и Ян, Л. Ю. Распределение и нацеливание нейронных потенциалзависимых ионных каналов. Обзоры природы Неврология 7 , 548–562 (2006).

    CAS Статья PubMed Google ученый

  • 62.

    Сафронов Б.В., Вольф М. и Фогель В.Функциональное распределение трех типов Na + -каналов на соме и отростках нейронов дорсального рога спинного мозга крыс. Журнал физиологии 503 , 371–385 (1997).

    CAS Статья PubMed PubMed Central Google ученый

  • Структура и функции нейронов — Образовательное партнерство по фармакологии алкоголя

    Структура нейронов

    Мозг содержит множество миллиардов нейронов, которые работают вместе, чтобы производить ощущения, мысли, обучение, движения, эмоции и многие другие процессы.Координация этих действий требует быстрой и обширной коммуникации между отдельными нейронами и тканями (например, мышцами). Для этого нейроны используют электрические сигналы для передачи информации внутри одной клетки и химические сигналы между клетками. Эти уникальные функции заставили нейрон принять клеточную структуру в отличие от других клеток.

    Нейроны состоят из тела клетки (или сомы), дендритов и аксона, который заканчивается на конце. Тело клетки содержит ядро ​​и механизмы, необходимые для синтеза белков.Тело клетки также является областью нейрона, в которой генерируется электрический импульс. От тела клетки отходят короткие разветвленные дендриты, которые получают химические сигналы от других нейронов или стимулы, которые инициируют электрический сигнал. Этот электрический импульс (или потенциал действия) распространяется от тела клетки вдоль аксона к его окончанию. Аксон представляет собой удлиненное волокно, которое передает импульс, изменяя поток ионов натрия и калия через мембрану нейронов. Многие аксоны окружены миелиновой оболочкой, состоящей из липидов и белков.Подобно изоляции, покрывающей электрический провод, этот жировой слой значительно увеличивает скорость электрических импульсов по аксону.

    Хотя нервное окончание одного нейрона находится в непосредственной близости от дендритов соседней клетки, клетки фактически разделены небольшим пространством; эта связь между двумя клетками называется синапсом. Синапс представляет собой настоящий разрыв между клетками; нет разделения цитоплазмы или клеточных структур между пресинаптическими и постсинаптическими клетками.Связь между нейронами — это химический процесс, в котором нейротрансмиттеры используются в процессе, называемом синаптической передачей.

    Нейрон состоит из тела клетки, дендритов и аксона. Информация течет от дендритов к телу клетки, а затем по аксону к его окончанию.

    Нейротрансмиссия

    Когда электрический импульс проходит по аксону к нервным окончаниям, он запускает движение пузырьков в терминалах, чтобы высвободить их содержимое, химические вещества, известные как нейротрансмиттеры.После высвобождения нейротрансмиттеры диффундируют через синаптическое пространство и связываются с рецепторами на дендритах постсинаптических клеток. Связывание нейромедиатора с его рецептором специфично. Подобно тому, как ключ подходит только к определенному замку, нейромедиатор связывается только с определенным типом рецептора.

    В головном мозге существует множество типов нейромедиаторов, каждый из которых выполняет уникальную функцию. Взаимодействие между рецептором и нейротрансмиттером вызывает химические и / или электрические изменения в постсинаптической клетке в зависимости от точного связывания нейромедиатора.Возбуждающие нейротрансмиттеры способствуют распространению электрического сигнала в принимающей клетке, тогда как тормозные нейротрансмиттеры ослабляют передачу электрического сигнала. Если нейротрансмиттер запускает потенциал действия в постсинаптическом нейроне, процесс коммуникации продолжается. Всего через долю секунды после связывания со своими рецепторами нейротрансмиттеры могут расщепляться ферментами или возвращаться обратно в пресинаптическую клетку.

    Пример нейротрансмиссии показан для связывания ацетилхолина нейромедиатора с рецепторами ацетилхолина.Используется с разрешения «Анимационная неврология и действия никотина, кокаина и марихуаны в мозге» (www.films.com)

    Структура и функции нейронов — Видео и стенограмма урока

    Поляризация мембраны

    Итак, нейроны имеют дендриты и аксоны, которые могут простираться далеко от тела клетки и передавать сигналы другим клеткам и от них, но как они на самом деле передают эти сигналы? Для этого давайте более подробно рассмотрим участок дендрита нейрона.

    Когда дендрит не передает сигнал, говорят, что он находится в состоянии покоя. В этом состоянии внутренняя часть ячейки имеет чистый отрицательный заряд, а внешняя часть ячейки имеет чистый положительный заряд. Говорят, что мембрана поляризована , потому что отрицательный и положительный заряды существуют на противоположных сторонах. Поляризованное состояние мембраны активно поддерживается нейроном с помощью натрий-калиевых насосов. Эти натрий-калиевые насосы выкачивают три положительно заряженных иона натрия из клетки на каждые два положительно заряженных иона калия, которые он закачивает в клетку.Каждый цикл накачки немного увеличивает поляризацию. Кроме того, ионы калия просачиваются обратно через мембрану и из клетки путем диффузии, что, опять же, создает больше отрицательного заряда внутри клетки и больше положительного заряда вне клетки.

    Деполяризация мембраны

    Когда нейрон получает сигнал, натриевые каналы в мембране открываются и позволяют локализованному притоку положительных ионов натрия в клетку, что вызывает деполяризацию или уменьшение разницы зарядов на мембране .Локальная деполяризация также запускает близлежащие натриевые каналы, чтобы открыться и деполяризовать мембрану поблизости, что затем заставляет больше натриевых каналов открываться дальше и деполяризовать мембрану там, и таким образом запускается цепная реакция.

    Как волна на футбольном стадионе, деполяризация происходит в волне через мембрану.

    Деполяризация возникает в виде волны через мембрану, начиная с дендрита, получившего сигнал, двигаясь к телу клетки, через тело клетки, а затем от клетки вниз по аксону.Вы можете думать о деполяризации как о людях, которые встают, чтобы взмахнуть волной на футбольном стадионе. Когда волна достигает сидящих людей, она заставляет их встать, что затем побуждает встать людей рядом с ними и так далее, продолжая волну через трибуны. И так же, как люди на трибунах, которые снова садятся, мембрана реполяризуется, закрывая натриевые каналы и активируя натрий-калиевые насосы, чтобы восстановить разницу в заряде через мембрану, и нейрон готов пройти через другой сигнал.

    Синапсы

    Итак, что происходит, когда сигнал достигает конца аксона? Как нейрон передает сигнал другой клетке? На концах аксонов аксон обычно разделяется на несколько более мелких ветвей. Каждая из этих ветвей заканчивается в другой клетке, в соединении, называемом синапсом , который является местом, где аксон заканчивается в целевой клетке. В синапсе есть небольшой промежуток между терминальным концом аксона и целевой клеткой. Когда деполяризующий сигнал достигает синапса, он запускает высвобождение сигнальных молекул, называемых нейротрансмиттерами , которые представляют собой сигнальные молекулы, используемые в синапсе для передачи сигнала от нейрона к его клетке-мишени.Эти нейротрансмиттеры диффундируют через очень короткий промежуток от аксона до поверхности клетки-мишени. Мембрана клетки-мишени в синапсе имеет множество рецепторов, с которыми нейротрансмиттер может специфически связываться, и эти рецепторы связаны с белками ионных каналов, которые контролируются рецептором.

    Возбуждающий сигнальный нейрон позволяет ионам натрия проникать в клетку и вызывать деполяризацию.

    Обычно, когда нейромедиатор связывается с рецептором, ионный канал открывается, и определенный тип иона попадает в клетку-мишень.Если сигнальный нейрон является возбуждающим нейроном, ионный канал позволяет ионам натрия проникать в клетку и вызывать деполяризацию в клетке-мишени. Однако, если сигнальный нейрон является тормозным нейроном, откроется другой ионный канал, который позволит другому типу иона, например, отрицательно заряженным ионам хлорида, проникнуть в клетку, что увеличит поляризацию целевой клетки и уменьшит вероятность деполяризации. даже если клетка одновременно получает возбуждающий сигнал.

    Резюме урока

    Итак, для обзора, нейронов — это специализированные клетки нервной системы, которые передают сигналы по всему телу. Нейроны имеют длинные отростки, выходящие из тела клетки, которые называются дендритами и аксонами . Дендриты — это продолжения нейронов, которые получают сигналы и проводят их к телу клетки. Аксоны — это продолжения нейронов, которые проводят сигналы от тела клетки к другим клеткам.

    Когда нейрон находится в состоянии покоя, мембрана называется поляризованной , потому что отрицательные и положительные заряды существуют на противоположных сторонах.Когда нейрон получает сигнал, натриевые каналы в мембране открываются и позволяют локализованному притоку положительных ионов натрия внутрь клетки, что вызывает деполяризацию или уменьшение разности зарядов на мембране. Локальная деполяризация также запускает близлежащие натриевые каналы, чтобы открыться и деполяризовать мембрану поблизости, что затем заставляет больше натриевых каналов открываться дальше и деполяризовать мембрану там, и таким образом запускается цепная реакция. Деполяризация происходит в виде волны через мембрану, начиная с дендрита, получившего сигнал, двигаясь к телу клетки, перемещаясь по телу клетки, а затем от клетки вниз по аксону.

    Аксоны оканчиваются на стыках со своими клетками-мишенями, называемыми синапсами . В синапсе есть небольшой промежуток между терминальным концом аксона и целевой клеткой. Когда деполяризующий сигнал достигает синапса, он запускает высвобождение сигнальных молекул, называемых нейротрансмиттерами . Эти нейротрансмиттеры диффундируют через очень короткий промежуток от аксона до поверхности клетки-мишени и связываются с рецепторами, которые контролируют ионные каналы, в результате чего ионные каналы открываются.Если сигнальный нейрон является возбуждающим, ионный канал позволяет ионам натрия проникать в клетку и вызывать деполяризацию в клетке-мишени. Однако, если сигнальный нейрон является тормозящим, откроется другой ионный канал, который позволит ингибирующим ионам, таким как отрицательно заряженные ионы хлорида, проникнуть в клетку. Это увеличит поляризацию клетки-мишени и уменьшит вероятность деполяризации, даже если клетка одновременно получает возбуждающий сигнал.

    Расширения нейрона

    Дендриты и аксоны ответственны за поляризацию и деполяризацию нейронной клетки.
    Дендриты Аксоны
    Принимать сигналы и передавать их к телу клетки Принимать сигналы и отводить их от тела клетки
    Когда мембрана получает сигнал от дендрита, каналы открываются, и клетка становится деполяризованной. Когда сигнал проходит через клетку и достигает синапса аксона, он может вызвать деполяризацию или поляризацию клетки.

    Результаты обучения

    Завершите этот урок о нейронах и укрепите свои способности:

    • Обсудите два компонента нейрона, ответственных за поляризацию и деполяризацию
    • Суммируем процессы поляризации и деполяризации
    • Укажите, что происходит в синапсе

    Функция нейрона | Научный проект

    Чтобы определить, что такое нейроны, что они делают, и поделиться этой важной информацией с моими когортами и общественностью, выполнив иллюстрированную книгу под названием «Знай свои нейроны и как они работают».

    • Из чего сделан мозг?
    • Какова функция мозга?
    • У нас один или два мозга?
    • Растет и изменяется ли наш мозг со временем?
    • Что такое нейрон и какова его функция?
    • В чем сходство клеточной структуры нейрона с другими клетками тела?
    • Каковы специализированные расширения нейронов?
    • Каковы специфические функции дендритов и аксонов?
    • Как нейроны взаимодействуют друг с другом?
    • Что такое нейромедиаторы?
    • Что такое Узел Ранвье?
    • Что такое тела Nissl?
    • Какова функция эндоплазматической сети?
    • Аппарат Гольджи? Какой цели это служит?
    • Каковы функции сенсорных нейронов, мотонейронов и интернейронов?
    • Почему правильно описывать процессы передачи нейронов как электрические, так и химические?
    • Способны ли нервные клетки (нейроны) к регенерации?
    • Что такое инсульт?
    • Что такое дегенерация аксонов?
    • Что подразумевается под термином деменция?
    • Какие бывают общие неврологические расстройства?
    • Какие общие методы лечения нервных расстройств?
    • Влияет ли наш образ жизни, то, как мы живем, то, что мы едим, что мы делаем, на наш мозг? Если да, то как?
    • Что говорят нам последние исследования о влиянии упражнений на мозг?

    В этом проекте научной ярмарки вы попадаете в мир своего воображения.В этом творческом мире с вами связалась известная компания по производству игрушек «Игрушка для будущих нейробиологов». Компания предлагает вам контракт на выпуск всплывающей книги «Знай свои нейроны и как они работают», в которую будет включена модель нейрона «в действии». Вы решили принять контракт и теперь начинаете собирать важную информацию для этой книги.

    Вы планируете определить и описать нейрон, который является другим названием нервной клетки, функция которой заключается в передаче сообщений в мозг и из него во все части тела.Человеческий мозг состоит из примерно 15 000 миллионов нейронов, многие из нас даже не могут представить себе. Процессы, которыми управляют нейроны, являются как электрическими, так и химическими. Нейроны имеют большое количество расширений, называемых дендритами, которые выглядят как ветви или шипы, отходящие от тела клетки. Одно расширение называется аксоном, целью которого является передача электрохимического сигнала другим нейронам. Аксон может достигать трех футов в длину. Аксон покрыт миелиновой оболочкой, которая служит изоляцией.Если вы посмотрели на аксон, он выглядит как ожерелье из бусин в форме сосиски. Конец аксона принимает электрическое сообщение, которое он получает, и преобразует его в химическое сообщение, которое затем улавливается другим нейроном. Между окончанием аксона и дендритом другого нейрона есть крошечный промежуток, промежуток, который называется синапсом. Это место, где выделяющиеся химические вещества служат для передачи электрического тока к следующему нейрону. Этот друг — только начало истории, которую вы собираетесь рассказать.Вам будет полезно использовать термины, концепции и вопросы для базовых исследований, а также библиографию книг и интернет-источников, включая фильмы о нейронах в действии.

    1. Вы только что завершили исследование основной информации о мозге. Используйте раздел терминов и понятий, чтобы представить основные термины и их значения. Приведите конкретные примеры, чтобы у читателя сложилось представление о том, что представляют собой слова.
    2. Используйте последовательность вопросов для исследования в качестве наброска для вашей книги, рассказывая о функциях различных частей и о том, как они работают вместе для выполнения конкретной функции.
    3. Нарисуйте диаграммы, чтобы проиллюстрировать происходящее.
    4. Вы можете использовать диаграммы для создания модели, которая будет сопровождать вашу книгу. Здесь у вас есть прекрасная возможность проявить творческий подход. В библиографии есть список интернет-источников, где вы найдете множество способов и материалов, которые вы можете использовать для создания нейрона и проиллюстрировать его в действии, передавая сообщение другому нейрону или группе нейронов. Некоторые рекомендуют использовать пластилин, пуговицы и вторсырье, другие — пищу, третьи — нанизывать бусинки, третьи — веревку, третьи — средства для чистки ниток или трубок.Исследуйте различные перечисленные сайты и составляйте свои собственные комбинации.
    5. Обязательно промаркируйте все детали. Вы можете использовать булавки с карточками, которые расскажут нам о функциях каждой части.
    6. В процессе изготовления модели вы можете сфотографировать как процесс, так и готовый продукт.
    7. Используйте свой магнитофон и объясните, как вы сделали модель, почему вы выбрали материалы, которые вы сделали, и объясните, что демонстрирует модель. Имейте под рукой магнитофон, чтобы наблюдатели могли прослушать запись.
    8. Кроме того, вы можете записать фрагмент «Книга на магнитной ленте», прочитав книгу на магнитной ленте или сняв ее со своего компьютера и записав на диск для распространения.
    9. Напишите свой отчет, описывающий, что вы сделали при создании книги и модели, и пусть продукты говорят сами за себя! Поздравляю! Вы пошли и сделали это!

    Термины / Понятия: Тело клетки; Сома; Ядро; Нерв; Нейрон; Сенсорные нейроны; Моторные нейроны; Дендриты; Аксон; Миелиновой оболочки; Синапс; Ионы; Потенциал действия; Ионные каналы; Нейротрансмиттеры; Рецепторные сайты; Возбуждающие нейротрансмиттеры; Тормозящие нейротрансмиттеры; Рибосомы; Синтез белков

    Каталожные номера:

    • Hawkins, J & Blakeslee, S., Times Books, 2004
    • Пинкер, S How the Mind Works, WWW Norton & Co, New York, 1997
    • Смит, А. Разум, Viking Press, 1984
    • Рати, Дж., Спарк, Революционная новая наука об упражнениях и мозге
    • Рестак, Р., Мозг, Bantam Books, Нью-Йорк, 1984
    • http://faculty.washington.edu/chudler/chmodel.html
    • http://brainu.org/files/tg_beadneuron.pdf
    • http: //www.reachoutmichigan.org / funexperiments / ageubject / classes / other / chmodel.htm
    • http://www.springerlink.com/index/Q202850R23206736.pdf
    • http://www.hallofhealth.org/sepa/lesson_plans/brain/5th_Gr_Brain_Lesson_2.pdf
    • http://assets.cambridge.org/97805218/43218/excerpt/9780521843218_excerpt.pdf
    • tp: //www.thegateway.org/search%3Fgemrecordkeywords: list% 3DNeuron
    Заявление об ограничении ответственности и меры предосторожности

    Education.com предоставляет идеи проекта Science Fair для информационных только для целей. Education.com не дает никаких гарантий или заверений относительно идей проектов Science Fair и не несет ответственности за любые убытки или ущерб, прямо или косвенно вызванные использованием вами таких Информация. Получая доступ к идеям проектов Science Fair, вы отказываетесь от отказаться от любых претензий к Education.com, которые возникают в связи с этим. Кроме того, ваш доступ к веб-сайту Education.com и идеям проектов Science Fair покрывается Образование.com Политика конфиденциальности и Условия использования сайта, которые включают ограничения об ответственности Education.com.

    Настоящим дается предупреждение, что не все идеи проекта подходят для всех индивидуально или при любых обстоятельствах. Реализация идеи любого научного проекта должны проводиться только в соответствующих условиях и с соответствующими родительскими или другой надзор. Прочтите и соблюдайте правила техники безопасности всех Материалы, используемые в проекте, являются исключительной ответственностью каждого человека.Для Для получения дополнительной информации обратитесь к справочнику по научной безопасности вашего штата.

    Нейрон — Биологическая энциклопедия — клетки, тело, функции, человек, процесс, система, различные, органы, используемые



    Автор фотографии: Себастьян Каулитцки

    Нейрон (нервная клетка) — это основная единица нервной системы. В Основное назначение нейрона — получение входящей информации и на основе Получив эту информацию, отправьте сигнал другим нейронам, мышцам или железам.Нейроны созданы, чтобы быстро посылать сигналы через физиологически длинные расстояния. Они делают это с помощью электрических сигналов, называемых нервными импульсами или потенциалы действия . Когда нервный импульс достигает конца нейрона, он запускает высвобождение химического вещества или нейромедиатора. Нейромедиатор путешествует быстро преодолевает короткий промежуток между клетками (синапс) и действует сигнализировать соседней ячейке.

    Функции и классификация

    Коммуникацию нейронов можно разделить на четыре основных этапа.Первый нейрон получает информацию из внешней среды или от других нейроны. Например, один нейрон в человеческом мозгу может получать входные данные от целых сто тысяч других нейронов. Во-вторых, нейрон объединяет или обрабатывает информацию из всех своих входов и определяет, следует ли отправлять выходной сигнал. Эта интеграция занимает разместить как во времени (длительность ввода, так и время между вводами) и в космосе (по поверхности нейрона).В-третьих, нейрон распространяет сигнал по всей его длине с большой скоростью. Расстояние может быть до нескольких метров (у жирафа или кита), со скоростью до 100 метров (328 футов) в секунду. Наконец, нейрон преобразует этот электрический сигнал. к химическому и передает его другому нейрону или эффектор например, мышца или железа.

    Части нейрона.

    Будучи объединенными в сети, нейроны позволяют человеческому телу память, эмоции, и абстрактное мышление, а также основные рефлексы.Человеческий мозг содержит около ста миллиардов нейронов, которые передают, обрабатывают и хранят Информация. Нейроны, которые полностью находятся в головном мозге или спинной мозг называются интернейронами и составляют Центральная нервная система . Другие нейроны, рецепторы и афферентные (сенсорные) нейроны являются специализированными получать сигналы изнутри тела или из внешней среды и передать эту информацию в центральную нервную систему.Эфферент нейроны передают сигналы от центральной нервной системы к эффектору органы (мышцы и железы) тела. Если эфферентный нейрон соединенный с мышцей, он также называется двигательным нейроном.

    Способность нейрона выполнять свою функцию интеграции и распространение зависит как от его структуры, так и от его способности генерировать электрические и химические сигналы. Хотя разные нейроны имеют разные формы, все нейроны обладают одинаковыми сигнальными способностями.

    Структура типичного нейрона

    Нейроны бывают разных форм и размеров. Однако типичный нейрон в позвоночное животное (например, человек) состоит из четырех основных областей: клетки тело, дендриты, аксон , и синаптические терминалы. Как и все клетки, весь нейрон окружен клеточной мембраной. Тело клетки (сома) — это увеличенная часть нейрон, наиболее похожий на другие клетки.Он содержит ядро и другие органеллы (например, митохондрии а также эндоплазматическая сеть ) и координирует метаболическую активность нейрона. Дендриты и аксон тонкие цитоплазматический расширения нейрона. Дендриты, которые разветвляются древовидно моды от тела клетки, специализируются на приеме сигналов и передают их к телу клетки.Одиночный длинный аксон несет сигналы от тела клетки.

    У человека длина одного аксона может достигать 1 метра (около 3 футов). Некоторые нейроны, которые имеют клеточные тела в спинном мозге, имеют аксоны, которые расширяются вплоть до пальцев ног. Аксоны обычно делятся и переделываются рядом с их концы, и каждая ветвь дает начало специализированному окончанию, называемому синаптическая ручка (синаптический терминал). Это синаптические терминалы нейрон, который формирует связи либо с дендритами, либо с телом клетки другой нейрон или эффекторные клетки в мышцах или железах.Однажды электрический сигнал достиг конца аксона, синаптического терминалы выпускают химический посланник, называемый нейротрансмиттером, который передает сигнал через синапс следующему нейрону или эффектору клетка.

    Классификация нейронов по форме

    Нейроны можно классифицировать по количеству протяженных отростков. из тела клетки. Мультиполярные нейроны являются наиболее распространенным типом. У них есть несколько дендритов и один аксон, отходящий от тела клетки.Биполярный нейроны имеют два отростка, отходящие от тела клетки, аксон и одиночный дендрит. Этот тип нейрона можно найти в сетчатке. Униполярный нейроны обычно представляют собой сенсорные (афферентные) нейроны, которые имеют один процесс, который затем делится на два. Один из двух процессов расширяет наружу, чтобы получать сенсорную информацию от различных участков тела, в то время как другой процесс передает сенсорную информацию спинному мозгу или мозг.

    Электрические сигналы в нейронах

    У всех живых клеток есть разделение зарядов через клеточную мембрану.Это разделение зарядов вызывает покоящуюся мембранный потенциал .

    Сканирующая электронная микрофотография двух типов нейронов: биполярного нейрон (вверху) и развивающийся нейрон (внизу).

    И нейроны, и мышечные клетки используют кратковременные изменения в этой покоящейся мембране. возможность быстро посылать сигналы от одного конца ячейки к другому. В нейронах электрические сигналы, называемые потенциалами действия, распространяются от тело клетки вниз по аксону до синаптических окончаний, где хранится высвобождается нейромедиатор.Потенциалы действия преходящи, все или ничего изменения в мембранном потенциале покоя, которые перемещаются вдоль аксона со скоростью от 1 до 100 метров в секунду.

    Миелин, жировой изолирующий материал, полученный из клеточных мембран глиальный клеток, покрывает аксоны многих нейронов позвоночных и ускоряет проведение потенциалов действия. Важность этого миелинового покрытия для нормальная функция нервной системы становится очевидной у людей с демиелинизирующими заболеваниями, при которых миелиновое покрытие аксонов нарушено. уничтожен.Среди этих заболеваний — рассеянный склероз, демиелинизирующий заболевание центральной нервной системы, которое может иметь разрушительные последствия, включая зрительные, сенсорные и двигательные нарушения.

    Хотя нейроны имеют много общего с другими типами клеток, у них есть некоторые особенности. Например, нейроны имеют очень высокая скорость метаболизма и постоянное снабжение кислородом и глюкоза выжить.Также зрелые нейроны теряют способность делиться на митоз . До конца двадцатого века считалось, что новых нейронов не существует. вырабатывается в мозге взрослого человека. Однако есть свидетельства того, что при по крайней мере, в некоторых областях мозга новые нейроны образуются во взрослом возрасте. Этот открытие предлагает захватывающий путь для возможных подходов к лечению такие распространенные неврологические заболевания, как болезнь Паркинсона и Болезнь Альцгеймера, которая характеризуется потерей нейронов в определенные области мозга.

    Библиография

    Кандел, Эрик Р., Джеймс Х. Шварц и Томас М. Джессел. Принципы нейронологии, 4-е изд. Нью-Йорк: Макгроу-Хилл, 2000.

    Кемперман, Герд и Фред Х. Гейдж. «Новые нервные клетки для взрослых» Головной мозг.» Scientific American 280, нет. 5 (1999): 48–53.

    Purves, Dale, et al. Неврология, 2-е изд. Сандерленд, Массачусетс: Sinauer Associates, 2001.


    ХАЙД, ИДА АНРИЕТТА (1857–1945)

    Американский физиолог, который изобрел микроэлектрод, крошечную иголку, использовал для измерения электрической активности живых клеток. Микроэлектрод был фундаментальный для исследований нервных и мышечных клеток. Хайд была первой женщиной избрана в Американское физиологическое общество и стала первой женщиной, проводить исследования в Гарвардской медицинской школе.




    Другие статьи, которые могут вам понравиться:

    Что такое искусственный нейрон и зачем ему функция активации? | by Bartosz Szabłowski

    Функции активации принимают значения из единственного блока суммирования нейронов. Он определяет, следует ли активировать узел. Используемая функция активации может улучшить или снизить производительность искусственного нейрона. Их основная задача — преобразовать сигнал в узле в выходной сигнал.Затем он будет использоваться на следующем уровне сети или будет выводиться из него. Ниже представлены наиболее популярные типы функций активации и обсуждаются последствия их использования.

    1. Двоичный шаг

    Пороговое значение определяется в соответствии с приведенной ниже формулой:

    Уравнение двоичного шага, Изображение автора

    Это очень очевидно, но его ошибка связана только с двумя значениями в результате узла. Мы не можем активировать многие классы, поэтому невозможно их правильно классифицировать.Принцип работы показан на рисунке ниже.

    График двоичного шага, Изображение автора

    2. Идентичность

    Другой подход заключается в определении линейной функции и получении непрерывного значения на выходе в соответствии со следующей формулой и графиком:

    Уравнение идентичности, Изображение автора График идентичности, Изображение автора

    Функция линейна во всем диапазоне без ограничений. Использование его в нейронной сети будет равносильно полиному первой степени, и поэтому созданная сеть станет моделью линейной регрессии.Многие проблемы с этим подходом могут быть решены, но нейронные сети не были созданы, чтобы быть эквивалентными другой существующей модели. Без соответствующей функции активации нейронные сети не смогли бы решать более сложные задачи, такие как распознавание изображений и звука. Нелинейные функции имеют более одной степени. В настоящее время нейронные сети признаны приборами, способными адаптироваться к любой функции. Следовательно, функция активации должна иметь возможность изучать сложные отношения и представлять нелинейные отношения ввода-вывода.Использование нелинейной функции позволяет обобщать и адаптироваться к различным данным.

    3. Логистика

    Кривая сигмовидной функции, называемой логистической функцией, по форме напоминает букву «S». Он представлен по следующей формуле:

    Уравнение логистики, Изображение автора Сюжет логистики, Изображение автора

    Одна из наиболее важных причин его использования — получение выходного значения в диапазоне от 0 до 1. Он отлично работает хорошо в двухклассовых моделях классификации, где результат идентичен с вероятностью.Эта функция, в отличие от пороговой, является дифференциальной. Функция двоичного шага не может использовать метод простого градиента [ 2 ] из-за его плоского хода. Это противоречит логистической функции, которая имеет ненулевую производную в каждой точке. Таким образом, простой метод градиента позволяет достичь лучшего результата на каждом этапе оптимизации. Необходимо найти оптимальное решение, так называемый локальный оптимум целевой функции. Его общая концепция заключается в итеративном улучшении параметров модели.Проблема с этой функцией — проблема исчезающего градиента. Сигмоидальная функция преобразует входные данные в значение от 0 до 1. Когда входные данные переходят в -∞ или + ∞, производная близка к 0. При большом количестве слоев градиент может быть настолько мал, что процесс обучения становится неэффективным из-за отсутствия обновление весов в начальных слоях.

    4. TanH

    Функция гиперболических тангенсов, аналогичная сигмоидной функции, по форме напоминает букву «S». Он также непрерывный и дифференциальный.Он определяется по следующей формуле:

    Уравнение TanH, Изображение автора График TanH, Изображение автора

    В этом случае выходные данные лучше стандартизировать, центрируя их относительно 0. Его диапазон составляет от -1 до 1 (в сигмовидная функция — диапазон от 0 до 1). На практике оптимизация в этом методе проще по сравнению с логарифмической функцией, но все же страдает проблемой исчезающего градиента.

    5. ReLU

    ReLU определяется по следующей формуле:

    Уравнение ReLU, Изображение автора График ReLU, Изображение автора

    Нетрудно заметить, что функция ReLU представляет собой комбинацию пороговой функции и линейной функции. функция.В последние годы он стал очень популярным, и большинство глубоких нейронных сетей используют его как функцию активации [8]. Его математическая форма проста и эффективна. Мы не видим в этом проблемы градиента затухания из-за отсутствия максимального выходного значения. Функция ReLU, помимо преимуществ, имеет ряд недостатков. Например, все отрицательные значения равны 0, и тогда мы наблюдаем явление «умирающего ReLU». Для решения проблемы были созданы варианты функции ReLU, например Дырявый ReLU, который для отрицательных значений дает небольшой отрицательный наклон.

    6. Softmax

    Обобщением сигмоидной функции для мультиклассовой классификации является функция softmax. Его нельзя визуализировать, как предыдущие, потому что вместо отдельных функций активации используется общая функция softmax. На вход подается матрица i элементалей (равная количеству классов). Он выводит вектор с вероятностями принадлежности к классам j , которые в сумме составляют 1. Математическое представление функции softmax:

    Уравнение Softmax, Изображение автора Концепция функции Softmax, Изображение автора

    Тщательное отсечение руководит функцией нейрона

    Нейроны в нашем мозгу и теле делают удивительные вещи: чувствуют внешний мир, передают информацию, направляют наше поведение.Но не в одиночку.

    Используя крошечных червей с хорошо обозначенной нервной системой, ученые из Онкологического исследовательского центра Фреда Хатчинсона ответили на давний вопрос о роли вспомогательных клеток мозга, называемых глиальными клетками, в поддержке функции нейронов. Их исследование было недавно опубликовано в журнале eLife.

    Каждой из наших нервных клеток помогает глиальная клетка. Ученые знали с 1960-х годов, что глиальные клетки поедают края нейронов, но как и почему, оставалось неясным.Являются ли глии просто клеточными уборщиками, которые убирают детрит, выделяемый нейронами, или они являются пилотами, которые тщательно управляют поведением и функцией нервных клеток?

    «Наша работа позволила сказать, что глиальные клетки находятся в сиденье водителя. Они контролируют [это явление] », — сказал доктор Ааканкша Сингхви, исследователь мозга Фреда Хатча, руководивший исследованием. «Отходит не нейрон — решает глиальная клетка. Он слушает нейроны, а затем решает, насколько сильно он хочет отщипнуть или не отщипнуть.И мы также выяснили , как глиальная клетка делает это ».

    Она и аспирант Стефан Рейдерс, возглавлявший работу, также продемонстрировали, как глиальные клетки формируют поведение и память животных — первая в истории демонстрация в любом организме того, что изменение обрезки одной глиальной клеткой может повлиять на изменение памяти, заявили исследователи. .

    Изменения функции глиальных клеток связаны с определенными заболеваниями, включая болезнь Паркинсона и болезнь Альцгеймера. По словам Сингхви, понимание того, как глия взаимодействует с нейронами, прольет свет на то, как дефекты глиальных клеток способствуют возникновению таких заболеваний.

    Глия: ключевые игроки нервной системы

    Нейроны впервые были описаны в конце 19, -м, -м веке. Глиальные клетки (также называемые глией) представляют собой клетки другого типа, которые тесно связаны с нейронами. Хотя они были открыты в то же время, с годами им уделялось гораздо меньше научного внимания. Вместо этого исследователи в значительной степени отклонили глию как просто клетки-«медсестры», которые поддерживают активные нейроны, передающие информацию.

    Сингхви — один из исследователей, исправляющих это долгое пренебрежение, проливая свет на ключевую роль глиальных клеток в правильном функционировании нервной системы.

    Соотношение глии и нейронов примерно соответствует сложности животного. Чем более сложное поведение координируется нейронами животного, тем больше им требуется помощи от глии. В Caenorhabditis elegans , крохотных червях Raiders и Singhvi, используемых для изучения глии, на каждую глиальную клетку приходится шесть нейронов. У человека глии столько же, сколько нейронов.

    На протяжении десятилетий было известно, что глия захватывает кусочки соседних нейронов, и этот процесс называется отсечкой. В частности, глия, по-видимому, сокращает участки, называемые рецептивными окончаниями нейронов или NRE.По словам Сингхви, это любое место на нейроне, которое действует как его «антенна» для приема входных данных.

    «NRE — это специализированная субклеточная структура на нейроне, где она получает входные данные, будь то из внешнего мира или от другого нейрона», — объяснила она. «Вы можете очень легко представить, что если вы измените количество глиальных клеток, которые приходят и поедают этот NRE, это изменит то, как нейрон соединяется, как он получает информацию».

    Это может привести к тому, что нейрон получит слишком мало информации или будет перегружен ее слишком большим количеством.

    Но какая клетка решает, когда, где и сколько NRE нейронов удаляется — нейрон или глиальная клетка?

    «Это был фундаментальный вопрос, на который никто не знал ответа», — сказал Сингхви.

    Ученые начинают понимать, насколько распространен этот процесс во всей нервной системе, отметила она. Глия связана со всем, от хранения памяти до болезни Альцгеймера и потери зрения. Лучшее понимание того, как они настраивают активность нервных клеток, может иметь самые разные последствия для здоровья.

    Она и Рейдеры решили использовать детализированные карты нервной системы C. elegans , чтобы выяснить это. Они сосредоточились на спаривании нервных и глиальных клеток, которое реагирует на изменения температуры. Это позволит им не только изучить процесс обрезки, но и увидеть, как изменения в обрезке влияют на реакцию червей на температуру.

    На сиденье водителя

    Черви C. elegans имеют определенное количество клеток, включая нейроны, соединенных определенным образом.Из-за этого ученые десятилетиями использовали C. elegans в качестве модели для изучения схемы мозга, поэтому его гены и нервная система хорошо отображены. Следовательно, это идеальный организм для Сингви и Рейдеров, чтобы изучать влияние определенных молекул на функцию нервной системы.

    Во-первых, они определили, что глиальные клетки действительно сокращают нервные клетки у C. elegans , чего раньше никогда не было.

    Генетически манипулируя червями, чтобы избавиться от определенных генов, Рейдеры выявили ключевые молекулы, участвующие в обрезке глии, в том числе несколько, которые ранее никогда не были связаны с этим явлением.

    Он обнаружил, что молекула в глиальной клетке регулирует степень обрезания, предполагая, что этот процесс управляется глией, а не нейронами. И глия, по-видимому, определяет, насколько обрезать, «прислушиваясь» к нейронам и покусывая, основываясь на нейронной активности. Более высокая температура или большая активность нейрона приводили к большему сокращению глии.

    Raiders и Singhvi также смогли показать, что обрезка глии определяет форму NRE на чувствительном к температуре нейроне. Генетическая модификация глии для уменьшения чувствительности к температуре NRE привела к получению NRE более длинной формы, в то время как чрезмерная обрезка сократила ее.Исследователи обнаружили, что это повлияло на поведение червя.

    C. elegans можно выращивать при разных температурах, и обычно черви, оказавшиеся в среде с другой температурой, будут приближаться к температуре, при которой они были выращены. Но Рейдерс и Сингхви обнаружили, что они могут сделать червей более чувствительными к температуре, уменьшив обрезку и увеличив NRE. Эти черви предпочитали среду, которая была даже более прохладной, чем та, в которой они росли.

    «И что мы впервые показали, так это то, что, отсекая один нейрон, одна глиальная клетка может напрямую влиять на поведение животных», — сказал Сингхви.«Простое воспоминание этого животного о том, что ему нравится, а что нет, изменяется в результате обрезки. Подключение к памяти при таком разрешении одной ячейки просто не было выполнено ни в одной системе ».

    Для того, чтобы выполнять свою NRE-формирующую роль, глия, похоже, использует тот же молекулярный механизм поглощения мусора, который используется некоторыми белыми кровяными тельцами, называемыми макрофагами, для очистки мертвых клеток — с одной изюминкой.

    «Вместо того, чтобы [поглотить] происходящее по принципу« все или ничего », что обычно и должно быть для такого рода механизмов, глиальная клетка фактически способна увеличивать и уменьшать его», — сказал Сингхви.«Насколько мне известно, это первый случай, когда вы можете получить такой уровень контроля с этим оборудованием».

    Изучение связей с болезнями человека

    Глиальная обрезка была впервые описана на сетчатке глаза, но работа Рейдерса — это первый случай, когда она была показана на любом другом органе чувств, — сказал Сингхви. И хотя некоторые дефекты глиальной функции, например, в ухе, связаны с глухотой, мало что известно о глиальной функции вне центральной нервной системы, сказала она.

    Но изменения в ощущениях, будь то потеря чувствительности или гиперчувствительность, являются отличительными чертами многих заболеваний, предполагая, что можно многое узнать о роли, которую глия играет в этих системах, и о том, как это может пойти не так при болезни.

    «Мы знаем, что настройка глии происходит при нормальном [нейронном] обслуживании, жизни, обучении и памяти — просто поддержании вашей схемы, всего в здоровом и счастливом состоянии. Но в нейродегенерации люди начинают рассматривать обрезку глии как процесс, который может идти наперекосяк », — сказал Сингхви.

    Она и Рейдеры стремятся использовать то, что они узнали о червях, чтобы понять, как дефекты глии могут способствовать развитию болезней. Черви, безусловно, далеки от людей, но могут быть молекулы и пути, которые управляют межклеточными взаимодействиями, которые мы разделяем.Это делает их потенциально мощной моделью, в которой можно описать фундаментальные биологические процессы и даже, возможно, определить потенциальные мишени для лекарств.

    Сингхви и Рейдерс в настоящее время изучают потенциальную связь между обрезкой глии и заболеванием человека, изучая, какую роль в этом процессе может играть ген, связанный с болезнью Паркинсона. Они также внимательно изучают, как изменения в глиальной функции могут способствовать развитию болезни.

    При нейродегенерации Паркинсона «мы не знаем, что является причиной, а что следствием», — сказал Сингхви о глиальных дефектах, потере чувствительности и нейродегенерации.«С помощью этой системы мы можем удалить глию и напрямую ответить на этот вопрос, который был открытым в этой области».

    Эта работа была поддержана Национальными институтами здравоохранения; Фонд Андерсона; Фонд Марко Дж. Хайднера; Фонд медицинских исследований Гленна и Американская федерация исследований старения; и Фонд Саймонса по исследованию аутизма.

    .

    Написать ответ

    Ваш адрес email не будет опубликован. Обязательные поля помечены *