Искусственный нейрон
Иску́сственный нейро́н (математический нейрон Мак-Каллока — Питтса, формальный нейрон) — узел искусственной нейронной сети, являющийся упрощённой моделью естественного нейрона. Математически искусственный нейрон обычно представляют как некоторую нелинейную функцию от единственного аргумента — линейной комбинации всех входных сигналов. Данную функцию называют функцией активации или функцией срабатывания, передаточной функцией. Полученный результат посылается на единственный выход. Такие искусственные нейроны объединяют в сети — соединяют выходы одних нейронов с входами других. Искусственные нейроны и сети являются основными элементами идеального нейрокомпьютера.

1. Нейроны, выходные сигналы которых поступают на вход данному
2. Сумматор входных сигналов
3. Вычислитель передаточной функции
4. Нейроны, на входы которых подаётся выходной сигнал данного
5. — веса входных сигналов
Биологический прототип
Биологический нейрон состоит из тела диаметром от 3 до 100 мкм, содержащего ядро (с большим количеством ядерных пор) и другие органеллы (в том числе сильно развитый шероховатый ЭПР с активными рибосомами, аппарат Гольджи), и отростков. Выделяют два вида отростков. Аксон — обычно длинный отросток, приспособленный для проведения возбуждения от тела нейрона. Дендриты — как правило, короткие и сильно разветвлённые отростки, служащие главным местом образования влияющих на нейрон возбуждающих и тормозных синапсов (разные нейроны имеют различное соотношение длины аксона и дендритов). Нейрон может иметь несколько дендритов и обычно только один аксон. Один нейрон может иметь связи с 20 тысячами других нейронов. Кора головного мозга человека содержит около 80 миллиардов нейронов.
История развития
Математическая модель искусственного нейрона была предложена У. Маккалоком и У. Питтсом вместе с моделью сети, состоящей из этих нейронов. Авторы показали, что сеть на таких элементах может выполнять числовые и логические операции. Практически сеть была реализована Фрэнком Розенблаттом в 1958 году как компьютерная программа, а впоследствии - как электронное устройство — перцептрон. Первоначально нейрон мог оперировать только с сигналами логического нуля и логической единицы, поскольку был построен на основе биологического прототипа, который может пребывать только в двух состояниях — возбужденном или невозбужденном. Развитие нейронных сетей показало, что для расширения области их применения необходимо, чтобы нейрон мог работать не только с бинарными, но и с непрерывными (аналоговыми) сигналами. Такое обобщение модели нейрона было сделано Уидроу и Хоффом, которые предложили в качестве функции срабатывания нейрона использовать логистическую кривую.
Связи между искусственными нейронами
Связи, по которым выходные сигналы одних нейронов поступают на входы других, часто называют синапсами по аналогии со связями между биологическими нейронами. Каждая связь характеризуется своим весом. Связи с положительным весом называются возбуждающими, а с отрицательным — тормозящими. Нейрон имеет один выход, часто называемый аксоном по аналогии с биологическим прототипом. С единственного выхода нейрона сигнал может поступать на произвольное число входов других нейронов.
Математическая модель
Математически нейрон представляет собой взвешенный сумматор, единственный выход которого определяется через его входы и матрицу весов следующим образом:
, где
Здесь и
— соответственно сигналы на входах нейрона и веса входов, функция
называется индуцированным локальным полем, а
— передаточной функцией. Возможные значения сигналов на входах нейрона считают заданными в интервале
. Они могут быть либо дискретными (0 или 1), либо аналоговыми. Дополнительный вход
и соответствующий ему вес
используются для инициализации нейрона. Под инициализацией подразумевается смещение активационной функции нейрона по горизонтальной оси, то есть формирование порога чувствительности нейрона. Кроме того, иногда к выходу нейрона специально добавляют некую случайную величину, называемую сдвигом. Сдвиг можно рассматривать как сигнал на дополнительном, всегда нагруженном, синапсе.
Передаточная функция нейрона
Передаточная функция определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах. В большинстве случаев она является монотонно возрастающей и имеет область значений
или
, однако существуют исключения. Также для некоторых алгоритмов обучения сети необходимо, чтобы она была непрерывно дифференцируемой на всей числовой оси. Искусственный нейрон полностью характеризуется своей передаточной функцией. Использование различных передаточных функций позволяет вносить нелинейность в работу нейрона и в целом нейронной сети.
Классификация нейронов
В основном нейроны классифицируют на основе их положения в топологии сети. Разделяют:
- Входные нейроны — принимают исходный вектор, кодирующий входной сигнал. Как правило, эти нейроны не выполняют вычислительных операций, а просто передают полученный входной сигнал на выход, возможно, усилив или ослабив его;
- Выходные нейроны — представляют собой выходы сети. В выходных нейронах могут производиться какие-либо вычислительные операции;
- Промежуточные нейроны — выполняют основные вычислительные операции.
Основные типы передаточных функций

Линейная передаточная функция
Сигнал на выходе нейрона линейно связан со взвешенной суммой сигналов на его входе.
,
где — параметр функции. В нейронных сетях со слоистой структурой нейроны с передаточными функциями такого типа, как правило, составляют входной слой. Кроме простой линейной функции, могут быть использованы её модификации, например, полулинейная функция (если её аргумент меньше нуля, то она равна нулю, а в остальных случаях ведет себя как линейная) или шаговая (линейная функция с насыщением), которую можно выразить формулой:
При этом возможен сдвиг функции по обеим осям (как изображено на рисунке).
Недостатками шаговой и полулинейной активационных функций относительно линейной можно назвать то, что они не являются дифференцируемыми на всей числовой оси, а значит, не могут быть использованы при обучении по некоторым алгоритмам.

Пороговая передаточная функция
Другое название — функция Хевисайда. Представляет собой перепад. До тех пор, пока взвешенный сигнал на входе нейрона не достигает некоторого уровня , сигнал на выходе равен нулю. Как только сигнал на входе нейрона превышает указанный уровень — выходной сигнал скачкообразно изменяется на единицу. Самый первый представитель слоистых нейронных сетей — перцептрон состоял исключительно из нейронов такого типа. Математическая запись этой функции выглядит так:
Здесь — сдвиг функции активации относительно горизонтальной оси, соответственно под
следует понимать взвешенную сумму сигналов на входах нейрона без учёта этого слагаемого. Ввиду того, что данная функция не является дифференцируемой на всей оси абсцисс, её нельзя использовать в сетях, обучающихся по алгоритму обратного распространения ошибки и другим алгоритмам, требующим дифференцируемости передаточной функции.

Сигмоидальная передаточная функция
Один из самых часто используемых на данный момент типов передаточных функций. Введение функций сигмоидального типа было обусловлено ограниченностью нейронных сетей с пороговой функцией активации нейронов — при такой функции активации любой из выходов сети равен либо нулю, либо единице, что ограничивает использование сетей не в задачах классификации. Использование сигмоидальных функций позволило перейти от бинарных выходов нейрона к аналоговым. Функции передачи такого типа, как правило, присущи нейронам, находящимся во внутренних слоях нейронной сети.
Логистическая функция
Математически логистическую функцию можно выразить так:
Здесь t — это параметр функции, определяющий её крутизну. Когда t стремится к бесконечности, функция вырождается в пороговую. При сигмоида вырождается в постоянную функцию со значением 0,5. Область значений данной функции находится в интервале (0,1). Важным достоинством этой функции является простота её производной:
То, что производная этой функции может быть выражена через её значение, облегчает использование этой функции при обучении сети по алгоритму обратного распространения. Особенностью нейронов с такой передаточной характеристикой является то, что они усиливают сильные сигналы существенно меньше, чем слабые, поскольку области сильных сигналов соответствуют пологим участкам характеристики. Это позволяет предотвратить насыщение от больших сигналов.
Гиперболический тангенс
Использование функции гиперболического тангенса
отличается от рассмотренной выше логистической кривой тем, что его область значений лежит в интервале (-1;1). Так как верно соотношение
,
то оба графика различаются лишь масштабом осей. Производная гиперболического тангенса, разумеется, тоже выражается квадратичной функцией значения; свойство противостоять насыщению имеет место точно так же.
Модифицированный гиперболический тангенс
Использование функции модифицированного гиперболического тангенса
масштабированной по оси ординат до интервала [-1;1] позволяет получить семейство сигмоидальных функций.
Радиально-базисная функция передачи
Радиально-базисная функция передачи (RBF) принимает в качестве аргумента расстояние между входным вектором и некоторым наперед заданным центром активационной функции. Значение этой функции тем выше, чем ближе входной вектор к центру. В качестве радиально-базисной можно, например, использовать функцию Гаусса:
.
Здесь — расстояние между центром
и вектором входных сигналов
. Скалярный параметр
определяет скорость спадания функции при удалении вектора от центра и называется шириной окна, параметр
определяет сдвиг активационной функции по оси абсцисс. Сети с нейронами, использующими такие функции, называются RBF-сетями. В качестве расстояния между векторами могут быть использованы различные метрики, обычно используется евклидово расстояние:
.
Здесь —
-я компонента вектора, поданного на вход нейрона, а
—
-я компонента вектора, определяющего положение центра передаточной функции. Соответственно, сети с такими нейронами называются вероятностными и регрессионными.
В реальных сетях активационная функция этих нейронов может отражать распределение вероятности какой-либо случайной величины либо обозначать какие-либо эвристические зависимости между величинами.
Другие функции передачи
Перечисленные выше функции составляют лишь часть от множества передаточных функций, используемых на данный момент. В число других передаточных функций входят такие, как:
- Экспонента
;
- Тригонометрический синус;
- Модульная:
;
- Квадратичная.
Стохастический нейрон
Выше описана модель детерминистического искусственного нейрона, то есть состояние на выходе нейрона однозначно определено результатом работы сумматора входных сигналов. Рассматривают также стохастические нейроны, где переключение нейрона происходит с вероятностью, зависящей от индуцированного локального поля, то есть передаточная функция определена как:
,
где распределение вероятности обычно имеет вид сигмоида:
,
a нормировочная константа вводится для условия нормализации распределения вероятности
. Таким образом, нейрон активируется с вероятностью
. Параметр
— аналог температуры (но не температуры нейрона) и определяет беспорядок в нейронной сети. Если
устремить к 0, стохастический нейрон перейдет в обычный нейрон с передаточной функцией Хевисайда (пороговой функцией).
Моделирование формальных логических функций
Нейрон с пороговой передаточной функцией может моделировать различные логические функции.
, где
Таблицы иллюстрируют, каким образом можно, задав веса входных сигналов и порог чувствительности, заставить нейрон выполнять конъюнкцию (логическое «И») и дизъюнкцию (логическое «ИЛИ») над входными сигналами, а также логическое отрицание входного сигнала. Этих трех операций достаточно, чтобы смоделировать абсолютно любую логическую функцию любого числа аргументов.
| НЕ | T | -1,0 | |
|---|---|---|---|
| w | -1,5 | ||
| x | 0 | 1 | |
| f | 1 | 0 | |
| И | T | 1,5 | |||
|---|---|---|---|---|---|
| w1 | 1,0 | ||||
| w2 | 1,0 | ||||
| x1 | 0 | 0 | 1 | 1 | |
| x2 | 0 | 1 | 0 | 1 | |
| f | 0 | 0 | 0 | 1 | |
| ИЛИ | T | 0,5 | |||
|---|---|---|---|---|---|
| w1 | 1,0 | ||||
| w2 | 1,0 | ||||
| x1 | 0 | 0 | 1 | 1 | |
| x2 | 0 | 1 | 0 | 1 | |
| f | 0 | 1 | 1 | 1 | |
См. также
- Мемистор
- Мемристор
- Нейрон
- Связывающий нейрон
- Модель биологического нейрона
Примечания
- Л. Г. Комарцова, А. В. Максимов «Нейрокомпьютеры», МГТУ им. Н. Э. Баумана, 2004 г., ISBN 5-7038-2554-7
- По аналогии с нейронами активации
- Миркес Е. М., Нейрокомпьютер. Проект стандарта. Архивная копия от 15 июня 2009 на Wayback Machine — Новосибирск: Наука, 1999. — 337 с. ISBN 5-02-031409-9
- В статье McCulloch W.S., Pitts W. A logical Calculus of Ideas Immanent in Nervous Activity — Bull. Mathematical Biophysics, 1943 online (недоступная ссылка)
- Ясницкий, 2005, с. 29.
- В работе Widrow B., Hoff M.E. Adaptive switching circuits. 1960 IRE WESTCON Conferencion Record. — New York, 1960
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.11
- В. А. Терехов — Нейросетевые системы управления — с.12-13
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.14
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.12
- Очень часто в литературе можно встретить название персептрон
- Ясницкий, 2005, с. 34.
- CIT forum — Нейрокомпьютеры — архитектура и реализация. Дата обращения: 16 ноября 2007. Архивировано 10 мая 2008 года.
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.13
- Ясницкий, 2005, с. 77.
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.349
- В. В. Круглов, В. В. Борисов — Искусственные нейронные сети. Теория и практика — с.348
- Text
- Ясницкий, 2005, с. 30.
Литература
- Терехов В.А., Ефимов Д.В., Тюкин И.Ю. Нейросетевые системы управления. — 1-е. — Высшая школа, 2002. — С. 184. — ISBN 5-06-004094-1.
- Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теория и практика. — 1-е. — М.: Горячая линия - Телеком, 2001. — С. 382. — ISBN 5-93517-031-0.
- Каллан Р. Основные концепции нейронных сетей = The Essence of Neural Networks First Edition. — 1-е. — , 2001. — С. 288. — ISBN 5-8459-0210-X.
- Ясницкий Л. Н. Введение в искусственный интеллект. — 1-е. — Издательский центр «Академия», 2005. — С. 176. — ISBN 5-7695-1958-4.
- Комарцова Л. Г., Максимов А. В. Нейрокомпьютеры. — 1-е. — Изд-во МГТУ им. Н.Э. Баумана, 2002. — С. 320. — ISBN 5-7038-1908-3.
- Савельев А. В. Концепция многопроцессорного нейрона // Искусственный интеллект. Интеллектуальные и многопроцессорные системы. — Донецк-Таганрог- Минск, 2006. — С. 293-300.
- Савельев А. В. Нейрокомпьютеры в изобретениях // журнал «Нейрокомпьютеры: разработка, применение»., Издательство "Радиотехника". — Москва, 2004. — № 2-3. — С. 33-49.
- Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. — CRC Press, CRC Press LLC, 1998
- Емельянов В. В., Курейчик В. В., Курейчик В. Н. Теория и практика эволюционного моделирования. — М: Физматлит, 2003.
Внешние ссылки
- Нейромодель RF-PSTH (симулирующая структуру рецептивного поля (РП) и выходной нейронный сигнал PSTH)
Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Искусственный нейрон, Что такое Искусственный нейрон? Что означает Искусственный нейрон?
Isku sstvennyj nejro n matematicheskij nejron Mak Kalloka Pittsa formalnyj nejron uzel iskusstvennoj nejronnoj seti yavlyayushijsya uproshyonnoj modelyu estestvennogo nejrona Matematicheski iskusstvennyj nejron obychno predstavlyayut kak nekotoruyu nelinejnuyu funkciyu ot edinstvennogo argumenta linejnoj kombinacii vseh vhodnyh signalov Dannuyu funkciyu nazyvayut funkciej aktivacii ili funkciej srabatyvaniya peredatochnoj funkciej Poluchennyj rezultat posylaetsya na edinstvennyj vyhod Takie iskusstvennye nejrony obedinyayut v seti soedinyayut vyhody odnih nejronov s vhodami drugih Iskusstvennye nejrony i seti yavlyayutsya osnovnymi elementami idealnogo nejrokompyutera Shema iskusstvennogo nejrona 1 Nejrony vyhodnye signaly kotoryh postupayut na vhod dannomu 2 Summator vhodnyh signalov 3 Vychislitel peredatochnoj funkcii 4 Nejrony na vhody kotoryh podayotsya vyhodnoj signal dannogo 5 wi displaystyle w i vesa vhodnyh signalovBiologicheskij prototipOsnovnaya statya Nejron Biologicheskij nejron sostoit iz tela diametrom ot 3 do 100 mkm soderzhashego yadro s bolshim kolichestvom yadernyh por i drugie organelly v tom chisle silno razvityj sherohovatyj EPR s aktivnymi ribosomami apparat Goldzhi i otrostkov Vydelyayut dva vida otrostkov Akson obychno dlinnyj otrostok prisposoblennyj dlya provedeniya vozbuzhdeniya ot tela nejrona Dendrity kak pravilo korotkie i silno razvetvlyonnye otrostki sluzhashie glavnym mestom obrazovaniya vliyayushih na nejron vozbuzhdayushih i tormoznyh sinapsov raznye nejrony imeyut razlichnoe sootnoshenie dliny aksona i dendritov Nejron mozhet imet neskolko dendritov i obychno tolko odin akson Odin nejron mozhet imet svyazi s 20 tysyachami drugih nejronov Kora golovnogo mozga cheloveka soderzhit okolo 80 milliardov nejronov Istoriya razvitiyaMatematicheskaya model iskusstvennogo nejrona byla predlozhena U Makkalokom i U Pittsom vmeste s modelyu seti sostoyashej iz etih nejronov Avtory pokazali chto set na takih elementah mozhet vypolnyat chislovye i logicheskie operacii Prakticheski set byla realizovana Frenkom Rozenblattom v 1958 godu kak kompyuternaya programma a vposledstvii kak elektronnoe ustrojstvo perceptron Pervonachalno nejron mog operirovat tolko s signalami logicheskogo nulya i logicheskoj edinicy poskolku byl postroen na osnove biologicheskogo prototipa kotoryj mozhet prebyvat tolko v dvuh sostoyaniyah vozbuzhdennom ili nevozbuzhdennom Razvitie nejronnyh setej pokazalo chto dlya rasshireniya oblasti ih primeneniya neobhodimo chtoby nejron mog rabotat ne tolko s binarnymi no i s nepreryvnymi analogovymi signalami Takoe obobshenie modeli nejrona bylo sdelano Uidrou i Hoffom kotorye predlozhili v kachestve funkcii srabatyvaniya nejrona ispolzovat logisticheskuyu krivuyu Svyazi mezhdu iskusstvennymi nejronamiSvyazi po kotorym vyhodnye signaly odnih nejronov postupayut na vhody drugih chasto nazyvayut sinapsami po analogii so svyazyami mezhdu biologicheskimi nejronami Kazhdaya svyaz harakterizuetsya svoim vesom Svyazi s polozhitelnym vesom nazyvayutsya vozbuzhdayushimi a s otricatelnym tormozyashimi Nejron imeet odin vyhod chasto nazyvaemyj aksonom po analogii s biologicheskim prototipom S edinstvennogo vyhoda nejrona signal mozhet postupat na proizvolnoe chislo vhodov drugih nejronov Matematicheskaya modelMatematicheski nejron predstavlyaet soboj vzveshennyj summator edinstvennyj vyhod kotorogo opredelyaetsya cherez ego vhody i matricu vesov sleduyushim obrazom y f u displaystyle y f u gde u i 1nwixi w0x0 displaystyle u sum i 1 n w i x i w 0 x 0 Zdes xi displaystyle x i i wi displaystyle w i sootvetstvenno signaly na vhodah nejrona i vesa vhodov funkciya u displaystyle u nazyvaetsya inducirovannym lokalnym polem a f u displaystyle f u peredatochnoj funkciej Vozmozhnye znacheniya signalov na vhodah nejrona schitayut zadannymi v intervale 0 1 displaystyle 0 1 Oni mogut byt libo diskretnymi 0 ili 1 libo analogovymi Dopolnitelnyj vhod x0 displaystyle x 0 i sootvetstvuyushij emu ves w0 displaystyle w 0 ispolzuyutsya dlya inicializacii nejrona Pod inicializaciej podrazumevaetsya smeshenie aktivacionnoj funkcii nejrona po gorizontalnoj osi to est formirovanie poroga chuvstvitelnosti nejrona Krome togo inogda k vyhodu nejrona specialno dobavlyayut nekuyu sluchajnuyu velichinu nazyvaemuyu sdvigom Sdvig mozhno rassmatrivat kak signal na dopolnitelnom vsegda nagruzhennom sinapse Peredatochnaya funkciya nejronaPeredatochnaya funkciya f u displaystyle f u opredelyaet zavisimost signala na vyhode nejrona ot vzveshennoj summy signalov na ego vhodah V bolshinstve sluchaev ona yavlyaetsya monotonno vozrastayushej i imeet oblast znachenij 1 1 displaystyle 1 1 ili 0 1 displaystyle 0 1 odnako sushestvuyut isklyucheniya Takzhe dlya nekotoryh algoritmov obucheniya seti neobhodimo chtoby ona byla nepreryvno differenciruemoj na vsej chislovoj osi Iskusstvennyj nejron polnostyu harakterizuetsya svoej peredatochnoj funkciej Ispolzovanie razlichnyh peredatochnyh funkcij pozvolyaet vnosit nelinejnost v rabotu nejrona i v celom nejronnoj seti Klassifikaciya nejronovV osnovnom nejrony klassificiruyut na osnove ih polozheniya v topologii seti Razdelyayut Vhodnye nejrony prinimayut ishodnyj vektor kodiruyushij vhodnoj signal Kak pravilo eti nejrony ne vypolnyayut vychislitelnyh operacij a prosto peredayut poluchennyj vhodnoj signal na vyhod vozmozhno usiliv ili oslabiv ego Vyhodnye nejrony predstavlyayut soboj vyhody seti V vyhodnyh nejronah mogut proizvoditsya kakie libo vychislitelnye operacii Promezhutochnye nejrony vypolnyayut osnovnye vychislitelnye operacii Osnovnye tipy peredatochnyh funkcijLinejnaya funkciya aktivacii s nasysheniemLinejnaya peredatochnaya funkciya Signal na vyhode nejrona linejno svyazan so vzveshennoj summoj signalov na ego vhode f x tx displaystyle f x tx gde t displaystyle t parametr funkcii V nejronnyh setyah so sloistoj strukturoj nejrony s peredatochnymi funkciyami takogo tipa kak pravilo sostavlyayut vhodnoj sloj Krome prostoj linejnoj funkcii mogut byt ispolzovany eyo modifikacii naprimer polulinejnaya funkciya esli eyo argument menshe nulya to ona ravna nulyu a v ostalnyh sluchayah vedet sebya kak linejnaya ili shagovaya linejnaya funkciya s nasysheniem kotoruyu mozhno vyrazit formuloj f x 0if x 01if x 1xelse displaystyle f x begin cases 0 amp text if x leq 0 1 amp text if x geq 1 x amp text else end cases Pri etom vozmozhen sdvig funkcii po obeim osyam kak izobrazheno na risunke Nedostatkami shagovoj i polulinejnoj aktivacionnyh funkcij otnositelno linejnoj mozhno nazvat to chto oni ne yavlyayutsya differenciruemymi na vsej chislovoj osi a znachit ne mogut byt ispolzovany pri obuchenii po nekotorym algoritmam Porogovaya funkciya aktivaciiPorogovaya peredatochnaya funkciya Drugoe nazvanie funkciya Hevisajda Predstavlyaet soboj perepad Do teh por poka vzveshennyj signal na vhode nejrona ne dostigaet nekotorogo urovnya T displaystyle T signal na vyhode raven nulyu Kak tolko signal na vhode nejrona prevyshaet ukazannyj uroven vyhodnoj signal skachkoobrazno izmenyaetsya na edinicu Samyj pervyj predstavitel sloistyh nejronnyh setej perceptron sostoyal isklyuchitelno iz nejronov takogo tipa Matematicheskaya zapis etoj funkcii vyglyadit tak f x 1if x T0else displaystyle f x begin cases 1 amp text if x geq T 0 amp text else end cases Zdes T w0x0 displaystyle T w 0 x 0 sdvig funkcii aktivacii otnositelno gorizontalnoj osi sootvetstvenno pod x displaystyle x sleduet ponimat vzveshennuyu summu signalov na vhodah nejrona bez uchyota etogo slagaemogo Vvidu togo chto dannaya funkciya ne yavlyaetsya differenciruemoj na vsej osi absciss eyo nelzya ispolzovat v setyah obuchayushihsya po algoritmu obratnogo rasprostraneniya oshibki i drugim algoritmam trebuyushim differenciruemosti peredatochnoj funkcii Sigmoidalnaya funkciya aktivaciiSigmoidalnaya peredatochnaya funkciya Osnovnaya statya Sigmoida Odin iz samyh chasto ispolzuemyh na dannyj moment tipov peredatochnyh funkcij Vvedenie funkcij sigmoidalnogo tipa bylo obuslovleno ogranichennostyu nejronnyh setej s porogovoj funkciej aktivacii nejronov pri takoj funkcii aktivacii lyuboj iz vyhodov seti raven libo nulyu libo edinice chto ogranichivaet ispolzovanie setej ne v zadachah klassifikacii Ispolzovanie sigmoidalnyh funkcij pozvolilo perejti ot binarnyh vyhodov nejrona k analogovym Funkcii peredachi takogo tipa kak pravilo prisushi nejronam nahodyashimsya vo vnutrennih sloyah nejronnoj seti Logisticheskaya funkciya Matematicheski logisticheskuyu funkciyu mozhno vyrazit tak s x 11 e tx displaystyle sigma x frac 1 1 e tx Zdes t eto parametr funkcii opredelyayushij eyo krutiznu Kogda t stremitsya k beskonechnosti funkciya vyrozhdaetsya v porogovuyu Pri t 0 displaystyle t 0 sigmoida vyrozhdaetsya v postoyannuyu funkciyu so znacheniem 0 5 Oblast znachenij dannoj funkcii nahoditsya v intervale 0 1 Vazhnym dostoinstvom etoj funkcii yavlyaetsya prostota eyo proizvodnoj ds x dx ts x 1 s x displaystyle cfrac d sigma x dx t sigma x 1 sigma x To chto proizvodnaya etoj funkcii mozhet byt vyrazhena cherez eyo znachenie oblegchaet ispolzovanie etoj funkcii pri obuchenii seti po algoritmu obratnogo rasprostraneniya Osobennostyu nejronov s takoj peredatochnoj harakteristikoj yavlyaetsya to chto oni usilivayut silnye signaly sushestvenno menshe chem slabye poskolku oblasti silnyh signalov sootvetstvuyut pologim uchastkam harakteristiki Eto pozvolyaet predotvratit nasyshenie ot bolshih signalov Giperbolicheskij tangens Ispolzovanie funkcii giperbolicheskogo tangensa th Ax eAx e AxeAx e Ax displaystyle operatorname th Ax frac e Ax e Ax e Ax e Ax otlichaetsya ot rassmotrennoj vyshe logisticheskoj krivoj tem chto ego oblast znachenij lezhit v intervale 1 1 Tak kak verno sootnoshenie th t2x 2s x 1 displaystyle operatorname th left frac t 2 x right 2 sigma x 1 to oba grafika razlichayutsya lish masshtabom osej Proizvodnaya giperbolicheskogo tangensa razumeetsya tozhe vyrazhaetsya kvadratichnoj funkciej znacheniya svojstvo protivostoyat nasysheniyu imeet mesto tochno tak zhe Modificirovannyj giperbolicheskij tangens Ispolzovanie funkcii modificirovannogo giperbolicheskogo tangensa mth x ex e xeax e bx a b gt 1 displaystyle operatorname mth x frac e x e x e ax e bx a b gt 1 masshtabirovannoj po osi ordinat do intervala 1 1 pozvolyaet poluchit semejstvo sigmoidalnyh funkcij Radialno bazisnaya funkciya peredachi Radialno bazisnaya funkciya peredachi RBF prinimaet v kachestve argumenta rasstoyanie mezhdu vhodnym vektorom i nekotorym napered zadannym centrom aktivacionnoj funkcii Znachenie etoj funkcii tem vyshe chem blizhe vhodnoj vektor k centru V kachestve radialno bazisnoj mozhno naprimer ispolzovat funkciyu Gaussa y exp S R 22s2 displaystyle y exp left frac S R 2 2 sigma 2 right Zdes S X C displaystyle S mathbf X mathbf C rasstoyanie mezhdu centrom C displaystyle mathbf C i vektorom vhodnyh signalov X displaystyle mathbf X Skalyarnyj parametr s displaystyle sigma opredelyaet skorost spadaniya funkcii pri udalenii vektora ot centra i nazyvaetsya shirinoj okna parametr R displaystyle R opredelyaet sdvig aktivacionnoj funkcii po osi absciss Seti s nejronami ispolzuyushimi takie funkcii nazyvayutsya RBF setyami V kachestve rasstoyaniya mezhdu vektorami mogut byt ispolzovany razlichnye metriki obychno ispolzuetsya evklidovo rasstoyanie S j 1N xj cj 2 displaystyle S sqrt sum j 1 N x j c j 2 Zdes xj displaystyle x j j displaystyle j ya komponenta vektora podannogo na vhod nejrona a cj displaystyle c j j displaystyle j ya komponenta vektora opredelyayushego polozhenie centra peredatochnoj funkcii Sootvetstvenno seti s takimi nejronami nazyvayutsya veroyatnostnymi i regressionnymi V realnyh setyah aktivacionnaya funkciya etih nejronov mozhet otrazhat raspredelenie veroyatnosti kakoj libo sluchajnoj velichiny libo oboznachat kakie libo evristicheskie zavisimosti mezhdu velichinami Sm takzhe Set radialno bazisnyh funkcij Drugie funkcii peredachi Perechislennye vyshe funkcii sostavlyayut lish chast ot mnozhestva peredatochnyh funkcij ispolzuemyh na dannyj moment V chislo drugih peredatochnyh funkcij vhodyat takie kak Eksponenta f x exp Ax displaystyle f x exp Ax Trigonometricheskij sinus Modulnaya f x x displaystyle f x left x right Kvadratichnaya Stohasticheskij nejronVyshe opisana model deterministicheskogo iskusstvennogo nejrona to est sostoyanie na vyhode nejrona odnoznachno opredeleno rezultatom raboty summatora vhodnyh signalov Rassmatrivayut takzhe stohasticheskie nejrony gde pereklyuchenie nejrona proishodit s veroyatnostyu zavisyashej ot inducirovannogo lokalnogo polya to est peredatochnaya funkciya opredelena kak f u 1s veroyatnostyuP u 0s veroyatnostyu1 P u displaystyle f u begin cases 1 amp text s veroyatnostyu P u 0 amp text s veroyatnostyu 1 P u end cases gde raspredelenie veroyatnosti P u displaystyle P u obychno imeet vid sigmoida s u A T 1 exp u T displaystyle sigma u frac A T 1 exp u T a normirovochnaya konstanta A T displaystyle A T vvoditsya dlya usloviya normalizacii raspredeleniya veroyatnosti 01s u du 1 displaystyle int 0 1 sigma u du 1 Takim obrazom nejron aktiviruetsya s veroyatnostyu P u displaystyle P u Parametr T displaystyle T analog temperatury no ne temperatury nejrona i opredelyaet besporyadok v nejronnoj seti Esli T displaystyle T ustremit k 0 stohasticheskij nejron perejdet v obychnyj nejron s peredatochnoj funkciej Hevisajda porogovoj funkciej Modelirovanie formalnyh logicheskih funkcijNejron s porogovoj peredatochnoj funkciej mozhet modelirovat razlichnye logicheskie funkcii f u 1if u T0else displaystyle f u begin cases 1 amp text if u geqslant T 0 amp text else end cases gde u i 1nwixi 0 displaystyle u sum i 1 n w i x i 0 Tablicy illyustriruyut kakim obrazom mozhno zadav vesa vhodnyh signalov i porog chuvstvitelnosti zastavit nejron vypolnyat konyunkciyu logicheskoe I i dizyunkciyu logicheskoe ILI nad vhodnymi signalami a takzhe logicheskoe otricanie vhodnogo signala Etih treh operacij dostatochno chtoby smodelirovat absolyutno lyubuyu logicheskuyu funkciyu lyubogo chisla argumentov NE T 1 0w 1 5x 0 1f 1 0I T 1 5w1 1 0w2 1 0x1 0 0 1 1x2 0 1 0 1f 0 0 0 1ILI T 0 5w1 1 0w2 1 0x1 0 0 1 1x2 0 1 0 1f 0 1 1 1Sm takzheMemistor Memristor Nejron Svyazyvayushij nejron Model biologicheskogo nejronaPrimechaniyaL G Komarcova A V Maksimov Nejrokompyutery MGTU im N E Baumana 2004 g ISBN 5 7038 2554 7 Po analogii s nejronami aktivacii Mirkes E M Nejrokompyuter Proekt standarta Arhivnaya kopiya ot 15 iyunya 2009 na Wayback Machine Novosibirsk Nauka 1999 337 s ISBN 5 02 031409 9 V state McCulloch W S Pitts W A logical Calculus of Ideas Immanent in Nervous Activity Bull Mathematical Biophysics 1943 online nedostupnaya ssylka Yasnickij 2005 s 29 V rabote Widrow B Hoff M E Adaptive switching circuits 1960 IRE WESTCON Conferencion Record New York 1960 V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 11 V A Terehov Nejrosetevye sistemy upravleniya s 12 13 V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 14 V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 12 Ochen chasto v literature mozhno vstretit nazvanie perseptron Yasnickij 2005 s 34 CIT forum Nejrokompyutery arhitektura i realizaciya neopr Data obrasheniya 16 noyabrya 2007 Arhivirovano 10 maya 2008 goda V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 13 Yasnickij 2005 s 77 V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 349 V V Kruglov V V Borisov Iskusstvennye nejronnye seti Teoriya i praktika s 348 Text Yasnickij 2005 s 30 LiteraturaTerehov V A Efimov D V Tyukin I Yu Nejrosetevye sistemy upravleniya 1 e Vysshaya shkola 2002 S 184 ISBN 5 06 004094 1 Kruglov V V Borisov V V Iskusstvennye nejronnye seti Teoriya i praktika 1 e M Goryachaya liniya Telekom 2001 S 382 ISBN 5 93517 031 0 Kallan R Osnovnye koncepcii nejronnyh setej The Essence of Neural Networks First Edition 1 e 2001 S 288 ISBN 5 8459 0210 X Yasnickij L N Vvedenie v iskusstvennyj intellekt 1 e Izdatelskij centr Akademiya 2005 S 176 ISBN 5 7695 1958 4 Komarcova L G Maksimov A V Nejrokompyutery 1 e Izd vo MGTU im N E Baumana 2002 S 320 ISBN 5 7038 1908 3 Savelev A V Koncepciya mnogoprocessornogo nejrona Iskusstvennyj intellekt Intellektualnye i mnogoprocessornye sistemy Doneck Taganrog Minsk 2006 S 293 300 Savelev A V Nejrokompyutery v izobreteniyah zhurnal Nejrokompyutery razrabotka primenenie Izdatelstvo Radiotehnika Moskva 2004 2 3 S 33 49 Lakhmi C Jain N M Martin Fusion of Neural Networks Fuzzy Systems and Genetic Algorithms Industrial Applications CRC Press CRC Press LLC 1998 Emelyanov V V Kurejchik V V Kurejchik V N Teoriya i praktika evolyucionnogo modelirovaniya M Fizmatlit 2003 Vneshnie ssylkiNejromodel RF PSTH simuliruyushaya strukturu receptivnogo polya RP i vyhodnoj nejronnyj signal PSTH
