Нейронная сеть
Нейро́нная сеть (также иску́сственная нейро́нная сеть, ИНС, или просто нейросе́ть) — математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации нервных сетей (биологических нейронных сетей) — сетей нервных клеток (нейронов) живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети У. Маккалока и У. Питтса. После разработки алгоритмов обучения получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.

ИНС представляет собой систему соединённых и взаимодействующих между собой простых процессоров (искусственных нейронов). Такие процессоры довольно просты (особенно в сравнении с процессорами, используемыми в персональных компьютерах). Каждый процессор подобной сети имеет дело только с сигналами, которые он периодически получает, и сигналами, которые он периодически посылает другим процессорам. И, тем не менее, будучи соединёнными в достаточно большую сеть с управляемым взаимодействием, такие простые по отдельности процессоры вместе способны выполнять довольно сложные задачи.
- С точки зрения машинного обучения, нейронная сеть представляет собой частный случай методов распознавания образов, дискриминантного анализа;
- С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;
- С точки зрения кибернетики, нейронная сеть используется в задачах адаптивного управления и как алгоритмы для робототехники;
- С точки зрения развития вычислительной техники и программирования, нейронная сеть — способ решения проблемы эффективного параллелизма;
- С точки зрения искусственного интеллекта, ИНС является основой философского течения коннекционизма и основным направлением в структурном подходе по изучению возможности построения (моделирования) естественного интеллекта с помощью компьютерных алгоритмов.
Нейронные сети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными и выходными данными, а также выполнять обобщение. Это значит, что в случае успешного обучения сеть сможет вернуть верный результат на основании данных, которые отсутствовали в обучающей выборке, а также неполных и/или «зашумлённых», частично искажённых данных.
Хронология
- 1943 — У. Маккалок и У. Питтс формализуют понятие нейронной сети в фундаментальной статье о логическом исчислении идей и нервной активности. В начале своего сотрудничества с Питтсом Н. Винер предлагает ему вакуумные лампы в качестве средства для реализации эквивалентов нейронных сетей.
- 1948 — Опубликована книга Н. Винера о кибернетике. Основной идеей стало представление сложных биологических процессов математическими моделями.
- 1949 — Д. Хебб предлагает первый алгоритм обучения.
- 1958 — Ф. Розенблатт изобретает однослойный перцептрон и демонстрирует его способность решать задачи классификации. Перцептрон использовали для распознавания образов, прогнозирования погоды. К моменту изобретения перцептрона завершилось расхождение теоретических работ Маккалока с «кибернетикой» Винера; Маккалок и его последователи вышли из состава «Кибернетического клуба».
- 1960 — [англ.] совместно со своим студентом Хоффом на основе дельта-правила (формулы Уидроу) разработали Адалин, который сразу начал использоваться для задач предсказания и адаптивного управления. Адалин был построен на базе созданных ими же (Уидроу — Хоффом) новых элементах — мемисторах.
- 1963 — В институте проблем передачи информации АН СССР А. П. Петровым проводится исследование задач, «трудных» для перцептрона. На эту работу в области моделирования ИНС в СССР опирался М. М. Бонгард в своей работе как «сравнительно небольшой переделкой алгоритма (перцептрона) исправить его недостатки».
- 1969 — М. Минский публикует формальное доказательство ограниченности перцептрона и показывает, что он не способен решать некоторые задачи (проблема «чётности» и «один в блоке»), связанные с инвариантностью представлений.
- 1972 — Т. Кохонен и [англ.] независимо предлагают новый тип нейронных сетей, способных функционировать в качестве памяти.
- 1973 — Б. В. Хакимов предлагает нелинейную модель с синапсами на основе сплайнов и внедряет её для решения задач в медицине, геологии, экологии.
- 1974 — Пол Дж. Вербос и Галушкин А. И. одновременно изобретают алгоритм обратного распространения ошибки для обучения многослойных перцептронов.
- 1975 — [англ.] представляет когнитрон — самоорганизующуюся сеть, предназначенную для инвариантного распознавания образов, но это достигается только при помощи запоминания практически всех состояний образа.
- 1982 — Дж. Хопфилд показал, что нейронная сеть с обратными связями может представлять собой систему, минимизирующую энергию (сеть Хопфилда). Кохоненом представлены модели сети, обучающейся без учителя (нейронная сеть Кохонена), решающей задачи кластеризации, визуализации данных (самоорганизующаяся карта Кохонена) и другие задачи предварительного анализа данных.
- 1986 — Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом, а также независимо и одновременно С. И. Барцевым и В. А. Охониным, переоткрыт и развит метод обратного распространения ошибки.
- 2007 — Джеффри Хинтоном в университете Торонто созданы алгоритмы глубокого обучения многослойных нейронных сетей. Хинтон при обучении нижних слоёв сети использовал ограниченную машину Больцмана (RBM — Restricted Boltzmann Machine). По Хинтону необходимо использовать много примеров распознаваемых образов (например, множество лиц людей на разных фонах). После обучения получается готовое быстро работающее приложение, способное решать конкретную задачу (например, осуществлять поиск лиц на изображении).
Известные применения
Распознавание образов и классификация
В качестве образов могут выступать различные по своей природе объекты: символы текста, изображения, образцы звуков и так далее. При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом совокупность всех признаков должна однозначно определять класс, к которому относится образец. В случае, если признаков недостаточно, сеть может соотнести один и тот же образец с несколькими классами, что неверно. По окончании обучения сети ей можно предъявлять неизвестные ранее образы и получать ответ о принадлежности к определённому классу.
Топология такой сети характеризуется тем, что количество нейронов в выходном слое, как правило, равно количеству определяемых классов. При этом устанавливается соответствие между выходом нейронной сети и классом, который он представляет. Когда сети предъявляется некий образ, на одном из её выходов должен появиться признак того, что образ принадлежит этому классу. В то же время на других выходах должен быть признак того, что образ данному классу не принадлежит. Если на двух или более выходах есть признак принадлежности к классу, считается, что сеть «не уверена» в своём ответе.
Используемые архитектуры нейросетей
- Обучение с учителем:
- Перцептрон
- Свёрточные нейронные сети
- Обучение без учителя:
- Сети адаптивного резонанса
- Смешанное обучение:
- Сеть радиально-базисных функций
Принятие решений и управление
Эта задача близка к задаче классификации. Классификации подлежат ситуации, характеристики которых поступают на вход нейронной сети. На выходе сети при этом должен появиться признак решения, которое она приняла. При этом в качестве входных сигналов используются различные критерии описания состояния управляемой системы.
Кластеризация
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Под кластеризацией понимается разбиение множества входных сигналов на классы, при том, что ни количество, ни признаки классов заранее неизвестны. После обучения такая сеть способна определять, к какому классу относится входной сигнал. Сеть также может сигнализировать о том, что входной сигнал не относится ни к одному из выделенных классов — это является признаком новых, отсутствующих в обучающей выборке, данных. Таким образом, подобная сеть может выявлять новые, неизвестные ранее классы сигналов. Соответствие между классами, выделенными сетью, и классами, существующими в предметной области, устанавливается человеком. Кластеризацию осуществляют, например, нейронные сети Кохонена.
Нейронные сети в простом варианте Кохонена не могут быть огромными, поэтому их делят на гиперслои (гиперколонки) и ядра (микроколонки). Если сравнивать с мозгом человека, то идеальное количество параллельных слоёв не должно быть более 112. Эти слои в свою очередь составляют гиперслои (гиперколонку), в которой от 500 до 2000 микроколонок (ядер). При этом каждый слой делится на множество гиперколонок, пронизывающих насквозь эти слои. Микроколонки кодируются цифрами и единицами с получением результата на выходе. Если требуется, то лишние слои и нейроны удаляются или добавляются. Идеально для подбора числа нейронов и слоёв использовать суперкомпьютер. Такая система позволяет нейронным сетям быть пластичными.
Используемые архитектуры нейросетей
- Обучение без учителя:
- Перцептрон
- Самоорганизующаяся карта Кохонена
- Нейронная сеть Кохонена
- Сети адаптивного резонанса
Прогнозирование
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Способности нейронной сети к прогнозированию напрямую следуют из её способности к обобщению и выделению скрытых зависимостей между входными и выходными данными. После обучения сеть способна предсказать будущее значение некой последовательности на основе нескольких предыдущих значений и (или) каких-то существующих в настоящий момент факторов. Прогнозирование возможно только тогда, когда предыдущие изменения в какой-то степени действительно предопределяют будущие. Например, прогнозирование котировок акций на основе котировок за прошлую неделю может оказаться успешным (а может и не оказаться), тогда как прогнозирование результатов завтрашней лотереи на основе данных за последние 50 лет почти наверняка не даст никаких результатов.
Используемые архитектуры нейросетей
- Обучение с учителем:
- Перцептрон
- Смешанное обучение:
- Сеть радиально-базисных функций
Аппроксимация
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Нейронные сети могут аппроксимировать непрерывные функции. Доказана обобщённая аппроксимационная теорема: с помощью линейных операций и каскадного соединения можно из произвольного нелинейного элемента получить устройство, вычисляющее любую непрерывную функцию с некоторой наперёд заданной точностью. Это означает, что нелинейная характеристика нейрона может быть произвольной: от сигмоидальной до произвольного волнового пакета или вейвлета, синуса или многочлена. От выбора нелинейной функции может зависеть сложность конкретной сети, но с любой нелинейностью сеть остаётся универсальным аппроксиматором и при правильном выборе структуры может достаточно точно аппроксимировать функционирование любого непрерывного автомата.
Используемые архитектуры нейросетей
- Обучение с учителем:
- Перцептрон
- Смешанное обучение:
- Сеть радиально-базисных функций
Сжатие данных и ассоциативная память
Способность нейросетей к выявлению взаимосвязей между различными параметрами даёт возможность выразить данные большой размерности более компактно, если данные тесно взаимосвязаны друг с другом. Обратный процесс — восстановление исходного набора данных из части информации — называется (авто)ассоциативной памятью. Ассоциативная память позволяет также восстанавливать исходный сигнал/образ из зашумлённых/повреждённых входных данных. Решение задачи гетероассоциативной памяти позволяет реализовать память, адресуемую по содержимому.
Анализ данных
Используемые архитектуры нейросетей
- Обучение с учителем:
- Перцептрон
- Обучение без учителя:
- Перцептрон
- Самоорганизующаяся карта Кохонена
- Нейронная сеть Кохонена
Оптимизация
Используемые архитектуры нейросетей
- Обучение без учителя:
- Самоорганизующаяся карта Кохонена
- Нейронная сеть Кохонена
Этапы решения задач
- Сбор данных для обучения;
- Подготовка и нормализация данных;
- Выбор топологии сети;
- Экспериментальный подбор характеристик сети;
- Экспериментальный подбор параметров обучения;
- Собственно обучение;
- Проверка адекватности обучения;
- Корректировка параметров, окончательное обучение;
- Вербализация сети с целью дальнейшего использования.
Следует рассмотреть подробнее некоторые из этих этапов.
Сбор данных для обучения
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Выбор данных для обучения сети и их обработка является самым сложным этапом решения задачи. Набор данных для обучения должен удовлетворять нескольким критериям:
- репрезентативность — данные должны иллюстрировать истинное положение вещей в предметной области;
- непротиворечивость — противоречивые данные в обучающей выборке приведут к плохому качеству обучения сети.
Исходные данные преобразуются к виду, в котором их можно подать на входы сети. Каждая запись в файле данных называется обучающей парой или обучающим вектором. Обучающий вектор содержит по одному значению на каждый вход сети и, в зависимости от типа обучения (с учителем или без), по одному значению для каждого выхода сети. Обучение сети на «сыром» наборе, как правило, не даёт качественных результатов. Существует ряд способов улучшить «восприятие» сети.
- Нормировка выполняется, когда на различные входы подаются данные разной размерности. Например, на первый вход сети подаются величины со значениями от нуля до единицы, а на второй — от ста до тысячи. При отсутствии нормировки значения на втором входе будут всегда оказывать существенно большее влияние на выход сети, чем значения на первом входе. При нормировке размерности всех входных и выходных данных сводятся воедино;
- квантование выполняется над непрерывными величинами, для которых выделяется конечный набор дискретных значений. Например, квантование используют для задания частот звуковых сигналов при распознавании речи;
- фильтрация выполняется для «зашумлённых» данных.
Кроме того, большую роль играет само представление как входных, так и выходных данных. Предположим, сеть обучается распознаванию букв на изображениях и имеет один числовой выход — номер буквы в алфавите. В этом случае сеть получит ложное представление о том, что буквы с номерами 1 и 2 более похожи, чем буквы с номерами 1 и 3, что, в общем, неверно. Для того, чтобы избежать такой ситуации, используют топологию сети с большим числом выходов, когда каждый выход имеет свой смысл. Чем больше выходов в сети, тем большее расстояние между классами и тем сложнее их спутать.
Выбор топологии сети
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Выбирать тип сети следует, исходя из постановки задачи и имеющихся данных для обучения. Для обучения с учителем требуется наличие для каждого элемента выборки «экспертной» оценки. Иногда получение такой оценки для большого массива данных просто невозможно. В этих случаях естественным выбором является сеть, обучающаяся без учителя (например, самоорганизующаяся карта Кохонена или нейронная сеть Хопфилда). При решении других задач (таких, как прогнозирование временных рядов) экспертная оценка уже содержится в исходных данных и может быть выделена при их обработке. В этом случае можно использовать многослойный перцептрон[уточнить] или сеть Ворда.
Экспериментальный подбор характеристик сети
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
После выбора общей структуры нужно экспериментально подобрать параметры сети. Для сетей, подобных перцептрону, это будет число слоёв, число блоков в скрытых слоях (для сетей Ворда), наличие или отсутствие обходных соединений, передаточные функции нейронов. При выборе количества слоёв и нейронов в них следует исходить из того, что способности сети к обобщению тем выше, чем больше суммарное число связей между нейронами. С другой стороны, число связей ограничено сверху количеством записей в обучающих данных.
Экспериментальный подбор параметров обучения
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
После выбора конкретной топологии необходимо выбрать параметры обучения нейронной сети. Этот этап особенно важен для сетей, обучающихся с учителем. От правильного выбора параметров зависит не только то, насколько быстро ответы сети будут сходиться к правильным ответам. Например, выбор низкой скорости обучения увеличит время схождения, однако иногда позволяет избежать . Увеличение момента обучения может привести как к увеличению, так и к уменьшению времени сходимости, в зависимости от формы . Исходя из такого противоречивого влияния параметров, можно сделать вывод, что их значения нужно выбирать экспериментально, руководствуясь при этом критерием завершения обучения (например, минимизация ошибки или ограничение по времени обучения).
Обучение сети
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
В процессе обучения сеть в определённом порядке просматривает обучающую выборку. Порядок просмотра может быть последовательным, случайным и т. д. Некоторые сети, обучающиеся без учителя (например, сети Хопфилда), просматривают выборку только один раз. Другие (например, сети Кохонена), а также сети, обучающиеся с учителем, просматривают выборку множество раз, при этом один полный проход по выборке называется эпохой обучения. При обучении с учителем набор исходных данных делят на две части — собственно обучающую выборку и тестовые данные; принцип разделения может быть произвольным. Обучающие данные подаются сети для обучения, а проверочные используются для расчёта ошибки сети (проверочные данные никогда для обучения сети не применяются). Таким образом, если на проверочных данных ошибка уменьшается, то сеть действительно выполняет обобщение. Если ошибка на обучающих данных продолжает уменьшаться, а ошибка на тестовых данных увеличивается, значит, сеть перестала выполнять обобщение и просто «запоминает» обучающие данные. Это явление называется переобучением сети или оверфиттингом. В таких случаях обучение обычно прекращают. В процессе обучения могут проявиться другие проблемы, такие как паралич или попадание сети в локальный минимум поверхности ошибок. Невозможно заранее предсказать проявление той или иной проблемы, равно как и дать однозначные рекомендации к их разрешению.
Всё выше сказанное относится только к итерационным алгоритмам поиска нейросетевых решений. Для них действительно нельзя ничего гарантировать и нельзя полностью автоматизировать обучение нейронных сетей.[источник не указан 4410 дней] Однако, наряду с итерационными алгоритмами обучения, существуют не итерационные алгоритмы, обладающие очень высокой устойчивостью и позволяющие полностью автоматизировать процесс обучения[источник не указан 2784 дня].
Проверка адекватности обучения
Даже в случае успешного, на первый взгляд, обучения сеть не всегда обучается именно тому, чего от неё хотел создатель. Известен случай, когда сеть обучалась распознаванию изображений танков по фотографиям, однако позднее выяснилось, что все танки были сфотографированы на одном и том же фоне. В результате сеть «научилась» распознавать этот тип ландшафта, вместо того, чтобы «научиться» распознавать танки. Таким образом, сеть «понимает» не то, что от неё требовалось, а то, что проще всего обобщить.
Тестирование качества обучения нейросети необходимо проводить на примерах, которые не участвовали в её обучении. При этом число тестовых примеров должно быть тем больше, чем выше качество обучения. Если ошибки нейронной сети имеют вероятность близкую к одной миллиардной, то и для подтверждения этой вероятности нужен миллиард тестовых примеров. Получается, что тестирование хорошо обученных нейронных сетей становится очень трудной задачей.
Классификация по типу входной информации
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
- Аналоговые нейронные сети (используют информацию в форме действительных чисел);
- Двоичные нейронные сети (оперируют с информацией, представленной в двоичном виде);
- Образные нейронные сети (оперируют с информацией, представленной в виде образов: знаков, иероглифов, символов).
Классификация по характеру обучения
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
- Обучение с учителем — выходное пространство решений нейронной сети известно;
- Обучение без учителя — нейронная сеть формирует выходное пространство решений только на основе входных воздействий. Такие сети называют самоорганизующимися;
- Обучение с подкреплением — система назначения штрафов и поощрений от среды.
Классификация по характеру настройки синапсов
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
- Сети с фиксированными связями (весовые коэффициенты нейронной сети выбираются сразу, исходя из условий задачи, при этом:
, где W — весовые коэффициенты сети);
- Сети с динамическими связями (для них в процессе обучения происходит настройка синаптических связей, то есть
, где W — весовые коэффициенты сети).
Классификация по времени передачи сигнала
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
В ряде нейронных сетей активирующая функция может зависеть не только от весовых коэффициентов связей , но и от времени передачи импульса (сигнала) по каналам связи
. Поэтому в общем виде активирующая (передающая) функция связи
от элемента
к элементу
имеет вид:
. Тогда синхронной сетью называют такую сеть, у которой время передачи
каждой связи равно либо нулю, либо фиксированной постоянной
. Асинхронной называют такую сеть, у которой время передачи
для каждой связи между элементами
и
своё, но тоже постоянное.
Классификация по характеру связей
Нейронные сети прямого распространения
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
В нейронных сетях прямого распространения (англ. feedforward neural network) все связи направлены строго от входных нейронов к выходным. Примерами таких сетей являются перцептрон Розенблатта, многослойный перцептрон, сети Ворда.
Рекуррентные нейронные сети
Сигнал с выходных нейронов или нейронов скрытого слоя частично передаётся обратно на входы нейронов входного слоя (обратная связь). Рекуррентная сеть Хопфилда «фильтрует» входные данные, возвращаясь к устойчивому состоянию и, таким образом, позволяет решать задачи компрессии данных и построения ассоциативной памяти. Частным случаем рекуррентных сетей являются двунаправленные сети. В таких сетях между слоями существуют связи как в направлении от входного слоя к выходному, так и в обратном. Классическим примером является Нейронная сеть Коско.
Радиально-базисные функции
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Разработаны нейронные сети, использующие в качестве активационных функций радиально-базисные (также называются RBF-сетями). Общий вид радиально-базисной функции:
, например,
где — вектор входных сигналов нейрона,
— ширина окна функции,
— убывающая функция (чаще всего, равная нулю вне некоторого отрезка).
Радиально-базисная сеть характеризуется тремя особенностями:
- единственный скрытый слой;
- только нейроны скрытого слоя имеют нелинейную активационную функцию;
- синаптические веса связей входного и скрытого слоёв равны единице.
Самоорганизующиеся карты
Такие сети представляют собой соревновательную нейронную сеть с обучением без учителя, выполняющую задачу визуализации и кластеризации. Является методом проецирования многомерного пространства в пространство с более низкой размерностью (чаще всего, двумерное), применяется также для решения задач моделирования, прогнозирования и др. Является одной из версий нейронных сетей Кохонена. Самоорганизующиеся карты Кохонена служат, в первую очередь, для визуализации и первоначального («разведывательного») анализа данных.
Сигнал в сеть Кохонена поступает сразу на все нейроны, веса соответствующих синапсов интерпретируются как координаты положения узла, и выходной сигнал формируется по принципу «победитель забирает всё» — то есть ненулевой выходной сигнал имеет нейрон, ближайший (в смысле весов синапсов) к подаваемому на вход объекту. В процессе обучения веса синапсов настраиваются таким образом, чтобы узлы решётки «располагались» в местах локальных сгущений данных, то есть описывали кластерную структуру облака данных, с другой стороны, связи между нейронами соответствуют отношениям соседства между соответствующими кластерами в пространстве признаков.
Удобно рассматривать такие карты как двумерные сетки узлов, размещённых в многомерном пространстве. Изначально самоорганизующаяся карта представляет собой сетку из узлов, соединённую между собой связями. Кохонен рассматривал два варианта соединения узлов — в прямоугольную и гексагональную сетку — отличие состоит в том, что в прямоугольной сетке каждый узел соединён с четырьмя соседними, а в гексагональной — с шестью ближайшими узлами. Для двух таких сеток процесс построения сети Кохонена отличается лишь в том месте, где перебираются ближайшие к данному узлу соседи.
Начальное вложение сетки в пространство данных выбирается произвольным образом. В авторском пакете SOM_PAK предлагаются варианты случайного начального расположения узлов в пространстве и вариант расположения узлов в плоскости. После этого узлы начинают перемещаться в пространстве согласно следующему алгоритму:
- Случайным образом выбирается точка данных
.
- Определяется ближайший к
узел карты (BMU — Best Matching Unit).
- Этот узел перемещается на заданный шаг по направлению к
. Однако он перемещается не один, а увлекает за собой определённое количество ближайших узлов из некоторой окрестности на карте. Из всех двигающихся узлов наиболее сильно смещается центральный — ближайший к точке данных — узел, а остальные испытывают тем меньшие смещения, чем дальше они от BMU. В настройке карты различают два этапа — этап грубой (ordering) и этап тонкой (fine-tuning) настройки. На первом этапе выбираются большие значения окрестностей и движение узлов носит коллективный характер — в результате карта «расправляется» и грубым образом отражает структуру данных; на этапе тонкой настройки радиус окрестности равен 1-2 и настраиваются уже индивидуальные положения узлов. Кроме этого, величина смещения равномерно затухает со временем, то есть она велика в начале каждого из этапов обучения и близка к нулю в конце.
- Алгоритм повторяется определённое число эпох (понятно, что число шагов может сильно изменяться в зависимости от задачи).
Известные типы сетей
- Перцептрон Розенблатта;
- ;
- Многослойный перцептрон Розенблатта;
- Многослойный перцептрон Румельхарта;
- Сеть Джордана;
- Сеть Элмана;
- Сеть Хэмминга;
- Сеть Ворда;
- Сеть Хопфилда;
- Сеть Кохонена;
- Нейронный газ;
- Когнитрон;
- Неокогнитрон;
- ;
- Осцилляторная нейронная сеть;
- ;
- Сеть радиально-базисных функций (RBF-сеть);
- ;
- ;
- ;
- ;
- Сиамская нейронная сеть;
- Сети адаптивного резонанса;
- Свёрточная нейронная сеть (англ. convolutional neural network);
- ;
- Импульсная нейронная сеть.
Отличия от машин с архитектурой фон Неймана
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Вычислительные системы, основанные на нейронных сетях, обладают рядом качеств, которые отсутствуют в машинах с архитектурой фон Неймана (но присущи мозгу человека):
- массовый параллелизм;
- распределённое представление информации и вычисления;
- способность к обучению и обобщению;
- адаптивность;
- свойство контекстуальной обработки информации;
- толерантность к ошибкам;
- низкое энергопотребление.
Примеры использований
Предсказание финансовых временных рядов
В разделе не хватает ссылок на источники (см. рекомендации по поиску). |
Входные данные — курс акций за год. Задача — определить завтрашний курс. Проводится следующее преобразование — выстраивается в ряд курс за сегодня, вчера, за позавчера. Следующий ряд — смещается по дате на один день и так далее. На полученном наборе обучается сеть с тремя входами и одним выходом — то есть выход: курс на дату, входы: курс на дату минус один день, минус два дня, минус три дня. Обученной сети подаётся на вход курс за сегодня, вчера, позавчера и получается ответ на завтра. В этом случае сеть выведет зависимость одного параметра от трёх предыдущих. Если желательно учитывать ещё какой-то параметр (например, общий индекс по отрасли), то его надо добавить как вход (и включить в примеры), переобучить сеть и получить новые результаты. Для наиболее точного обучения стоит использовать метод ОРО, как наиболее предсказуемый и несложный в реализации.
Психодиагностика
Серия работ М. Г. Доррера с соавторами посвящена исследованию вопроса о возможности развития психологической интуиции у нейросетевых экспертных систем. Полученные результаты дают подход к раскрытию механизма интуиции нейронных сетей, проявляющейся при решении ими психодиагностических задач. Создан нестандартный для компьютерных методик интуитивный подход к психодиагностике, заключающийся в исключении построения описанной реальности. Он позволяет сократить и упростить работу над психодиагностическими методиками.
Хемоинформатика
Нейронные сети широко используются в химических и биохимических исследованиях. В настоящее время нейронные сети являются одним из самых распространённых методов хемоинформатики для поиска количественных соотношений структура-свойство, благодаря чему они активно используются как для прогнозирования физико-химических свойств и биологической активности химических соединений, так и для направленного дизайна химических соединений и материалов с заранее заданными свойствами, в том числе при разработке новых лекарственных препаратов.
Нейроуправление
Нейронные сети успешно применяются для синтеза систем управления динамическими объектами.
В области управления нейронные системы находят применение в задачах идентификации объектов, в алгоритмах прогнозирования и диагностики, а также для синтеза оптимальных АСР. Для реализации АСР на основе ИНС в настоящее время интенсивно развивается производство нейрочипов и нейроконтроллеров (НК).
В определённом смысле ИНС является имитатором мозга, обладающего способностью к обучению и ориентации в условиях неопределённости. Искусственная нейросеть сходна с мозгом в двух аспектах. Сеть приобретает знания в процессе обучения, а для сохранения знаний использует не сами объекты, а их связи — значения коэффициентов межнейронных связей, называемые синаптическими весами или синаптическими коэффициентами.
Процедура обучения ИНС состоит в идентификации синаптических весов, обеспечивающих ей необходимые преобразующие свойства. Особенностью ИНС является её способность к модификации параметров и структуры в процессе обучения.
Экономика
Алгоритмы нейронных сетей нашли широкое применение в экономике. С помощью нейронных сетей решается задача разработки алгоритмов нахождения аналитического описания закономерностей функционирования экономических объектов (предприятие, отрасль, регион). Эти алгоритмы применяются к прогнозированию некоторых «выходных» показателей объектов. Применение нейросетевых методов позволяет решить некоторые проблемы экономико-статистического моделирования, повысить адекватность математических моделей, приблизить их к экономической реальности. Поскольку экономические, финансовые и социальные системы очень сложны и являются результатом человеческих действий и противодействий, создание полной математической модели с учётом всех возможных действий и противодействий является очень сложной (если разрешимой) задачей. В системах подобной сложности естественным и наиболее эффективным является использование моделей, которые напрямую имитируют поведение общества и экономики. Именно это способна предложить методология нейронных сетей.
Самостоятельные системы
Самостоятельные системы, такие как роботы, беспилотные автомобили и дроны, все чаще применяются в различных отраслях, а для их разработки нейросети играют ключевую роль в решении задач, таких как распознавание образов, анализ текста и управление системами. Нейросети используются для анализа данных, полученных от датчиков, для управления устройствами и принятия решений. Методы глубокого обучения часто применяются для решения проблем обнаружения и распознавания объектов, но возникают трудности при работе с объектами, находящимися в труднодоступных местах или в условиях плохой освещённости. В области автономного транспорта, нейросети являются примером заимствования концепций работы мозга и разума. Исследования используют нейронные сети для интеллектуального восприятия транспорта и определения типа транспорта[источник не указан 626 дней][нет в источнике].
Системы рекомендаций
Нейросети представляют собой ценный инструмент для усовершенствования систем рекомендаций, которые основываются на нашей предыдущей активности, чтобы подсказывать нам что-то новое и интересное, например, музыку, фильмы или товары. Однако, с ростом объёма данных возникает потребность в более продвинутых методах обработки, и здесь на помощь приходят нейросети, которые способны обработать информацию, обнаружить скрытые связи между данными и определить, что может быть наиболее интересным и релевантным для нас. Например, они могут использоваться, чтобы с большей точностью рекомендовать товары, исходя из нашего прошлого поведения и покупок. Благодаря применению нейросетей в этой области, удаётся значительно улучшить качество рекомендаций и повысить уровень удовлетворения пользователей[источник не указан 626 дней][нет в источнике].
Нейросети в астрономии
Нейросети в астрономии представляют собой мощный инструмент анализа данных, эволюционировавший через три исторические волны: от использования многослойных персептронов с ручным выбором параметров в 1980-х годах, к сверточным и рекуррентным нейронным сетям с прямой обработкой необработанных данных в 2010-х, и до современных генеративных и самообучающихся моделей без человеческого контроля. Сегодня, когда астрономические данные растут экспоненциально (удваиваясь каждые 16 месяцев), глубокое обучение становится необходимым для их обработки. В перспективе ожидается четвертая волна, когда астрономическое сообщество может перейти к использованию универсальных базовых моделей типа GPT, дообученных для астрономических задач.
См. также
- ChatGPT
- Оптические нейронные сети
- Искусственный интеллект
- Нейронный процессор
- Нейрокомпьютер
- Blue Brain Project
- Модель биологического нейрона
- Когнитивистика
- DeepMind
- Генеративный искусственный интеллект
Примечания
Комментарии
- По мнению известного специалиста по машинному обучению Ян Лекуна, машинное обучение есть воспроизведение мышления на основе искусственных нейронных сетей
Сноски
- Нейронные сети : [арх. 25 октября 2022] / Галушкин А. И. // Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов. — М. : Большая российская энциклопедия, 2004—2017.
- Мак-Каллок У. С., Питтс В. Логическое исчисление идей, относящихся к нервной активности Архивная копия от 27 ноября 2007 на Wayback Machine // Автоматы / Под ред. К. Э. Шеннона и Дж. Маккарти. — М.: Изд-во иностр. лит., 1956. — С. 363—384. (Перевод английской статьи 1943 г.)
- Горбань А. Н. Кто мы, куда мы идём, как путь наш измерить? Архивная копия от 14 августа 2009 на Wayback Machine Пленарный доклад на открытии конференции Нейроинформатика-99 (МИФИ, 20 января 1999). Журнальный вариант: Горбань А. Н. Нейроинформатика: кто мы, куда мы идём, как путь наш измерить // Вычислительные технологии. — М.: Машиностроение. — 2000. — № 4. — С. 10—14. = Gorban A.N. Neuroinformatics: What are us, where are we going, how to measure our way? Архивная копия от 17 февраля 2016 на Wayback Machine The Lecture at the USA-NIS Neurocomputing Opportunities Workshop, Washington DC, July 1999 (Associated with IJCNN’99).
- Лекун, 2021, с. 78.
- Н. Винер. Кибернетика. 2-е изд., 1961, гл. I.
- Голубев, 2007, с. 4.
- Pattern Recognition and Adaptive Control. BERNARD WIDROW. Дата обращения: 9 февраля 2009. Архивировано 22 июня 2010 года.
- Уидроу Б., Стирнс С. Адаптивная обработка сигналов. — М.: Радио и связь, 1989. — 440 c.
- Петров А. П. О возможностях перцептрона // Известия АН СССР, Техническая кибернетика. — 1964. — № 6.
- Бонгард М. М. Проблемы узнавания. — М.: Физматгиз, 1967.
- Голубев, 2007, с. 5.
- Хакимов Б. Б. Моделирование корреляционных зависимостей сплайнами на примерах в геологии и экологии. — М.: Изд-во Моск. ун-та; СПб.: Нева, 2003. — 144 с.
- Werbos P. J. Beyond regression: New tools for prediction and analysis in the behavioral sciences. — Ph. D. thesis, Harvard University, Cambridge, MA, 1974.
- Галушкин А. И. Синтез многослойных систем распознавания образов. — М.: Энергия, 1974.
- Rumelhart D.E., Hinton G.E., Williams R.J., Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.
- Rumelhart D. E., Hinton G. E., Williams R. J. Learning Internal Representations by Error Propagation // Parallel Distributed Processing. Vol. 1. — Cambridge, MA: MIT Press, 1986. P. 318—362.
- Барцев С. И., Охонин В. А. Адаптивные сети обработки информации. — Красноярск: Ин-т физики СО АН СССР, 1986. Препринт № 59Б. — 20 с.
- Такой вид кодирования иногда называют кодом «1 из N»
- Открытые системы — введение в нейросети Архивная копия от 31 октября 2005 на Wayback Machine
- Горбань А. Н. Обобщённая аппроксимационная теорема и вычислительные возможности нейронных сетей Архивная копия от 27 января 2012 на Wayback Machine // Сибирский журнал вычислительной математики, 1998, т. 1, № 1. — С. 12—24.
- Миркес Е. М. Логически прозрачные нейронные сети и производство явных знаний из данных Архивная копия от 4 февраля 2019 на Wayback Machine // Нейроинформатика / А. Н. Горбань, В. Л. Дунин-Барковский, А. Н. Кирдин и др. — Новосибирск: Наука. Сибирское предприятие РАН, 1998. — 296 с. — ISBN 5-02-031410-2.
- Упоминание этой истории в журнале «Популярная механика». Дата обращения: 16 апреля 2012. Архивировано 8 сентября 2011 года.
- INTUIT.ru — Рекуррентные сети как ассоциативные запоминающие устройства. Дата обращения: 5 октября 2007. Архивировано 17 декабря 2007 года.
- Kohonen T. Self-Organizing Maps. 3rd edition. — Berlin — New York: Springer-Verlag, 2001/ — ISBN 0-387-51387-6, ISBN 3-540-67921-9.
- Зиновьев А. Ю. Визуализация многомерных данных. — Красноярск: Изд-во Красноярского гос. техн. ун-та, 2000. — 180 с. Архивировано 6 марта 2019 года.
- Martinetz T. M., Berkovich S. G., Schulten K. J. Neural-gas network for vector quantization and its application to time-series prediction Архивная копия от 16 июля 2019 на Wayback Machine // IEEE Trans. on Neural Networks, 1993, No. 4. — P. 558—569. На сайте PCA Архивная копия от 16 марта 2019 на Wayback Machine
- Gorban A. N., Rossiyev D. A., Dorrer M. G. MultiNeuron — Neural Networks Simulator For Medical, Physiological, and Psychological Applications Архивная копия от 17 февраля 2016 на Wayback Machine // Wcnn’95, Washington, D.C.: World Congress on Neural Networks, 1995. International Neural Network Society Annual Meeting : Renaissance Hotel, Washington, D.C., USA, July 17-21, 1995.
- Доррер М. Г. Психологическая интуиция искусственных нейронных сетей Архивная копия от 25 марта 2009 на Wayback Machine, Дисс. … 1998. Другие копии онлайн: [1] Архивная копия от 28 апреля 2009 на Wayback Machine, [2] Архивная копия от 7 апреля 2009 на Wayback Machine
- Баскин И. И., Палюлин В. А., Зефиров Н. С. Применение искусственных нейронных сетей в химических и биохимических исследованиях Архивная копия от 10 июля 2007 на Wayback Machine // Вестн. Моск. ун-та. Сер. 2. Химия. 1999. Т. 40. № 5.
- Гальберштам Н. М., Баскин И. И., Палюлин В. А., Зефиров Н. С. Нейронные сети как метод поиска зависимостей структура — свойство органических соединений // Успехи химии. — Российская академия наук, 2003. — Т. 72, № 7. — С. 706—727. Архивировано 29 марта 2023 года.
- Баскин И. И., Палюлин В. А., Зефиров Н. С. Многослойные персептроны в исследовании зависимостей «структура-свойство» для органических соединений // Российский химический журнал (Журнал Российского химического общества им. Д. И. Менделеева). — 2006. — Т. 50. — С. 86—96.
- Сигеру, Марзуки, Рубия, 2000.
- Чернодуб А. Н., Дзюба Д. А. Обзор методов нейроуправления Архивная копия от 13 января 2012 на Wayback Machine // Проблемы программирования. — 2011. — № 2. — С. 79—94.
- Сабании В. Р. Автоматические системы регулирования на основе нейросетевых технологий / В. Р. Сабанин, Н. И. Смирнов, А. И. Репин // Труды Международной научной конференции Control-2003. М.: Издательство МЭИ, 2003. С. 45—51.
- Калацкая Л. В., Новиков В. А., Садов В. С. Организация и обучение искусственных нейронных сетей: Экспериментальное учеб. пособие. — Минск: Изд-во БГУ, 2003. — 72 с.
- Кенин А. М., Мазуров В. Д. Опыт применения нейронных сетей в экономических задачах Архивная копия от 2 апреля 2013 на Wayback Machine
- [3] Нейронные сети в экономике
- Виталий Валентинович Гаевский, Андрей Михайлович Иванов. ПРОБЛЕМЫ ПРИМЕНЕНИЯ ИНТЕЛЛЕКТУАЛЬНЫХ СИСТЕМ ПОМОЩИ ВОДИТЕЛЮ НА ОДНОКОЛЕЙНЫХ ТРАНСПОРТНЫХ СРЕДСТВАХ // Transactions of NNSTU n.a. R.E. Alekseev. — 2018. — Вып. 3. — С. 121–129. — ISSN 1816-210X. — doi:10.46960/1816-210x_2018_3_121.
- Ризван Рамзанович Турлуев. НЕЙРОСЕТИ В СИСТЕМАХ КОРПОРАТИВНОГО УПРАВЛЕНИЯ // НЕЙРОСЕТИ В СИСТЕМАХ КОРПОРАТИВНОГО УПРАВЛЕНИЯ. — ICSP «NEW SCIENCE», 2021.
- Michael J. Smith, James E. Geach. Astronomia ex machina: a history, primer and outlook on neural networks in astronomy // Royal Society Open Science. — 2023-05-31. — Т. 10, вып. 5. — С. 221454. — doi:10.1098/rsos.221454.
Литература
- Беркинблит М. Б. Нейронные сети. — М.: МИРОС и ВЗМШ РАО, 1993. — 96 с. — ISBN 5-7084-0026-9.
- Вороновский Г. К., Махотило К. В., Петрашев С. Н., Сергеев С. А. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. — Харьков: Основа, 1997. — 112 с. — ISBN 5-7768-0293-8.
- Голубев Ю. Ф. Нейросетевые методы в мехатронике. — М.: Изд-во Моск. унта, 2007. — 157 с. — ISBN 978-5-211-05434-9.
- Горбань А. Н. Обучение нейронных сетей. — М.: СССР-США СП «Параграф», 1990. — 160 с.
- Горбань А. Н., Россиев Д. А. Нейронные сети на персональном компьютере. — Новосибирск: Наука, 1996. — 276 с. — ISBN 5-02-031196-0.
- Горбань А. Н., Дунин-Барковский В. Л. и др. Нейроинформатика. — Новосибирск: Наука, 1998.
- Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение = Deep Learning. — М.: , 2017. — 652 с. — ISBN 978-5-97060-554-7.
- Ерёмин Д. М., Гарцеев И. Б. Искусственные нейронные сети в интеллектуальных системах управления. — М.: МИРЭА, 2004. — 75 с. — ISBN 5-7339-0423-2.
- Основные концепции нейронных сетей = The Essence of Neural Networks First Edition. — М.: Вильямс, 2001. — 288 с. — ISBN 5-8459-0210-X.
- Круглов В. В., Искусственные нейронные сети. Теория и практика. — М.: Горячая линия - Телеком, 2001. — 382 с. — ISBN 5-93517-031-0.
- Миркес Е. М. Нейрокомпьютер. Проект стандарта. — Новосибирск: Наука, 1999. — 337 с. — ISBN 5-02-031409-9. Другие копии онлайн: Нейрокомпьютер. Проект стандарта.
- Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. — СПб.: Питер, 2018. — 480 с. — ISBN 978-5-496-02536-2.
- Осовский Станислав. Нейронные сети для обработки информации = Sieci neuronowe do przetwarzania informacji (пол.) / Перевод И. Д. Рудинского. — М.: Финансы и статистика, 2004. — 344 с. — ISBN 5-279-02567-4.
- Савельев А. В. На пути к общей теории нейросетей. К вопросу о сложности // Нейрокомпьютеры: разработка, применение. — 2006. — № 4—5. — С. 4—14. Архивировано 11 сентября 2016 года.
- Сигеру Омату, Марзуки Халид, Рубия Юсоф. Нейроуправление и его приложения = Neuro-Control and its Applications. 2-е изд. — М.: ИПРЖР, 2000. — 272 с. — ISBN 5-93108-006-6.
- Тадеусевич Рышард, Боровик Барбара, Гончаж Томаш, Леппер Бартош. Элементарное введение в технологию нейронных сетей с примерами программ / Перевод И. Д. Рудинского. — М.: Горячая линия — Телеком, 2011. — 408 с. — ISBN 978-5-9912-0163-6..
- Терехов В. А., Ефимов Д. В., Тюкин И. Ю. Нейросетевые системы управления. — М.: Высшая школа, 2002. — 184 с. — ISBN 5-06-004094-1.
- Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика = Neural Computing. Theory and Practice. — М.: Мир, 1992. — 240 с. — ISBN 5-03-002115-9. Архивная копия от 30 июня 2009 на Wayback Machine
- Хайкин С. Нейронные сети: полный курс = Neural Networks: A Comprehensive Foundation. 2-е изд. — М.: Вильямс, 2006. — 1104 с. — ISBN 0-13-273350-1.
- Ясницкий Л. Н. Введение в искусственный интеллект. — М.: Издат. центр «Академия», 2005. — 176 с. — ISBN 5-7695-1958-4.
- Ян Лекун. Как учится машина. Революция в области нейронных сетей и глубокого обучения. (Библиотека Сбера: Искусственный интеллект). — М.: Альпина нон-фикшн, 2021. — 348 с. — ISBN 978-5-907394-29-2.
Ссылки
- Neural Networks в каталоге ссылок Curlie (dmoz)
- Учебник по искусственным нейронным сетям
- Ian Goodfellow, Yoshua Bengio, Aaron Courville. Deep Learning (англ.). MIT Press (2016). — Книга по машинному обучению и, в частности, по глубокому обучению.
Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Нейронная сеть, Что такое Нейронная сеть? Что означает Нейронная сеть?
Eta statya o ponyatii v programmirovanii o setyah nervnyh kletok zhivyh organizmov sm Nervnaya set Nejro nnaya set takzhe isku sstvennaya nejro nnaya set INS ili prosto nejrose t matematicheskaya model a takzhe eyo programmnoe ili apparatnoe voploshenie postroennaya po principu organizacii nervnyh setej biologicheskih nejronnyh setej setej nervnyh kletok nejronov zhivogo organizma Eto ponyatie vozniklo pri izuchenii processov protekayushih v mozge i pri popytke smodelirovat eti processy Pervoj takoj popytkoj byli nejronnye seti U Makkaloka i U Pittsa Posle razrabotki algoritmov obucheniya poluchaemye modeli stali ispolzovat v prakticheskih celyah v zadachah prognozirovaniya dlya raspoznavaniya obrazov v zadachah upravleniya i dr Shema prostoj nejroseti Zelyonym cvetom oboznacheny vhodnye nejrony golubym skrytye nejrony zhyoltym vyhodnoj nejron INS predstavlyaet soboj sistemu soedinyonnyh i vzaimodejstvuyushih mezhdu soboj prostyh processorov iskusstvennyh nejronov Takie processory dovolno prosty osobenno v sravnenii s processorami ispolzuemymi v personalnyh kompyuterah Kazhdyj processor podobnoj seti imeet delo tolko s signalami kotorye on periodicheski poluchaet i signalami kotorye on periodicheski posylaet drugim processoram I tem ne menee buduchi soedinyonnymi v dostatochno bolshuyu set s upravlyaemym vzaimodejstviem takie prostye po otdelnosti processory vmeste sposobny vypolnyat dovolno slozhnye zadachi S tochki zreniya mashinnogo obucheniya nejronnaya set predstavlyaet soboj chastnyj sluchaj metodov raspoznavaniya obrazov diskriminantnogo analiza S tochki zreniya matematiki obuchenie nejronnyh setej eto mnogoparametricheskaya zadacha nelinejnoj optimizacii S tochki zreniya kibernetiki nejronnaya set ispolzuetsya v zadachah adaptivnogo upravleniya i kak algoritmy dlya robototehniki S tochki zreniya razvitiya vychislitelnoj tehniki i programmirovaniya nejronnaya set sposob resheniya problemy effektivnogo parallelizma S tochki zreniya iskusstvennogo intellekta INS yavlyaetsya osnovoj filosofskogo techeniya konnekcionizma i osnovnym napravleniem v strukturnom podhode po izucheniyu vozmozhnosti postroeniya modelirovaniya estestvennogo intellekta s pomoshyu kompyuternyh algoritmov Nejronnye seti ne programmiruyutsya v privychnom smysle etogo slova oni obuchayutsya Vozmozhnost obucheniya odno iz glavnyh preimushestv nejronnyh setej pered tradicionnymi algoritmami Tehnicheski obuchenie zaklyuchaetsya v nahozhdenii koefficientov svyazej mezhdu nejronami V processe obucheniya nejronnaya set sposobna vyyavlyat slozhnye zavisimosti mezhdu vhodnymi i vyhodnymi dannymi a takzhe vypolnyat obobshenie Eto znachit chto v sluchae uspeshnogo obucheniya set smozhet vernut vernyj rezultat na osnovanii dannyh kotorye otsutstvovali v obuchayushej vyborke a takzhe nepolnyh i ili zashumlyonnyh chastichno iskazhyonnyh dannyh Hronologiya1943 U Makkalok i U Pitts formalizuyut ponyatie nejronnoj seti v fundamentalnoj state o logicheskom ischislenii idej i nervnoj aktivnosti V nachale svoego sotrudnichestva s Pittsom N Viner predlagaet emu vakuumnye lampy v kachestve sredstva dlya realizacii ekvivalentov nejronnyh setej 1948 Opublikovana kniga N Vinera o kibernetike Osnovnoj ideej stalo predstavlenie slozhnyh biologicheskih processov matematicheskimi modelyami 1949 D Hebb predlagaet pervyj algoritm obucheniya 1958 F Rozenblatt izobretaet odnoslojnyj perceptron i demonstriruet ego sposobnost reshat zadachi klassifikacii Perceptron ispolzovali dlya raspoznavaniya obrazov prognozirovaniya pogody K momentu izobreteniya perceptrona zavershilos rashozhdenie teoreticheskih rabot Makkaloka s kibernetikoj Vinera Makkalok i ego posledovateli vyshli iz sostava Kiberneticheskogo kluba 1960 angl sovmestno so svoim studentom Hoffom na osnove delta pravila formuly Uidrou razrabotali Adalin kotoryj srazu nachal ispolzovatsya dlya zadach predskazaniya i adaptivnogo upravleniya Adalin byl postroen na baze sozdannyh imi zhe Uidrou Hoffom novyh elementah memistorah 1963 V institute problem peredachi informacii AN SSSR A P Petrovym provoditsya issledovanie zadach trudnyh dlya perceptrona Na etu rabotu v oblasti modelirovaniya INS v SSSR opiralsya M M Bongard v svoej rabote kak sravnitelno nebolshoj peredelkoj algoritma perceptrona ispravit ego nedostatki 1969 M Minskij publikuet formalnoe dokazatelstvo ogranichennosti perceptrona i pokazyvaet chto on ne sposoben reshat nekotorye zadachi problema chyotnosti i odin v bloke svyazannye s invariantnostyu predstavlenij 1972 T Kohonen i angl nezavisimo predlagayut novyj tip nejronnyh setej sposobnyh funkcionirovat v kachestve pamyati 1973 B V Hakimov predlagaet nelinejnuyu model s sinapsami na osnove splajnov i vnedryaet eyo dlya resheniya zadach v medicine geologii ekologii 1974 Pol Dzh Verbos i Galushkin A I odnovremenno izobretayut algoritm obratnogo rasprostraneniya oshibki dlya obucheniya mnogoslojnyh perceptronov 1975 angl predstavlyaet kognitron samoorganizuyushuyusya set prednaznachennuyu dlya invariantnogo raspoznavaniya obrazov no eto dostigaetsya tolko pri pomoshi zapominaniya prakticheski vseh sostoyanij obraza 1982 Dzh Hopfild pokazal chto nejronnaya set s obratnymi svyazyami mozhet predstavlyat soboj sistemu minimiziruyushuyu energiyu set Hopfilda Kohonenom predstavleny modeli seti obuchayushejsya bez uchitelya nejronnaya set Kohonena reshayushej zadachi klasterizacii vizualizacii dannyh samoorganizuyushayasya karta Kohonena i drugie zadachi predvaritelnogo analiza dannyh 1986 Devidom I Rumelhartom Dzh E Hintonom i Ronaldom Dzh Vilyamsom a takzhe nezavisimo i odnovremenno S I Barcevym i V A Ohoninym pereotkryt i razvit metod obratnogo rasprostraneniya oshibki 2007 Dzheffri Hintonom v universitete Toronto sozdany algoritmy glubokogo obucheniya mnogoslojnyh nejronnyh setej Hinton pri obuchenii nizhnih sloyov seti ispolzoval ogranichennuyu mashinu Bolcmana RBM Restricted Boltzmann Machine Po Hintonu neobhodimo ispolzovat mnogo primerov raspoznavaemyh obrazov naprimer mnozhestvo lic lyudej na raznyh fonah Posle obucheniya poluchaetsya gotovoe bystro rabotayushee prilozhenie sposobnoe reshat konkretnuyu zadachu naprimer osushestvlyat poisk lic na izobrazhenii Izvestnye primeneniyaRaspoznavanie obrazov i klassifikaciya Osnovnye stati Teoriya raspoznavaniya obrazov i Zadacha klassifikacii V kachestve obrazov mogut vystupat razlichnye po svoej prirode obekty simvoly teksta izobrazheniya obrazcy zvukov i tak dalee Pri obuchenii seti predlagayutsya razlichnye obrazcy obrazov s ukazaniem togo k kakomu klassu oni otnosyatsya Obrazec kak pravilo predstavlyaetsya kak vektor znachenij priznakov Pri etom sovokupnost vseh priznakov dolzhna odnoznachno opredelyat klass k kotoromu otnositsya obrazec V sluchae esli priznakov nedostatochno set mozhet sootnesti odin i tot zhe obrazec s neskolkimi klassami chto neverno Po okonchanii obucheniya seti ej mozhno predyavlyat neizvestnye ranee obrazy i poluchat otvet o prinadlezhnosti k opredelyonnomu klassu Topologiya takoj seti harakterizuetsya tem chto kolichestvo nejronov v vyhodnom sloe kak pravilo ravno kolichestvu opredelyaemyh klassov Pri etom ustanavlivaetsya sootvetstvie mezhdu vyhodom nejronnoj seti i klassom kotoryj on predstavlyaet Kogda seti predyavlyaetsya nekij obraz na odnom iz eyo vyhodov dolzhen poyavitsya priznak togo chto obraz prinadlezhit etomu klassu V to zhe vremya na drugih vyhodah dolzhen byt priznak togo chto obraz dannomu klassu ne prinadlezhit Esli na dvuh ili bolee vyhodah est priznak prinadlezhnosti k klassu schitaetsya chto set ne uverena v svoyom otvete Ispolzuemye arhitektury nejrosetej Obuchenie s uchitelem Perceptron Svyortochnye nejronnye seti Obuchenie bez uchitelya Seti adaptivnogo rezonansa Smeshannoe obuchenie Set radialno bazisnyh funkcijPrinyatie reshenij i upravlenie Eta zadacha blizka k zadache klassifikacii Klassifikacii podlezhat situacii harakteristiki kotoryh postupayut na vhod nejronnoj seti Na vyhode seti pri etom dolzhen poyavitsya priznak resheniya kotoroe ona prinyala Pri etom v kachestve vhodnyh signalov ispolzuyutsya razlichnye kriterii opisaniya sostoyaniya upravlyaemoj sistemy Klasterizaciya Osnovnaya statya Klasternyj analiz V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Pod klasterizaciej ponimaetsya razbienie mnozhestva vhodnyh signalov na klassy pri tom chto ni kolichestvo ni priznaki klassov zaranee neizvestny Posle obucheniya takaya set sposobna opredelyat k kakomu klassu otnositsya vhodnoj signal Set takzhe mozhet signalizirovat o tom chto vhodnoj signal ne otnositsya ni k odnomu iz vydelennyh klassov eto yavlyaetsya priznakom novyh otsutstvuyushih v obuchayushej vyborke dannyh Takim obrazom podobnaya set mozhet vyyavlyat novye neizvestnye ranee klassy signalov Sootvetstvie mezhdu klassami vydelennymi setyu i klassami sushestvuyushimi v predmetnoj oblasti ustanavlivaetsya chelovekom Klasterizaciyu osushestvlyayut naprimer nejronnye seti Kohonena Nejronnye seti v prostom variante Kohonena ne mogut byt ogromnymi poetomu ih delyat na gipersloi giperkolonki i yadra mikrokolonki Esli sravnivat s mozgom cheloveka to idealnoe kolichestvo parallelnyh sloyov ne dolzhno byt bolee 112 Eti sloi v svoyu ochered sostavlyayut gipersloi giperkolonku v kotoroj ot 500 do 2000 mikrokolonok yader Pri etom kazhdyj sloj delitsya na mnozhestvo giperkolonok pronizyvayushih naskvoz eti sloi Mikrokolonki kodiruyutsya ciframi i edinicami s polucheniem rezultata na vyhode Esli trebuetsya to lishnie sloi i nejrony udalyayutsya ili dobavlyayutsya Idealno dlya podbora chisla nejronov i sloyov ispolzovat superkompyuter Takaya sistema pozvolyaet nejronnym setyam byt plastichnymi Ispolzuemye arhitektury nejrosetej Obuchenie bez uchitelya Perceptron Samoorganizuyushayasya karta Kohonena Nejronnaya set Kohonena Seti adaptivnogo rezonansaPrognozirovanie Osnovnaya statya Prognozirovanie V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Sposobnosti nejronnoj seti k prognozirovaniyu napryamuyu sleduyut iz eyo sposobnosti k obobsheniyu i vydeleniyu skrytyh zavisimostej mezhdu vhodnymi i vyhodnymi dannymi Posle obucheniya set sposobna predskazat budushee znachenie nekoj posledovatelnosti na osnove neskolkih predydushih znachenij i ili kakih to sushestvuyushih v nastoyashij moment faktorov Prognozirovanie vozmozhno tolko togda kogda predydushie izmeneniya v kakoj to stepeni dejstvitelno predopredelyayut budushie Naprimer prognozirovanie kotirovok akcij na osnove kotirovok za proshluyu nedelyu mozhet okazatsya uspeshnym a mozhet i ne okazatsya togda kak prognozirovanie rezultatov zavtrashnej loterei na osnove dannyh za poslednie 50 let pochti navernyaka ne dast nikakih rezultatov Ispolzuemye arhitektury nejrosetej Obuchenie s uchitelem PerceptronSmeshannoe obuchenie Set radialno bazisnyh funkcijApproksimaciya Osnovnaya statya Approksimaciya V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Nejronnye seti mogut approksimirovat nepreryvnye funkcii Dokazana obobshyonnaya approksimacionnaya teorema s pomoshyu linejnyh operacij i kaskadnogo soedineniya mozhno iz proizvolnogo nelinejnogo elementa poluchit ustrojstvo vychislyayushee lyubuyu nepreryvnuyu funkciyu s nekotoroj naperyod zadannoj tochnostyu Eto oznachaet chto nelinejnaya harakteristika nejrona mozhet byt proizvolnoj ot sigmoidalnoj do proizvolnogo volnovogo paketa ili vejvleta sinusa ili mnogochlena Ot vybora nelinejnoj funkcii mozhet zaviset slozhnost konkretnoj seti no s lyuboj nelinejnostyu set ostayotsya universalnym approksimatorom i pri pravilnom vybore struktury mozhet dostatochno tochno approksimirovat funkcionirovanie lyubogo nepreryvnogo avtomata Ispolzuemye arhitektury nejrosetej Obuchenie s uchitelem PerceptronSmeshannoe obuchenie Set radialno bazisnyh funkcijSzhatie dannyh i associativnaya pamyat Osnovnye stati Nejrosetevoe szhatie dannyh i Associativnaya pamyat Sposobnost nejrosetej k vyyavleniyu vzaimosvyazej mezhdu razlichnymi parametrami dayot vozmozhnost vyrazit dannye bolshoj razmernosti bolee kompaktno esli dannye tesno vzaimosvyazany drug s drugom Obratnyj process vosstanovlenie ishodnogo nabora dannyh iz chasti informacii nazyvaetsya avto associativnoj pamyatyu Associativnaya pamyat pozvolyaet takzhe vosstanavlivat ishodnyj signal obraz iz zashumlyonnyh povrezhdyonnyh vhodnyh dannyh Reshenie zadachi geteroassociativnoj pamyati pozvolyaet realizovat pamyat adresuemuyu po soderzhimomu Analiz dannyh Ispolzuemye arhitektury nejrosetej Obuchenie s uchitelem PerceptronObuchenie bez uchitelya Perceptron Samoorganizuyushayasya karta Kohonena Nejronnaya set KohonenaOptimizaciya Ispolzuemye arhitektury nejrosetej Obuchenie bez uchitelya Samoorganizuyushayasya karta Kohonena Nejronnaya set KohonenaEtapy resheniya zadachSbor dannyh dlya obucheniya Podgotovka i normalizaciya dannyh Vybor topologii seti Eksperimentalnyj podbor harakteristik seti Eksperimentalnyj podbor parametrov obucheniya Sobstvenno obuchenie Proverka adekvatnosti obucheniya Korrektirovka parametrov okonchatelnoe obuchenie Verbalizaciya seti s celyu dalnejshego ispolzovaniya Sleduet rassmotret podrobnee nekotorye iz etih etapov Sbor dannyh dlya obucheniya V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 3 noyabrya 2023 Vybor dannyh dlya obucheniya seti i ih obrabotka yavlyaetsya samym slozhnym etapom resheniya zadachi Nabor dannyh dlya obucheniya dolzhen udovletvoryat neskolkim kriteriyam reprezentativnost dannye dolzhny illyustrirovat istinnoe polozhenie veshej v predmetnoj oblasti neprotivorechivost protivorechivye dannye v obuchayushej vyborke privedut k plohomu kachestvu obucheniya seti Ishodnye dannye preobrazuyutsya k vidu v kotorom ih mozhno podat na vhody seti Kazhdaya zapis v fajle dannyh nazyvaetsya obuchayushej paroj ili obuchayushim vektorom Obuchayushij vektor soderzhit po odnomu znacheniyu na kazhdyj vhod seti i v zavisimosti ot tipa obucheniya s uchitelem ili bez po odnomu znacheniyu dlya kazhdogo vyhoda seti Obuchenie seti na syrom nabore kak pravilo ne dayot kachestvennyh rezultatov Sushestvuet ryad sposobov uluchshit vospriyatie seti Normirovka vypolnyaetsya kogda na razlichnye vhody podayutsya dannye raznoj razmernosti Naprimer na pervyj vhod seti podayutsya velichiny so znacheniyami ot nulya do edinicy a na vtoroj ot sta do tysyachi Pri otsutstvii normirovki znacheniya na vtorom vhode budut vsegda okazyvat sushestvenno bolshee vliyanie na vyhod seti chem znacheniya na pervom vhode Pri normirovke razmernosti vseh vhodnyh i vyhodnyh dannyh svodyatsya voedino kvantovanie vypolnyaetsya nad nepreryvnymi velichinami dlya kotoryh vydelyaetsya konechnyj nabor diskretnyh znachenij Naprimer kvantovanie ispolzuyut dlya zadaniya chastot zvukovyh signalov pri raspoznavanii rechi filtraciya vypolnyaetsya dlya zashumlyonnyh dannyh Krome togo bolshuyu rol igraet samo predstavlenie kak vhodnyh tak i vyhodnyh dannyh Predpolozhim set obuchaetsya raspoznavaniyu bukv na izobrazheniyah i imeet odin chislovoj vyhod nomer bukvy v alfavite V etom sluchae set poluchit lozhnoe predstavlenie o tom chto bukvy s nomerami 1 i 2 bolee pohozhi chem bukvy s nomerami 1 i 3 chto v obshem neverno Dlya togo chtoby izbezhat takoj situacii ispolzuyut topologiyu seti s bolshim chislom vyhodov kogda kazhdyj vyhod imeet svoj smysl Chem bolshe vyhodov v seti tem bolshee rasstoyanie mezhdu klassami i tem slozhnee ih sputat Vybor topologii seti V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 3 noyabrya 2023 Vybirat tip seti sleduet ishodya iz postanovki zadachi i imeyushihsya dannyh dlya obucheniya Dlya obucheniya s uchitelem trebuetsya nalichie dlya kazhdogo elementa vyborki ekspertnoj ocenki Inogda poluchenie takoj ocenki dlya bolshogo massiva dannyh prosto nevozmozhno V etih sluchayah estestvennym vyborom yavlyaetsya set obuchayushayasya bez uchitelya naprimer samoorganizuyushayasya karta Kohonena ili nejronnaya set Hopfilda Pri reshenii drugih zadach takih kak prognozirovanie vremennyh ryadov ekspertnaya ocenka uzhe soderzhitsya v ishodnyh dannyh i mozhet byt vydelena pri ih obrabotke V etom sluchae mozhno ispolzovat mnogoslojnyj perceptron utochnit ili set Vorda Eksperimentalnyj podbor harakteristik seti V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 3 noyabrya 2023 Posle vybora obshej struktury nuzhno eksperimentalno podobrat parametry seti Dlya setej podobnyh perceptronu eto budet chislo sloyov chislo blokov v skrytyh sloyah dlya setej Vorda nalichie ili otsutstvie obhodnyh soedinenij peredatochnye funkcii nejronov Pri vybore kolichestva sloyov i nejronov v nih sleduet ishodit iz togo chto sposobnosti seti k obobsheniyu tem vyshe chem bolshe summarnoe chislo svyazej mezhdu nejronami S drugoj storony chislo svyazej ogranicheno sverhu kolichestvom zapisej v obuchayushih dannyh Eksperimentalnyj podbor parametrov obucheniya V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 3 noyabrya 2023 Posle vybora konkretnoj topologii neobhodimo vybrat parametry obucheniya nejronnoj seti Etot etap osobenno vazhen dlya setej obuchayushihsya s uchitelem Ot pravilnogo vybora parametrov zavisit ne tolko to naskolko bystro otvety seti budut shoditsya k pravilnym otvetam Naprimer vybor nizkoj skorosti obucheniya uvelichit vremya shozhdeniya odnako inogda pozvolyaet izbezhat Uvelichenie momenta obucheniya mozhet privesti kak k uvelicheniyu tak i k umensheniyu vremeni shodimosti v zavisimosti ot formy Ishodya iz takogo protivorechivogo vliyaniya parametrov mozhno sdelat vyvod chto ih znacheniya nuzhno vybirat eksperimentalno rukovodstvuyas pri etom kriteriem zaversheniya obucheniya naprimer minimizaciya oshibki ili ogranichenie po vremeni obucheniya Obuchenie seti V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 3 noyabrya 2023 V processe obucheniya set v opredelyonnom poryadke prosmatrivaet obuchayushuyu vyborku Poryadok prosmotra mozhet byt posledovatelnym sluchajnym i t d Nekotorye seti obuchayushiesya bez uchitelya naprimer seti Hopfilda prosmatrivayut vyborku tolko odin raz Drugie naprimer seti Kohonena a takzhe seti obuchayushiesya s uchitelem prosmatrivayut vyborku mnozhestvo raz pri etom odin polnyj prohod po vyborke nazyvaetsya epohoj obucheniya Pri obuchenii s uchitelem nabor ishodnyh dannyh delyat na dve chasti sobstvenno obuchayushuyu vyborku i testovye dannye princip razdeleniya mozhet byt proizvolnym Obuchayushie dannye podayutsya seti dlya obucheniya a proverochnye ispolzuyutsya dlya raschyota oshibki seti proverochnye dannye nikogda dlya obucheniya seti ne primenyayutsya Takim obrazom esli na proverochnyh dannyh oshibka umenshaetsya to set dejstvitelno vypolnyaet obobshenie Esli oshibka na obuchayushih dannyh prodolzhaet umenshatsya a oshibka na testovyh dannyh uvelichivaetsya znachit set perestala vypolnyat obobshenie i prosto zapominaet obuchayushie dannye Eto yavlenie nazyvaetsya pereobucheniem seti ili overfittingom V takih sluchayah obuchenie obychno prekrashayut V processe obucheniya mogut proyavitsya drugie problemy takie kak paralich ili popadanie seti v lokalnyj minimum poverhnosti oshibok Nevozmozhno zaranee predskazat proyavlenie toj ili inoj problemy ravno kak i dat odnoznachnye rekomendacii k ih razresheniyu Vsyo vyshe skazannoe otnositsya tolko k iteracionnym algoritmam poiska nejrosetevyh reshenij Dlya nih dejstvitelno nelzya nichego garantirovat i nelzya polnostyu avtomatizirovat obuchenie nejronnyh setej istochnik ne ukazan 4410 dnej Odnako naryadu s iteracionnymi algoritmami obucheniya sushestvuyut ne iteracionnye algoritmy obladayushie ochen vysokoj ustojchivostyu i pozvolyayushie polnostyu avtomatizirovat process obucheniya istochnik ne ukazan 2784 dnya Proverka adekvatnosti obucheniya Dazhe v sluchae uspeshnogo na pervyj vzglyad obucheniya set ne vsegda obuchaetsya imenno tomu chego ot neyo hotel sozdatel Izvesten sluchaj kogda set obuchalas raspoznavaniyu izobrazhenij tankov po fotografiyam odnako pozdnee vyyasnilos chto vse tanki byli sfotografirovany na odnom i tom zhe fone V rezultate set nauchilas raspoznavat etot tip landshafta vmesto togo chtoby nauchitsya raspoznavat tanki Takim obrazom set ponimaet ne to chto ot neyo trebovalos a to chto proshe vsego obobshit Testirovanie kachestva obucheniya nejroseti neobhodimo provodit na primerah kotorye ne uchastvovali v eyo obuchenii Pri etom chislo testovyh primerov dolzhno byt tem bolshe chem vyshe kachestvo obucheniya Esli oshibki nejronnoj seti imeyut veroyatnost blizkuyu k odnoj milliardnoj to i dlya podtverzhdeniya etoj veroyatnosti nuzhen milliard testovyh primerov Poluchaetsya chto testirovanie horosho obuchennyh nejronnyh setej stanovitsya ochen trudnoj zadachej Klassifikaciya po tipu vhodnoj informaciiV razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Analogovye nejronnye seti ispolzuyut informaciyu v forme dejstvitelnyh chisel Dvoichnye nejronnye seti operiruyut s informaciej predstavlennoj v dvoichnom vide Obraznye nejronnye seti operiruyut s informaciej predstavlennoj v vide obrazov znakov ieroglifov simvolov Klassifikaciya po harakteru obucheniyaV razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Obuchenie s uchitelem vyhodnoe prostranstvo reshenij nejronnoj seti izvestno Obuchenie bez uchitelya nejronnaya set formiruet vyhodnoe prostranstvo reshenij tolko na osnove vhodnyh vozdejstvij Takie seti nazyvayut samoorganizuyushimisya Obuchenie s podkrepleniem sistema naznacheniya shtrafov i pooshrenij ot sredy Klassifikaciya po harakteru nastrojki sinapsovV razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Seti s fiksirovannymi svyazyami vesovye koefficienty nejronnoj seti vybirayutsya srazu ishodya iz uslovij zadachi pri etom dW dt 0 displaystyle boldsymbol d W dt 0 gde W vesovye koefficienty seti Seti s dinamicheskimi svyazyami dlya nih v processe obucheniya proishodit nastrojka sinapticheskih svyazej to est dW dt 0 displaystyle boldsymbol d W dt not 0 gde W vesovye koefficienty seti Klassifikaciya po vremeni peredachi signalaV razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 V ryade nejronnyh setej aktiviruyushaya funkciya mozhet zaviset ne tolko ot vesovyh koefficientov svyazej wij displaystyle w ij no i ot vremeni peredachi impulsa signala po kanalam svyazi tij displaystyle tau ij Poetomu v obshem vide aktiviruyushaya peredayushaya funkciya svyazi cij displaystyle c ij ot elementa ui displaystyle u i k elementu uj displaystyle u j imeet vid cij f wij t ui t tij displaystyle c ij f w ij t u i t tau ij Togda sinhronnoj setyu nazyvayut takuyu set u kotoroj vremya peredachi tij displaystyle tau ij kazhdoj svyazi ravno libo nulyu libo fiksirovannoj postoyannoj t displaystyle tau Asinhronnoj nazyvayut takuyu set u kotoroj vremya peredachi tij displaystyle tau ij dlya kazhdoj svyazi mezhdu elementami ui displaystyle u i i uj displaystyle u j svoyo no tozhe postoyannoe Klassifikaciya po harakteru svyazejNejronnye seti pryamogo rasprostraneniya V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 V nejronnyh setyah pryamogo rasprostraneniya angl feedforward neural network vse svyazi napravleny strogo ot vhodnyh nejronov k vyhodnym Primerami takih setej yavlyayutsya perceptron Rozenblatta mnogoslojnyj perceptron seti Vorda Rekurrentnye nejronnye seti Osnovnaya statya Rekurrentnaya nejronnaya set Signal s vyhodnyh nejronov ili nejronov skrytogo sloya chastichno peredayotsya obratno na vhody nejronov vhodnogo sloya obratnaya svyaz Rekurrentnaya set Hopfilda filtruet vhodnye dannye vozvrashayas k ustojchivomu sostoyaniyu i takim obrazom pozvolyaet reshat zadachi kompressii dannyh i postroeniya associativnoj pamyati Chastnym sluchaem rekurrentnyh setej yavlyayutsya dvunapravlennye seti V takih setyah mezhdu sloyami sushestvuyut svyazi kak v napravlenii ot vhodnogo sloya k vyhodnomu tak i v obratnom Klassicheskim primerom yavlyaetsya Nejronnaya set Kosko Radialno bazisnye funkcii Osnovnaya statya Set radialno bazisnyh funkcij V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Razrabotany nejronnye seti ispolzuyushie v kachestve aktivacionnyh funkcij radialno bazisnye takzhe nazyvayutsya RBF setyami Obshij vid radialno bazisnoj funkcii f x ϕ x2s2 displaystyle f x phi left frac x 2 sigma 2 right naprimer f x e x2s2 displaystyle f x e x 2 over sigma 2 gde x displaystyle x vektor vhodnyh signalov nejrona s displaystyle sigma shirina okna funkcii ϕ y displaystyle phi y ubyvayushaya funkciya chashe vsego ravnaya nulyu vne nekotorogo otrezka Radialno bazisnaya set harakterizuetsya tremya osobennostyami edinstvennyj skrytyj sloj tolko nejrony skrytogo sloya imeyut nelinejnuyu aktivacionnuyu funkciyu sinapticheskie vesa svyazej vhodnogo i skrytogo sloyov ravny edinice Samoorganizuyushiesya karty Osnovnaya statya Samoorganizuyushayasya karta Kohonena Takie seti predstavlyayut soboj sorevnovatelnuyu nejronnuyu set s obucheniem bez uchitelya vypolnyayushuyu zadachu vizualizacii i klasterizacii Yavlyaetsya metodom proecirovaniya mnogomernogo prostranstva v prostranstvo s bolee nizkoj razmernostyu chashe vsego dvumernoe primenyaetsya takzhe dlya resheniya zadach modelirovaniya prognozirovaniya i dr Yavlyaetsya odnoj iz versij nejronnyh setej Kohonena Samoorganizuyushiesya karty Kohonena sluzhat v pervuyu ochered dlya vizualizacii i pervonachalnogo razvedyvatelnogo analiza dannyh Signal v set Kohonena postupaet srazu na vse nejrony vesa sootvetstvuyushih sinapsov interpretiruyutsya kak koordinaty polozheniya uzla i vyhodnoj signal formiruetsya po principu pobeditel zabiraet vsyo to est nenulevoj vyhodnoj signal imeet nejron blizhajshij v smysle vesov sinapsov k podavaemomu na vhod obektu V processe obucheniya vesa sinapsov nastraivayutsya takim obrazom chtoby uzly reshyotki raspolagalis v mestah lokalnyh sgushenij dannyh to est opisyvali klasternuyu strukturu oblaka dannyh s drugoj storony svyazi mezhdu nejronami sootvetstvuyut otnosheniyam sosedstva mezhdu sootvetstvuyushimi klasterami v prostranstve priznakov Udobno rassmatrivat takie karty kak dvumernye setki uzlov razmeshyonnyh v mnogomernom prostranstve Iznachalno samoorganizuyushayasya karta predstavlyaet soboj setku iz uzlov soedinyonnuyu mezhdu soboj svyazyami Kohonen rassmatrival dva varianta soedineniya uzlov v pryamougolnuyu i geksagonalnuyu setku otlichie sostoit v tom chto v pryamougolnoj setke kazhdyj uzel soedinyon s chetyrmya sosednimi a v geksagonalnoj s shestyu blizhajshimi uzlami Dlya dvuh takih setok process postroeniya seti Kohonena otlichaetsya lish v tom meste gde perebirayutsya blizhajshie k dannomu uzlu sosedi Nachalnoe vlozhenie setki v prostranstvo dannyh vybiraetsya proizvolnym obrazom V avtorskom pakete SOM PAK predlagayutsya varianty sluchajnogo nachalnogo raspolozheniya uzlov v prostranstve i variant raspolozheniya uzlov v ploskosti Posle etogo uzly nachinayut peremeshatsya v prostranstve soglasno sleduyushemu algoritmu Sluchajnym obrazom vybiraetsya tochka dannyh x displaystyle x Opredelyaetsya blizhajshij k x displaystyle x uzel karty BMU Best Matching Unit Etot uzel peremeshaetsya na zadannyj shag po napravleniyu k x displaystyle x Odnako on peremeshaetsya ne odin a uvlekaet za soboj opredelyonnoe kolichestvo blizhajshih uzlov iz nekotoroj okrestnosti na karte Iz vseh dvigayushihsya uzlov naibolee silno smeshaetsya centralnyj blizhajshij k tochke dannyh uzel a ostalnye ispytyvayut tem menshie smesheniya chem dalshe oni ot BMU V nastrojke karty razlichayut dva etapa etap gruboj ordering i etap tonkoj fine tuning nastrojki Na pervom etape vybirayutsya bolshie znacheniya okrestnostej i dvizhenie uzlov nosit kollektivnyj harakter v rezultate karta raspravlyaetsya i grubym obrazom otrazhaet strukturu dannyh na etape tonkoj nastrojki radius okrestnosti raven 1 2 i nastraivayutsya uzhe individualnye polozheniya uzlov Krome etogo velichina smesheniya ravnomerno zatuhaet so vremenem to est ona velika v nachale kazhdogo iz etapov obucheniya i blizka k nulyu v konce Algoritm povtoryaetsya opredelyonnoe chislo epoh ponyatno chto chislo shagov mozhet silno izmenyatsya v zavisimosti ot zadachi Izvestnye tipy setejPerceptron Rozenblatta Mnogoslojnyj perceptron Rozenblatta Mnogoslojnyj perceptron Rumelharta Set Dzhordana Set Elmana Set Hemminga Set Vorda Set Hopfilda Set Kohonena Nejronnyj gaz Kognitron Neokognitron Oscillyatornaya nejronnaya set Set radialno bazisnyh funkcij RBF set Siamskaya nejronnaya set Seti adaptivnogo rezonansa Svyortochnaya nejronnaya set angl convolutional neural network Impulsnaya nejronnaya set Otlichiya ot mashin s arhitekturoj fon NejmanaV razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 7 dekabrya 2023 Vychislitelnye sistemy osnovannye na nejronnyh setyah obladayut ryadom kachestv kotorye otsutstvuyut v mashinah s arhitekturoj fon Nejmana no prisushi mozgu cheloveka massovyj parallelizm raspredelyonnoe predstavlenie informacii i vychisleniya sposobnost k obucheniyu i obobsheniyu adaptivnost svojstvo kontekstualnoj obrabotki informacii tolerantnost k oshibkam nizkoe energopotreblenie Primery ispolzovanijPredskazanie finansovyh vremennyh ryadov V razdele ne hvataet ssylok na istochniki sm rekomendacii po poisku Informaciya dolzhna byt proveryaema inache ona mozhet byt udalena Vy mozhete otredaktirovat statyu dobaviv ssylki na avtoritetnye istochniki v vide snosok 22 oktyabrya 2023 Vhodnye dannye kurs akcij za god Zadacha opredelit zavtrashnij kurs Provoditsya sleduyushee preobrazovanie vystraivaetsya v ryad kurs za segodnya vchera za pozavchera Sleduyushij ryad smeshaetsya po date na odin den i tak dalee Na poluchennom nabore obuchaetsya set s tremya vhodami i odnim vyhodom to est vyhod kurs na datu vhody kurs na datu minus odin den minus dva dnya minus tri dnya Obuchennoj seti podayotsya na vhod kurs za segodnya vchera pozavchera i poluchaetsya otvet na zavtra V etom sluchae set vyvedet zavisimost odnogo parametra ot tryoh predydushih Esli zhelatelno uchityvat eshyo kakoj to parametr naprimer obshij indeks po otrasli to ego nado dobavit kak vhod i vklyuchit v primery pereobuchit set i poluchit novye rezultaty Dlya naibolee tochnogo obucheniya stoit ispolzovat metod ORO kak naibolee predskazuemyj i neslozhnyj v realizacii Psihodiagnostika Seriya rabot M G Dorrera s soavtorami posvyashena issledovaniyu voprosa o vozmozhnosti razvitiya psihologicheskoj intuicii u nejrosetevyh ekspertnyh sistem Poluchennye rezultaty dayut podhod k raskrytiyu mehanizma intuicii nejronnyh setej proyavlyayushejsya pri reshenii imi psihodiagnosticheskih zadach Sozdan nestandartnyj dlya kompyuternyh metodik intuitivnyj podhod k psihodiagnostike zaklyuchayushijsya v isklyuchenii postroeniya opisannoj realnosti On pozvolyaet sokratit i uprostit rabotu nad psihodiagnosticheskimi metodikami Hemoinformatika Nejronnye seti shiroko ispolzuyutsya v himicheskih i biohimicheskih issledovaniyah V nastoyashee vremya nejronnye seti yavlyayutsya odnim iz samyh rasprostranyonnyh metodov hemoinformatiki dlya poiska kolichestvennyh sootnoshenij struktura svojstvo blagodarya chemu oni aktivno ispolzuyutsya kak dlya prognozirovaniya fiziko himicheskih svojstv i biologicheskoj aktivnosti himicheskih soedinenij tak i dlya napravlennogo dizajna himicheskih soedinenij i materialov s zaranee zadannymi svojstvami v tom chisle pri razrabotke novyh lekarstvennyh preparatov Nejroupravlenie Osnovnaya statya Nejroupravlenie Nejronnye seti uspeshno primenyayutsya dlya sinteza sistem upravleniya dinamicheskimi obektami V oblasti upravleniya nejronnye sistemy nahodyat primenenie v zadachah identifikacii obektov v algoritmah prognozirovaniya i diagnostiki a takzhe dlya sinteza optimalnyh ASR Dlya realizacii ASR na osnove INS v nastoyashee vremya intensivno razvivaetsya proizvodstvo nejrochipov i nejrokontrollerov NK V opredelyonnom smysle INS yavlyaetsya imitatorom mozga obladayushego sposobnostyu k obucheniyu i orientacii v usloviyah neopredelyonnosti Iskusstvennaya nejroset shodna s mozgom v dvuh aspektah Set priobretaet znaniya v processe obucheniya a dlya sohraneniya znanij ispolzuet ne sami obekty a ih svyazi znacheniya koefficientov mezhnejronnyh svyazej nazyvaemye sinapticheskimi vesami ili sinapticheskimi koefficientami Procedura obucheniya INS sostoit v identifikacii sinapticheskih vesov obespechivayushih ej neobhodimye preobrazuyushie svojstva Osobennostyu INS yavlyaetsya eyo sposobnost k modifikacii parametrov i struktury v processe obucheniya Ekonomika Algoritmy nejronnyh setej nashli shirokoe primenenie v ekonomike S pomoshyu nejronnyh setej reshaetsya zadacha razrabotki algoritmov nahozhdeniya analiticheskogo opisaniya zakonomernostej funkcionirovaniya ekonomicheskih obektov predpriyatie otrasl region Eti algoritmy primenyayutsya k prognozirovaniyu nekotoryh vyhodnyh pokazatelej obektov Primenenie nejrosetevyh metodov pozvolyaet reshit nekotorye problemy ekonomiko statisticheskogo modelirovaniya povysit adekvatnost matematicheskih modelej priblizit ih k ekonomicheskoj realnosti Poskolku ekonomicheskie finansovye i socialnye sistemy ochen slozhny i yavlyayutsya rezultatom chelovecheskih dejstvij i protivodejstvij sozdanie polnoj matematicheskoj modeli s uchyotom vseh vozmozhnyh dejstvij i protivodejstvij yavlyaetsya ochen slozhnoj esli razreshimoj zadachej V sistemah podobnoj slozhnosti estestvennym i naibolee effektivnym yavlyaetsya ispolzovanie modelej kotorye napryamuyu imitiruyut povedenie obshestva i ekonomiki Imenno eto sposobna predlozhit metodologiya nejronnyh setej Samostoyatelnye sistemy Samostoyatelnye sistemy takie kak roboty bespilotnye avtomobili i drony vse chashe primenyayutsya v razlichnyh otraslyah a dlya ih razrabotki nejroseti igrayut klyuchevuyu rol v reshenii zadach takih kak raspoznavanie obrazov analiz teksta i upravlenie sistemami Nejroseti ispolzuyutsya dlya analiza dannyh poluchennyh ot datchikov dlya upravleniya ustrojstvami i prinyatiya reshenij Metody glubokogo obucheniya chasto primenyayutsya dlya resheniya problem obnaruzheniya i raspoznavaniya obektov no voznikayut trudnosti pri rabote s obektami nahodyashimisya v trudnodostupnyh mestah ili v usloviyah plohoj osveshyonnosti V oblasti avtonomnogo transporta nejroseti yavlyayutsya primerom zaimstvovaniya koncepcij raboty mozga i razuma Issledovaniya ispolzuyut nejronnye seti dlya intellektualnogo vospriyatiya transporta i opredeleniya tipa transporta istochnik ne ukazan 626 dnej net v istochnike Sistemy rekomendacij Nejroseti predstavlyayut soboj cennyj instrument dlya usovershenstvovaniya sistem rekomendacij kotorye osnovyvayutsya na nashej predydushej aktivnosti chtoby podskazyvat nam chto to novoe i interesnoe naprimer muzyku filmy ili tovary Odnako s rostom obyoma dannyh voznikaet potrebnost v bolee prodvinutyh metodah obrabotki i zdes na pomosh prihodyat nejroseti kotorye sposobny obrabotat informaciyu obnaruzhit skrytye svyazi mezhdu dannymi i opredelit chto mozhet byt naibolee interesnym i relevantnym dlya nas Naprimer oni mogut ispolzovatsya chtoby s bolshej tochnostyu rekomendovat tovary ishodya iz nashego proshlogo povedeniya i pokupok Blagodarya primeneniyu nejrosetej v etoj oblasti udayotsya znachitelno uluchshit kachestvo rekomendacij i povysit uroven udovletvoreniya polzovatelej istochnik ne ukazan 626 dnej net v istochnike Nejroseti v astronomii Nejroseti v astronomii predstavlyayut soboj moshnyj instrument analiza dannyh evolyucionirovavshij cherez tri istoricheskie volny ot ispolzovaniya mnogoslojnyh perseptronov s ruchnym vyborom parametrov v 1980 h godah k svertochnym i rekurrentnym nejronnym setyam s pryamoj obrabotkoj neobrabotannyh dannyh v 2010 h i do sovremennyh generativnyh i samoobuchayushihsya modelej bez chelovecheskogo kontrolya Segodnya kogda astronomicheskie dannye rastut eksponencialno udvaivayas kazhdye 16 mesyacev glubokoe obuchenie stanovitsya neobhodimym dlya ih obrabotki V perspektive ozhidaetsya chetvertaya volna kogda astronomicheskoe soobshestvo mozhet perejti k ispolzovaniyu universalnyh bazovyh modelej tipa GPT doobuchennyh dlya astronomicheskih zadach Sm takzheChatGPT Opticheskie nejronnye seti Iskusstvennyj intellekt Nejronnyj processor Nejrokompyuter Blue Brain Project Model biologicheskogo nejrona Kognitivistika DeepMind Generativnyj iskusstvennyj intellektPrimechaniyaKommentarii Po mneniyu izvestnogo specialista po mashinnomu obucheniyu Yan Lekuna mashinnoe obuchenie est vosproizvedenie myshleniya na osnove iskusstvennyh nejronnyh setej Snoski Nejronnye seti arh 25 oktyabrya 2022 Galushkin A I Bolshaya rossijskaya enciklopediya v 35 t gl red Yu S Osipov M Bolshaya rossijskaya enciklopediya 2004 2017 Mak Kallok U S Pitts V Logicheskoe ischislenie idej otnosyashihsya k nervnoj aktivnosti Arhivnaya kopiya ot 27 noyabrya 2007 na Wayback Machine Avtomaty Pod red K E Shennona i Dzh Makkarti M Izd vo inostr lit 1956 S 363 384 Perevod anglijskoj stati 1943 g Gorban A N Kto my kuda my idyom kak put nash izmerit Arhivnaya kopiya ot 14 avgusta 2009 na Wayback Machine Plenarnyj doklad na otkrytii konferencii Nejroinformatika 99 MIFI 20 yanvarya 1999 Zhurnalnyj variant Gorban A N Nejroinformatika kto my kuda my idyom kak put nash izmerit Vychislitelnye tehnologii M Mashinostroenie 2000 4 S 10 14 Gorban A N Neuroinformatics What are us where are we going how to measure our way Arhivnaya kopiya ot 17 fevralya 2016 na Wayback Machine The Lecture at the USA NIS Neurocomputing Opportunities Workshop Washington DC July 1999 Associated with IJCNN 99 Lekun 2021 s 78 N Viner Kibernetika 2 e izd 1961 gl I Golubev 2007 s 4 Pattern Recognition and Adaptive Control BERNARD WIDROW neopr Data obrasheniya 9 fevralya 2009 Arhivirovano 22 iyunya 2010 goda Uidrou B Stirns S Adaptivnaya obrabotka signalov M Radio i svyaz 1989 440 c Petrov A P O vozmozhnostyah perceptrona Izvestiya AN SSSR Tehnicheskaya kibernetika 1964 6 Bongard M M Problemy uznavaniya M Fizmatgiz 1967 Golubev 2007 s 5 Hakimov B B Modelirovanie korrelyacionnyh zavisimostej splajnami na primerah v geologii i ekologii M Izd vo Mosk un ta SPb Neva 2003 144 s Werbos P J Beyond regression New tools for prediction and analysis in the behavioral sciences Ph D thesis Harvard University Cambridge MA 1974 Galushkin A I Sintez mnogoslojnyh sistem raspoznavaniya obrazov M Energiya 1974 Rumelhart D E Hinton G E Williams R J Learning Internal Representations by Error Propagation In Parallel Distributed Processing vol 1 pp 318 362 Cambridge MA MIT Press 1986 Rumelhart D E Hinton G E Williams R J Learning Internal Representations by Error Propagation Parallel Distributed Processing Vol 1 Cambridge MA MIT Press 1986 P 318 362 Barcev S I Ohonin V A Adaptivnye seti obrabotki informacii Krasnoyarsk In t fiziki SO AN SSSR 1986 Preprint 59B 20 s Takoj vid kodirovaniya inogda nazyvayut kodom 1 iz N Otkrytye sistemy vvedenie v nejroseti Arhivnaya kopiya ot 31 oktyabrya 2005 na Wayback Machine Gorban A N Obobshyonnaya approksimacionnaya teorema i vychislitelnye vozmozhnosti nejronnyh setej Arhivnaya kopiya ot 27 yanvarya 2012 na Wayback Machine Sibirskij zhurnal vychislitelnoj matematiki 1998 t 1 1 S 12 24 Mirkes E M Logicheski prozrachnye nejronnye seti i proizvodstvo yavnyh znanij iz dannyh Arhivnaya kopiya ot 4 fevralya 2019 na Wayback Machine Nejroinformatika A N Gorban V L Dunin Barkovskij A N Kirdin i dr Novosibirsk Nauka Sibirskoe predpriyatie RAN 1998 296 s ISBN 5 02 031410 2 Upominanie etoj istorii v zhurnale Populyarnaya mehanika neopr Data obrasheniya 16 aprelya 2012 Arhivirovano 8 sentyabrya 2011 goda INTUIT ru Rekurrentnye seti kak associativnye zapominayushie ustrojstva neopr Data obrasheniya 5 oktyabrya 2007 Arhivirovano 17 dekabrya 2007 goda Kohonen T Self Organizing Maps 3rd edition Berlin New York Springer Verlag 2001 ISBN 0 387 51387 6 ISBN 3 540 67921 9 Zinovev A Yu Vizualizaciya mnogomernyh dannyh Krasnoyarsk Izd vo Krasnoyarskogo gos tehn un ta 2000 180 s Arhivirovano 6 marta 2019 goda Martinetz T M Berkovich S G Schulten K J Neural gas network for vector quantization and its application to time series prediction Arhivnaya kopiya ot 16 iyulya 2019 na Wayback Machine IEEE Trans on Neural Networks 1993 No 4 P 558 569 Na sajte PCA Arhivnaya kopiya ot 16 marta 2019 na Wayback Machine Gorban A N Rossiyev D A Dorrer M G MultiNeuron Neural Networks Simulator For Medical Physiological and Psychological Applications Arhivnaya kopiya ot 17 fevralya 2016 na Wayback Machine Wcnn 95 Washington D C World Congress on Neural Networks 1995 International Neural Network Society Annual Meeting Renaissance Hotel Washington D C USA July 17 21 1995 Dorrer M G Psihologicheskaya intuiciya iskusstvennyh nejronnyh setej Arhivnaya kopiya ot 25 marta 2009 na Wayback Machine Diss 1998 Drugie kopii onlajn 1 Arhivnaya kopiya ot 28 aprelya 2009 na Wayback Machine 2 Arhivnaya kopiya ot 7 aprelya 2009 na Wayback Machine Baskin I I Palyulin V A Zefirov N S Primenenie iskusstvennyh nejronnyh setej v himicheskih i biohimicheskih issledovaniyah Arhivnaya kopiya ot 10 iyulya 2007 na Wayback Machine Vestn Mosk un ta Ser 2 Himiya 1999 T 40 5 Galbershtam N M Baskin I I Palyulin V A Zefirov N S Nejronnye seti kak metod poiska zavisimostej struktura svojstvo organicheskih soedinenij rus Uspehi himii Rossijskaya akademiya nauk 2003 T 72 7 S 706 727 Arhivirovano 29 marta 2023 goda Baskin I I Palyulin V A Zefirov N S Mnogoslojnye perseptrony v issledovanii zavisimostej struktura svojstvo dlya organicheskih soedinenij Rossijskij himicheskij zhurnal Zhurnal Rossijskogo himicheskogo obshestva im D I Mendeleeva 2006 T 50 S 86 96 Sigeru Marzuki Rubiya 2000 Chernodub A N Dzyuba D A Obzor metodov nejroupravleniya Arhivnaya kopiya ot 13 yanvarya 2012 na Wayback Machine Problemy programmirovaniya 2011 2 S 79 94 Sabanii V R Avtomaticheskie sistemy regulirovaniya na osnove nejrosetevyh tehnologij V R Sabanin N I Smirnov A I Repin Trudy Mezhdunarodnoj nauchnoj konferencii Control 2003 M Izdatelstvo MEI 2003 S 45 51 Kalackaya L V Novikov V A Sadov V S Organizaciya i obuchenie iskusstvennyh nejronnyh setej Eksperimentalnoe ucheb posobie Minsk Izd vo BGU 2003 72 s Kenin A M Mazurov V D Opyt primeneniya nejronnyh setej v ekonomicheskih zadachah Arhivnaya kopiya ot 2 aprelya 2013 na Wayback Machine 3 Nejronnye seti v ekonomike Vitalij Valentinovich Gaevskij Andrej Mihajlovich Ivanov PROBLEMY PRIMENENIYa INTELLEKTUALNYH SISTEM POMOShI VODITELYu NA ODNOKOLEJNYH TRANSPORTNYH SREDSTVAH Transactions of NNSTU n a R E Alekseev 2018 Vyp 3 S 121 129 ISSN 1816 210X doi 10 46960 1816 210x 2018 3 121 Rizvan Ramzanovich Turluev NEJROSETI V SISTEMAH KORPORATIVNOGO UPRAVLENIYa NEJROSETI V SISTEMAH KORPORATIVNOGO UPRAVLENIYa ICSP NEW SCIENCE 2021 Michael J Smith James E Geach Astronomia ex machina a history primer and outlook on neural networks in astronomy Royal Society Open Science 2023 05 31 T 10 vyp 5 S 221454 doi 10 1098 rsos 221454 LiteraturaBerkinblit M B Nejronnye seti M MIROS i VZMSh RAO 1993 96 s ISBN 5 7084 0026 9 Voronovskij G K Mahotilo K V Petrashev S N Sergeev S A Geneticheskie algoritmy iskusstvennye nejronnye seti i problemy virtualnoj realnosti Harkov Osnova 1997 112 s ISBN 5 7768 0293 8 Golubev Yu F Nejrosetevye metody v mehatronike M Izd vo Mosk unta 2007 157 s ISBN 978 5 211 05434 9 Gorban A N Obuchenie nejronnyh setej M SSSR SShA SP Paragraf 1990 160 s Gorban A N Rossiev D A Nejronnye seti na personalnom kompyutere Novosibirsk Nauka 1996 276 s ISBN 5 02 031196 0 Gorban A N Dunin Barkovskij V L i dr Nejroinformatika Novosibirsk Nauka 1998 Gudfellou Ya Bendzhio I Kurvill A Glubokoe obuchenie Deep Learning M 2017 652 s ISBN 978 5 97060 554 7 Eryomin D M Garceev I B Iskusstvennye nejronnye seti v intellektualnyh sistemah upravleniya M MIREA 2004 75 s ISBN 5 7339 0423 2 Osnovnye koncepcii nejronnyh setej The Essence of Neural Networks First Edition M Vilyams 2001 288 s ISBN 5 8459 0210 X Kruglov V V Iskusstvennye nejronnye seti Teoriya i praktika M Goryachaya liniya Telekom 2001 382 s ISBN 5 93517 031 0 Mirkes E M Nejrokompyuter Proekt standarta Novosibirsk Nauka 1999 337 s ISBN 5 02 031409 9 Drugie kopii onlajn Nejrokompyuter Proekt standarta Nikolenko S Kadurin A Arhangelskaya E Glubokoe obuchenie SPb Piter 2018 480 s ISBN 978 5 496 02536 2 Osovskij Stanislav Nejronnye seti dlya obrabotki informacii Sieci neuronowe do przetwarzania informacji pol Perevod I D Rudinskogo M Finansy i statistika 2004 344 s ISBN 5 279 02567 4 Savelev A V Na puti k obshej teorii nejrosetej K voprosu o slozhnosti Nejrokompyutery razrabotka primenenie 2006 4 5 S 4 14 Arhivirovano 11 sentyabrya 2016 goda Sigeru Omatu Marzuki Halid Rubiya Yusof Nejroupravlenie i ego prilozheniya Neuro Control and its Applications 2 e izd M IPRZhR 2000 272 s ISBN 5 93108 006 6 Tadeusevich Ryshard Borovik Barbara Gonchazh Tomash Lepper Bartosh Elementarnoe vvedenie v tehnologiyu nejronnyh setej s primerami programm Perevod I D Rudinskogo M Goryachaya liniya Telekom 2011 408 s ISBN 978 5 9912 0163 6 Terehov V A Efimov D V Tyukin I Yu Nejrosetevye sistemy upravleniya M Vysshaya shkola 2002 184 s ISBN 5 06 004094 1 Uossermen F Nejrokompyuternaya tehnika Teoriya i praktika Neural Computing Theory and Practice M Mir 1992 240 s ISBN 5 03 002115 9 Arhivnaya kopiya ot 30 iyunya 2009 na Wayback Machine Hajkin S Nejronnye seti polnyj kurs Neural Networks A Comprehensive Foundation 2 e izd M Vilyams 2006 1104 s ISBN 0 13 273350 1 Yasnickij L N Vvedenie v iskusstvennyj intellekt M Izdat centr Akademiya 2005 176 s ISBN 5 7695 1958 4 Yan Lekun Kak uchitsya mashina Revolyuciya v oblasti nejronnyh setej i glubokogo obucheniya Biblioteka Sbera Iskusstvennyj intellekt M Alpina non fikshn 2021 348 s ISBN 978 5 907394 29 2 SsylkiNeural Networks v kataloge ssylok Curlie dmoz Uchebnik po iskusstvennym nejronnym setyam Ian Goodfellow Yoshua Bengio Aaron Courville Deep Learning angl MIT Press 2016 Kniga po mashinnomu obucheniyu i v chastnosti po glubokomu obucheniyu
