Бред


Ответить в тред Ответить в тред

<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
162 21 37

Аноним # OP 18/02/19 Пнд 20:51:48 1916913591
Neuroncomparison.png (72Кб, 426x362)
426x362
purkinjecell.jpg (31Кб, 220x221)
220x221
Hodgkin-Huxley [...].png (7Кб, 371x136)
371x136
Добрый вечер, двач. Сегодня мы поговорим о такой интересной теме, как искусственные нейронные сети. Да-да, тема хайповая, все дела. Давайте разберемся, что к чему и зачем, а заодно поймем, почему нейронки пытаются запихнуть буквально везде лично я этот момент так и не понял.

Вообще, пока что выделяют три поколения нейронных сетей, где наиболее популярное на сегодня -- второе. Также существует такая специфическая вещь, как иерархическая темпоральная память, о ней даже будет пара слов в конце. Но давайте обо всем по порядку.

Итак, с чего же все началось? А началось все с публикации МакКаллока и Питца [ https://link.springer.com/article/10.1007/BF02478259 ] кто найдет в публикации ошибку в первых 4 предложениях после абстракта -- тот молодец (но на тот момент ошибкой не было, я полагаю). Если совсем грубо, то в данной статье были высказаны две довольно важные мыслишки:
1) Нейроны работают принципу все-или-ничего, то есть, используют пороговую функцию активации (о функциях активации сказано ниже)
2) Сети таких нейронов вполне себе способны аппроксимировать логические функции.

Ну, теоретическая возможность выражения в терминах нейронных сетей логических функций, конечно, дело хорошее, но как же это сделать на практике? Ответ на это был дан чуть позже, на основе исследований такого замечательного человека, как Дональд Хэбб. Он совершил достаточно интересное наблюдение:
"When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B, is increased"
или, чуть короче и понятнее: "cells that fire together wire together", что в переводе означает примерно следующее: чем чаще два нейрона одновременно становятся активными, тем сильнее между ними синаптическая связь. Следует, однако, заметить, что мало близкого расположения аксона, для образования полноценной синаптической связи должен произойти еще ряд событий. На основе данного наблюдения было разработано Дельта-правило Видроу-Хоффа. И вроде бы все нормально шло, разрабатывали всякие Розенблатты свои перцептроны, но вдруг появился Марвин Минский и начал затирать про ограниченность нейронных сетей, а именно, указал на тот факт, что нейронки того времени были неспособны решить простейшую логическую задачку под названием XOR а значит, не были способны адекватно решать задачи с линейно неразделимыми классами элементов, хотя на самом деле двухслойному перцептрону Розенблатта это вполне себе по силам, если не путать с однослойным перцептроном. Вот подобная критика нейронок и спровоцировала первую "зиму" нейросетей -- падение интереса в академических кругах и финансирования.

Однако затем был изобретен метод обратного распространения ошибки чем-то напоминающий обратное распространение импульса от сомы нейрона вниз по дендритному дереву. К нейроночкам снова начал расти интерес. На самом деле, здесь уже можно (и даже нужно) говорить о втором поколении нейросетей, поскольку для применения обратного распространения функция активации должна быть всюду дифференцируемой.
Настало время поговорить про функции активации. Итак, что же представляет из себя стандартный нейрон сеток второго и третьего поколений? Взвешенный сумматор, т.е. такую штуку, которая берет выходное значение предыдущего нейрона, умножает его на силу их синаптической связи и аккумулирует у себя где-нибудь. Делает так для всех входных нейронов, затем пропускает получившуюся сумму через функцию активации и получает свое собственное значение активации. Так вот, в первом поколении была только одна функция активации -- пороговая. Т.е., если сумма всех помноженных на нужные веса синапсов входных значений превысила некоторый порог, то нейрон отдает вышестоящим нейронам единичку, иначе -- нихера.
Хорошо, но как же применяется обратное распространение ошибки? О какой ошибке идет речь? А вот о какой. Возьмем обычную такую многослойную полносвязную сеть, запилим ей на последнем слое n нейронов, где n -- размерность выходного вектора, который мы взялись, на свою голову, предсказывать. Подадим сетке на вход нужные значения, получим на выходе вектор размерностью n с ответом сети (вектор O). Затем возьмем вектор, который мы ХОТЕЛИ БЫ увидеть в ответ на поданные данные (вектор T). А теперь пройдемся по всем позициям от 1 до n, суммируя квадраты разницы между элементами по соответствующим индексам [(O_1 - T_1)^2 + ... + (O_n - T_n) ^ 2], а затем просто разделим на два. Вот мы и получили меру ошибочности ответа нашей сети. И вот эту уже меру мы можем обратно по сети распространять. Тут уже найдете сами, чай не маленькие. После распространения всех значений ошибок по всем нейронам сети нам остается применить стохастический градиентный спуск с нужными параметрами вроде скорости обучения -- и все, шаг обучения закончен, можно приступать к следующему. Как можно видеть, ничего сложного или сверхъестественного в этом процессе нет, простые рутинные расчеты которые мне пиздец как лень приводить, поэтому ограничусь только упоминаниями названий нужных алгоритмов.

Теперь стоит упомянуть тот факт, что существуют как сети прямого распространения, так и сети с обратными связями. Собственно, перцептроны -- эталонный пример сетей прямого распространения, прямиком из парижской палаты мер и весов. Сети с обратными связями еще называются рекуррентными (recurrent). Мне дико лень приводить такие никому не всравшиеся вещи, как сети Хопфилда, поэтому я лучше сразу перескочу к Long Short-Term Memory -- LSTM [ https://www.bioinf.jku.at/publications/older/2604.pdf ]. Шикарная вещь. Для многих задач нейронных сетей их раньше хватало с головой (да и сейчас частенько можно ими и ограничиться). Где-то слышал вскукареки про возможность реализации LSTM-ками требующих полноты по Тьюрингу алгоритмов, но что-то как-то я сильно в этом сомневаюсь, т.к. объем доступной LSTM памяти пиздецки ограничен. Вот с LSTM и ей подобными рекуррентными сетями стало лучше видно на практике, что нейронные сети подвержены таким нехорошим вещам, как взрыв или затухание градиентов.
Для борьбы с этим явлением, а также с явлением чрезмерного подстраивания под изученные образцы с неспособностью к адекватной работе в реальности, т.е. переобучением, были созданы всяческие штуки для регуляризации.
К примеру, штраф на силу синаптической связи был бы такой же штраф, но за силу родственной связи в некоторых заведениях..., или dropout (когда с определенной вероятностью выходной сигнал нейрона вне зависимости от входа равен 0).
Множество таких методов существует, и каждый чем-нибудь да помогает, если не переборщить.

Но, вероятно, следует пояснить разницу между сетью прямого распространения и рекуррентной. Сеть прямого распространения -- это как математическая функция, ты ей X, она тебе некоторый Y, не зависящий от предыдущего поданного сетке значения.
А вот рекуррентная сеть уже полезна для обработки имеющих какую-то внутреннюю связь последовательностей. Внимательный анон мог к этому моменту понять, что текст является крайне годным примером такой последовательности. А вот помешаный на деньгах анон мог подумать о предсказании финансовых котировок. Да, предпринимались и предпринимаются попытки делать обе эти вещи. Вообще, область машинного обучения, связанная и текстом, называется NLP (Natural Lanugage Processing, в переводе -- обработка естественного языка). Кстати, обработка естественного языка вполне себе может помочь в предсказании рыночных котировок, поскольку дает нейронке возможность оценивать эту вашу политоту.

Нельзя начать пояснять за нейронки, ни разу не упомянув сверточные сети. Все успехи нейронок с обработкой изображений или видео (а зачастую и текста) так или иначе связаны со сверточными сетями но, возможно, в дальнейшем будут уже связаны с капсульными сетями. Как они работают -- прошу погуглить самостоятельно, ничего сложного в них нет, это просто неполносвязные сети с общими синаптическими весами.
Но ведь видео -- это последовательность кадров, спросит анон, как же сеть прямого распространения может обрабатывать видео, если ничего не помнит о предыдущем входе? А вот тут, товарищи, в дело вступает комбинация из CNN (Convolutional Neural Network) и RNN (Recurrent Neural Network).
Аноним # OP 18/02/19 Пнд 20:52:07 1916913722
Одним из главных свойств нейронок второго поколения является адовая комбинируемость. Можно накласть LSTM поверх LSTM и приправить это все дело полносвязной сеткой для изменения размерности выходного вектора! А перед LSTM вставить слоев 10 сверток с пулингом (pooling)! Словом, простор для творчества. К сожалению, нашлось много желающих воспользоватья этим положением, в связи с чем на arxiv.org на котором, между прочим, полно весьма годных статей, необходимых к прочтению всем заинтересованным можно наблюдать тонны papers с откровенной лажей в виде добавления к сети еще одного скрытого слоя для увеличения чего надо еще на 1e-99 %.

Ах да, автоэнкодеры! Существует целый класс сетей, предназначенных для -- вы не поверите -- выдачи вам того, что вы дали на вход. Казалось бы, зачем? Но тут есть подвох. Вот возьмем полносвязную сеть прямого распространения. Пусть входной вектор будет иметь размерность 64, соответственно, в последнем слое сети для получения вектора той же размерности будет 64 нейрона. Теперь я опишу архитектуру сетки:
(64 нейрона) -> (32 нейрона) -> (16 нейронов) -> (8 нейронов) -> (4 нейрона) -> (8 нейронов) -> (16 нейронов) -> (32 нейрона) -> (64 нейрона)
Так вот, что нам мешает в случае хорошо восстанавливающей исходный сигнал сетки взять результат работы слоя из 4 нейронов и отправить его вместо изначального вектора? Сжатие получается порядка 16x. Неплохо, правда?
Такое вот промежуточное представление содержит в себе основные, наиболее важные черты входного сигнала. Стоит отметить, что для качественного обучения автоэнкодера нужно запастись большим объемом данных, набором подходящих для задачи функций подсчета ошибки и... терпением, потому что обучение -- процесс небыстрый, особенно если у вас нет в запасе кластера с кучей TPU. Кстати, функция вычисления ошибки сети, или функция потерь (loss function) имеет огромное значение. Если будете изучать вариационные автоэнкодеры -- поймете. Именно эта функция указывает, насколько сильно следует бить сетку за косяки и что мы вообще считаем косяками.
Вообще, у автоэнкодеров дохера применений, например, кластеризация. Но тут уж сами, сааамиииии, не ленитесь, блядь да-да, ОП -- хуй и ленивый пидорас.
Автоэнкодеры еще бывают denoising, т.е. восстанавливающие. И у меня есть серьезные подозрения, что именно на таких сетках и построены в основном ваши разцензуриватели. Подозрение потому, что я так и не удосужился зайти на нужный реп в гитхабе и почитать про архитектуру используемой сетки. Лень. Но помните -- автоэнкодер частенько вынужден додумывать, поэтому восстановить исходные данные с его помощью не получится!

О, а ведь есть еще и GAN-сети! Если коротко, то берутся две сетки -- одна учится наебывать, а другая учится распознавать наебку. В чем состоит наебка? Возьмем классический случай. Закодируем картинку в понятный для нейронки вид. Возьмем рандомный вектор нужной размерности. Подадим его сети, специализирующейся на пиздеже. На выходе она должна выдать тензор (ну или многомерный массив, если совсем грубо) той же размерности, что и у закодированной картинки. Теперь подадим слева выход наебщика, а справа -- реальную картинку. Задача распознающей сетки -- отличить наеб от реальности. Разумеется, мы сообщаем ей, была ли она права (но иногда врем, а то скатится в ебучий солипсизм). И вот, в один прекрасный момент, отвечающая за пиздежь сетка выучивается из рандомного говна давать нам вполне годные картиночки, похожие на реальные. PROFIT! Так и работает тот самый генератор лиц.
В общем, классов архитектур много, больших и маленьких. Кстати, при помощи нейронок вполне себе можно находить вирусню в бинарниках, у невидии было подобное исследование (гуглите MalConv).
У нейронок второго поколения до хе ра применений, от машинного перевода с одного языка на другой до управления автомобилем. Кстати, а вы знали, что, капчуя, вы размечаете для гугла датасеты, на основе которых учатся в том числе и беспилотные автомобили? Коротко о том, как эксплуатировать человеческий труд безо всякого согласия, лол.
Кстати, вот еще интересная штукенция, эдакая попытка добавить в сети второго поколения аналог STDP [ https://arxiv.org/abs/1804.02464 ].
Еще оооочень советую рыть в сторону обучения с подкреплением. Вы просто задаете правило, согласно которому на каждое действие нейронка получает определенное вознаграждение или наказание и пускаете сетку в окружение, чтобы она училась максимизировать вознаграждение. А как иначе? Алсо, не могу найти статейку, в которой описывался алгоритм обучения с подкреплением с несколькими выходами, нашедшему -- ноль нефти, лол. Там еще на примере сделанного в юнити шутана все было.
Почти забыл упомянуть сети с памятью. Почитайте на досуге про дифференцируемые нейрокомпьютеры, весьма и весьма полезная штука, если найти правильное применение. Обучать, правда, пиздос трудно. Но у меня такая сетка в шахматы худо-бедно с подкреплением играть научилась как-то раз.

Ну хорошо, крааааааатенький обзор на сетки второго поколения я дал. Теперь стоит рассказать о том, на чем их херачить и что для этого предварительно нужно изучить.
Из теории:
советовал раньше почитать Хайкина, но тут вышла книжка про deep learning в синей обложке, которая мне показалась весьма годной, поэтому все же советую в первую очередь её (а вот и ссылочка)[ https://www.litres.ru/aaron-kurvill/glubokoe-obuchenie-28259806/ ].
Из инструментов -- в первую очередь выучить питон. Берете Лутца, читаете его "Изучая Python", готово.
Затем идете качать TensorFlow / Keras / Pytorch. Новичку лучше всего зайдет Keras, дальше можно уйти в TensorFlow, но я бы посоветовал использовать PyTorch.
И, собственно, практикуйтесь. Берите задачки с Kaggle, пытайтесь их решить нейронками, осознавайте, что одними нейронками сыт не будешь, изучайте нормальные методы... может, и до градиентного бустинга докатитесь
Алсо, советую пытаться реализовывать описываемые в статьях архитектуры. И статьи почитаете, и понимание углубите, и опыта наберетесь. Ну и заодно проверите, а не пиздит ли автор.
Еще почитайте про tSNE, крайне годная штука, может пригодиться. Это, как и многие другие полезные штуки, можно найти в scikit-learn. Для графиков используйте MatPlotLib.
Аноним # OP 18/02/19 Пнд 20:52:26 1916913903
А теперь -- самое вкусное! Сети третьего поколения!
Итак, вначале была публикация, и публикация называлась "A quantitative description of membrane current and its application to conduction and excitation in nerve" [ https://physoc.onlinelibrary.wiley.com/doi/abs/10.1113/jphysiol.1952.sp004764 ].
В ней примечательно то, что получившаяся модель (называемая, по фамилиями авторов, моделью Ходжкина-Хаксли, Hodgkin-Huxley model) очень точно описывает поведение мембраны биологического нейрона, а точнее, то, каким образом генерируются спайки.
В общем, шикарная вещь. Но это далеко не первая попытка описать поведение мембраны нейрона, вроде, некто Lapicque пилил первую в своем роде integrate-and-fire модель. Кстати, честь открытия одной из самых дешевых вычислительно и одновременно реалистичных моделей точечного импульсного нейрона принадлежит Ижикевичу [ http://www.izhikevich.org/publications/spikes.pdf ]. У него вообще полно интересностей на сайте [ http://www.izhikevich.org/ ].
Но ведь сети на то и сети, чтобы между элементами были связи, верно? Какой бы реалистичной ни была модель, ее ценность начинает резко стремиться к нулю в отсутствие адекватных моделей для синаптических связей. И такие модели существуют.
Например, BCM. Но на сегодняшний день наиболее популярной моделью изменения силы синаптических связей является STDP с кучей всяческих модификаций вроде tripletSTDP, vSTDP и тд. Бывает даже анти-хеббовское STDP (как я помню, вроде, для синапсов от тормозящих нейронов применяется). Да, кстати, если в сетях второго поколения у любого нейрона могли быть на выходе синапсы как с положительными, так и отрицательными весами, то здесь либо нейрон создает исключительно либо тормозящие, либо активирующие связи. Так-то!
Казалось бы, живи да радуйся! Вон, обучение с подкреплением даже завезли [ https://www.izhikevich.org/publications/dastdp.htm , https://florian.io/papers/2005_Florian_RL_for_spiking_NNs.pdf ].
Но вот проблема. У реальных-то нейронов есть дендриты и аксоны! Дендриты долго считали простыми интеграторами сигнала, мол, единственное, что от них зависит -- это насколько сильный сигнал и насколько быстро придет в сому. Даже теорию кабелей выдумали для более детального моделирования. Но вот незадача -- дендриты-то тоже активные [ https://www.ncbi.nlm.nih.gov/pubmed/12740112 ]! И это их свойство вполне себе полезно, повышает вычислительную мощность одного нейрона [ https://www.sciencedirect.com/science/article/pii/S0896627301002525 ].
Даже была статейка, в которой сравнивали пирамидальный нейрон с двухслойной сеткой второго поколения [ https://www.sciencedirect.com/science/article/pii/S0896627303001491 ].
Но реальные нейроны намного, намного сложнее и мощнее, конечно же. Кстати, надо прояснить, как происходит передача сигнала об активации от пресинаптического нейрона к постсинаптическому.
От сомы активировавшегося нейрона (а точнее, от аксонного холмика, где самый низкий порог активации во всей соме, насколько я помню) вдоль по аксону идет импульс, который доходит до терминалей аксона. В терминалях происходит хитрый процесс, вследствие которого в синаптическую щель из специальных везикул дозами выливается нейромедиатор, молекулы которого, как правило, захватываются лиганд-активируемыми ионными каналами, которые, в свою очередь, начинают избирательно пропускать ионы, благодаря чему мембранный потенциал изменяется. Понятное дело, что мгновенно изменение мембранного потенциала не происходит. Существуют даже учитывающие это модели синапсов но чет мне их маловато в плане реалистичности.
Очевидно, что запас нейромедиатора в терминали ограничен и требует постоянного пополнения, поэтому информация об активации сомы не всегда может быть передана. Эта проблема, кстати, как я понял, обходится мозгом путем излишнести нейронов.
Кстати, синапсы имеют обыкновение кластеризовываться на дендритах, они могут не быть раскиданы равномерно (а могут и быть, и такое встречается, да).
Дендриты мало того, что активные, так еще и снабжены механизмом, обеспечивающим некоторое подобие One-Shot Learning-а [ https://physoc.onlinelibrary.wiley.com/doi/full/10.1113/jphysiol.2004.072678 ]. Это ведь далеко не все, что мы знаем.
Ой, увлекся. Надо бы вернуться к сетям третьего поколения.
Самый актуальный подход к моделированию дендритов -- это разделение дендритного дерева на небольшие сегменты, оснащеные поведением обыкновенного точечного импульсного нейрона. Такие модели называются многокомпонентными (compartmental model).
Существует целый класс компьютеров, созданных исключительно для моделирования импульсных сетей.
Вообще, IBM truenorth создавался исключительно для моделирования точечных импульсных нейронок. Жрет, кстати, очень мало, а работает достаточно шустро. Проект spinnaker выглядит интересным. Вот в этом роде.
Но, к сожалению, я крайне редко имею удовольствие наблюдать публикации, в которых нормально рассматривалась бы тема синаптогенеза. Это же какая пушка! Нейрон не просто адаптирует веса синапсов, которые могут и не выстрелить, а создает новые/уничтожает старые связи. Кстати, наиболее интенсивно этот процесс происходит в детстве, а в определенном возрасте случается жесткий прунинг ненужных синапсов, что, как я понял, увеличивает стабильность сети, отсекая лишние способы обработки информации. Если заинтересовала эта тема, то можно почитать fundamental neuroscience. Годная книжка. Советую не поскупиться на 4-е издание.
И очень рекоммендую почитать про астроциты. Видел кучу статей, в которых говорилось о том, что эти ребята могут участвовать в вычислениях наряду с нейронами. Мутная пока что тема, но нельзя упускать этот момент из виду.
Аноним # OP 18/02/19 Пнд 20:52:46 1916914094
Ну и пара слов про HTM. В самой модели иерархической темпоральной памяти я уже как-то успел разочароваться. Да, неплохо ищет аномалии. Да, интересная. Но далеко не настолько сильно следует нейрофизиологии, насколько это заявлено авторами. Да и применений маловато как-то. Собственно, ссылка на whitepaper [ https://numenta.com/neuroscience-research/research-publications/papers/hierarchical-temporal-memory-white-paper/ ].
Что из себя представляет? Попытку запилить модель работы неокортекса. Есть нейроны, есть дендритные сегменты, синапсы, синапсы на лету создаются и уничтожаются. Синапсы могут быть потенциальными и полноценными. Информация всегда представлена в распределенном виде, сеть устойчива к помехам (относительно).
Из плюсов:
- Новизна
- Реалистичнее сеток второго поколения
- Неплохо детектит аномалии

Из минусов:
- Жрет память как не в себя
- Тормозит
- Точность не шибко высокая
- Нет реальных применений

В общем, решай сам, анон, тратить ли на HTM свое время. А у меня на этом пока все, еще побампаю и спать.
Аноним 18/02/19 Пнд 20:57:20 1916916765
Мне по этой хуйне диплом писать, а я даже не открывал еще нихуя.
Аноним # OP 18/02/19 Пнд 21:00:06 1916918476
>>191691676
а по каким сеткам? Второго поколения или импульсным? Если второго, то несложно, запили какой-нибудь детектор объектов на видяшке и не парься. Ну, можешь еще попробовать GAN замутить текстовый, вроде бы актуально сейчас, видел недавно пару статеек на эту тему.
Аноним 18/02/19 Пнд 21:05:53 1916921657
>>191691847
Все что ты мне сейчас сказал для меня чужой язык. Я сейчас только знаю, что буду сверточные сети юзать. А распознавать мне нужно будет изображения связанные уже с моей специальностью.
Аноним # OP 18/02/19 Пнд 21:09:31 1916923908
>>191692165
Ай, да не парься тогда. Python знаешь?
Аноним 18/02/19 Пнд 21:12:29 1916925519
>>191692390
На начальном уровне да, уже че то обсуждали с научруком за библиотеки к нему.
Я на самом деле и выбрал тему связанную с нейронками, что бы начать вкатываться в них, ибо диплом писать нужно будет точно. А без доп. мотивации тяжело. Так что схороню все что ты написал, может далее поможет.
Аноним 18/02/19 Пнд 21:20:14 19169297510
>>191691390
> В терминалях происходит хитрый процесс, вследствие которого в синаптическую щель из специальных везикул дозами выливается нейромедиатор, молекулы которого, как правило, захватываются лиганд-активируемыми ионными каналами, которые, в свою очередь, начинают избирательно пропускать ионы, благодаря чему мембранный потенциал изменяется.

Ты рассматриваешь только ионотропные рецепторы, совершенно забывая о наличии метаботропных. Тот же нейромедиатор может связываться с рецептором, а потом уже изменять метаболический статус что приводит к открытию ионных каналов. Или не приводит, а сказывается, например, непосредственно на экспрессии тех или иных генов в клетке мишени. Упрощая механизм взаимодействия трансмиттера до уровня "везикула -> синапс -> ионный канал" ты игнорируешь целые пласты сопряженного со вторичными мессенджерами сингналинга, G-белки, каскадное фосфорилирование, роль цАМФ и т. д.


Собственно, за это всегда не любил программистов/специалистов по мат. моделированию. Не осознавая всей сложности биологических систем делать громкие заявления о том, что мы, мол де, что-то там смоделировали, приблизились к пониманию фундаментальных процессов и т. д.
Аноним # OP 18/02/19 Пнд 21:23:39 19169313211
>>191692975
Так я, во-первых, не заявляю, что мы хоть как-то приблизились к пониманию того, что реально происходит -- наоборот, мы ну очень от этого понимания далеки, и я задолбался объяснять манянейронщикам, почему современные нейронки нихера не реалистичные. Во-вторых, как можно было заметить, я совсем кратко пояснял. Ну и в-третьих, спасибо за дополнение.
Аноним 18/02/19 Пнд 21:25:46 19169323512
>>191691372
>Берете Лутца, читаете его "Изучая Python", готово.

Так значит, ПРОСТО берем, иизучаем питон - ГОТОВО.

Ахуеть блять, а 5-10 лет на это откуда высрать? Может время остановить?
Аноним # OP 18/02/19 Пнд 21:28:21 19169336113
>>191693235
хз, книжка легкая, питон -- язык несложный, за месяц можно освоить для средних задач, я считаю. Только не надо делать эту книгу единственным источником информации о питоне -- и все будет хорошо
Аноним 18/02/19 Пнд 21:30:11 19169346814
>>191693361
У тебя точно с нейронами все в порядке?
Аноним 18/02/19 Пнд 21:30:22 19169348015
unicornbyamkgam[...].gif (101Кб, 256x256)
256x256
>>191693132
А в-четвертых -- зачем ты вообще этот тред создал, если не секрет? Мне лично было интересно почитать, пусть большая часть текста была малопонятна в виду перекладывания близких мне биологических концепций на язык программиста.

Ты действительно думаешь, что /b/ -- хорошее место для выкладывания подобных текстов, что здесь имеется достаточно заинтересованная аудитория и все такое? Я мог бы долго разглагольствовать тут, например, о любимой эпигенетике или той же нейробиологии, да даже в целом, о последних трендах в тех же биотехнологиях и т. д.

Но тут у аудитории немного другие интересы, ты не находишь? Да и какая цель может быть в подобном?
Аноним # OP 18/02/19 Пнд 21:33:13 19169364916
>>191693480
Просто убить время. А почему бы и нет? Настроение такое. Наличие аудитории не критично, тащемта. Алсо, подкинь годной литры, чтобы поглубже изучить предметную область? А то интересно пиздос, вот время появилось, а малая глубина знаний подбешивает.
Аноним 18/02/19 Пнд 21:33:17 19169365617
>>191693480
Как относишься к евгенике с точки зрения биологии?
Аноним 18/02/19 Пнд 21:33:54 19169369218
>>191693649
Больше похоже, что ты википедии обчитался
Аноним 18/02/19 Пнд 21:35:08 19169374819
>>191691359 (OP)
>лично я этот момент так и не понял
это же лазер 21 века, лол. Solution lookin for a problem, как говориццо. Просто хайп и тупизм журналошлюх, которые тупо скипают подробности и подводные камни в совокупности с действительно широким потенциальным применением сабжа
Аноним # OP 18/02/19 Пнд 21:35:33 19169377020
>>191693468
А что, программирование должно быть, по-твоему, сложным? Я должен был пыхтеть 5 лет, чтобы освоить питон на ультравысоком уровне и узнать фичи, которые мне никогда не понадобятся?

>>191693692
Не вики, а вот этого вот https://www.ncbi.nlm.nih.gov/
Аноним 18/02/19 Пнд 21:37:32 19169387021
>>191693770
А ты собрался погромировать на передовой науки(если это можно так назвать) с помощью hello world?
Аноним 18/02/19 Пнд 21:37:47 19169388622
Как работает тр[...].mp4 (13478Кб, 352x288, 00:05:27)
352x288
>>191693480
>Но тут у аудитории немного другие интересы, ты не находишь?
мне вот норм сам создавал тред про полупроводники как-то
Аноним 18/02/19 Пнд 21:38:05 19169390023
>>191693770
>Не вики
Нет, именно вики
Аноним 18/02/19 Пнд 21:41:53 19169411124
large.jpg (160Кб, 500x627)
500x627
>>191693649
>Алсо, подкинь годной литры
Для меня нейробиология -- область интересов, а не основная специальность. С точки зрения учебников, я начинал с "Principles of Neural Science" Кендэла, а потом уже просто по статьям, на фоне присутствия базы по биохимии, генетике и всему остальному.
>>191693656
Смотря что ты понимаешь под евгеникой. Евгеника, как перенос принципов и методов классической селекции на вид homo sapiens -- никак, это просто смешно.
Если евгеника, как генотерапия, направленная на использование технологий редактирования генома тем же криспером ради устранения потенциально-негативных мутаций -- хорошо, это, в общем-то, очевидный шаг на пути развития современной медицины.
Если евгеника, как принципиальное улучшение человеческой особи на пути, так сказать, к совершенству и добавление новых качеств -- весьма скептически но с большим энтузиазмом и вниманием, если по-секрету между нами, анонами, говоря
Аноним 18/02/19 Пнд 21:43:16 19169417725
>>191693870
нет, ты не знаешь как хипстота кодит это говно. сейчас я тебя научу,
импорт слесарьплов ас
Аноним # OP 18/02/19 Пнд 21:44:45 19169426026
>>191693870
Лол, ты можешь представить только два состояния: либо полностью изучил, либо никак не изучил. Да и предъявы какие-то туповатые, вроде "ты меньше меня изучал питон, а значит, не умеешь ничего". Странно, не находишь?

>>191693900
Да что ты привязался к этой вики
лол, спасибо, что напомнил, у меня ж principles of neural science на очереди стояла, как я про нее забыл?
Аноним 18/02/19 Пнд 21:45:55 19169433127
>>191691359 (OP)
НОВЫЙ ШИЗИК НА ДВАЧЕ ИЛИ ВЫЧИСЛЯТОР ПРОТЕИНОВ?
Аноним 18/02/19 Пнд 21:54:41 19169480328
ALL2.jpg (1863Кб, 2900x1414)
2900x1414
11122.jpg (193Кб, 1280x745)
1280x745
RUSSIA.jpg (676Кб, 1874x1440)
1874x1440
765765546546456.jpg (163Кб, 1116x551)
1116x551
Аноним 18/02/19 Пнд 21:56:15 19169489129
CAlqtugm.jpeg (125Кб, 829x829)
829x829
>>191694260
>у меня ж principles of neural science на очереди стояла,
Почитай, может быть интересно.
Собственно, меня нейробиология более всего всегда привлекала в двух, хм, "философских" аспектах:
а) как мое самоощущение, состояние "здесь и сейчас", осознание собственного "я" транслируется на базовый язык биохимии и молбиола, выражается в уровнях экспрессии тех или иных генов, посттрансляционных модификациях участвующих в сигналинге белков, статуса транскрипционных факторов и т. д. Такая сакральная для человечества на протяжении всей его истории штука, как мысль, "Я мыслю, следовательно я существую" (с) и т. д. -- запечатленное на полотне и в красках всех этих бесконечных факторов на уровне протеома, генома, транскриптома, эпигенома. Завораживает, как вид звездного неба вдали от цивилизации.
б) как это состояние можно модулировать за счет внешних факторов.

Я мало знаком с программированием как таковым, на базовом уровне -- с мат. моделированием, но этого достаточно чтобы понять: сверхсложные многомерные системы, которые меня так восхищают и завораживают при рассмотрении процессов в мозге приматов homo там и рядом не лежали. По крайней мере пока что. Это ничуть не обидно, просто вызывает невольно "пф", хоть я прекрасно осознаю востребованность в чисто-прикладном аспекте всех этих вещей.
Аноним 18/02/19 Пнд 21:56:42 19169491030
Аноним # OP 18/02/19 Пнд 22:04:11 19169531731
>>191694910
В последнее время совсем забросил, времени не было даже чтобы поспать нормально. Раньше решал. А сейчас появившееся время буду тратить на лютый дроч нормальной литры по нейробиологии, лул.

>>191694891
Опять же, нейронки разные бывают. Есть нейронки, в которых есть тупо синапс с определенным весом и относительная частота активации нейрона на данном шаге, а есть проги, в которых и биохимия учитывается. Конечно, на практике применяют что попроще. у самого подгорает, когда называют ЭТО нейронками, это ж просто смесь линала с теорией оптимизации

Аноним 18/02/19 Пнд 22:07:30 19169549632
435456435435.jpg (256Кб, 1278x832)
1278x832

Разумен ли ты? Если да? То где вычисление протеинов, и строительство вечных капсул?
Ведь Смысл жизни, сама жизнь - без смерти.

Аноним # OP 18/02/19 Пнд 22:09:05 19169559033
Аноним 18/02/19 Пнд 22:09:22 19169560134
>>191695317
Все это так круто и интересно, но я рос в бедной семье и в школе меня пиздил, так что нюхал клей вместо школы. У меня совсем нет математического образования, я не знаю что такое интеграл, как работают матрицы, да даже алгебру не знаю. Несколько раз пытался начинать что-то читать по нейронкам и постоянно сосал. Рад за тебя, ОП, искренне рад твоей увлеченности, удовольствию от общения с этими технологиями, ну и завидую, конечно.
Аноним 18/02/19 Пнд 22:12:57 19169580135
>>191695590
Вычисляторы протеинов же. тупой форс уровня тредов храма головы
Аноним 18/02/19 Пнд 22:13:12 19169581936
>>191695317
оставь контакт какой нить, или слэк, может наставишь меня на путь истинный в этом деле
Аноним 18/02/19 Пнд 22:16:42 19169602137
4 - копия.jpg (307Кб, 1280x782)
1280x782
123434.jpg (231Кб, 1280x1161)
1280x1161
234324324234.jpg (334Кб, 1384x930)
1384x930
3333434.jpg (819Кб, 2626x1054)
2626x1054
Аноним 18/02/19 Пнд 22:17:02 19169604238
Аноним 18/02/19 Пнд 22:21:42 19169632839
>>191691359 (OP)
Я не читал
Искуственным Интеллектом можно считать любое действие электронных вычислительных машин, вот что скажу
Аноним # OP 18/02/19 Пнд 22:22:41 19169639540
Аноним 18/02/19 Пнд 22:22:50 19169640641
Привет. Расскажи, пожалуйста, как предположительно работает searchface? Как им удалось добиться такой точности?

>>>191694891
>как мое самоощущение, состояние "здесь и сейчас", осознание >собственного "я" транслируется на базовый язык биохимии и >молбиола
К каким выводам ты пришёл в результате своих размышлений?
Аноним 18/02/19 Пнд 22:22:51 19169640842
>>191696328
На фоне такого дебила как ты - несомненно.
Аноним 18/02/19 Пнд 22:23:07 19169642443
>>191696395
я бы прочитал, будь у меня еще одна жизнь
Аноним # OP 18/02/19 Пнд 22:23:23 19169643244
>>191695819
anonymousprogrammer@yandex.ru
Пиши, лол
Аноним 18/02/19 Пнд 22:23:53 19169647245
Аноним 18/02/19 Пнд 22:25:06 19169654246
>>191696472
>этот мелкобуквенный олигофрен
Ясно.
Аноним 18/02/19 Пнд 22:26:18 19169661147
Аноним 18/02/19 Пнд 22:26:31 19169662548
RatonaUnicornby[...].jpg (166Кб, 950x985)
950x985
>>191696042
>почему это смешно?
В основном из-за малой плодовитости особей, долгого периода созревания и, главное, довольно длительного периода практически полного бездействия естественного отбора в отношении данного вида. Последнее привело к серьезному росту т. н. "генетического груза" (т. е. набора условно-негативных мутаций в популяции), которые а) довольно сложно учитывать исходя из целей селекции (например закрепление и развитие какого-то конкретного признака у потомства особей, без возникновения новых негативных мутаций) б) неоднозначны с т. з. последствий.

В общем и целом, если в двух словах: материал тухловат. Без возможности выделять чистые линии, скрещивать с эндемиками/носителями "полезных" мутантных аллелей и т. д. К тому же, сам по себе генетический материал обладает заметной сложностью с т. з. эпигенетической регуляции и "мусорного" генома, роль которого все более и более усложняется после исследований последних лет. У менее сложно организованных в этом плане видов животных проще составлять селекционные стратегии скрещивания и отбраковывать дефектные особи.
Аноним 18/02/19 Пнд 22:26:43 19169664249
>>191696432
>anonymousprogrammer@yandex.ru
Подписал на пакет пидорских рассылок.
Аноним 18/02/19 Пнд 22:26:52 19169665350
>>191691359 (OP)
Скажите, пожалуйста, вот для задачи восстановления регрессии применяются методы машинного обучения: полиномиальная регрессия, SVR, случайный лес, градиентный бустинг. Так вот вопрос такой для gradient boosting можно использовать аппаратное ускорение GPU? Или GPU - это только для нейронок?
Аноним 18/02/19 Пнд 22:27:03 19169666951
Аноним 18/02/19 Пнд 22:29:27 19169681152
>>191696653
>для gradient boosting
Нормально паралелится если руки не из жопы и голова не оттуда же
Аноним 18/02/19 Пнд 22:30:31 19169687153
15478847466500.jpg (102Кб, 700x862)
700x862
Анонсы, это можно без матеши и формул осилить?
Сложнее логарифмов ничего не знаю, но читал дискретку чисто для себя.
Аноним # OP 18/02/19 Пнд 22:32:18 19169696954
>>191696406
Понятное дело, что сначала вполне классическими методами на фотке находят лицо, затем каким-то образом из обрезанной фотки сеткой извлекают вектор, характеризующий основные черты человеческого лица, а затем -- ооочень быстро должны сравнить этот вектор со всеми имеющимися у них векторами в базе. Вероятно, для этих целей делают то же, что делает фейсбук -- ужимают до размера пары int-ов. Но вот прикол -- построение этой базы дело долгое. Поэтому возникает закономерный вопрос -- откуда у них ресурсы и доступ ко всем фоткам того же контакта? Мне кажется, тут обкатывают какую-то правительственную хрень, чтобы любого человека по снимкам с камер автоматически опознавать. Вот какую архитектуру сеток они используют -- мне не очень ясно, но, возможно, за основу взяли разработку того же фейсбука заимстововать -- так заимствовать полностью.

>>191696653
https://xgboost.readthedocs.io/en/latest/gpu/

>>191696871
Нет, для НОРМАЛЬНОГО освоения тебе придется выучить матан, линал, теорию оптимизации, мб диффуры это для начала
Аноним 18/02/19 Пнд 22:33:22 19169702955
>>191696811
То есть там ускорение на GPU тоже применяется для восстановления регрессии с помощью gradient boosting?

>если руки не из жопы и голова не оттуда же
Я не сам параллелю, я посмотрел в scikit-learn и там написано, что поддерживается только параллельность на CPU. И я спрашиваю тут для ускорения gradient boosting не применяют GPU?
Аноним 18/02/19 Пнд 22:34:43 19169710656
>>191697029
>поддерживается только
Значит руки из жопы.
Или скорее всего - всем похуй и насрать, оплати разработку - все будет.
Аноним # OP 18/02/19 Пнд 22:35:38 19169715657
>>191697029
scikit-learn, конечно, хорош, но если нужен градиентный бустинг -- используй что-нибудь другое. Scikit-learn не приспособлен для GPU от слова совсем.
Аноним 18/02/19 Пнд 22:37:26 19169725658
>>191691359 (OP)
дорогой дневник, сегодня оп оказался не хуем.

оп, напиши свою телегу
Аноним # OP 18/02/19 Пнд 22:38:43 19169732159
>>191697256
Выше есть почта, ее и буду использовать
Аноним # OP 18/02/19 Пнд 22:39:16 19169735260
>>191697321
там уже можем договориться
быстрофикс
Аноним 18/02/19 Пнд 22:40:38 19169743861
>>191697156
>scikit-learn, конечно, хорош
>Scikit-learn не приспособлен для GPU
Ебать ты политкоректно толерантная феминистка.
Аноним # OP 18/02/19 Пнд 22:42:22 19169753262
>>191697438
Хорош тем, что есть туева хуча алгоритмов
Плох тем, что нет поддержки GPU
Тащемта, для подавляющего большинства задач базового уровня хватает.
Аноним 18/02/19 Пнд 22:44:16 19169764863
>>191697106
>>191697156
Спасибо огромное. А что насчет тензорного процессора TPU из google? На нем тоже можно распараллелить gradient boosting для задачи восстановления регрессии? Или TPU только для нейросетей?
Аноним 18/02/19 Пнд 22:44:31 19169765864
>>191697532
>подавляющего большинства задач базового уровня хватает
Ебать ты быдлофил.
Аноним 18/02/19 Пнд 22:45:09 19169770465
>>191691359 (OP)
Пока нет адекватной математики для спайкинг сетей, нового прорыва тут не будет. А ее пока нет и не особо предвидится, насколько я знаю.
Аноним 18/02/19 Пнд 22:45:51 19169774766
>>191696969
>затем каким-то образом из обрезанной фотки сеткой извлекают вектор, характеризующий основные черты человеческого лица

Вот это самое интересное. Как ты думаешь, эти ребята сами создали эту нейронку или тоже позаимствовали у коллег?
Аноним # OP 18/02/19 Пнд 22:51:13 19169808067
>>191697704
Адекватной математики чего конкретно? Обучения с учителем? А ее и не будет, да, ты прав. Тут только с подкреплением. Собственно, я поэтому и не рассчитывал никогда на их применение в МЛ (хотя у меня получилось заставить сеть импульсных нейронов решать МНИСТ исключительно при помощи описанного Ижикевичем алгоритма обучения с подкреплением, но ушло неоправданно много времени). Я видел алгоритмы обучения с учителем для многокомпонентных нейронов. Это какое-то торжество матанодроча над разумом. Если найду ссыль на статью из противоположного лагеря, где изменения в нейроне на уровне мат.модели объясняются за счет в основном локальных факторов с появляющимися время от времени глобальными, скину.

>>191697648
TPU для нейронок онли, да. Они ж и называются -- Tensor Processing Unit.

>>191697658
А что, стрелять из пушки по воробьям? Представь, что тебе нужно развернуть какую-то систему, по минимуму использующую мл, основанную на алгоритмах, реализованных в scikit. У тебя есть онли VPS без видяшки. Что делать-то будешь?

>>191697747
Да взяли у фейсбука наверняка. Зачем самим создавать? В крайнем случае, купили у китайских коллег.
Аноним 18/02/19 Пнд 22:53:32 19169819768
image.png (1020Кб, 811x743)
811x743
>>191691359 (OP)
ОП, ты ещё здесь?

Тред не читал, но скоро прочту целиком, поэтому заранее спасибо за всю инфу, а пока есть пара вопросов.

В области инс я пока нихуя не знаю, но по касте я математик+программист+аналитик + у нас отдельный предмет в этом семестре по инс и ии. Из-за того, что я не долбоеб и умный, смышлёный парень, мне подвернулась работка от моего товарища разработать инс в мед. целях (клетки разглядывать). То, что я нихуя не знаю и придётся учиться с нуля, они в курсе.

Что посоветуешь для более мягкого вхождения и быстрого перехода "к делу"?. Смогу ли в одного справится с такой задачей или по итогу придётся ещё подключать людей? Сколько стоит такая разработка?
Аноним 18/02/19 Пнд 22:54:21 19169824669
>>191698080
Понял, принял, благодарствую, О, Сэнсей
18/02/19 Пнд 22:54:54 19169827870
Аноним # OP 18/02/19 Пнд 22:59:04 19169850371
>>191698197
Ну смотри, для теоретического вката можно почитать "Глубокое обучение", я выше упоминал. Для практического -- берешь в руки Keras, хреначишь распознавалку. Если тебе совсем уж нужно детектить из разряда где на пикче конкретно изображено -- https://pjreddie.com/media/files/papers/yolo.pdf , не знаю, насколько актуально, давно не следил за темой, но используй вот это вот. Я лично более к pytorch привычен, но, опять же, дело привычки, да и для твоего рода задач керас мб лучше подойдет.

Алсо, бросай медиков, по опыту скажу -- не платят нихуя, требуют дохуя, ведут себя не очень адекватно. Хотя, смотря какие медики. Если не государственные -- то мб еще можно.
Аноним # OP 18/02/19 Пнд 22:59:29 19169851872
Аноним 18/02/19 Пнд 23:02:36 19169869773
>>191698080
>тебе нужно развернуть какую-то систему, по минимуму использующую мл
Нет, мне не нужно.
Аноним # OP 18/02/19 Пнд 23:04:46 19169882674
>>191698697
ну и вздохни с облегчением, лол.
Аноним 18/02/19 Пнд 23:05:19 19169885375
>>191691359 (OP)
Этой хуйне где-нибудь вживую учат с нуля? Желательно кабанчиковые курсы, чтобы понимать всю терминологию, но не конкретные реализации.
Аноним 18/02/19 Пнд 23:05:52 19169887976
>>191698826
а ты читал диплернинг николенко?
мимо-тот кто просил телегу
Аноним 18/02/19 Пнд 23:06:44 19169892177
>>191698826
>вздохни обреченно
поправка от усталого квантоеба
Аноним # OP 18/02/19 Пнд 23:09:00 19169903678
>>191698853
Про ирл не знаю, вкатывался, читая Хайкина и пописывая свой фреймворк нейроночный. А дальше начал читать статьи, ну и вкатился постепенно. Уже писал в самом начале треда -- arxiv.org наше все.

>>191698879
Не читал, когда вкатывался, не было еще этой книги.
Аноним 18/02/19 Пнд 23:09:25 19169904879
15499067124850.jpg (810Кб, 1400x1075)
1400x1075
>>191698503
>Алсо, бросай медиков
>не государственные -- то мб еще можно.
Да, это частная конторка, всё схвачено


Большое спасибо. Я всё прочту и потом задам ещё вопросы.
Аноним 18/02/19 Пнд 23:09:26 19169904980
>>191693480
оп шизик
мимо-машинленер
Аноним 18/02/19 Пнд 23:11:45 19169917681
>>191699049
ты шизик
мимо андрей карпати
Аноним # OP 18/02/19 Пнд 23:11:52 19169918582
>>191699049
Ну хорошо, что конкретно тебя не устроило? Можешь расписать? Потому что иметь пробелы в образовании не очень приятно, знаешь ли.
Аноним 18/02/19 Пнд 23:12:15 19169920983
Аноним 18/02/19 Пнд 23:13:11 19169925884
15499194060531.jpg (1578Кб, 2322x4128)
2322x4128
>>191699185
О, а ещё дай телегу плез, если угодно вариться в этом дерьме вместе



мимо >>191699048
18/02/19 Пнд 23:13:12 19169926085
>>191698080
>Да взяли у фейсбука наверняка. Зачем самим создавать? В крайнем случае, купили у китайских коллег.
шо-то ты какой-то еблан.
Украинец наверное.
И фаиндфейс и сёрчфейс - отечественные разработки, там на святом западе вообще этой технологии нет в каком-то массовом применении. Фаиндфейс со своей ёбой брал все награды на выставках-хуиставках. А ты нам тут про какой-то фейсбук затираешь, ту дурак что ли?
Теория про "не гражданские обкатывают ко-ко-ко" - хуйня, все уже обкатали и под ноготь загнали создателей фаиндфейса, это какие-то другие специалисты вылезли, может отколовшиеся сотрудники фаиндфейса. Кстати сам фаиндфейс сейчас полная хуета, качество поиска снизилось пиздецки, ощущение, что действительно ушли сотрудники и забрали с собой какие-то технологии, потому и бугурт со стороны ВК(наверное по линии МВД).
Почему-то ВК не беспокоит, что фаиндфейс продолжает шуршать ЛИЧНЫМ ДАННЫМ БЕЗ СОГЛАСИЯ бла-бла-бла, а вот как серчфейс вылез - сразу загудели, пидорасы.
Аноним 18/02/19 Пнд 23:13:26 19169927286
Аноним 18/02/19 Пнд 23:13:26 19169927387
Аноним 18/02/19 Пнд 23:16:54 19169945888
>>191698080
Да в принципе хоть какой-нибудь обобщенной формы функционала из входа в выход и каких-нибудь способов работы с таким говном. Пока я себе могу представить только какую-то ебанутую вещь с кучей вложенных, сложенных и переложенных целочисленных делений вещественных чисел.
Аноним # OP 18/02/19 Пнд 23:19:23 19169957789
>>191699260
Я банально выдвинул предположение о том, как это работает. Знал бы -- дал бы ссылку. Предположил, что может быть основано на том, что делал фейсбук для детекта лиц и связывания с профилями, потому что показалась похожей задача. Оказался не прав, ну что ж, окей, понял, принял.
И таки зачем сразу сводить тему к украине?
Алсо, скинь пруфцы, плес.

>>191699273
Объяснения причины своего вывода, конечно же, не будет.

>>191699458
То есть, ты говоришь про аппаратную оптимизацию? Не про теоретическую базу? Если так, то да, тут пока с этим сложно.
Аноним 18/02/19 Пнд 23:21:09 19169966990
Аноним 18/02/19 Пнд 23:22:02 19169971791
>>191699577
Про математическую теоретическую базу.
Без нее даже делать стабильные сети мне кажется дохуя сложным, не то что придумывать пороговые функции получше и все такое.
Аноним 18/02/19 Пнд 23:23:17 19169978692
>>191699458
>>191699577
Что-то я не совсем понял.
Это у вас проблемы с импульсами что ли?
Вы что - закодить это говно не осиливаете?
Нет, не может быть что люди настолько дебилы, скажите что я ошибаюсь.
18/02/19 Пнд 23:23:17 19169978893
>>191699577
>Алсо, скинь пруфцы, плес.
Пруфцы чего?
Аноним 18/02/19 Пнд 23:25:29 19169989894
>>191699786
Закодить - как нехуй. Понять как эта гадость будет себя вести при размере больше двух нейронов и при произвольной последовательности входных сигналов - ебаш, получишь нобелевку я думаю.
18/02/19 Пнд 23:26:27 19169994295
>>191699577
>И таки зачем сразу сводить тему к украине?
Потому что ты предположил все что угодно, вплоть до того, что собака накодила, но только не пидорашки поганые, пидорашки только украину захватывают ко-ко-ко.
Блять, да, фейсбук, по почте свои наработки прислали, ЗА ПРОСТО ТАК. Они же всегда так делают. Тебе нужны какие-то куски кода, разработки - позвони в фейсбук, они дадут.
Аноним 18/02/19 Пнд 23:26:34 19169994696
>>191691359 (OP)
Пиздос, как же парашно написано. Как будто автор тужился высрать из себя шуточки, но получалось высирать только кишку. Харртьфу тебе в ебальник, скот.
Аноним 18/02/19 Пнд 23:28:15 19170002497
>>191699898
>Понять как эта гадость будет себя вести при размере больше двух нейронов и при произвольной последовательности входных сигналов
То есть это для вас сложно.
Ок, приматы, с вами все ясно.
Снова.
Аноним 18/02/19 Пнд 23:29:14 19170007698
>>191699942
>вплоть до того, что собака накодила, но только не пидорашки
да ето так
Аноним 18/02/19 Пнд 23:30:53 19170015599
>>191700024
Первокурсник омского матфака итт?
Аноним # OP 18/02/19 Пнд 23:33:26 191700281100
>>191699786
Ты ой как ошибаешься, закодить как раз-таки вообще не проблема. Чувак имел в виду непредсказуемость этого всего дела.
Тащемта, он уже отписался вот здесь >>191699898

>>191699788
Пруфцы на отечественную разработку, почитать про нее захотелось.

>>191699942
Я не понимаю смысла в такого рода высказываниях. Во-первых, повторяюсь, я не знал, что это российская разработка. Во-вторых, будь добр воздержаться от политоты. Ну вот пожалуйста. Здесь только этого не хватало.

>>191699946
И тебе не хворать.

>>191700024
Ну хорошо, просвети нас, глупеньких, что ты имеешь в виду?
18/02/19 Пнд 23:36:51 191700443101
>>191700281
>Пруфцы на отечественную разработку, почитать про нее захотелось.
Т.е. вместо тебя погуглить findface?
Вместо тебя хотя бы на их сайт зайти, посмореть что они сами о себе пишут, где участвуют, какие премии и т.д. получают?
И опять же, что ты хочешь почитать, ты думаешь они свои алгоритмы в открытом доступе описывают или что?
18/02/19 Пнд 23:37:14 191700463102
>какой-то бессвязный поток баззвордов вперемешку с рандомными фактами
Блеванул с этого обосранного студента.
Аноним 18/02/19 Пнд 23:37:14 191700464103
>>191700155
>омского
Ты знал остальное мимо
>>191700281
>просвети нас, глупеньких
Кис-кис :3
Аноним # OP 18/02/19 Пнд 23:38:44 191700536104
>>191700443
> Т.е. вместо тебя погуглить findface?
Именно, я пиздос ленивый
Аноним 18/02/19 Пнд 23:40:06 191700595105
>>191700536
>я пиздос ленивый
Типичный хохол.
18/02/19 Пнд 23:40:24 191700609106
>>191700536
тогда накати нейронку, чтобы вместо тебя искала, а тебе небесный концентрат прямо по биоинтерфейсу через глубоко-анальный возвратно-поступательный передатчик отправляла
Аноним # OP 18/02/19 Пнд 23:42:16 191700698107
>>191700463
Да-да, спасибо за логичную и развернутую критику.

>>191700595
Ну я же просил без политоты и я не хохол, между прочим

>>191700609
Увы, я обосранный студент и не могу даже загуглить, о чем ты?
Аноним 18/02/19 Пнд 23:43:57 191700774108
>>191700698
>я обосранный студент
Скрыл тред.
18/02/19 Пнд 23:45:04 191700823109
>>191700698
>и не могу даже загуглить
Больше ничем помочь не могу, все ключи я тебе дал, ты, как студент(обосранный), должен иметь навык самостоятельного поиска и освоения информации.
Аноним # OP 18/02/19 Пнд 23:45:07 191700824110
>>191700774
Минус беспричинно агрессивный, фух
Аноним 18/02/19 Пнд 23:47:16 191700928111
>>191691359 (OP)
ОП, ты, конечно, молодец, но боюсь что для неподготовленного читателя текстик хреновато читается
И да, я так и не понял что конкретно ты имеешь в виду под третьим поколением. Что там по математике то изменится?
Аноним 18/02/19 Пнд 23:51:10 191701086112
>>191692975
Как думаешь, в openworm они нормально всё это симулировали?
Аноним # OP 18/02/19 Пнд 23:51:27 191701103113
>>191700823
Бля, это как в дейз есть Вещь_нейм (состояние_вещи), только студент(обосранное), чет проиграл.

>>191700463 так до сих пор и не пояснил, что его не устроило, лол

>>191700928
Во-первых, да, соглашусь, вышло как-то не очень. Просто захотелось поболтать за нейронки, вот и написал, потом понял, что надо было проще.
Третье поколение -- импульсные нейронки. Ну вот яркий пример: модель Ходжкина-Хаксли. Нейрон моделируется системой дифференциальных уравнений уже. У нейрона есть некоторое состояние, которое не стирается полностью на следующем шаге. Как это еще называется, нейрон интегрирует входные сигналы.
Аноним 18/02/19 Пнд 23:54:26 191701213114
>>191691359 (OP)
И вообще, ОП. Ты хорошо разбираешься в спайковых сетях?
Я б поспрашивал некоторые вещи, ибо сам начал ими интересоваться
Аноним 18/02/19 Пнд 23:55:26 191701262115
>>191691359 (OP)
Что по математическому бекграунду стоящему именно за современным глубоким обучением и rl почитать?
Аноним 18/02/19 Пнд 23:56:50 191701326116
>>191701103
Спасибо, теперь понятней стало
Аноним 18/02/19 Пнд 23:56:57 191701336117
Может быть, слышал про вот этот пакет - https://www.neuron.yale.edu/neuron/?
Модель hodgkin-huxley, кстати, там есть.
Но вот уёбищный язык hoc отбивает почти всё желание ей пользоваться.
Аноним 19/02/19 Втр 00:02:56 191701612118
Почему все носятся с дипбрейном: мам оно само научилось в го и дотку играть!!1 Это же наебалово, там внутри алгоритмов какие-то с небо свалившиеся видимо преобученные модели и оценки.
Аноним # OP 19/02/19 Втр 00:04:28 191701684119
>>191701213
Статейки по ним пилю, спрашивай

>>191701336
Лол, пишу свой пакет, потому что нужна большая детальность с соответствием последним исследованиям до которых я смог дотянуться.

>>191701262
Для начала, матанчик и линал -- must have. Теория оптимизации. Матстат может пригодиться спокойно. Вот после этого уже можно идти читать про RL.
Тут перечислили нужное
https://www.reddit.com/r/math/comments/53fumz/mathematics_for_reinforcement_learning/d7v7q4d/
Аноним # OP 19/02/19 Втр 00:05:53 191701750120
>>191701684
последними исследованиями (чет дважды "и" не прожалась)
быстрофикс
Аноним 19/02/19 Втр 00:06:32 191701785121
a1413123366heat[...].png (1156Кб, 651x900)
651x900
>>191701086
>openworm
Я мало знаю о самом проекте, то есть не слежу за деталями. Но там для нейронов используется модель Ходжкина-Хаксли, а значит, с большой вероятностью, та же электрохимия на основе ионных каналов хотя, чтобы посмотреть детали можно погуглить. Там много модификаций наплодили, насколько мне известно

Что касается самой идеи мат. моделирования полноценных организмов -- все зависит от уровня абстракции. Если они очень-очень упростят всякого рода биохимию и будут рассматривать только клетки и их взаимодействие между собой в некой единой системе -- вполне возможно. Если пойдут на несколько уровней них, до белков, белковых комплексов, метаболической системы каждой клетки и т. д. -- это в принципе невозможно. Даже на полноценное моделирование взаимодействия нескольких отдельных белков с каталитической активностью имеются определенные (непреодолимые) на сегодняшний день ограничения, не то что целого комплекса регуляторных сетей на их основе. А в одной единственной клетке может содержаться 2-3 тысячи этих самых белков.
Аноним 19/02/19 Втр 00:09:09 191701915122
>>191701684
Про central pattern generator в курсе? Пробовал ли зафигачить ЦПГ на основе спайковых сетей?
Аноним 19/02/19 Втр 00:09:10 191701917123
>>191701684
Ну это какой-то стандартный набор первокура, я скорее спрашивал что-то вроде math heavy книжек по rl и диплернинху которые кратко и строго излагают основные принципы именно этих областей от которых можно уже отталкиваться и дальше уже читать статейки.
Аноним 19/02/19 Втр 00:15:32 191702200124
>>191697029
В кэтбусте например на ГПУ нормально считается.
Аноним 19/02/19 Втр 00:16:21 191702234125
Аноним 19/02/19 Втр 00:18:48 191702354126
chi-the-last-un[...].jpeg (95Кб, 1200x800)
1200x800
>>191702234
>Зачем Амальтея?
Она восхитительна, разве нет?
Аноним # OP 19/02/19 Втр 00:19:06 191702369127
Аноним 19/02/19 Втр 00:20:56 191702452128
>>191702369
Ок, нахуй средний слой нейронов в сетке?

>>191702354
Ну так то да, вот только ты её с прочими конями мешаешь.
Аноним 19/02/19 Втр 00:21:56 191702492129
Почему в гугл.колаб TPU медленнее GPU работает, если специально для нейронок сделан?
Аноним 19/02/19 Втр 00:23:22 191702558130
>>191702369
ОП, а с тобой как-нибудь можно будет ещё пообщаться? Мне явно не хватает опыта в этой теме, нужны более сведущие в ней люди.
Какой-нибудь вк, или фб, или телеграм.

А пока - ещё вопрос по точности симуляции.
>Лол, пишу свой пакет, потому что нужна большая детальность с соответствием последним исследованиям до которых я смог дотянуться.
Вот тут ты говоришь, что не хватает детальности. Ты про какие именно детали оворишь? Про особенности взаимодействия рецепторов в синапсе? Или про какие-то другие элементы, которые влияют на поляризуемость, проводимость, возбудимость, etc.?
Аноним 19/02/19 Втр 00:24:04 191702580131
AdultMaleUnicor[...].jpg (156Кб, 790x835)
790x835
>>191702452
>прочими конями мешаешь
Единороги, друг мой.
Мне очень нравятся единороги. Очень-очень.
Но, честно, я бы предпочел, если бы ты спросил нечто более...Хм... Биологичное.
Аноним 19/02/19 Втр 00:24:08 191702581132
e
Аноним 19/02/19 Втр 00:26:11 191702679133
148272386500.jpg (111Кб, 500x748)
500x748
>>191702580
>Мне очень нравятся единороги. Очень-очень.
Так бы и выебал? Но ты в курсе, что они к целочкам тяночкам приходят, а к тебе нет?

Аноним 19/02/19 Втр 00:27:30 191702737134
AdultFemaleUnic[...].jpg (162Кб, 775x876)
775x876
>>191702679
>Так бы и выебал?
Биологично, да.
Но я имел в виду несколько иное.
Аноним 19/02/19 Втр 00:28:58 191702812135
Оп-хуй, ты там срешь что ли? Отвечай про средний слой.

>>191702737
>несколько иное.
Что же?
Аноним # OP 19/02/19 Втр 00:32:28 191702950136
cat.png (57Кб, 397x419)
397x419
Ладно, я спать, сегодня опять на работу пиздос
anonymousprogrammer@yandex.ru , пишите, если есть вопросы / считаете, что ОП хуй / нехер делать

>>191702452
Так уж и быть, отвечу. Предположим, что имеется в виду многослойная сетка прямого распространения. Тогда все просто. Без этого слоя стека не сможет разносить по категориям объекты из линейно неразделимых классов. Очевидно же, еще у Хайкина было.

>>191702558
Уже написал, куда что кого. По точности симуляции -- мне нужно вплоть до моделирования всасывания рандомными мимоастроцитами излишков ионов калия, типа такого правда, пока еще хз, как моделировать астроциты, нашел несколько матмоделей, но они какие-то корявые и неточные, что-то подсказывает, что далеко в направлении астроцитов в ближайший год я точно не уйду.

>>191702812
Блять, уже отойти на кухню нельзя в своем-же доме.
Аноним 19/02/19 Втр 00:34:22 191703052137
>>191702950
Нихуя не пони. Ты нормально отвечай. 5к нейронов на входе, 100 на выходе. Нахуй средний слой и сколько их там должно быть? Сетка которая ошибку в веса перегоняет, по книжке Создаем нейронную сеть.pdf
Аноним # OP 19/02/19 Втр 00:35:51 191703122138
Аноним 19/02/19 Втр 00:35:53 191703125139
>>191703052
Тебе же ответили уже. С двумя слоями ты только линейными функциями можешь аппроксимировать.
Аноним 19/02/19 Втр 00:37:43 191703207140
>>191703122
>>191703125
А теперь подмылись и объяснили без заумных слов тому, кто нихуя не знает про эти сетки и только чуть почитал на днях.
Аноним 19/02/19 Втр 00:39:57 191703311141
>>191691359 (OP)
Оп, что ты вкратце хотел донести? да, мне лень все читать
Аноним 19/02/19 Втр 00:45:00 191703530142
>>191703207
>ой бля а без матеши можно не хочу гуглить книжки что вы сказали
>сетка ошибку в веса перегоняет
Нейросети -- это не твоё, забей.
Аноним 19/02/19 Втр 00:45:07 191703536143
>>191703207
Чем больше слоёв тем больше нелинейности. Нелинейность модели нужна потому что большинство сложных вещей для которых тебе вообще нужны нейросети - нелинейные, с линейными и так всё понятно.
Аноним 19/02/19 Втр 00:47:15 191703629144
>>191703536
Так сколько нейронов в среднем слое? И чего тогда не сделать 2 таких слоя?

блядская обезьяна не шатай
Аноним 19/02/19 Втр 00:50:08 191703743145
>>191703536
На самом деле достаточно одного слоя, чтобы аппроксимировать любую функцию.
Однако несколько слоёв подряд требуют меньшего количества нейронов чем один слой для той же функции.
Лучше 2 понемногу, чем один, где дохера.
>>191703629
Универсального ответа нет, архитектура зависит от конкретной задачи.
Можно и 2, и 3, но есть подводные камни. Читай книжку дальше (хотя хз написано ли там, иначе читай нормальную книжку), про затухающие градиенты и т.п.
Аноним 19/02/19 Втр 00:50:55 191703772146
>>191703629
>Так сколько нейронов в среднем слое?
Скоко надо для задачи, больше не имеет смысла, меньше не будет достаточной точности.
>И чего тогда не сделать 2 таких слоя?'
Можно и два и три, но слишком много всё-таки не так просто. C количеством слоёв другие проблемы есть, самая очевидная из них - растёт сложность, больше параметров больше вычислений.
Аноним 19/02/19 Втр 00:51:01 191703776147
Аноним 19/02/19 Втр 00:52:27 191703835148
Аноним 19/02/19 Втр 00:53:18 191703867149
>>191703207
Ну, допустим, ты обучаешь нейронку. Вот, у тебя 5к пикселей в изображении и 5к нейронов на входе. Каждый нейрон воспринимает 1 пиксель. Следующий уровень будет воспринимать 2х2 пикселей, тип, квадратик, и так далее. То есть, будет сохраняться некий общий признак. А последний слой, допустим, будет распознавать уже конкретные типы входных данных, то есть, говорить, что на изображении собака/кошка/etc
так-то, это ахуенно далеко от реальности, но для совсем тупых, наверно, сойдет
Аноним 19/02/19 Втр 00:53:23 191703873150
>>191703776
создаём датасет, где половина картинок "лицо анона", а другая половина - что-то другое
@
по видеопотоку находим лицо
@
плюём
Аноним 19/02/19 Втр 00:55:51 191703979151
>>191703743
>На самом деле достаточно одного слоя, чтобы аппроксимировать любую функцию.
Ну, только если можно набирать для каждой функции специальные активационные из бесконечномерного пространства всех функций. Для какого-то конкретного фиксированного набора или конечномерного семейства всё-таки нельзя.
Аноним 19/02/19 Втр 00:55:59 191703986152
>>191703867
Ну ты сейчас про свёрточные сети говоришь, а он походу только для полносвязных дошёл.Хотя суть там примерно такая же.
Аноним 19/02/19 Втр 00:56:52 191704019153
>>191703867
>Следующий уровень будет воспринимать 2х2 пикселей, тип, квадратик
Там не так в примере. Все 5к идут на каждый нейрон среднего слоя. А они все идут на каждый выходного слоя.
В книжке есть график, где типа и 100 хватит, но у них на входе 784 и выход 10. У меня же несколько больше. Тупо делать и смотреть что будет, не лучший вариант.
Аноним 19/02/19 Втр 01:01:36 191704214154
>>191704019
>Тупо делать и смотреть что будет, не лучший вариан
Лол, тут всё экспериментально проверяется.
Ну поставь среднее геометрическое размеров входа и выхода.
Аноним 19/02/19 Втр 01:02:30 191704255155
>>191704019
Если все так, как ты описываешь, у тебя нет никакого среднего слоя, только входной и выходной
Аноним 19/02/19 Втр 01:05:01 191704360156
>>191699273
>просто ты шизик, вроде этого
Просто ты быдло не могущее в науку
Аноним 19/02/19 Втр 01:06:05 191704394157
мде
Аноним 19/02/19 Втр 01:06:29 191704410158
Безымянный.png (402Кб, 936x486)
936x486
>>191704255
Это pdf говно лагает пиздец, так что искать нормальную картинку никак, там страница 20 сек грузится. Вот что попалось. 3 слоя. Но все они так слеплены, как говорил выше, все на каждый следующего.
Аноним 19/02/19 Втр 01:06:43 191704420159
>>191691359 (OP)
Спасибо оп, теперь впилю нормальные нейросети в свою поделку

Абу благословил этот пост.
Аноним 19/02/19 Втр 01:08:05 191704472160
Аноним 19/02/19 Втр 01:09:39 191704529161
god of marie.webm (10240Кб, 636x360, 00:04:29)
636x360
>>191691359 (OP)
Если ты такой умный, то почему ты такой нищий ты здесь?

А если у тебя есть действительно рабочая версия, то бери и запиливай, хоть из говна и палок, лишь бы тебя власти за жопу не схватьли.

Аноним 19/02/19 Втр 01:51:08 191706085162
бамп
Аноним 19/02/19 Втр 01:51:51 191706107163
>>191692975
А ещё я люто бомблю с тех, кто заявляет, что симуляция выдаёт офигенные результаты, но в лучшем случае у их софта - пара исходников, написанных на коленке через жопу, которые не компилируются без танцев с бубном. В худшем - сырцов для экспериментов вообще не найти.
Вот НеСТ - молодцы, выложили образ виртуальной машины, просто скачиваешь к себе, и можешь играть сколько влезет
Настройки X
Ответить в тред X
15000 [S]
Макс объем: 20Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
X
Ваш шидевор X
Стикеры X
Топ тредов
Избранное