Главная Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски

[Ответить в тред] Ответить в тред

Check this out!


<<
Назад | Вниз | Обновить тред | Автообновление
510 | 53 | 140

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.5 /ai/ Аноним 13/06/18 Срд 15:54:34  1209084  
1.jpg (303Кб, 1600x1200)
2.jpg (27Кб, 802x170)
3.jpg (75Кб, 774x312)
4.jpg (410Кб, 976x1815)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1190173 (OP)
Аноним 13/06/18 Срд 15:56:27  1209089
Продолжаем писать хуйню, господа.
Аноним 13/06/18 Срд 16:00:23  1209093
>>1209084 (OP)
В ответе на этот пост можете предлагать исправления для шапки. inb4 оп - хуй, шапка - говно
Аноним 13/06/18 Срд 16:55:28  1209141
чегоблядь.webm (420Кб, 1280x720, 00:00:01)
>>1209093
Оп, ты сам этот диплернинхпук читал? Это же пиздец натуральный. Чисто по приколу потыкал, с 9 главы про сверточные сетки у меня пикрелейтед реакция. Чего они там нахуевертили, суть этой хуитки в пару картинок можно пояснить, для кого они там развели бодягу? Хуй проссышь же, про начинающих вообще молчу.
Аноним 13/06/18 Срд 17:04:20  1209147
>>1209141
грантогоспода получают бабосы
Аноним 13/06/18 Срд 17:21:51  1209155
>>1209141
Читал немного. У меня мат. образование, мне норм было.
А как надо-то? Как хипсторы на медиумах, где "жмакните сюды, хуяк-хуяк, готово" и ничего совсем не объясняется? Да и не сказать, что там хардкор прям.
Аноним 13/06/18 Срд 19:07:26  1209233
>>1209141
Читай Мурзилку.
>>1209093
Все кроме диплернингбука в печь. Так и оставить одну строчку: тред про нейроночки, для вката читай это.
Пик с колобками это моветон, мы же не хотим возвращения старых тредов, где сидели какие-то чуханы и несли какую-то дичь? Мы этого не хотим.
Аноним 13/06/18 Срд 19:43:26  1209261
Че за цирк вы развели с умножением в прошлом треде? Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.
Аноним 13/06/18 Срд 19:48:42  1209270
>>1209261
>цирк
Добро пожаловать в нейроночкотред. Снова.
Аноним 13/06/18 Срд 19:51:23  1209275
>>1209261
Я понял твой вопрос, но он настолько элементарный, что объяснять слишком долго, и толку от этого будет мало. У тебя нет базы, и пока ты нормально не изучишь матан и тервер, тебя будет ставить в тупик каждое уравнение. Тебе не нужен ответ, тебе нужно учиться, и ответ станет для тебя очевидным.
Аноним 13/06/18 Срд 20:26:43  1209302
>>1209261
> Вопрос был про вывод формулы и применение правил суммирования и умножения из теорвера.
Хоспаде, да это первая глава любого учебника по теорверу, Вентцель, например. Разница только в том, что в твоем уравнении были векторы вместо скаляров, т.е. еще линейная алгебра впридачу.
Аноним 13/06/18 Срд 20:29:30  1209305
>>1209233
> Читай Мурзилку.
>>1209093
> Все кроме диплернингбука в печь.
Ух, какой боевой свидетель смузи и сойлента. А потом такие вот сектанты сда приходят про сигмы и сложение/умножение вероятностей спрашиивать, и искренне охуевают от того, что знак умножения можно не писать, лол.
Аноним 13/06/18 Срд 22:06:47  1209383
Есть сет для тренировки нейросети в виде пит булей. Как умножать векторы?
Аноним 13/06/18 Срд 22:09:17  1209389
>>1209261
Вопрос был о знаке звёздочки в макабе. Но маняматики не могли применить теорему Байеса для мысли. Читайте Гарри Поттер и методы рационального я сказал! Лучшие введения в диплернинг бубук! А китайцы уже давно кушают бамбук!
Аноним 13/06/18 Срд 23:18:07  1209448
Нейроночки это зависимый тип или граф?
Аноним 13/06/18 Срд 23:40:20  1209466
>>1209448
Да.
Аноним 14/06/18 Чтв 00:05:15  1209483
>>1209448
Это массив.
Аноним 14/06/18 Чтв 00:47:46  1209503
>>1209448
Моноид в категории эндофункторов.
Аноним 14/06/18 Чтв 07:42:31  1209551
>>1209503
моноидальной категории эндофункторов
Аноним 14/06/18 Чтв 07:52:09  1209554
15272115924151.jpg (50Кб, 960x492)
>>1209551
> в моноидальной категории эндофункторов
В монголоидальной. К слову, на coq'е есть либа flocq, как раз для доказательства свойств алгоритмов, вычисляющих вещественные числа. Так что формализовать даже самые ебанутые нейроночки с нахуеверченными тысячами слоев и параметров можно уже сейчас, но хипстеры не могут в пруверы.
Аноним 14/06/18 Чтв 09:20:59  1209566
Закапывайте свои нейронки, уже нимодно
Аноним 14/06/18 Чтв 18:42:08  1209906
А что читали лично вы, чтобы вкатиться? Мне интересны советы анона, помимо диплернинг бука.
Аноним 14/06/18 Чтв 18:59:55  1209923
>>1209906
Да все подряд читай, что зайдет, то и лучше. Что-то полезное вынесешь из любого чтива. Я когда-то вообще начинал с Хайкина, лол.
Аноним 14/06/18 Чтв 20:08:22  1209944
>>1209906
Советую поступить на специальность и получить нормальное комплексное образование. Не в России, конечно.
Аноним 14/06/18 Чтв 20:08:58  1209945
>>1209944
Поздно, я уже учусь здесь.
Аноним 14/06/18 Чтв 20:29:05  1209958
>>1209945
Пока на границе в спину не стреляют, можешь забрать документы и поступить туда где твое образование будет признаваться международным сообществом.
Аноним 14/06/18 Чтв 20:37:08  1209962
>>1209958
А денег ты мне на это дашь?
Аноним 14/06/18 Чтв 20:44:33  1209966
>>1209962
Подайся на стипендии, попробуй на бюджет (в некоторых странах Европы), проси скидку у университета, для студентов из нищих стран вроде России могут сбросить больше половины (в Европе), как поступишь, будет много возможностей получить стипендии и гранты. Если ты самка, то тебя завалят деньгами множество фондов, поддерживающих девушек в STEM.
Серебряная пуля - заработай, тыжпрограммист, в коридорах постоянно будут шататься стервятники из всяких загонов для вебмакак.
Аноним 14/06/18 Чтв 20:56:06  1209968
>>1209966
Спасибо, но твой совет не релевантен.
Аноним 14/06/18 Чтв 21:55:27  1210015
3dunderstanding.gif (7353Кб, 800x300)
Свежачок от дипмайнд: https://deepmind.com/blog/neural-scene-representation-and-rendering/
Нейроночка по одному кадру восстанавливает 3д сцену и рендерит ее с любой точки. Также это используется в обучении с подкреплением.
Аноним 14/06/18 Чтв 22:09:17  1210025
>>1210015
Ролик снят, бюджет освоен, все довольны.
Аноним 15/06/18 Птн 01:26:20  1210157
Запишите в шапку, что МФТИ - сборище додиков, а курс яндекса и физтеха на курсере обсирается на моменте с нейроночками.
Аноним 15/06/18 Птн 01:29:01  1210158
>>1210157
>папуасия
>нейроночки
А про твою ЕОТ ничего не записать?
Аноним 15/06/18 Птн 01:33:15  1210160
>>1210158
>ЕОТ
У меня нет такой. Хотя тяночка-лекторша из Яндекса мне понравилась.
Аноним 15/06/18 Птн 06:27:33  1210180
15285218960541.jpg (345Кб, 1366x2048)
>>1210015
А оно только цылиндеры может рендерить, или по любой фотке может восстановить триде?
Аноним 15/06/18 Птн 07:31:54  1210184
>>1210180
Только геометрические фигуры из тренировочного множества. В блоге посмотри, там много примеров.
Аноним 15/06/18 Птн 07:44:43  1210185
>1209084
Вопрос к знатокам.

Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.

Соответственно, есть проблема: надо уместить датасет с фотографиями 224х224 в количестве около 2 миллионов в этот самый cloab...

Как это сделать?

На ум приходят только генеративные модели...

Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?

Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224х224?
Аноним 15/06/18 Птн 07:54:53  1210191
>>1210185
На заре ГАНов люди пытались вроде просто на свалках картинок вроде CIFAR или imagenet обучать. Такой ГАН выдает обычно нагромождение цветных пятен и линий, простейшие текстуры. Если тебе подойдет такое, то тренируй. Предобученные вряд ли найдешь, ввиду их бесполезности.
Аноним 15/06/18 Птн 08:37:01  1210198
152645757818872[...].jpg (61Кб, 400x711)
>>1210157
>МФТИ
Это всегда было поехавшее кукушкой дно из Долгопрудного
Аноним 15/06/18 Птн 13:06:31  1210320
>>1209084 (OP)
https://arxiv.org/pdf/1707.07012.pdf
Пиздос!

Датасайентисты не нужны!
Аноним 15/06/18 Птн 13:14:51  1210326
>>1210320
Что там? С тилибона не грузится.
Аноним 15/06/18 Птн 13:49:15  1210344
Поясните за область применения этих ваших нейроночек. Вижу, что тут все картиночки анализируют.
Есть петпроектик по анализу веба, вот думаю, стоит ли туда вкрутить инс. Насколько это будет эффективно, и насколько готовые решения умеют в такого рода анализ.
Аноним 15/06/18 Птн 14:46:07  1210383
>>1210326
>
>Что там? С тилибона не грузится.

Ну, короч, в Гугле запилили LSTM-ку, которая дизайнит сверточные сети, обучили ее методом подкрепления, и Она выдала NasNET-A, который уделал на ImageNet топовые архитектуры, спроектированные человеками.
Аноним 15/06/18 Птн 14:48:22  1210388
>>1210344
Ну там не только картиночки, какбе, там ешё мыниный перевод, чат-боты там всякие, имитатор твиттера трампа и т.д.
Аноним 15/06/18 Птн 14:54:53  1210395
>>1210383
Ну, такое. Сто лет известно, что гиперпараметры одного алгоритма можно подсунуть другому в виде параметров.
Аноним 15/06/18 Птн 17:42:30  1210517
>>1210344
На картиночках был первый прорыв, он же основной. Еще большой шаг был в распознавании речи (сейчас 100% этих систем на нейроночках, как и в картинках), обучении с подкреплением (хотя там речь тоже всегда идет о картиночках, так что трудно отделить одно от другого), генеративных моделях (с картиночками). Совсем без картиночек самое заметное достижение было в differentiable neural computer. В НЛП есть продвижения, но относительно небольшие.
Не знаю, что за анализ веба у тебя. Готовых решений никаких нет.
Аноним 15/06/18 Птн 18:25:33  1210541
>>1210517
>сейчас 100% этих систем на нейроночках,
Не не пизди, нейронки там сосут как и везде
https://blog.neospeech.com/top-5-open-source-speech-recognition-toolkits/
Аноним 16/06/18 Суб 00:32:42  1210710
>>1210383
Ты вообще понимаешь что такое архитектура свёрточной сети? Это хуя слой, хуяк сюда ещё один и хуяк пул между ними, а тут хуяк полносвязку на выход, заебись, Петрович, щас всех котов и собак посчитаем.
Аноним 16/06/18 Суб 02:39:23  1210753
breastcluster1.jpg (93Кб, 1440x1080)
breastcluster2.jpg (158Кб, 1440x1080)
breastcluster3.jpg (131Кб, 1440x1080)
Чувак сделал публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолей: http://neuralrad.com:5000/
Сам сделал адово точную модель, собрал на свои деньги кластер из 50 1080ти, и прицепил веб-сервис и десктопную прогу.
Аноним 16/06/18 Суб 02:48:27  1210755
>>1210753
Нахуя?
Аноним 16/06/18 Суб 05:58:33  1210769
>>1210755
Чтобы получить халявных фоток с сиськами
Аноним 16/06/18 Суб 14:36:52  1210947
Так вот там lstm составляла дизайнала модули (обычный и с пуллингом, типа как в инсеишонах всяких там), которые потом стекали, добавляли к ним полносвязные слои и обучали.

Чем выше получался скор на сифар 10, тем больше вознаграждение.

В итоге, нейросеть спроектировала модули круче, чем человек...


Из этих модулей составили несколько сетей, обучили на имаджнете, и уделали все, что до этого спртектировали жалкие людишки!!!
Аноним 16/06/18 Суб 14:42:55  1210951
>>1210947
>уделали
>на один процент
>ценой значительного роста вычислительной сложности и числа параметров
>получили архитектуру с кучей логических ляпов и несуразностей
>теперь еще меньше понимаем, что происходит внутри сети
Аноним 16/06/18 Суб 15:05:17  1210968
>>1210951
>уделали
>на один процент
Более чем достаточно, чтобы на кагле срубить даже не десятки к$.
Аноним 16/06/18 Суб 15:07:28  1210969
>>1210968
>кагле
Говно твой кагл, там хуйня одна потешная
Аноним 16/06/18 Суб 15:08:24  1210970
Алсо, асимптотически-эффективные методы, они такие. Добавил сотню видюх в кластер - получил 1% прироста эффективности, добавил еше сотню - получли еще +0.1%. Вам еще в 60-е пояснили, что это путь в никуда, и нужно копать в сторону неасимптотически-эффективных методов.
Аноним 16/06/18 Суб 15:10:33  1210973
>>1210970
>неасимптотически-эффективных методов.
По русски говори
Аноним 16/06/18 Суб 15:20:59  1210978
>>1210973
>По русски
Значение знаешь?
Аноним 16/06/18 Суб 15:25:22  1210981
>>1210978
Да
Аноним 16/06/18 Суб 15:26:17  1210982
>>1210968
Да там уже сто лет нет денежных компетишенов с картинками
Аноним 16/06/18 Суб 17:27:39  1211107
images.jpg (8Кб, 299x168)
DN-JyKFWAAIZawy.jpg (22Кб, 410x318)
image1.png (75Кб, 976x579)
>>1210951
Топ-1 выше на 1%, вычислительная слоюность на 28% ниже, чем было до.

Тебе че бомбить то так, шизик?
Аноним 16/06/18 Суб 17:34:02  1211116
>>1210970
>неасимптотически
Какое тогда мерило эффективности алгоритма использовать, если не асимптотику?
Аноним 16/06/18 Суб 18:32:07  1211162
>>1211116
>мерило эффективности алгоритма
Симпоанусуческое схождение
Аноним 16/06/18 Суб 18:34:35  1211164
>>1211116
На эту тему целая теория статистического обучения.
Аноним 16/06/18 Суб 18:34:57  1211165
>>1211162
Анусопердолинговый коэффициент
Аноним 16/06/18 Суб 18:35:44  1211167
>>1211162
Мохнатое О
Аноним 16/06/18 Суб 19:45:29  1211226
>>1211107
То, что компуктер брутфорсом улучшил архитектуру сделанной человеком нейронки, означает лишь то, что человек пиздец как не понимает, как нейронки внутри работают. Это не прогресс, это шаг назад.
Да, и на сравнительные графики стоит добавить число параметров, а то память тоже не резиновая.
Аноним 16/06/18 Суб 19:47:52  1211229
>>1211226
> брутфорсом улучшил
> человек пиздец как не понимает, как нейронки внутри работают
Опять ты на связь выходишь, мудило гороховое? Чем тут срать, лучше бы почитал что-то по теме, глядишь не выглядел бы полным дауном.
Аноним 16/06/18 Суб 20:28:32  1211268
>>1211229
>мудило гороховое
я не гороховое
Аноним 16/06/18 Суб 21:31:16  1211329
vovkavtridevjat[...].jpg (28Кб, 280x280)
>>1211229
А там и читать нечего, кроме ссаного пейпера. Конфигурацию слоев нейронки ищут с помощью другой нейронки, гоняя эту хуету на 500 GPU. В результате архитектура сети подгоняется под конкретный датасет (на другом надо делать все по новой).
Охуеть прорыв.
Аноним 16/06/18 Суб 23:30:32  1211423
Cкиньте лучше мем с карлсоном
Аноним 17/06/18 Вск 00:03:02  1211438
152811916313787[...].jpg (47Кб, 700x447)
>>1211423
Аноним 17/06/18 Вск 00:33:23  1211454
>>1211423
Зачем тебе это, когда уже генератор мемов сделали: https://arxiv.org/abs/1806.04510
Dank Learning: Generating Memes Using Deep Neural Networks
Abel L Peirson V, E Meltem Tolunay
(Submitted on 8 Jun 2018)

We introduce a novel meme generation system, which given any image can produce a humorous and relevant caption. Furthermore, the system can be conditioned on not only an image but also a user-defined label relating to the meme template, giving a handle to the user on meme content. The system uses a pretrained Inception-v3 network to return an image embedding which is passed to an attention-based deep-layer LSTM model producing the caption - inspired by the widely recognised Show and Tell Model. We implement a modified beam search to encourage diversity in the captions. We evaluate the quality of our model using perplexity and human assessment on both the quality of memes generated and whether they can be differentiated from real ones. Our model produces original memes that cannot on the whole be differentiated from real ones.
Аноним 17/06/18 Вск 21:11:48  1212011
На Яндекс блице осилил только одну задачу
Какая же я чмоня, как же глубоко я себя ненавижу
Аноним 17/06/18 Вск 22:25:54  1212055
Аноны, скажите: бинарные переменные можно рассматривать как частный случай ординальных, или лучше только номинальные?
Аноним 17/06/18 Вск 22:31:23  1212056
>>1211329
А вот хуй! Архитектура слоя перенеслась с Мицар на имаджнет!
Аноним 17/06/18 Вск 22:45:02  1212066
>>1212055
Да.
Аноним 17/06/18 Вск 22:48:04  1212067
>>1211438
Этот неревелантен.
>>1211454
Где там получить моего карлсона?
Аноним 18/06/18 Пнд 02:01:48  1212163
>>1212056
Это ты вот эту олдфажную годноту вспомнил: https://en.wikipedia.org/wiki/Mizar_system ?
Аноним 18/06/18 Пнд 03:44:46  1212171
>>1212067
Жди когда сделают сервис, где за биткоины можно будет купить рарные мемы. Для голов анимешных девочек уже сделали: https://crypko.ai/#/
Аноним 18/06/18 Пнд 10:43:41  1212238
>>1212171
У меня от этого испанский стыд
Аноним 18/06/18 Пнд 10:56:10  1212243
>>1212238
Анимешник, please.
Аноним 18/06/18 Пнд 12:10:36  1212288
152929791317418[...].jpg (34Кб, 700x393)
>>1212243
Аноним 18/06/18 Пнд 13:21:13  1212345
>>1212243 FS@UR. Экс вен? Давай мыло, вопросы должны быть отвечены, не время прятаться. Не оттягивай неизбежное. А то неизбежное сделает кусь-кусь. ^_^
Аноним 18/06/18 Пнд 13:32:16  1212359
>>1212345
void ToExpand(_u1 ٭ _flag, F_S_N<T, I> ٭ _F)
{
_u4 i0, i1, i2; _i4 nowd;
_F->root = root;
F_S_Ns<T, I> tmp0, tmp1, ٭tmp;
F_S_N<T, I> ٭FF;
_F->Space.Init(11);
_F->Dimensions.CopySet(&Dimensions);
_u1 dcross = 1; i0 = 0; while (i0 < Dimensions.now)
{
if (_flag[i0])
{
_flag[i0] = dcross++;
FF = root->F + Dimensions.D[i0].D;
i1 = 0; while (i1 < FF->Dimensions.now) _F->GetD(FF->Dimensions.D[i1++].D);
}
i0++;
}
Аноним 18/06/18 Пнд 13:39:02  1212361
>>1212163
Нет, это вспомнила анальная автозамена от гугла, когда я ввел СИФАР10.
Аноним 18/06/18 Пнд 14:10:16  1212381
>>1212359
>Space.Init(11)
>11
Не лезь дебил, она тебя сожрет! Алсо теория струн конфермед?
Аноним 18/06/18 Пнд 14:14:36  1212386
>>1212381
Обязательно умрем.
Работаю над этим.
Аноним 18/06/18 Пнд 14:26:01  1212391
>>1212359 Пиши давай, в общем.
fs6ur11@gmail.com
Аноним 18/06/18 Пнд 15:40:16  1212481
>>1212391
>Пиши давай
А ты няшный?
Аноним 18/06/18 Пнд 18:13:13  1212628
>>1212238
Представь еще сколько трудов ушло на это. Скорее всего ради резюме старался чел, ну и надеялся на взлет как у https://www.cryptokitties.co/ , но забыл про вложения в рекламу. Вообще вся эта область это ад какой-то. Хотя может это мы старые и отсталые, не понимаем нового мира.
Аноним 18/06/18 Пнд 18:37:27  1212636
ClusteredDoggo.jpg (23Кб, 406x301)
TempDoggo.jpg (82Кб, 406x301)
Блэт, кто-нибудь юзал Accord.NET? Пытаюсь воспроизвести пример https://www.mathworks.com/help/images/texture-segmentation-using-gabor-filters.html , но ебучая кластеризация даёт пикрил1. Если полученные из PCA дескрипторы визуализировать, получается пикрил2 - вроде бы явно прослеживается разница в текстуре, но к-средних такую залупу даёт.
Аноним 18/06/18 Пнд 20:46:14  1212739
>>1212636
Юзал лет 7 назад, когда мне было еще не очевидно, что дотнет мертв, и нейроночки еще не взлетели.
>анализ изображений с помощью РСА и к-средних
А почему не на Фортране?
Аноним 19/06/18 Втр 05:40:28  1213015
>>1212739
Есть другие простые способы уменьшить размерность вектора и кластеризовать данные?
Аноним 19/06/18 Втр 05:50:59  1213017
>>1213015
Простых нет, ты выбрал самые простые, поздравляю. Есть работающие.
Аноним 19/06/18 Втр 08:34:11  1213028
>>1212481 Не о том думаешь, мясо. Хотя...
>мясо
>думать

Аноним 19/06/18 Втр 09:00:15  1213038
>>1210753
Ссыль давай!
Аноним 19/06/18 Втр 09:36:02  1213047
Короче я так понял ML и НС это для пидарасов, желающих отобрать у обычных работяг рабочие места.
Аноним 19/06/18 Втр 12:02:14  1213105
>>1213017
> Есть работающие.
Диплернинх? Ну вообще да, стыкованные аутоэнкодеры это могут, но они ж тоже не в моде, на коворкинге засмеют.
Аноним 19/06/18 Втр 13:50:32  1213166
image.png (466Кб, 600x478)
>>1213047
Всего лишь попытка успешно распознавать корову
Аноним 19/06/18 Втр 19:46:17  1213348
>>1213166
Что означает "базовая функция" в машинном обучении?
Аноним 19/06/18 Втр 20:49:14  1213397
Как же мне печет с вашего хайпа, когда он уже протухнет?

Мимо архи-ранняя птичка, пытавшаяся в машоб в 2007 и наткнувшаяся на стену непонимания
Аноним 19/06/18 Втр 21:00:21  1213404
>>1213397
Обустраивайся на помоечке поудобнее.
Аноним 19/06/18 Втр 21:12:17  1213412
>>1213404
Ну мне сейчас неплохо, это скорее датасцаентисты на помоечке будут, если сравнивать.
Аноним 19/06/18 Втр 21:47:09  1213425
>>1213412
Мантры это хорошо, помогают психике не сломаться.
Аноним 20/06/18 Срд 12:54:24  1213616
Гоняю модель кераса по таблице параметров в цикле и она зависает при переходе на следующую итерацию. Как пофиксить? Заменил модель на регрессию из sklearn - нормально делает гридсерч, обучается, выводит результаты в файлы и переходит на следующую строчку таблицы с другими параметрами, никаких проблем. Возвращаюсь на модель из кераса - считает первую итерацию, выводит результаты в файл, переходит на следующую строку в таблице и на этапе гридсерча фризит.
Аноним 20/06/18 Срд 16:05:19  1213739
>>1213616
Что там за параметры у тебя? Может, ты делаешь миллион слоев или тому подобный идиотизм.
Аноним 20/06/18 Срд 16:12:44  1213742
>>1213739
Нет, когда не получилось с моделью которая нужна, попробовал самую простую - в один слой.
Аноним 20/06/18 Срд 16:34:06  1213752
>>1213742
Вся суть. Вместо применения нескольких слоев пытаются изучать Вапника и делать всё на однослойном перцептроне.
Аноним 20/06/18 Срд 16:41:35  1213760
>>1213752
Для тех кто читает мугичкой, однослойный перцептрон нужен чтобы потестить будет ли цикл переходить на следующую итерацию. Спойлер - не будет.
Аноним 20/06/18 Срд 16:43:43  1213765
image.png (94Кб, 705x609)
>>1213760
У маняматиков всё по шаблону. Они даже не могут самостоятельно написать комментарий на дваче, не то что пейпер. Все мемы уже выучил?
Аноним 20/06/18 Срд 17:57:34  1213837
>>1210753
>публичный бесплатный сервис для проверки рентгеновских снимков груди на наличие опухолей
Получит сгущёнки 100%
Аноним 20/06/18 Срд 18:11:11  1213855
>>1213760
Код цикла выложи, гляну.
Аноним 20/06/18 Срд 20:06:44  1213987
>>1209084 (OP)
>Где работать? https://www.indeed.com/q-deep-learning-jobs.html
А в России? Хочу перекатиться в это.
Аноним 20/06/18 Срд 21:09:06  1214027
>>1213987
https://5ka.ru/career/?location_type=store
Аноним 20/06/18 Срд 21:15:53  1214037
>>1214027
Я же не в фронтенд пытаюсь вкотиться.
Аноним 20/06/18 Срд 21:22:34  1214046
>>1214037
Нужен фронтенд для нейроночек на блокчейне. Суть проста: пишешь лэндинг, пэйпэр и продаёшь свой смузикойн с инвестицией в нейронные сети.
Аноним 20/06/18 Срд 21:23:35  1214048
>>1214037
Во-первых в рашке нет шансов; во-вторых кто в здравом уме хочет работать в рашке, если есть возможность работать вне ее?
Аноним 20/06/18 Срд 21:26:43  1214054
>>1214046
Смишно.
>>1214048
Понятно, значит в Рашке ничего нет. А работать вне ее пределов - трудно, кому нахуй нужен русский иммигрант-самоучка с кое-какими начальными знаниями?
Аноним 20/06/18 Срд 21:52:24  1214080
>>1214054
>кому нахуй нужен
Если ты хочешь, чтобы тебя уговаривали, то этого не будет. Каждый сам за себя, нейронщик нейронщику волк!
Аноним 20/06/18 Срд 21:55:36  1214082
>>1214080
Нет, ну это естественно, просто мне в такой вариант развития событий не особо верится. Есть где блоги или хотя-бы отдельные пасты про таких вкатывальщиков?
Аноним 20/06/18 Срд 22:03:22  1214088
>>1214082
Леночка.
Аноним 20/06/18 Срд 22:04:10  1214089
>>1214082
https://habr.com/post/310776/
Аноним 20/06/18 Срд 22:06:05  1214092
>>1214082
А почему бы не взять и просто без задней мысли получить профильное образование, PhD и перестать быть вкатывальщиком?
Аноним 20/06/18 Срд 22:10:07  1214099
>>1214089
>https://habr.com/post/310776/
Его кегля: https://www.kaggle.com/iglovikov
>highest rank: 19
>1st, 3rd, 7th
Едрить он крутой
>Спецназ ВДВ. Медаль за Чечню. (2002-2004)
...
Аноним 20/06/18 Срд 22:11:42  1214102
>>1214092
Нет денег на обучение за границей.
Аноним 20/06/18 Срд 22:16:21  1214104
>>1214102
в европе много вузов бесплатно, еще и тебе будут платить выше средней по россии
Аноним 20/06/18 Срд 22:18:54  1214105
>>1214104
У меня сейчас сознание сделало сальто назад.
Что, прости? Это касается только Ph.D?
Аноним 20/06/18 Срд 22:23:23  1214111
>>1214104
По подробнее пжлст
Аноним 20/06/18 Срд 22:27:34  1214114
>>1214111
https://habr.com/post/151643/

https://habr.com/post/151090/ ниже в комментарии и тд
Аноним 20/06/18 Срд 22:30:07  1214117
>>1214105
>>1214111
-> >> 1209966
Аноним 21/06/18 Чтв 06:27:22  1214358
>>1214099
>https://habr.com/post/310776/
Ну из физиков-то чего бы не вкатиться в эту парашу
Аноним 21/06/18 Чтв 09:06:07  1214397
>>1214092
>без задней мысли получить профильное образование, PhD
И сколько лет это займёт? Твои нейроночки уже неактуальны к тому времени будут.
Аноним 21/06/18 Чтв 09:40:36  1214405
>>1214397
Это у веб-макак все становится неактуальным через год, но куда вкатывальщикам понимать такое.
Аноним 21/06/18 Чтв 11:32:46  1214436
ПхД требует же каких-то телодвижений, умения рычать и двигать тазом в научной среде. Это похоже на то, чтобы найти тяночку.
Аноним 21/06/18 Чтв 11:37:45  1214438
>>1214436
ПхД похоже на то, чтобы быть тяночкой и двигать тазом под научным руководителем, который за старания может поделиться тобой с друзьями.
Аноним 21/06/18 Чтв 17:46:36  1214628
Ill Nino - God [...].webm (904Кб, 678x676, 00:00:50)
Сегодняшний ИИ - это БД и механизмы её обработки и создания.
Аноним 21/06/18 Чтв 18:36:14  1214679
>>1214628
Любой интеллект это БД и механизмы её обработки и создания.
Аноним 21/06/18 Чтв 18:43:21  1214684
>>1214679
нет
Аноним 21/06/18 Чтв 18:56:39  1214690
>>1214679
Почему не споришь с Моим Величеством, не понял? :(
Аноним 22/06/18 Птн 16:37:14  1215307
>>1214679
Да, память это да
Аноним 22/06/18 Птн 19:41:18  1215409
>>1214679
Толко большинство этого не понимают. А может, и ты не обращал на это внимания, пока не прочитал пост.
Аноним 22/06/18 Птн 23:37:58  1215517
>>1214679
>это БД
Кокой БД и как там хранится информация?
Аноним 22/06/18 Птн 23:40:03  1215520
Тэкс бля, анончик. Написал я тут свою первую нейросеть, которая должна правильно считать XOR. На вход подается два числа - 0 и 1 в разных комбинациях. Есть два скрытых нейрона и один выходной. На нем собсна должен быть либо 0, либо 1. Так вот, по итогам обучения, сеть начинает правильно считать только один ответ. Например при подаче 01 и 10 он правильно выдает ответ 1, но на оба других сета он так же выдает 1. И считает ошибку в 50%. На этом он прекращает обучение. Его это устраивает епту а меня нет. Это значит, что я даун и неправильно сеть написал или я чего то еще не знаю? Я добавил bias, но ничего не изменилось. Изначально везде значения рандомные от -5 до 5.
Аноним 22/06/18 Птн 23:43:52  1215524
>>1215520
Нейронов нафигачь побольше, начальные значения в интервале +-0.01, bias нужен обязательно. Ну и судя по твоему посту вероятность того, что ты набажил в градиентном спуске 95%.
Аноним 23/06/18 Суб 01:30:03  1215559
>>1215517
Не важно как, по разному, описана сама суть сегодняшнего "ИИ".

Фуфуло это, а не ИИ.
Аноним 23/06/18 Суб 01:44:19  1215562
Треду нужна матановая капча от спама школьников-гуманитариев.
Аноним 23/06/18 Суб 01:57:25  1215565
>>1215562
Какой-нибудь вольфрам такую капчу легко сожрёт.
Аноним 23/06/18 Суб 03:27:35  1215586
>>1215565
Они не знают про вольфрам, и не знают как там ввести эти смешные закорючки.
Аноним 23/06/18 Суб 05:40:53  1215598
15274767292080.jpg (83Кб, 977x1024)
Почему в этом вашем диплернинхе не в моде иерархический софтмакс? Он же снижает число настраиваемых параметров нейроночки до его логарифма. В word2vec это замутили, и получили нейроночки, которые на процессоре могут строить модели векторных представлений текста из корпусов в миллиарды слов. Без всяких видюх. Автор, что характерно, внешне абсолютно не похож на хипстера. Я уже реально верю, что хипстерство - 100% детектор дегрода.
Аноним 23/06/18 Суб 12:56:11  1215706
>>1215586
Пучкнул с этого деда.
Аноним 23/06/18 Суб 14:12:19  1215762
>>1215524
Я сделал всё таки, проблема была в том что я долбоеб я ошибся в формуле дельты выходного нейрона.
Аноним 23/06/18 Суб 15:00:56  1215786
Как создать нейронку которая будет узнавать наиболее частые данные? C++, вектор, сортировка?
Аноним 23/06/18 Суб 15:28:35  1215800
>>1215786
Какой результат ты хочешь?
Аноним 23/06/18 Суб 15:47:06  1215810
>>1215800
У меня есть программа которая коллекционирует данные в текстовый файл. Нужно эти данные анализировать не самостоятельно. Общие, наиболее частые из этого файла. Как это делается правильно? Файл в вектор, вектор сортировать, отправить в следующий нейрон?
Аноним 23/06/18 Суб 15:50:04  1215813
>>1215810
Пиздец, вместо того, чтобы учить анализ данных сразу МАШОБЧИК НЕЙРОНОЧКИ ИИ БЛОКЧЕЙН ДИПЛЁРНИНХ.
Аноним 23/06/18 Суб 15:51:22  1215815
>>1215810
Анализировать чтобы получить какой результат? Если тебе нужно просто вывести статистику на моду, медиану и среднее значение встречающихся данных то это делается простыми функциями какого-то нумпая изкоробки.
Аноним 23/06/18 Суб 15:58:44  1215820
>>1215813
>>1215815
Не, я просто думаю на счёт вкатывания в тензорфлоу или свое сделать. Тензорфлоу с плюсами не работает. Смогу ли подобие тензорфлоу сделать?
Аноним 23/06/18 Суб 16:14:38  1215837
>>1215820
Слесарьфлоу это огромная библиотека в которую вкладывается Корпорация Зла. Для С++ есть Caffe. Еще есть сишный Torch у которого врапперы под кучу языков, включая плюсы. Но судя по тому что ты несешь, тебе стоит почитать пару книг из шапки чтобы отбилось желание "вкатываться в тензорфлоу" и "вектор сортировать, отправить в следующий нейрон". Нейроночки это не хипстерский фреймворк для вебмакак, тут нужно глубокое знание матана и годы изучения матчасти.
Аноним 23/06/18 Суб 16:22:55  1215842
Посоны, подскажите модели для сегментации, хочу пробнуть в darknet но не пойму структуры сети.
Аноним 23/06/18 Суб 16:31:42  1215846
Пиздец, бля. Захотел вкатиться в слак попендатасайнс. Полмесяца назад заявку отправил, заигнорили.
Аноним 23/06/18 Суб 16:53:59  1215857
>>1215846
Просто ты нам не нравишься.
Аноним 23/06/18 Суб 17:00:37  1215858
>>1215846
Два предложения не смог сказать без мата и быдлослога. Прирожденный датасаентист.
Аноним 23/06/18 Суб 17:06:17  1215860
15166655210520.jpg (217Кб, 1024x768)
Поздно ли пытаться стать дата саентистом/инженером в 24 года?
Аноним 23/06/18 Суб 17:08:51  1215862
>>1215860
Конечно, иди нахуй, нас тут и так много.
Аноним 23/06/18 Суб 17:10:17  1215864
>>1215858
Их три, уебок.
Аноним 23/06/18 Суб 17:11:27  1215865
15175070893760.jpg (23Кб, 343x360)
>>1215862
Поцоны говорят, что дефицит.
Аноним 23/06/18 Суб 17:12:46  1215867
>>1215864
Ну если три, то все ок.
Аноним 23/06/18 Суб 17:19:46  1215871
>>1215865
Пиздят.
Аноним 23/06/18 Суб 17:23:58  1215873
>>1215871
Ну ниче, будешь меньше получать. Мне норм - все лучше 10 тыс. на завчике.
Аноним 23/06/18 Суб 18:00:49  1215892
Нейроночки на фрилансе это есть?
Аноним 23/06/18 Суб 18:09:33  1215895
Сойбои, что такое пэйперсы?
Аноним 23/06/18 Суб 18:14:38  1215898
Подскажите,плиз, если какие-нибудь решения для машин лернинга на Java, что бы это можно было реализовать, например для мониторинга логов в крупном EE приложении?
Аноним 23/06/18 Суб 18:17:37  1215902
Осторожно! Эта сторона треда под обстрелом.
Аноним 23/06/18 Суб 19:51:23  1215945

>>1215895
> Сойбои, что такое пэйперсы?
Статьи.
>>1215898
> Подскажите,плиз, если какие-нибудь решения для машин лернинга на Java
Слесарьплов js.
Аноним 23/06/18 Суб 20:14:13  1215956
>>1215786
Как создать птицу, которая будет помогать наиболее чистые кастрюли? Ворота, автомобиль, готовка?
Аноним 23/06/18 Суб 20:18:28  1215958
Посоны, а чо с фрилансом в данной области, он вообще жив?
Аноним 23/06/18 Суб 20:23:47  1215960
>>1215958
Удалось найти подработку-проект по распознаванию номеров за 50к
Аноним 23/06/18 Суб 20:26:35  1215962
>>1215960
На каких площадках искал, апворк или что-то русское? Надеюсь, ты меня не просто траллишь
Аноним 23/06/18 Суб 20:35:53  1215968
>>1215960
> распознавание номеров
Семестровый проект какого-то тупого студента.
Аноним 23/06/18 Суб 22:18:02  1215997
>>1215945
>Слесарьплов js.
я не знаю аших локальных мемов, переведите, пожалуйста
Аноним 23/06/18 Суб 22:29:04  1216002
Untitled.png (890Кб, 1100x613)
Почему не рекогнайзит?
Аноним 23/06/18 Суб 22:30:25  1216003
>>1216002
Тут проблема не в базе. Что не так с алгоритмом?
Аноним 23/06/18 Суб 22:30:57  1216004
>>1216002
Потому что ущербная модель. Для таких четких снимков и ракурса можно хоть хаар-каскад натренировать.
Аноним 23/06/18 Суб 22:37:45  1216013
Антоны, а в современных сетях по распознаванию изображений сейчас все так и строится на количестве слоев?
Есть где-нибудь работы, где бы пытались повторить особенности человеческого глаза или пальцев, у которых в центре чувствительность больше?
Обычные сверточные и не только сетки я писать умею, интересно бы и такое ввести и посмотреть, насколько точнее сумеет распознавать.
Аноним 23/06/18 Суб 22:38:56  1216015
>>1216013
attention is all you need
Аноним 23/06/18 Суб 22:40:19  1216019
>>1216013
Машиной Больцмана повторили мозги котиков.
Аноним 23/06/18 Суб 22:40:23  1216020
>>1216015
Cпасибо, почитаю.
Аноним 23/06/18 Суб 23:07:28  1216049
>>1216020
Там про последовательности, правда. Но в изображениях тоже много где применяется, ищи по слову attention.
Аноним 23/06/18 Суб 23:28:16  1216057
Аноны, хочу перекатиться из нейронок в практический анализ данных. Искать там всякие неочевидные связи и инсайты. Что можно почитать по теме? Может какие-то годные курсы на курсере есть?
Аноним 23/06/18 Суб 23:36:07  1216061
>>1216057
"Наглядная статистика. Используем R" попробуй.
Аноним 24/06/18 Вск 00:00:11  1216077
>>1216061
А весь датасайнс на R делается? На питоне/pandas не смогу вкатиться?
Аноним 24/06/18 Вск 05:39:32  1216153
>>1216077
pandas вроде не особо популярная приблуда, хотя хорошая, если надрочиться с индексами и выборками. На питоне все нейроночки, без них никуда. На р больше статистики всякие работают, еще у них популярна эзотерика вроде САС. Смотря где ты будешь работать, может понадобиться что угодно из этого.
Аноним 24/06/18 Вск 07:43:42  1216168
>>1216153
> На питоне все нейроночки, без них никуда. На р больше статистики всякие работают,
Как там в 2010? На R давно есть и слесарьплов и керас. + куча всего, чего никогда не было, нет и не будет на Пистоне.
Аноним 24/06/18 Вск 12:13:27  1216224
>>1216077
Расценивай это как справочный материал в первую очередь, потом уже можно думать о механизмах и актуальности. А так хоть будешь знать, о чём гуглить и что спрашивать.
Аноним 24/06/18 Вск 12:33:39  1216235
>2.jpg
В чом смысол второй картинки
Аноним 24/06/18 Вск 13:00:02  1216251
>>1216235
Предполагаю, что где-то здесь
> papers или статьи
Аноним 24/06/18 Вск 13:13:56  1216266
>>1216251
да я просто новенький, типа дип лёрнинг не нужно юзать в таких задачах или что?
Аноним 24/06/18 Вск 13:27:34  1216278
1406231887396.gif (3598Кб, 320x240)
>>1216251
Аноним 24/06/18 Вск 13:32:13  1216281
>>1216278
ну объясните, ну чтооо :C
Аноним 24/06/18 Вск 13:49:17  1216301
laugh.jpg (161Кб, 800x800)
>>1216281
>объясните
Аноним 24/06/18 Вск 14:33:27  1216348
>>1216301
бяки :C
Аноним 24/06/18 Вск 14:48:51  1216369
Насколько сложно нюфагу-питонисту вкатиться в нейрончики?
Аноним 24/06/18 Вск 14:49:59  1216372
>>1216369
Неимоверно. Даже не пытайся, оно тебя сожрёт.
Аноним 24/06/18 Вск 14:54:06  1216374
>>1216372
Спасибо. Я правильно понимаю, что машинное обучение и нейронные сети предназначены для решения как практических, так и теоретических проблем?
Аноним 24/06/18 Вск 15:02:06  1216377
>>1216369
ты уже все знаешь
Аноним 24/06/18 Вск 16:43:18  1216439
>>1216369
Некоторые только ради нейроночек в питон и вкатываются.
Аноним 24/06/18 Вск 16:45:07  1216442
Есть ли где-нибудь в сети курсы математики для вкатывания в нейроночки? Попробовал посмотреть один туториал по ним, и знатно так прихуел от того, что не понимаю тамошнего уровня матана
Аноним 24/06/18 Вск 16:54:01  1216447
>>1216439
Двачну, только ради нейронок выучил пидорский бейсик
Аноним 24/06/18 Вск 17:05:43  1216458
>>1216442
На курсере всё есть.
Аноним 24/06/18 Вск 17:30:56  1216481
Посаны, поясните зачем столько сетей там, если хватило бы только одной для оценки следующего возможного оптимального хода из всех возможных ходов, выбранный по максимальному значению выхода сети? Или я чет не понимаю? Написал для русских шашек MCTS, хочется влепить туда нейросеть для проверки концепции.

https://www.youtube.com/watch?v=HP9S1Az8Tuw
Аноним 24/06/18 Вск 18:54:26  1216569
>>1216481
Ты не понял. Оно само с собой играет.
Аноним 24/06/18 Вск 19:09:04  1216589
>>1216569
Это понятно. Потом мы тренируем сетку теми партиями, в которых компьютер ходил случайно или по максимуму дерева с оценкой от нейросети. Непонятна вторая сеть с вероятностью поставить пешку в конкретном положении.
Аноним 24/06/18 Вск 20:39:33  1216651
>>1216481
Вопрос сродни "зачем сороконожке столько ног когда можно вообще без ног как червяк ползать?" Да, ты чет не понимаешь (ничего). Не смотри никакие видосы, а читай основы (Саттона), потом ботай статьи, начиная с самых первых про альфаго. РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.
Аноним 24/06/18 Вск 21:12:52  1216677
>>1216651
Когда я буду понимать алгоритм в общих чертах, то и книга легче пониматься будет. Первая модель гугловская вообще была не пойми как придумана с избыточностью данных, но она работала. Тут дело больше в опыте.
Аноним 25/06/18 Пнд 02:34:10  1216921
Анон, вот смотри. Есть два продожительных непериодичных квантованных сигнала состояния системы, один - когда на систему воздействовали определенным воздействием, второй - когда на систему воздействовали другими.
Я надеюсь, что в первом случае можно найти какие-то паттерны или сигнатуры. Сложность в том, что сигналы непериодичны и я не знаю длинну этих паттернов, которые я ищу.
До этого была похожая проблема, но там сигнал периодичный и все было просто - беру количество семплов, которые образуют период - это мои фичи, разделяю сигнал на (продолжительность/кол-во_фич) - это мои наблюдения. Если бы сигнал был непериодичный, но с известной длинной паттернов - то просто бы пустил скользящее окно известного размера. Но в моём случае сигнал не периодичный и размер паттернов я тоже не знаю.
Как правильно поступать в таких случаях?
Аноним 25/06/18 Пнд 03:45:45  1216929
>>1216921
Теоретически подходят рекуррентные нейроночки, но на практике неочевидную на глаз закономерность они не найдут. Я бы сверточную сеть пустил по фиксированному окну. Просто пробуй разные размеры.
Аноним 25/06/18 Пнд 04:19:53  1216935
>>1216651
> РЛ это передний край науки, на понимание уйдет 1-2 года, если ты уже спец по нейроночкам.
Че? Q-learning итп РЛ прост как 3 копейки, если знаком с уравнениями Хебба. Диплернинх во все это добавляет только сложность входных сигналов, вместо простых векторов это могут быть тензоры, соответствующие динамическим последовательностям кадров игры итд.
Аноним 25/06/18 Пнд 04:37:42  1216938
15273662841820.png (26Кб, 644x800)
>>1216921
Нейроночкодебилов с сойбойским диплернинхом не слушай. Я похожей хуйней занимался с целью анализа записи электрокожной активности. Короче, суть такова. Делишь сигнал окном подходящего размера, внутри окна считаешь минимум, максимум, стандартное отклонение, число пиков, и некоторые характеристики площади под кривой (area under curve), типа интегрирования. Алгоритм анализа EDA у меня был под матлаб, поэтому пришлось в нем корячиться с окном и фичами, могу код скинуть завтра, если интересно. Далее из фич собираешь векторы (вектор-строка - набор фич сигнала в пределах окна), из векторов собираешь датасет, помечаешь наблюдения и классифицируешь чем угодно, хоть svm. Если пометить нечем, то unsupervized что-нибудь юзаешь, например карты Кохонена.
Аноним 25/06/18 Пнд 04:42:13  1216940
>>1216938
>электрокожной активности.
Мурашки генерил?
Аноним 25/06/18 Пнд 04:42:50  1216941
>>1216938
Спасибо, чувак! Мне твой метод больше нравится, потому что он "наукоёмче" чем просто взять нейроночку и скормить её данные. В конце концов, мне не для реального применения, статью писать же.
Алгоритм не надо, я думаю его на гейтоне неализовать будет быстрее, чем разбираться с матлаб-кодом.
Аноним 25/06/18 Пнд 05:03:50  1216949
>>1216940
> Мурашки генерил?
Нет, там проводимость кожи в микросименсах. Проблема с этим сигналом в том, что у него нет внятных спектральных характеристик чтобы просто ебануть фастфурье преобразование. Просто известно, что что-то происходит в течение 5 сек после внешнего воздействия с фазической компонентой сигнала и в течение 20 сек с тонической. И это что-то как-то связано с состояниями ЦНС. Ни внятных паттернов сигнала, нихуя. Но вот наборы фич компонент сигнала таки можно классифицировать, правда точность 60-70%, но если использовать конфьюжнматрицу, то нормально. А со всякими реккурентными нейроночками даже не знаю, сколько бы ебался и был бы вообще результат. Вообще, диплернинх лучше классических подходов только на неграх и котиках, для нормальных задач анализа он и не нужон.
Аноним 25/06/18 Пнд 05:37:06  1216951
>>1216949
А можно электрическую щекоталку скрафтить?
Аноним 25/06/18 Пнд 07:07:23  1216971
>>1215598
Софтмакс гасит градиенты
Аноним 25/06/18 Пнд 07:15:46  1216974
Привет, нейрач, у меня есть определенная проблема.

Попробовал запилить transfer learning, в качестве датасета - CIFAR-10, сверточная часть - NasNetMobile...

Сверху приделываю один полносвязный слой и получается какая-то хуйня: оно на может выдать точность выше 13,6% на валидации!

На нем же обычная сетка слоев из 4 обучается до точности в 75%!

ЯННП! ЧЯДНТ?
Аноним 25/06/18 Пнд 07:24:14  1216977
>>1216974
Набажил.
Аноним 25/06/18 Пнд 08:20:48  1216997
>>1216974
Разобрался, сам тупанул с количеством нейронов в слоях.
Аноним 25/06/18 Пнд 09:06:54  1217010
Сертификат окончания специализации мл+питон на яндексе рили помогает с трудоустройством или это обман чтобы набрать шекели? Не лучше ли пройти вашингтонский курс и будет ли он более полезен?
Аноним 25/06/18 Пнд 09:53:25  1217039
>>1217010
В плане бумажек они оба бесполезны. Не вздумай класть их в резюме - все знают что это курсы для даунов.
Аноним 25/06/18 Пнд 10:02:09  1217043
>>1217039
А как стартовать тогда? Освоить Энга и сразу на кегель собирать портфолио, попутно читая литературу?
Аноним 25/06/18 Пнд 13:47:06  1217135
>>1214684

одушевленного существа ответ
Аноним 25/06/18 Пнд 14:05:26  1217154
>>1217043
Двачую вопрос.
Аноним 25/06/18 Пнд 14:32:07  1217169
>>1216951
Без задней мысли, видел такие хуйни в сауне, довольно прикольные ощущения.
Аноним 26/06/18 Втр 01:15:39  1217516
Анончик, я вот не понимаю и не могу найти информацию. Как генетические алгоритмы связаны с нейросетями? Правильно ли я понимаю, что изначально они никак с нейросетями связаны не были. Но когда те стали популярны, то оно там как то начало связываться? Или что бля?
Аноним 26/06/18 Втр 04:42:33  1217531
>>1217516
> Как генетические алгоритмы связаны с нейросетями?
Никак. Однако, ничто не мешает делать из них гибридные модели, в которых параметры или гиперпараметры одного алгоритма настраиваются другим.
Аноним 26/06/18 Втр 08:34:45  1217550
>>1209084 (OP)
Посоны, объясните за TimeDistributed в keras:

import keras
from keras.models import Model
from keras.layers import Convolution2D, MaxPooling2D, ZeroPadding2D, GlobalAveragePooling2D
from keras.layers import Dropout, Flatten, Dense, Input
from keras.layers import TimeDistributed

i = Input(shape=(10, 224, 224, 3))
x = TimeDistributed(Convolution2D(64, (3, 3)))(i)
x = TimeDistributed(GlobalAveragePooling2D())(x)
x = TimeDistributed(Dense(128))(x)
m = Model(inputs=i, outputs=x)

opt = keras.optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)

m.compile(loss='mean_squared_error', optimizer=opt)

m.summary() #TimeDistributed "спрятал" слои

i = Input(shape=(224, 224, 3))
x = Convolution2D(64, (3, 3))(i)
x = GlobalAveragePooling2D()(x)
x = Dense(128)(x)
m = Model(inputs=i, outputs=x)

itd = Input(shape=(10, 224, 224, 3))
xtd = TimeDistributed(m)(itd)
mtd = Model(inputs=itd, outputs=xtd)
mtd.compile(loss='mean_squared_error', optimizer=opt)

mtd.summary() #TimeDistributed "спрятал" модель m

В результате выполнения примера я вижу:

Using TensorFlow backend.
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_1 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_1 (TimeDist (None, 10, 222, 222, 64) 1792
_________________________________________________________________
time_distributed_2 (TimeDist (None, 10, 64) 0
_________________________________________________________________
time_distributed_3 (TimeDist (None, 10, 128) 8320
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
input_3 (InputLayer) (None, 10, 224, 224, 3) 0
_________________________________________________________________
time_distributed_4 (TimeDist (None, 10, 128) 10112
=================================================================
Total params: 10,112
Trainable params: 10,112
Non-trainable params: 0
_________________________________________________________________

Почему эта ебанина "попрятала" внутренности?

Будет ли работать mtd?
Аноним 26/06/18 Втр 19:33:49  1217783
опенсв 2 и 3 версии одновременно не встают на компьютере. Почему? Проблема в системных вариейблах. Прописываешь 2 версию - 3 вылетает, прописываешь 3 - 2 вылетает. Есть какой-нибудь инсталлятор который сделает?
Аноним 26/06/18 Втр 19:48:23  1217799
>>1217783
Гугли virtual environment под свой язык.
Аноним 26/06/18 Втр 19:51:50  1217803
>>1217783
Аноним 26/06/18 Втр 23:33:03  1217992
Мейлрушный MLBootCamp стартовал. В этом году какая-то анонимизированная хрень, я скипну. Если кому макбук надо, пробуйте.
Аноним 27/06/18 Срд 03:01:34  1218086
Работаю с объемным pandas.DataFrame и нередко скрипт вылетает с MemoryError (да, питон 64 бит) во время гридсерча с n_jobs=-1. Как бороться? На стековерфлоу написано что проблема переполнения памяти решается использованием баз данных, но в первых найденых примерах на гитхабе из базы вытаскивается все тот же DataFrame.
Аноним 27/06/18 Срд 03:28:05  1218090
>>1218086
Памяти купи.
Аноним 27/06/18 Срд 06:08:11  1218094
>>1218090
> Памяти купи.
У хипстеров от машобчика с производителями памяти гешефт какой-то? Тоже встречался с алгоритмом, не хватало памяти, там есть вариант работы с датасетами на диске. Сделал по примеру в документации, и что? Все равно всю оперативку сожрало и вывалилось с ошибкой "мемори хутю утютю", только не сразу, а спустя минут 20 яростного потрясения винтом. Вредительство самое настоящее.
Аноним 27/06/18 Срд 08:51:33  1218112
>>1218090
200 гигов. Какие еще варианты?
Аноним 27/06/18 Срд 11:37:22  1218192
>>1218112
Это у тебя уже бигдата какая-то, используй соответствующие решения.
Аноним 27/06/18 Срд 12:40:47  1218222
>>1218094
>по примеру в документации
Пиши свой код. А то опять кто-то говна в жопу залил. Ещё небось сидишь на "4 ядра 4 гига для учёбы"
Аноним 27/06/18 Срд 12:49:19  1218227
>>1218192
>200 гигов
>Биг дата
Лол
Аноним 27/06/18 Срд 13:11:08  1218238
>>1218227
Ещё один. Бигдата это просто методы работы с тем, что не вылезает в оперативу. И эти методы начинаются ровно там, где оператива заканчивается. Хоть с 2 гигов. Школотронствуя в стиле
> <10050006000гиг
> бигдата
Ты показываешь ровно одно - непонимание термина.
Аноним 27/06/18 Срд 13:18:13  1218245
Опенсв библиотека иксфичес2д.хпп не поднимается. Нужен серф из нее. Что делать?
Аноним 27/06/18 Срд 15:45:34  1218322
Препод унижает меня за использование lbfgs, говорит что он для нубов и нужен дедовский sgd, что мне ему ответить?
Аноним 27/06/18 Срд 16:06:54  1218337
>>1218322
Ты мейроночки им тренируешь? Тогда ответь "да, сэр, так точно, сэр". В любом случае нужно обосновать почему ты используешь его.
Аноним 27/06/18 Срд 16:18:01  1218347
>>1218337
Мое обоснование - датасет небольшой, для гридсерча можно быстренько погонять lbfgs, а если так нужен sgd, то использовать уже с подобранными гиперпараметрами.
https://www.youtube.com/watch?v=8LccBQaoM3Y
Аноним 28/06/18 Чтв 01:50:14  1218638
Untitled.png (4Кб, 727x455)
Что это такое?
Аноним 28/06/18 Чтв 01:51:40  1218639
>>1218638
В сиауте до стрелки - массив, после стрелки - резалт. Резал - что такое?
Аноним 28/06/18 Чтв 07:13:18  1218663
>>1218347
Ну какбе применимость (l)bfgs зависит от количества параметров, а не от размера датасета.

Хочешь лучше, чем просто градиентный спуск, - есть методы сопряженных направлений...

Хотя и они на больших задачах жирноваты.
Аноним 28/06/18 Чтв 08:05:20  1218677
>>1218638
Результат работы XOR с двумя переменными https://en.wikipedia.org/wiki/Exclusive_or .
Аноним 28/06/18 Чтв 16:10:25  1218895
Так можно быстренький вопрос
Достаточно для того чтоб начать вкатываться знаний за первый курс мехмата нгу ?
http://mmf.nsu.ru/education/plan/1/2017-2018
Аноним 28/06/18 Чтв 16:16:38  1218897
>>1218895
В шапке, блять, написано. На первом курсе матан, скорее всего, одной переменной
Аноним 28/06/18 Чтв 19:22:14  1219044
Безымянный.png (24Кб, 2007x96)
И что из этого взять нубу для распознавания образов?
Аноним 28/06/18 Чтв 19:36:43  1219058
>>1219044
Keras. Может быть OpenCV, зависит от задачи.
Аноним 28/06/18 Чтв 21:04:56  1219120
>>1217516
Очень просто, если что-то очень сложное в сетке намутили, для чего ещё нет алгоритма обучения, то тогда используют генетический алгоритм.
Аноним 28/06/18 Чтв 21:06:49  1219123
>>1219044
Всмысле распознавания образов? Слишком расплывчатое понятие. Картинки классифицировать на керасе ессесно, самое простое для нуфага.
Аноним 28/06/18 Чтв 21:10:12  1219128
Как можно монетизировать свой дрочь в этой сфере? Я имею ввиду естественно не конкурсы и работу, а именно что-то, что может заменить человека в интернете и наёбывать на рекламу/контент. Хочу взяться за сложное задание чтоб чекнуть, могу ли.
Аноним 28/06/18 Чтв 21:20:44  1219134
>>1219128
Я думаю, что если можно, то тебе тут никто не скажет как.
Аноним 28/06/18 Чтв 21:22:58  1219137
>>1219134
Я ведь не спрашиваю что можно легко и как это сделать. Я спрашиваю про то, где анон не справился бы, но знает где.
Аноним 28/06/18 Чтв 21:48:14  1219155
>>1219137
Создай ИИ, который будет играть за тебя на бирже и выигрывать. Удачи.
Аноним 28/06/18 Чтв 21:52:41  1219159
>>1219155
Уже доказано, что это невозможно. А для закупок акций с отложенной выплатой и перевода средств в другую валюту не нужно ИИ.
Аноним 28/06/18 Чтв 21:56:28  1219162
>>1219128
Вроде были сервисы где платили центы за распознавание капчи. Хотя видеокарта наверно больше электричества сожрет как. Лучше уж майнинг тогда.
Аноним 28/06/18 Чтв 22:05:47  1219168
>>1219128
Нейросети анона по размеру с нейросеть насекомого в лучшем случае. Ищи в той нише, где может нафрилансить таракан.
Аноним 28/06/18 Чтв 22:20:32  1219176
>>1219168
>Ищи в той нише, где может нафрилансить таракан.
Бляяяя, чот проорал.
Аноним 28/06/18 Чтв 22:59:15  1219203
>>1219162
Всё упирается в оптимизацию в таком случае. Не технология.
Аноним 28/06/18 Чтв 23:03:53  1219208
>>1219168
Дроч на статистику никгда не давал больше пары процентов. Я видел как работали сети с десятком эпох, так что не надо.
Аноним 29/06/18 Птн 01:08:07  1219266
>>1219128
НЕ СМОЖЕШЬ.
Аноним 29/06/18 Птн 02:10:46  1219272
>>1219266
Я попытаюсь.
Аноним 29/06/18 Птн 05:17:19  1219290
>>1219128
Научи openai gym/universe чему-то интереснее арканоида. Теоретически эта ебань может управлять хоть чем в браузере, если есть ощутимый результат её работы в очках, баллах итд. Можно посмотреть как оно справится со ставками на спорт или бинарными опционами.
Аноним 29/06/18 Птн 07:23:31  1219308
>>1219128
нейросеть, имитирующая поведение человека в интернете при серфинге
и сразу же
нейросеть, отличающая серфинг бота от человека
Аноним 29/06/18 Птн 08:39:08  1219327
>>1219308
И как это оно должно у него монетизироваться?
Аноним 29/06/18 Птн 08:45:20  1219330
>>1219327
Даже лень объяснять
Аноним 29/06/18 Птн 09:04:22  1219337
>>1219308
Збсь идея!

>>1219327
Автоматический слив рекламных бюджетов или наоборот - накрутка рейтингов всяких там блохеров.
Аноним 29/06/18 Птн 10:50:34  1219393
>>1219337
>Автоматический слив рекламных бюджетов
Всмысле?
Аноним 29/06/18 Птн 11:56:25  1219421
Какая же крутая эта штука дип лёрнинг, пока только вкатываюсь, но уже предвкушаю....!!
Аноним 29/06/18 Птн 12:03:05  1219429
>>1219421
> Какая же крутая эта штука дип лёрнинг
Ну да, можно негров распознавать.
Аноним 29/06/18 Птн 13:23:22  1219499
21e17d990a4c4cd[...].jpg (447Кб, 1920x1080)
Есть бот для доты на нейросети, а есть ли такие боты для каэсика или других шутеров-дрочилен?
Аноним 29/06/18 Птн 19:56:41  1219769
Анончик. У меня вот вопрос. Пытаюсь реализовать обучение машинки в юнити, едущей по трассе. Изначально была идея подбирать нейросеть используя генетический алгоритм. В общем я все это сделал, но мне кажется это не очень эффективно. Каким то другим методом можно натренировать машинку ездить по трассе? Только не копируя поведение машинки, управляемой мной. Я пытаюсь нагуглить, но не очень понимаю. Некоторые пишут про обратное распространение, но ведь в нем я сам задам как он должен повернуть в зависимости от инпута (три датчика расстояния перед машинкой). Но ведь это не то, к тому же я не хочу чтобы машинка при решении повернуть например влево, "крутила руль до конца влево". Сейчас она имеет два отпута. Один показывает вероятность поворота влево, другой вправо. Я нахожу разницу между ними - это и будет сколько и куда повернуть. Так вот ебать как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?
Аноним 29/06/18 Птн 20:27:24  1219781
Весь машобчик кроме нейроночек мертв?
Аноним 29/06/18 Птн 20:51:27  1219802
>>1219769
Обучение с подкреплением этим занимается. Но судя по твоему посту у тебя нет шансов заставить его работать.
Аноним 29/06/18 Птн 20:51:51  1219803
>>1219781
Да.
Аноним 29/06/18 Птн 21:29:54  1219822
>>1219769
>как нахуй по другому можно натренировать машинку, кроме как через генетический алгоритм и копирование поведения человека?
Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя? Такое возможно только есль у тебя нейросетть принимает гиперпараметры твоей игры, а не сама в ней существует.
Аноним 29/06/18 Птн 22:17:27  1219857
image.png (1536Кб, 900x825)
>>1211423
Аноним 29/06/18 Птн 22:21:08  1219859
>>1219857
>кросс-валидация
>не отложенная тестовая выборка
Аноним 29/06/18 Птн 23:04:51  1219906
>>1209383
Берёшь первый, умножаешь на второй. Только не перепутай
Аноним 30/06/18 Суб 06:46:14  1219978
>>1219781
> Весь машобчик кроме нейроночек мертв?
Про него просто хипстеры не знают.
>>1219822
> Никак. Это невозможно. Сам то поимаешь что просишь? Ты хочешь чтобы машинка каталась без эмпирического опыта или учителя?
А ведь ещё в нулевых гишпанцы подобное реализовывали на нечетких контроллерах. У них даже машинка была не нарисованная а реальная и софт для компиляции нечетких моделей в формат плисов на яве доступен свободно, xfuzzy. Фишка в том, чтобы расстояние до препятствия задать в виде нечеткого значения, исходя из которого можно правилом регулировать угол поворота колёс и скорость. Если при этом общее направление будет вперёд, то такая машинка вполне может ездить по круговой трассе, даже если перед ней расставлять новые препятствия. И никакого сойбойства с нейроночками, плисы и датчики расстояния до препятствия. Но кому это надо, на этом не заработаешь продажей видюх.
Аноним 30/06/18 Суб 10:34:21  1220000
В чем суть нейроморфных процессоров? Там архитектура другая или как?
Аноним 30/06/18 Суб 10:42:30  1220003
>>1220000
Аппаратная реализация соотв. алгоритмов.
Аноним 30/06/18 Суб 11:08:25  1220015
>>1220003
А можно поподробнее?
Аноним 30/06/18 Суб 11:19:46  1220020
1.ppm (346Кб, 850x665)
2.jpg (17Кб, 485x296)
>>1220015
Ну там логические элементы имитируют нейроны и связи между ними. Что-то уровня сотни тысяч адалайнов пикрелейтед на одном чипе. Таких архитектур куча была разработана, даже на оптронике и оптических элементах. Смысла особого в них нет, т.к. все то же самое при желании можно сделать на ПЛИСах, что в разы дешевле, чем запускать целую аппаратную платформу, которая еще хуй знает как и когда окупится и окупится ли вообще. Алсо, даже и ПЛИСы это перебор, т.к. все работает на простых видюхах. Короче, технически это мб и интересно, но практической пользы никакой. Если интел и правда что-то такое раскрутит, ну респект им, че.
Аноним 30/06/18 Суб 18:07:49  1220153
1031px-loihicor[...].png (122Кб, 1031x900)
neurosynapticco[...].png (499Кб, 865x360)
>>1220020
Все понял. Немного странно, что один процессор за столько нейронов отвечает, я думал, что каждому нейрону свой, как там памяти вообще хватает
А еще, удивлен подходу Интелов, они даже в 1-м процессоре аж вот так решили сделать, зачем, чтобы облегчить вычисления, разве так станет быстрее?
Аноним 30/06/18 Суб 19:49:43  1220237
Не получается симейком опенсв собрать под новую вижуал студио. Что делаю не так? Симейк делает нормально, проект в студии собирается с тысячами ошибок.
Аноним 30/06/18 Суб 19:52:09  1220242
>>1220237
Ошибка в том что ты используешь винду и студию. Перейди на инструмены предназначенные для программирования.
Аноним 30/06/18 Суб 20:15:58  1220274
>>1219499
на последнем датафесте рассказывали про хедшоты нейронками
https://youtu.be/YSQqHlQwQDY
хотя и не совсем то
Аноним 30/06/18 Суб 20:21:16  1220280
>>1219290
а еще МММ! и другие финансовые пирамиды!!! ХОЧУ, ЧТОБЫ НЕЙРОНКА ПРЕДСКАЗЫВАЛА НЕПРЕДСКАЗЫВАЕМЫЕ ВРЕМЕННЫЕ РЯДЫ И СТАТЬ БАХАТЫМ, А ТО НЕГРОВ ПРЕДСКАЗЫВАЕТ, РАК ПРЕДСКАЗЫВАЕТ, ЛЮДЕЙ НА ПЕРЕХОДАХ ПРЕДСКАЗЫВАЕТ И СБИВАЕТ, А НАСТОЯЩИХ ЗАДАЧ НЕ ПРЕДСКЗЫВЫВАЕТ, ТО ЛИ ДЕЛО ВАПНИК, ВСЕ АЛГОРИТМЫ ПРЕДСКАЗАЛ - И БИНАРНЫЕ АПЦИОНЫ И ВСЕ ЭТО С ПОМОЩЬЮ НЕТОЧНОЙ ЛОГИКИ
Аноним 30/06/18 Суб 20:25:33  1220285
>>1219781
в каггле деревья решают, нейроночки только для картинок и последовательностей
Аноним 30/06/18 Суб 21:06:44  1220317
>>1220285
Как область исследований деревья мертвы.
Аноним 30/06/18 Суб 23:48:20  1220437
>>1220317
согласен, поэтому искджибуст придумали только в 2016 году и уже успели от него отказаться в пользу lgbm
Аноним 01/07/18 Вск 04:58:58  1220511
Начнём с того, что градиентный бустинг это следствие все той же теории статистического обучения Вапника, о чем у него прямо написано в книге, упомянутой в оп посте. Адабуст, дипбуст, хгбуст, лгбм итд это просто детали реализации, какая-то лучше, какая-то хуже.
>>1220280
Таблетки выпей, мань.
Аноним 01/07/18 Вск 12:15:21  1220646
1.png (12Кб, 202x599)
Здравствуйте, мне задали простую задачу на линейную регрессию. Дали данные, на картинке. Всё просто, есть значения Х и есть значения Y. Я значит такой довольный, закинул эти данные в Python'ский scikit learn и применил LinearRegression. И у меня получилось уравнение:
y = 0,7x - 1414,79
А правильный ответ вот такой:
y = 0,51x + 142,9

Короче, я облажался. Скорее всего значения иксов и игреков надо как-то нормировать или стандартизировать. И лишь после этого получится правильный ответ. Ну либо правильный ответ на самом деле неправильный.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, ГДЕ ПОСМОТРЕТЬ КАК НОРМИРОВАТЬ ИЛИ СТАНДАРТИЗИРОВАТЬ ПРАВИЛЬНО ДАННЫЕ ДЛЯ ПОДГОТОВКИ К ЛИНЕЙНОЙ РЕГРЕССИИ? Я ГУГЛИЛ, НО У ТУПОЙ И У МЕНЯ ВСЁ-РАВНО НЕ СОШЛОСЬ С ПРАВИЛЬНЫМ ОТВЕТОМ
Аноним 01/07/18 Вск 12:56:42  1220677
>>1220646
http://scikit-learn.org/stable/modules/preprocessing.html
Аноним 01/07/18 Вск 12:58:58  1220678
>>1220646
>y = 0,51x + 142,9
>x - около 2000
>y - меньше сотни
Аноним 01/07/18 Вск 16:08:09  1220789
>>1220646
>А правильный ответ вот такой
Проигрунькал. Ты бы хоть читал, что ты пишешь.

Очевидно, что тот кто писал правильный ответ использовал вместо иксов какую-то хуйню. Т.к. максимальный элемент игриков 90.7, а в правильной модели прибавляют 142.9. Т.е. там иксы должны быть отрицательными.
Аноним 01/07/18 Вск 16:14:01  1220791
>>1220677
Спасибо большое, пробую перевести и попробую применить эти вещи и посмотреть результат.
>>1220678
>>1220789
Видимо, годы не принято подставлять как есть 1994, наверное, их как-то преобразуют чтобы они нормализовались, нормировались или стандартизировались. Но пока я не нашёл решения как принято года конвертировать в пригодные для линейной регрессии значения.

И игреки, их, наверное, тоже надо преобразовать как-то.
Аноним 01/07/18 Вск 16:16:07  1220793
>>1220789
>максимальный элемент игриков 90.7
Что-то мне кажется, что игреки тоже надо изменить. И там будет не 90.7, а какое-нибудь другое преобразованное значение.
Аноним 01/07/18 Вск 16:25:19  1220806
ai.jpg (30Кб, 550x332)
У этих данных коэффициент детерминации 0.148. Линейная регрессия плохая модель. Попробуй НЕЙРОНОЧКУ с парой миллиардов коэффициентов. Покажи преподу КАК ТЫ МОЖЕШЬ.
Аноним 01/07/18 Вск 16:26:22  1220810
perceptronmargin.png (63Кб, 500x352)
Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?
Аноним 01/07/18 Вск 16:43:32  1220826
>>1220810
> Объясните эту картинку. Что обозначают синим и красными цветами? Граница что обозначает?
Синий и красный линейноразделимые классы, пунктиром - оптимальная граница, разделяющая классы (например, такую бы построила svm), сплошная линия - граница, построенная перцептроном.
Аноним 01/07/18 Вск 20:39:40  1220942
Аноны, я вебмакака из соседнего треда, вопрос чисто из интереса, задавал его тут раньше, но никто не ответил, вдруг сейчас что-то поменялось. Есть ли какое-нибудь проект в ваших нейронках, который оптимизирует запросы ORM? По-моему очень полезная штука бы вышла
Аноним 01/07/18 Вск 21:27:54  1220966
>>1220942
>По-моему очень полезная штука бы вышла
Так делай.
Аноним 02/07/18 Пнд 02:35:03  1221075
facepalm.jpg (8Кб, 468x303)
>>1220791
Аноним 02/07/18 Пнд 13:04:58  1221195
>>1220511
ВСЕ СЛЕДСТВИЕ ЕВКЛИДОВСКОЙ МАТЕМАТИКИ11111 ОН ВСЕ ОПИСАЛ В СВОЕЙ МОНОГРАФИИ, ДОБАВЬТЕ В ОП-ПОСТ
Аноним 02/07/18 Пнд 18:06:15  1221350
>>1221195
Все, что нужно знать человеку, сказал Платон. Эвклид и его шайка сойбоев, куколдов и хипстеров просто жевали собственные бороды, запивая их смузи.
Аноним 02/07/18 Пнд 18:20:56  1221366
c0d87855cefaafd[...].jpg (49Кб, 480x380)
Моча, почему бы этого
>>1221350
>>1221195
>>1220280
сасихуя хотя бы здесь не забанить? Толку со срущего шизика 0.
Аноним 02/07/18 Пнд 18:47:45  1221388
>>1221366
Чувак, потише в этом треде. Во-первых, последний пост мой, я лишь пародирую шизика (нечеткого петуха, он же сойбой/куколд/хипстер). Во-вторых, нечеткий петух тут отвечает почти на каждый пост, из чего следует, что около половины постов во всех нейротредах его авторства. Увы, де-факто это его собственные, персональные треды, хоть он их и не создает. Это происходит годами. Я делал перерыв в тредах в несколько месяцев, когда сюда набежал шизик из /ссы и зафлудил все квалиа-бредом. Шизик из /ссы ушел в туман, а сойбой остался. Он как клоп, его никак не выжить. Остается смиренно ждать его смерти от естественных причин (мои уговоры совершить самоубийство не подействовали). Таков наш крест. Я с этим смирился, и тебе советую. Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.
Во избежании неконтролируемого роста обсуждения персоны куколда, нужно соблюдать одно простое правило: никогда ему ничего не отвечай, вообще игнорируй его существование, как будто его постов нет. Отличить их очень просто. Даже на этот пост не отвечай. Хипстер ответит, а ты молчи. Тренируй силу воли.
Аноним 02/07/18 Пнд 19:41:53  1221430
>>1221388
> Будем надеяться, он скоро начнет пить (судя по всему он подходит к питейному возрасту), тогда ему станет не до нас.
По бате своему судишь? Мне-то зачем пить, я ж не русич какой и не финно-монголоид. По делу от тебя и тебе подобных внятной критики пока не поступало, только шиза и кукареканья.
Аноним 02/07/18 Пнд 21:26:41  1221488
Распознавание изображений. На чем делать? Тензорфлоу и Пайтон или что-то другое?
Аноним 02/07/18 Пнд 21:28:08  1221489
>>1221488
Keras и python.
Аноним 02/07/18 Пнд 21:54:07  1221512
курсы на coursera от яндекса стоит смотреть?
Аноним 02/07/18 Пнд 22:14:22  1221543
>>1221512
Лекции оторваны от практики, будут дрочить абстрактную хуйню и теорему Каруша-Куна-Таккера. В практических заданий много технических проблем.
По-моему такие курсы только отобьют желание что-то дальше в этой области делать.
Аноним 03/07/18 Втр 00:22:11  1221593
image.png (490Кб, 660x475)
Легко распознавать текст, когда он - единственное, что есть на изображении. А что делать, если он может быть непонятно где, под любым углом и любого размера? Как например автомобильные номера. Что обычно делают в таких случаях? Тренируют отдельную сеть, которая находит номер(а) на фотке, потом скармливают уже той, что должна их распознавать?
Аноним 03/07/18 Втр 00:27:55  1221597
image.png (241Кб, 350x263)
>>1221593
Или я к примеру хочу идентифицировать по лицам всех людей на групповой фотографии. В этом случае ведь тоже, наверное, нужно найти непосредственно лица на фотографии, а потом уже пытаться их идентифицировать? Или как это вообще делают в реальном мире?
Аноним 03/07/18 Втр 01:25:02  1221622
>>1221597
Номера можно, скорее всего, end-to-end распознавать, если у тебя одна машина на картинке. Особенно хороши модели с вниманием, они сами найдут релевантный участок. Это почти наверняка будет точнее, чем в два шага искать.
>>1221597
Людей, конечно, придется сначала разделить.
Аноним 03/07/18 Втр 20:58:49  1222093
ctf20play.gif (9551Кб, 480x270)
Недавно спрашивали, могут ли нейроночки в ФПС. Вот, пожалуйста: https://deepmind.com/blog/capture-the-flag/
Боты рвут атцов в кваку на рандомно сгенерированных картах.
https://www.youtube.com/watch?v=dltN4MxV1RI&feature=youtu.be
Аноним 04/07/18 Срд 04:28:29  1222230
>>1222093
А когда для каэсочки такое будет, с этого можно что-то поиметь? Ну там удаленно соревнование выиграть?
Аноним 04/07/18 Срд 15:29:48  1222430
>>1221593
>>1221597

http://machinethink.net/blog/object-detection/


Аноним 04/07/18 Срд 16:12:34  1222463
>>1222093
>рвут атцов в кваку
Ты сам-то видео смотрел? На кваку это похоже ну очень отдалённо.
Аноним 04/07/18 Срд 16:42:46  1222510
>>1222463
Шутерок набросали на быструю руку, какая разница какой в нем графен? Теперь можно прикрутить хоть кваку, хоть каэсочку, хоть что-угодно подобное.
Аноним 04/07/18 Срд 17:04:39  1222545
>>1222510
разница не в графоне
Аноним 04/07/18 Срд 21:17:34  1222717
Запилите уже утилиту делающую из сканов книг полноценную книгу в разных форматах.
Аноним 04/07/18 Срд 22:05:20  1222756
Анончик, еще раз привет. Я тот анон, что недавно вкатился и всё таки написал нейросеть для XOR. Так вот недавно я переписал почти полностью весь код, так чтобы можно было сделать многослойную сеть (до этого был только один скрытый слой). Я задаю два скрытых слоя по 8 нейронов и у меня среднеквадратическая ошибка доходит до 0.1 и не опускается. И то на это нужно не меньше 10000 эпох, при датасете из 8 элементов (XOR для трех элементов). Я не понимаю в чем проблема. Сомневаюсь что в коде, потому что если я задаю один скрытый слой, то всё считается как раньше (грубо говоря за пару тыщ эпох средкв. ошибка доходит до 0.001). В чем может быть проблема?
Аноним 04/07/18 Срд 22:07:52  1222758
Figure1.png (13Кб, 640x480)
>>1222756
Забыл еще вот прикрепить график средкв. ошибки. Собсна по ординате сама ошибка, по абсциссе кол-во эпох.
Аноним 04/07/18 Срд 22:11:22  1222761
>>1222725
Собрал. Что дальше?
Аноним 04/07/18 Срд 22:13:14  1222762
>>1222761
В личку мне их скинь, я тебе напишу сканнер дла книг.
Аноним 04/07/18 Срд 22:14:11  1222764
Figure2.png (10Кб, 640x480)
>>1222758
А вот при одном слое в 8 нейронов.
Аноним 05/07/18 Чтв 00:18:06  1222818
RELU1.png (10Кб, 640x480)
RELU2.png (14Кб, 640x480)
Опять анон с XOR. В общем я попробовал использовать релу, а не сигмоид. Сначала поставил скорость обучения 0.01 (первый пик). Потом поставил 0.001 и повторил (второй пик). Ну ебать, чо хочу сказать, MSE конкретно уменьшилась, хотя эпох дохуя правда. Оно походу даже переобучилось.
Аноним 05/07/18 Чтв 05:31:51  1222849
>>1222717
Google Docs для мобильных может сканировать документы.
Аноним 05/07/18 Чтв 08:54:45  1222877
Как из формулы гиперболического тангенса можно вывести 2сигма(2х) - 1???
Аноним 05/07/18 Чтв 11:15:38  1222936
>>1220153
Интересные у тебя пикчи, анон, это откуда?
Аноним 05/07/18 Чтв 13:22:49  1222999
>>1222849
Где? У меня нет такого
Аноним 05/07/18 Чтв 15:20:59  1223058
>>1216442
Аноним 05/07/18 Чтв 18:17:00  1223143
2018-07-05161051.png (92Кб, 535x265)
2018-07-05160032.png (298Кб, 846x608)
Нейро-Анонимусы, поясните как выбирать правильное количество слоёв и нейронов при обучении нейронной сети для наиболее качественного результата. Посоветуйте мануалы/видео/сайты с инфой по сабжу.

Интересует создание походки и анимаций для виртуальных существ произвольной формы. Алсо, какие алгоритмы обучения нейронных сетей лучше всего подходят для этой задачи, кроме Генетического?
Аноним 05/07/18 Чтв 18:21:04  1223146
>>1223143
>как выбирать правильное количество слоёв
Чем больше, тем лучше.
>какие алгоритмы
Reinforcement learning.
>походки
Это много кто делал, в общем случае довольно трудно для 3д, для 2д ок.
>анимаций
Тут непонятно как ты оценивать будешь.
Аноним 05/07/18 Чтв 19:11:13  1223163
2018-07-05160137.png (314Кб, 831x676)
>>1223146
>анимаций
>Тут непонятно как ты оценивать будешь.
Анимаций имелось в виду готовая анимация походки например.

>Чем больше, тем лучше.
А сколько нейронов в каждом слое? Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?

Например если я сделаю 1 скрытый слой с тысячью нейронов, в чем он будет лучше/хуже сеть с 4 слоями по 10 нейронов в каждом?
Где-то можно примеры посмотреть как количество слоев или количество нейронов в слое влияет на результат.
Аноним 05/07/18 Чтв 19:44:39  1223179
>>1223163
> Где вообще можно узнать хоть какую-то инфу про то, насколько количество слоёв и нейронов в них влияет на скорость и качество результата?
Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачи. Еще у Хайкина написано, что это больше искусство, чем точное знание.
Аноним 05/07/18 Чтв 20:31:04  1223199
Картинка аргументируется в функцию, в функции рекогнайзится и на экран название (из листа классов) и вероятность выводится. Нужно обвести прямоугольником совпадения. Как это сделать?
Инпут изображение в виде vector, из нейронки что выходит? На выходе тоже vector. Как это там хранится? Как достать границы каждого совпадения?
Аноним 05/07/18 Чтв 21:14:52  1223229
>>1223199
Берёшь код какой-нибудь йолы (под твой фреймворк), изучаешь.
Аноним 05/07/18 Чтв 21:20:27  1223230
>>1223163
Это все сильно зависит от задачи и данных. В целом сеть не может быть слишком большой. Пробуй разные варианты.
Аноним 05/07/18 Чтв 22:23:52  1223261
Untitled.png (132Кб, 498x345)
Untitled2.png (350Кб, 964x482)
>>1223229
С одним элементом работает. С несколькими не работает.
Аноним 05/07/18 Чтв 22:25:31  1223263
>>1223261
С картинкой самолета скопированной несколько раз на одном изображении результат был веб страница и дверь. Один самолет нормально детектит.
Аноним 05/07/18 Чтв 22:30:21  1223265
>>1223261
Ты взял одну из моделей, предназначенных для исследования нейроночек, а не для использования. Она натренирована на данных, где всегда один объект в кадре, и только на таких данных она будет работать.
Тебе уже сказали - бери YOLO.
Аноним 05/07/18 Чтв 22:59:36  1223284
Deep Learning: A Practitioner's Approach
хорошая ли книга?
Писать логику планирую на Scala и Java, Питун не желателен, ибо будет Спарк, который любит JVM,


Не устарела ли эта pdf ка?
http://opencarts.org/sachlaptrinh/pdf/27976.pdf

Стоит ли потратиться на бумажную версию на русском?
Аноним 05/07/18 Чтв 23:01:42  1223290
>>1223284
Хорошая книга в шапке. Про твою не знаю.
Аноним 06/07/18 Птн 03:18:08  1223365
>>1223265
Видео делает со скоростью 1 FPS. Не аппаратно можно ускорить? CPU only.
Аноним 06/07/18 Птн 04:23:32  1223367
>>1223365
Все можно. Есть варианты с т.н. конденсацией, или сжатием нейроночек, которые из большой делают маленькую и, соответственно, быструю. Но это уже все самому надо делать.
Аноним 06/07/18 Птн 04:28:20  1223368
Untitled.png (1311Кб, 1140x672)
Почему результат разный? Почему одну картинку не распознала?
Аноним 06/07/18 Птн 04:32:19  1223369
>>1223368
Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?
Аноним 06/07/18 Птн 04:41:02  1223370
>>1223368
>Почему результат разный?
хуёвый алгоритм.
> Почему одну картинку не распознала?
хуёвый алгоритм.
> Почему всегда при загрузке программы занимает >900 mb в оперативной памяти? Не важно вход с камеры, видеофайл или одна картинка. Весь вес сразу загружается? Из-за этого? Это маленький пак. А если большой делать?
хуёвый алгоритм.
хуёвый алгоритм.
хуёвый алгоритм.
хуёвый алгоритм.
Аноним 06/07/18 Птн 05:38:35  1223373
>>1223367
>сжатием
Функцию активации менять? В этом дело?
Аноним 06/07/18 Птн 05:44:11  1223375
>>1223373
Нет.
>>1223368
Какого рода ответ ты хочешь услышать? Ну просто для примера приведи свой вариант.
Аноним 06/07/18 Птн 09:53:40  1223416
>>1223368
здесь ответ на твой вопрос
https://arxiv.org/abs/1805.12177
Аноним 06/07/18 Птн 14:01:49  1223565
2018-07-05160125.jpg (104Кб, 924x575)
>>1223230
>Это все сильно зависит от задачи и данных.
Я же описал задачу - походка для виртуального существа произвольной формы.

>Нигде, это чистое шаманство, т.е. гиперпараметры, зависящие от поставленной задачи
Для задачи генерации походки для трехмерного/двухмерного персонажа. Есть какой-нибудь сайт, на котором можно найти примеры нейронных сетей для подобных задач, чтобы посмотреть какие сети успешно использовались для этой задачи?

Аноним 06/07/18 Птн 14:23:59  1223578
>>1223565
Arxiv, Google scholar, research gate
Аноним 06/07/18 Птн 15:54:14  1223616
>>1223565
https://github.com/MorvanZhou/Reinforcement-learning-with-tensorflow/blob/master/experiments/Robot_arm/DPPO.py

https://www.crowdai.org/challenges/learning-how-to-walk/leaderboards
Аноним 06/07/18 Птн 17:06:38  1223664
2018-07-05160008.png (261Кб, 991x571)
2018-07-05160113.png (201Кб, 770x431)
>>1223616
>>1223578
пасибо!

Но всё же, кроме шаманства, есть хотя бы примерное представление, чем отличаются нейронная сеть с 1 слоем в 10000 нейронов, и сеть из 5 слоёв по 10 нейронов?
Может быть хотя бы известно, для какого типа задач лучше подходит меньше слоев, но больше нейронов, а для каких наоборот?

Аноним 06/07/18 Птн 17:34:13  1223691
>>1223664
если на пальцах, если добавишь много слоев, до градиенты будут в ноль уходить просто из-за школьной арифметики, так как много дробей умножаешь друг на друга. Также, когда много слоев, легче переобучиться, нужен добавлять больше регуляризации. Плоские сети вычислительно сложные (просто больше нейронов-функций). И на философском уровне (как обычно показывают на картинках) сложно выделить составные фичи из предыдущих нейронов (XOR). Еще в разных задачах бывает полезно делать узкие места, где последующий слой меньше предыдущего, мол уменьшаем размерность, приходится нейронке выделять фичи, а не запоминать просто вход. Так, как на другой известной картинке, лучше всего делать столько слоев, сколько можешь, пока оно не переобучается. Добавляешь регуляризацию. Так и добавляешь слои, пока не достанешь до неба и даже Аллаха. Длины слоев я бы, скорее, по размерности входа ориентировал. Реинфорсемент лернинг никогда не делал вообще, там много своих камней.
Аноним 06/07/18 Птн 17:49:34  1223698
>>1223691
В РЛ, если ты не гугл, делают сети поменьше обычно. В атари, ЕМНИП, стандарт 1 небольшая свертка и 3-4 слоя по 100-200 нейронов. Одна из мегафишек альфазеро была в том, что они умудрились натренировать в РЛ огромную сеть (затратив какие-то миллионы процессорных лет).
Аноним 06/07/18 Птн 17:52:38  1223701
Queen moves
56
Knight moves
8
Underpromotions
9

Поясните, зачем так много плоскостей для описания ходов королевы? Нельзя ли одну плоскость только юзать?
Аноним 06/07/18 Птн 17:57:01  1223707
>>1223701
Можно все что угодно, вопрос в том что работает лучше. Скорее всего, много плоскостей работают лучше, т.к. сети не приходится тратить усилия на расшифровку входных сигналов.
Аноним 06/07/18 Птн 18:43:29  1223728
>>1209084 (OP)
>линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных
В каком порядке это все изучать?
Умею находить производную, знаю что такое матрица и предел.
поступаю в вуз на математическую специальность, хочу узнать совета
Аноним 06/07/18 Птн 18:59:55  1223734
>>1223728
Того, что тебе на первом/втором курсе расскажут, вполне хватит для начала.
Если ты чисто на математика поступаешь, то сложности скорее с программированием будут. Но его в вузе нормально всё рано не дадут, так что учи сам.
Аноним 06/07/18 Птн 20:05:57  1223772
2018-07-06220519.jpg (80Кб, 699x523)
>>1223691
Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?

>>1223698
>атари
Ты про старый компьютер из 80-х годов прошлого столетия? Откуда там нейронные сети?
Аноним 06/07/18 Птн 20:18:56  1223780
>>1223772
> Ты про старый компьютер из 80-х годов прошлого столетия?
Нет, он про игры для атари, которые традиционно используются для тестов RL.
> Что лучше для генерации походки - Генетический алгоритм или Реинфорсемент лернинг ?
РЛ чисто теоретически должен быть лучше. Как минимум, быстрее будет обучаться.
Аноним 06/07/18 Птн 20:24:29  1223781
Кстати, давно не слежу за модой в этой области - дипРЛ. Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe. Сейчас что-то лучше придумали?
Аноним 06/07/18 Птн 20:39:00  1223789
>>1223781
> Раньше самые топовые алгоритмы были у Маска Небоходца - openai gym/universe.
Ты чумачечий? openai gym/universe это наборы сред для тестирования алгоритмов RL. В стандартную поставку раньше ни один алгоритм собственно RL не входил. Относительно недавно они сделали RL Baselines, или как-то так, где якобы правильно реализованы несколько топовых алгоритмов, но и эти алгоритмы изобретены не ими, они просто реализации выпустили. Они занимаются и алгоритмами тоже, но грандиозного успеха на этом поприще пока не было. Вроде бы они сделали бота, который хорошо играет в урезанную версию Dota, но это не оупенсорс.

Вопрос "какой алгоритм самы лучший" ответа не имеет, во многом потому что они все довольно-таки плохо работают, и еще потому что каждый автор тянет одеяло на себя, утверждая что он лучше других, хотя зачастую это не так. Сами алгоритмы нестабильны, сходятся 1 раз из 20. Соревнование по созданию этих алгоритмов выродилось в абсурдную игру "у кого больше ресурсов перебрать гигантское количество гиперпараметров и вытянуть счастливый билет, перекрывающий SOTA" На реддите это обсуждалось пару месяцев назад, народ был недоволен плачевным состоянием этой области.
Аноним 06/07/18 Птн 20:43:52  1223792
>>1223780
>РЛ чисто теоретически должен быть лучше.
В принципе да, потому что РЛ использует больше данных о задаче. Но гарантий нет, доказательство сходимости к оптимальной стратегии только для таблиц, и то там нужно бесконечно много раз посетить каждое состояние и каждое действие из него.
>Как минимум, быстрее будет обучаться.
А вот тут не факт, были статьи показывающие что evolutionary strategies как минимум не намного хуже, а вычислительно гораздо лучше, т.к. не нужно вычислять градиенты.
Аноним 06/07/18 Птн 21:08:28  1223802
>>1223707
А куда плоскости для пешек, короля, ладей, слонов делись? И почему коню только 8 плоскостей а не 16, если коней 2 шт.
Аноним 06/07/18 Птн 21:58:57  1223839
>>1223802
Ты меня спрашиваешь, лол? Я вообще не знаю, откуда ты это вытащил. Там же и ищи объяснения конкретных деталей. Я тебе общие соображения привел.
Аноним 07/07/18 Суб 08:37:03  1223969
>>1223416
>https://arxiv.org/abs/1805.12177
Спасибо.
Аноним 07/07/18 Суб 11:29:27  1223990
Мне python неудобен. Есть реализации тензорфлоу на C++?
Аноним 07/07/18 Суб 14:50:26  1224072
>>1223990
https://github.com/tuotuoxp/cpp-torch
Аноним 07/07/18 Суб 15:21:53  1224080
Еще раз объясните. Туда массив, оттуда 1 или 0. Опыт хранится в другом массиве. Верно?
Аноним 07/07/18 Суб 17:21:01  1224137
>>1223802
кто-то пояснить может по этому нюансу?
Аноним 07/07/18 Суб 17:23:55  1224142
>>1224137
>>1223701
Так у королевы возможных ходов гораздо больше, чем у короля. Сядь с досой и посмотри. Отсюда и числа.
Аноним 07/07/18 Суб 17:24:47  1224143
>>1224137
Причины индивидуальны для твоего алгоритма, экстрасенсы, эсперы и Deus ex Machina в отпуске.
Аноним 07/07/18 Суб 17:28:06  1224145
>>1224142
>>1224143
Ну, отсюда же взято https://arxiv.org/pdf/1712.01815.pdf

И по логике для короля должно быть 8 плоскостей, хотя этого нет.
Аноним 07/07/18 Суб 17:28:46  1224146
>>1224142
Король может сходить на одну клетку в каждую сторону => 8 возможных ходов

Королева может сходить на одну клетку в каждую сторону, на две клетки в каждую сторону, ...
Аноним 07/07/18 Суб 18:06:32  1224164
>>1224145
>>1224146
Тут тебе дело говорят. Может тебе эрудицию поднять немножко сначала, комбинаторику там, а потом уже в нейроночки лезть?
А то ведь как получается - ты пытаешься решить задачу из какой-то области используя нейронки, не зная ни области, ни нейронок.
Аноним 07/07/18 Суб 19:07:54  1224179
>>1224164
Наркоман, что ли?
Аноним 08/07/18 Вск 12:54:30  1224394
Сколько итераций нужно чтобы обучить нейронку реагировать правильно? При каком условии считать что алгоритм не работает?
Аноним 08/07/18 Вск 13:21:06  1224419
>>1224394
Алгоритм "работает" если его результаты тебя устраивают. Чуть более формально - если результаты лучше случайных.
Обучение нужно прекращать после того как N итераций подряд дают улучшение результата меньше эпсилон. Не становится заметно лучше - значит обучилась. Для дешевых вычислений нужна большая N, для дорогих - относительно маленькая.
Аноним 08/07/18 Вск 14:55:16  1224475
153000612617527[...].png (321Кб, 400x533)
>>1224419
>меньше эпсилон
Аноним 08/07/18 Вск 23:48:54  1224789
Что есть для R по типу anaconda/jupyter?
Аноним 09/07/18 Пнд 00:24:16  1224801
>>1224789
Jupyter c кернелом R
Аноним 09/07/18 Пнд 01:32:35  1224838
Объясните bias. Как его определить правильно?
Аноним 09/07/18 Пнд 01:50:31  1224842
Почему bias на каждой строчке в слое ставят разный?
Аноним 09/07/18 Пнд 02:47:59  1224861
>>1224838
>>1224842
https://stackoverflow.com/questions/2480650/role-of-bias-in-neural-networks
Вкратце, каждый слой должен найти такой а чтобы получить выход y = ax + b примерно равный ожидаемому. Получается, а в уравнении это веса слоя, а b это bias.
Аноним 09/07/18 Пнд 02:55:45  1224866
Bias это смещение. Почитайте хоть педивикию про линейные функции, точнее аффинные, не проходящие через начало координат. Вот это смещение и есть bias.
Аноним 09/07/18 Пнд 03:14:36  1224867
На хабре есть пара статей:
https://habr.com/post/312450/
https://habr.com/post/313216/
годно для вхождения или хуита?
Аноним 09/07/18 Пнд 03:18:11  1224868
>>1224867
Вроде написано правильно и это нужно знать, но ответ на твой вопрос зависит от того насколько глубоко ты хочешь войти. Это первые полторы страницы очень толстого учебника.
Аноним 09/07/18 Пнд 03:25:39  1224869
>>1224145
Все оказалось банальней. Остальные ходы скрываются в плоскостях королевы.
Аноним 09/07/18 Пнд 06:38:47  1224895
>>1224868
Хочу попробовать написать нейронку для парсинга текста в одной ммо-дрочильне со скриншотов экрана.
Пользовался специализированными библиотеками вроде tesseract, результат сомнительный. Хочется сравнить действенность.
Аноним 09/07/18 Пнд 06:53:18  1224897
>>1224895
Тоесть, задача стоит такая - на скриншоте в заранее известной области появляются символы на 100% совпадающие с символами из тренировочного сета, особенно если не будешь делать скришноты на фоне сливающемся с текстом? Используй попиксельное сравнение, Люк. Можешь даже прикрутить что-то вроде https://en.wikipedia.org/wiki/Cross-correlation#Normalized_cross-correlation
Аноним 09/07/18 Пнд 10:26:09  1224933
>>1224895
у тебя тессеракт какой версии, если не 4ая - еще раз попробуй с 4ой. Говорят, что с 4ой более-менее распознает нормально, ну, и там обученная LSTM нейронка. Ну, и да, как говорит >>1224897
тут и без нейронок можно обойтись, а результат будет 100%
Аноним 09/07/18 Пнд 10:56:58  1224941
>>1224897
Не, там есть эффект искажений текста из-за прозрачности, а под прозрачностью всякая мимобегающаю игровая хуита.
+ Цвет текста меняется время от времени. Пытался нормализовать его матрицами к серому, каждый раз получается немного по разному.
Короче хочу нейронками попробовать.
Аноним 09/07/18 Пнд 12:20:10  1224967
>>1224941
Покерскрапер?
Аноним 09/07/18 Пнд 16:12:04  1225089
>>1224789
Sweave, knitr.
Аноним 09/07/18 Пнд 16:27:21  1225097
How to Learn Ad[...].jpg (166Кб, 1920x1080)
Ой гевалт! Тензорфлоу не встаёт на винду ;_;
Аноним 09/07/18 Пнд 16:38:50  1225108
>>1224867
Хабр - ёбаная помойка. Забудь про него.
>>1225097
Ты дурной, что ли? Ставь линь и не выёбывайся.
Аноним 09/07/18 Пнд 16:50:35  1225117
>>1225097
на работе пока не поставил линукс, поставил через анаконду (у меня еще и прав администратора не было) + какой-то там длл с++ редистрибьютабл требуется для тензорфлоу
Аноним 09/07/18 Пнд 17:05:33  1225125
Нужно графически представить нейронку. Входной слой, скрытый, выход. Их 200. Как сделать так чтобы экрана хватило?
Аноним 09/07/18 Пнд 17:47:20  1225136
>>1225125
Маленькие кружочки.
Аноним 09/07/18 Пнд 17:59:44  1225146
>>1225125
(Входной слой, скрытый, выход) x 200
Аноним 09/07/18 Пнд 20:05:07  1225192
>>1225136
Можно ли нейросеть представить в виде куба или сферы?
Аноним 09/07/18 Пнд 21:00:13  1225232
>>1225097
Всё он встаёт. Даже с GPU работает нормально.
Аноним 10/07/18 Втр 02:29:48  1225392
Я вывел на экран почти все значения переменных которые есть в коде, но до сих пор не понимаю как это работает.

Картинка 200 на 200, ресайз 50 на 50. Для чего ресайз?

Вход, скрытый слой, выход. От входа до скрытого learning rate. От скрытого до выхода второй learning rate. В комментариях написано, что bias нет. Что это за значения? Они есть в умножении веса.

Как создать bias? Это константа или формула? Куда его вставлять: до функции активации или куда? Активация: если скалярное произведение с нодов меньше ноля - умножить на 0,01, если больше ноля - ничего. Это правильно?
Аноним 10/07/18 Втр 02:31:45  1225393
>>1225392
Неправильно. Читай книги сначала, рано тебе код трогать.
Аноним 10/07/18 Втр 03:35:42  1225398
>>1225393
Сигмоида и тангенс сильно нагружают процессор?
Аноним 10/07/18 Втр 04:31:51  1225399
>>1225398
Да, именно поэтому нужна мощная видеокарта.
Аноним 10/07/18 Втр 08:29:55  1225424
>>1225392
Попробуйте представлять bios как дискретную монаду. Мне это сильно облегчило понимание в свое время.
Аноним 10/07/18 Втр 08:36:29  1225427
15306599763920.gif (898Кб, 487x560)
>>1225424
> Попробуйте представлять bios как дискретную монаду
Какая блядь мандада, это просто смещение функции от центра координат. Аффтнный вариант дискретной функции нарисовать с разными смещениями, вот и будет понимание что это и зачем. А потом просто понять, что это касается не только линейных функций. Блядь, да это в школе проходят, что с вами не так, что вы машоб пытаетесь понять начав не с начала, а с диплернинха, а простое смещение функции - через мандадки какие-то, прости господи.
Аноним 10/07/18 Втр 08:38:01  1225430
>>1225427
> дискретной функции
Линейной. Аффинный вариант. Аж трясет с вас, по буквам не попадаю.
Аноним 10/07/18 Втр 08:50:26  1225435
Сегодня тут редкостный карнавал тупости. День удался.
Аноним 10/07/18 Втр 09:05:23  1225437
>>1224419
>2018
>не использовать early stopping
Аноним 10/07/18 Втр 09:09:54  1225439
>>1225437
Раннее останавливае - хуйня для даунов. Отличный показатель, что модель работает хуй пойми как. То сходится, то не сходится, то высокая точность, то поебень.
Таки проблемы иначе решают, а не просто останавливаются.
Аноним 10/07/18 Втр 09:15:08  1225443
>>1225427
> не может в категорность
> учит кого-то дип лернингу
Аноним 10/07/18 Втр 09:53:17  1225459
>>1225443
> не может в категорность
Что там мочь-то, школоилитарий? Стрелочки рисовать любой клоун может. Речь не об этом. Какая нахуй категорность, там простого матана и линейной алгебры более чем достаточно. Думаешь, илитка дохуя, раз про мандадки прочитал? Это ничего не добавит к пониманию диплернинха, только ненужного аутизма добавит в нотацию.
Аноним 10/07/18 Втр 10:21:28  1225467
>>1225437
> 2018
> в посте буквально описывается validation-based early stopping
> макака этого не знает потому что просто использует функции кераса без понимания
>>1225439
Точно, зачем нужна регуляризация, если она портит показатель? Будем переобучать по полной, чтобы все однозначно сходилось и давало высокую точность на тренировочном наборе, потому что реальные задачи для задротов, а не таких просвещенных датасаентистов как мы.
Аноним 10/07/18 Втр 11:53:28  1225492
>>1225437
Что есть ошибка в обучении? Если на выходе нули?
Аноним 10/07/18 Втр 12:04:22  1225498
>>1225492
Разница между ожидаемым и полученным значением.
Аноним 10/07/18 Втр 13:30:28  1225526
>>1225467
Нет, зачем нужно думать над регуляризацией, оптимизировать архитектуру, если можно просто сказать, мол похуй, выкинем половину итераций и скажем, что так и задумано.
Аноним 10/07/18 Втр 13:33:08  1225529
>>1225526
Так и задумано, быстрее и дешевле.
Аноним 10/07/18 Втр 15:11:06  1225569
Ребята , нужен совет. Сам студент меда, когда изучал офтальмологию, дико подсел на нейрофизиологию зрения, а именно, каким образом мозг распознает изображение.На ватмане для себя рисовал соединения между разными нейронами. Потом сам понял, что на этом завязаны современные нейроночки. Теперь вопрос: стоит ли мне изучать отдельные яп , перед вкатыванием в нейронки, либо взяться за математику и потом сразу нейронки и мл? В программировании чуть больше, чем 0.

з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени?
Аноним 10/07/18 Втр 15:12:16  1225570
>>1225569
Продолжай учёбу на медика. Будешь круче чем толпа индусов работающих за копейки без образования медика.
Аноним 10/07/18 Втр 15:27:24  1225574
>>1225570
а по поводу первого вопроса?
Аноним 10/07/18 Втр 15:28:12  1225575
>>1225569
> На ватмане
Майнд-карты твои лучшие друзья, попробуй хотя бы freemind.
По языкам тебе достаточно одного питона, сам по себе он очень простой, на курсере есть цикл курсов, которого вполне достаточно. Конечно, практика была бы очень полезной, но можно и сразу вкатываться в нейронки, анализируй чужой код и не ленись переписывать и оптимизировать. Хороший тон для работы с таблицами сразу начать пользоваться pandas. Первые нейронки можно собирать по слоям используя keras, до этого можно поиграться с готовыми моделями из sklearn. Само программирование здорового человека это математика английскими словами.
Времени и сил сожрет огромное количество, скорее всего ты вылетишь из универа, разорвешь все социальные контакты и все твои увлечения сведутся к нейронкам и их применению везде. Но если ты миленький, то я могу подумать над тем чтобы забрать тебя себе и только себе <З
Аноним 10/07/18 Втр 16:00:44  1225585
>>1225569
Тебе не ЯП нужны, а программирование вообще, все что с этим связано. Без умения кодить ты будешь как слепой, пытающийся стать художником.
Аноним 10/07/18 Втр 16:14:33  1225592
>>1225570
>>1225575
>>1225585
Всем большое спасибо за советы.
Аноним 10/07/18 Втр 16:45:19  1225612
>>1224145
Как на TensorFlow проектировать сети(создавать вне скрипта или программы в текстовом файле), инициализировать начальные веса, обучать и сохранять и считывать для дальнейшего обучения или прогона? И да, делать все это на C++ и Delphi, а не на Python. Считывать pb модель и так уже знаю как, но ее я скачал готовую, а не проектировал и обучал сам.
Аноним 10/07/18 Втр 16:45:57  1225614
>>1225585
> Без умения кодить ты будешь как слепой, пытающийся стать художником.
Хуйню несешь, например. Достаточно понимания математической нотации, в которой обычно описывают нейроночки. Кодят пусть индусы в гугле. Если понимаешь, что вообще происходит, умения кодить хватит на уровне импорт слесарьплов ас сп.
Аноним 10/07/18 Втр 20:18:18  1225747
Siraj Raval - The Math of Intelligence
https://www.youtube.com/playlist?list=PL2-dafEMk2A7mu0bSksCGMJEmeddU_H4D
Siraj Raval - Intro to Deep Learning
https://www.youtube.com/playlist?list=PL2-dafEMk2A7YdKv4XfKpfbTH5z6rEEj3

Как вам этот индус?
Аноним 10/07/18 Втр 20:43:29  1225767
>>1225747
Как земля. После него, наверное, и приходят в тред с охуительными вопросами.
Аноним 10/07/18 Втр 21:06:03  1225784
Парни, в numpy есть функция split, которой можно
[1, 2, 3, 4, 5, 6, 7, 8, 9]
разбить на чанки
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9]]

Есть ли простой способ разбить на
[[1, 2, 3],
[2, 3, 4],
[3, 4, 5],
...
[7, 8, 9]]
???
Аноним 10/07/18 Втр 21:08:09  1225788
>>1225784
Используй сплит несколько раз со смещением, потом склей результаты.
Аноним 10/07/18 Втр 21:10:02  1225789
>>1225784
Есть. Это называется "матрица Ганкеля", Hankel matrix, гугли. Есть на каждом углу, не думаю что пистон исключение.
Аноним 10/07/18 Втр 21:18:36  1225797
К слову, обратный вариант - матрица Теплица, Toeplitz matrix, используется для сдвига окна по изображению в сверточных нейроночках, strade вроде это называется.
Аноним 10/07/18 Втр 21:54:19  1225825
у кого то есть опыт использования нейронок в биологии? мб кто знает, что именно происходит в insilico medicine?
Аноним 10/07/18 Втр 22:30:55  1225849
Машинлёрнеры, как вам не надоедает ЖДАТЬ, ЖДАТЬ, ЖДАТЬ? Особенно когда ждать надо не час, а минут 5-10 и ты постоянно ещё проверяешь, как там оно, досчиталось ли.
Какой самый простой способ получать оповещения об этом? Можно наверно в конец кода дописывать запуск какой-нибудь мелодии, но на Кэггле это не очень просто реализовать.
Аноним 10/07/18 Втр 22:40:06  1225852
>>1225849
Пусть постит статус в жаббер же, или чем сейчас пользуются люди там где светит солнце.
>>1225825
Скачиваешь датасет с дескрипторами молекул (или SMILES из которых вытягиваешь дескрипторы) и активностями в экспериментах. Прикручиваешь к старому проекту по распознаванию MNIST. Все, ты занимаешься драг дискавери.
Аноним 10/07/18 Втр 22:42:54  1225854
>>1225849
Это стиль жизни. Читай что-нибудь, реализуй новые фичи, оптимизируй, рефактори код в это время.
Аноним 10/07/18 Втр 22:53:06  1225861
Товарищи, какие вузовские предметы считаются профильными для машоба и дата саенс?
Для некоторых стажировок требуются высокие оценки по профильными предметам, но конкретно предметы не указываются.
Аноним 10/07/18 Втр 23:14:53  1225870
>>1225861
Линал, твимс, немного матана.
Вообще, странное требование. У меня, например, на сессии иногда никакого желания выдрачивать кучу формулировок теорем не было, потому тройки хватал. А как ты с практикой справлялся - на это всем просто похуй. средний студень довольно тугенький в этом плане, а я не в шараге (по меркам России) учился
Аноним 10/07/18 Втр 23:30:48  1225880
>>1225870
Спасибо. Согласен с тобой, но вот у сбербанка с его сберсизонс такие вот требования.
Аноним 11/07/18 Срд 00:05:27  1225888
maml.gif (4995Кб, 480x240)
rl1.png (135Кб, 639x330)
Недавно тут спрашивали про РЛ. Вот блог пост в двух частях, где высказывается точка зрения, что meta/zero shot/few shot learning это будущее РЛ, к которому мы должны стремиться. Бонусом роскошная подборка статей на тему в конце второго поста:

https://thegradient.pub/why-rl-is-flawed/
https://thegradient.pub/how-to-fix-rl/
Аноним 11/07/18 Срд 00:30:59  1225893
image.png (131Кб, 300x394)
Кто-нибудь использует нейронки в продакшене? Какими фреймворками пользуетесь?
Аноним 11/07/18 Срд 00:40:25  1225897
>>1225861
Анализ данных, машинное обучение, нейронные сети, компьютерное зрение.
Аноним 11/07/18 Срд 00:43:13  1225898
Кто-то в C# разбирается? Почему тут метод FromSavedModel назван статическим, но нигде не указано что он статический?

https://github.com/migueldeicaza/TensorFlowSharp/blob/1e3ddefde15dd281b993c7bf3d9ea351b5ad4178/TensorFlowSharp/Tensorflow.cs

Не понимать. Логически-то он да - статический и конструктор вызывает и все такое. Но я нигде чет не найду такой спецификации C# что он автоматом может определять статический метод или нет.
Аноним 11/07/18 Срд 01:35:10  1225906
>>1225898
>Почему тут метод FromSavedModel назван статическим
Где тут?
>не найду такой спецификации C# что он автоматом
Ее нет.
Делай на питоне, не морочь себе голову.
Аноним 11/07/18 Срд 02:40:04  1225917
Короче, имеется степень бакалавра в теорфизики: дифгем, теория поля и прочая залупа, в которой я шарю в принципе.
Начал проходить курс на степике по нейросетям на днях, скоро пройду. Походу дела освежаю знания матстатистки. Что еще нужно подучить, чтобы взяли джуном на позицию data scientist'a? на hh стабильно 15 вакансий в ДС весит.

Спасибо
Аноним 11/07/18 Срд 02:47:07  1225919
/// This creates a new context to execute a TFGraph. You can use the
/// constructor to create an empty session, or you can load an existing
/// model using the <see cref="FromSavedModel"/> static method in this class.
Аноним 11/07/18 Срд 07:25:58  1225947
>>1225919
Комент не обновили при рефакторинге.
Аноним 11/07/18 Срд 08:00:54  1225951
>>1225797
Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.
Аноним 11/07/18 Срд 08:04:26  1225953
>>1225898
Ты какую-то хуйню написал.
Аноним 11/07/18 Срд 08:06:52  1225954
Хочу вкатиться в машоб. Стоит ли ждать когда пройду курсы тервера и матстата или будет полезно вернее будет ли в этом смысл? заранее начать изучать тему?
Аноним 11/07/18 Срд 08:09:24  1225955
>>1225951
> Так. А вот теперь объясни в чем отличие этого от bias, если bias представлять аффинную функцию.
Во всем, например. Bias это коэффициент сдвига функции от начала координат. Матрицы Ганкеля и Теплица - это варианты представления датасета.
Аноним 11/07/18 Срд 09:39:14  1225971
Если после нескольких тысяч итераций результат почти никакой, то считать это неработающей программой? Или подождать сутки? У модных популярных блоггеров на 6 итерации идеальные результаты.
Аноним 11/07/18 Срд 09:41:30  1225972
Увеличиваю вес - они умирают, оставляю рекомендуемый дефолт - вообще не работает.
Аноним 11/07/18 Срд 13:56:27  1226092
>>1225971
Смотря на чем считаешь, какой датасет, архитектура, гиперпараметры, как ты обучаешь, etc. Если это что-то стандартное вроде Iris/MNIST, то ты где-то ошибся точно. Если ты настакал слоев и ждешь что это даст сразу 100%, то попробуй для начала прогнать на одном слое и посмотреть обучаемый ли он, или как ты.
Аноним 11/07/18 Срд 14:47:11  1226114
>>1225569
>Потом сам понял, что на этом завязаны современные нейроночки.
Вот нет. Свёрточные нейросети заимствуют некоторые идеи из настоящих, отвечающих за зрение, но в целом это совершенно другой механизм по сравнению с человеческим мозгом.
Программирования для МЛ много не нужно, только знать Питон более менее нормально.
>з.ы. И что с медом делать? дропать или нет, если очень хочу заниматься нейронками, но универ отнимает много времени?
Дело твоё конечно, но мне кажется, что лучше податься в офтальмологию (не знаю, как у вас там это устроено) и изучать естественные нейросети, потому что есть вероятность, что окажется, что математику и программирование не так просто самому осилить, твои познания в нейрофизиологиии зрения малоприменимы и вообще это всё имеет сомнительное отношение к тому, чем ты хотел заниматься.
Аноним 11/07/18 Срд 15:03:20  1226121
>>1226114
Не старайся, у него есть девушка.
Аноним 11/07/18 Срд 16:50:03  1226148
Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить. Нужны люди кто хочет этим позаниматься как хобби, пара часов в неделю. Желательно знать python или R. Подробности в телеге @Vladimirrus
Аноним 11/07/18 Срд 16:56:46  1226154
>>1226148
> Подробности в телеге
Оставь мыло или токс.
Аноним 11/07/18 Срд 17:00:30  1226155
>>1226148
> Есть идея проанализировать сырые данные по доте2 по различной инфе которую можно спарсить.
Есть датасеты же готовые по ней. Даже конкурс на кегле был.
> Подробности в телеге @Vladimirrus
+15
Аноним 11/07/18 Срд 17:03:52  1226157
>>1226148
>пара часов в неделю
Далеко уедешь, ага.
Аноним 11/07/18 Срд 17:16:07  1226160
>>1226154
qwertistuff@gmail.com
>>1226155
знаю про датасеты, и про конкурс на кегле, хочу свой датасет, потому что существующие не описывают всех механик
>>1226157
Это всё опционально, возможно больше, просто нужно какое то количество людей для обсуждения и разбора существующих подходов.
Аноним 11/07/18 Срд 17:58:46  1226185
>>1226148
Перед тем как я скачаю эту вашу телегу, ты случайно не топишь за Путина?
Аноним 11/07/18 Срд 18:01:21  1226186
>>1226185
Причём тут путен? мы не политику обсуждаем, я же оставил мыло, пиши на мыло если удобно, если будет много людей, выберем удобный для всех мессенджер.
Аноним 11/07/18 Срд 18:04:17  1226189
>>1226185
А чем тебя Путин не устраивает, а? При Ельцине даже 80% на MNIST получить могли, а сейчас при Путине любой даун как минимум 98% получает.
Аноним 11/07/18 Срд 18:05:46  1226190
>>1226186
При том что поиск по твоей телеге выдает ватные ссылки. Мало ли, вдруг ты под санкциями.
Аноним 11/07/18 Срд 18:05:50  1226191
>>1226189
Врешь, пес лахтинский, 80 можно даже линейной регрессией на бумажке посчитать.
Аноним 11/07/18 Срд 18:35:13  1226208
На завтрак у нас сегодня очередная порция критики современных исследований нейроночек: https://arxiv.org/abs/1807.03341
>In this paper, we focus on the following four patterns that appear to us to be trending in ML scholarship: (i) failure to distinguish between explanation and speculation; (ii) failure to identify the sources of empirical gains, e.g., emphasizing unnecessary modifications to neural architectures when gains actually stem from hyper-parameter tuning; (iii) mathiness: the use of mathematics that obfuscates or impresses rather than clarifies, e.g., by confusing technical and non-technical concepts; and (iv) misuse of language, e.g., by choosing terms of art with colloquial connotations or by overloading established technical terms.
Аноним 11/07/18 Срд 18:40:34  1226211
>>1226208
>failure to distinguish between explanation and speculation
>failure to identify the sources of empirical gains
>mathiness: the use of mathematics that obfuscates or impresses rather than clarifies
>misuse of language
Всё идёт по плану. Гранты крутятся, бабосы мутятся. Получил, купил ПО, написал пейпер с красивой презой, попиздел перед хомячками, молодец, иди за следующим.
Аноним 11/07/18 Срд 18:43:59  1226213
>>1226208
Сойбои совсем скатились, уже пейперы пишут про то, как не надо писать пейперы про нейроночки.
Аноним 11/07/18 Срд 19:00:14  1226226
Поясните за arxiv. Туда любой Васян может свою публикацию выложить? То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?

Или как это вообще работает?
Аноним 11/07/18 Срд 19:03:41  1226228
>>1226226
Да, это препринты без модерации, доверять 100% нельзя.
Аноним 11/07/18 Срд 19:05:48  1226234
>>1226226
>То есть не известно вообще, появится она потом в каком либо журнале или это хуита на бумаге, которую никто никогда не опубликует?
Да.
>Туда любой Васян может свою публикацию выложить?
Нет.
Аноним 11/07/18 Срд 19:35:42  1226259
Снова анон из меда. Обдумал еще один вариант : т.к у меня родители в Германии, а сам я в сверхдержаве (Украине) , есть возможность после универа уехать туда и получать второе высшее , уже связанное с нейроночками.
Подводные вижу : 1)Трата еще 2 лет на окончание меда
2)Закончу там бакалавриат в 27, не поздно ли?
Что думаете?
Аноним 11/07/18 Срд 19:37:32  1226262
>>1226259
>Что думаете?
в гермахе медики хуево зарабатывают? нейронки это тупик.
Аноним 11/07/18 Срд 19:46:15  1226267
>>1226234
> >Туда любой Васян может свою публикацию выложить?
> Нет.
Как это нет? А кто?
Аноним 11/07/18 Срд 19:46:59  1226268
iq.png (54Кб, 627x1128)
Нейроночка проходит IQ тест (лучше чем ты): https://deepmind.com/blog/measuring-abstract-reasoning/
Аноним 11/07/18 Срд 19:47:30  1226269
>>1226267
Ну точно не ты, например.
Аноним 11/07/18 Срд 19:48:33  1226270
>>1226226
https://arxiv.org/ -> About arXiv
>>1226267
Может выложить кто угодно, но там есть модерация и submissions to arXiv should conform to Cornell University academic standards
Аноним 11/07/18 Срд 19:48:34  1226271
>>1226259
27 в Германии не много точно. Но на фига тебе из меда в cs перекатываться? Заканчивай мед, сваливай в Гермашку, проходи переаттестацию, работай врачом,... Профит.
Аноним 11/07/18 Срд 19:49:35  1226273
Гугловские модели учатся за час-два. Результат очень хороший. У меня 7 часов, более 5 тысяч итераций. Результат: не случайный, но не работает как должно работать. Что делать? Загрузил 4 экземпляра программы с разными настройками. Ошибки разные между ними. Но почти не грузит систему. Может в одну эпоху засунуть прогон по 4 алгоритмам на разных настройках? В одном вайл: один -> запись, второй -> запись, третий -> запись, четвертый -> запись. Настройки какие разные? Есть дропаут, нет. Есть рандом в следующем действии, нет.
У меня нет друзей, кроме интернета. Мне негде больше спрашивать. Что делать? Я не понимаю где модель ошибается. В любой другой программе я сделал бы брейкпоинт и по шагам нашел бы ошибку. Тут так не сделаешь.
Аноним 11/07/18 Срд 19:50:12  1226275
>>1226259
Мед в сраной это выкинутые на помойку годы твоей жизни. Украха скорее всего тоже, хотя тут ты лучше меня должен быть осведомлен. Судя по твоим вопросам и месту, где ты их задаешь (ты вообще осознаешь где ты сейчас находишься?), никаких успехов на нейронном поприще ты не добьешься.
Аноним 11/07/18 Срд 19:52:43  1226276
>>1226269
Илитарии в треде.
Аноним 11/07/18 Срд 19:53:10  1226277
>>1226273
>Я не понимаю где модель ошибается.
Значит, она не ошибается. Может это ты ошибаешься?
Аноним 11/07/18 Срд 19:53:41  1226278
>>1226276
Не, я тож не могу ((
Аноним 11/07/18 Срд 20:04:55  1226284
>>1226268
Теперь подсунь ей тест на которых она не обучалась
Аноним 11/07/18 Срд 20:06:02  1226286
>>1226284
А на чем её тестировали по-твоему?
Аноним 11/07/18 Срд 20:12:17  1226288
Вот бы этот iq тест выше приспособить как капчу.
Аноним 11/07/18 Срд 20:18:39  1226293
Почему PCA из sklearn стабильно выдает двухмерный график в виде всех точек слившихся в одну линию + одна точка сбоку? Как исключить эту точку или пофиксить.
Аноним 11/07/18 Срд 20:21:22  1226294
Насколько реалистично чтобы разные модели, например, простая многослойная нейроночка и рандом форест, классифицировали по примерно одинаковым фичам? Тоесть, если есть 100 фич, то топовые feature importance будут у одинаковых 10 в разном порядке.
Аноним 11/07/18 Срд 20:52:52  1226324
ПОЕХАЛИ

>>1226323 (OP)
>>1226323 (OP)
>>1226323 (OP)
Аноним 15/07/18 Вск 11:25:02  1228523
>>1226259
Получай мед образование, в свободное время изучай Питон и нейронки на прикладном уровне. В глубокий матан не лезь, бесполезно и не нужно.
Если повезет - применишь нейронки где-нибудь в медицине и придешь к успеху. Если не повезет - будешь клизмы ставить.


Топ тредов
Избранное